Roblox e la verifica dell’età con l’intelligenza artificiale: quando la tutela dei minori crea nuovi problemi

Negli ultimi mesi Roblox è tornata al centro del dibattito sulla sicurezza online dopo l’introduzione di un sistema di verifica dell’età basato sull’intelligenza artificiale, pensato per rendere più sicure le interazioni tra gli utenti più giovani. L’obiettivo dichiarato era limitare l’accesso a chat testuali e vocali avanzate solo a chi risulta idoneo per età, riducendo i rischi legati a contatti indesiderati. Tuttavia, secondo diverse analisi e testimonianze raccolte anche da WIRED, il risultato finale sta mostrando più criticità che benefici.

Un sistema rapido ma poco affidabile

Il meccanismo scelto da Roblox si basa su una scansione facciale automatizzata. All’utente viene chiesto di caricare un breve video o un’immagine del volto, che l’algoritmo analizza per stimare l’età, senza la necessità obbligatoria di fornire un documento di identità. Sulla carta, una soluzione veloce e meno invasiva. Nella pratica, però, l’algoritmo si è rivelato impreciso, soprattutto su una piattaforma frequentata da milioni di bambini e adolescenti.

Sono numerosi i casi di errori di classificazione, con minorenni riconosciuti come adulti e utenti maggiorenni trattati come troppo giovani. Questi sbagli non hanno un impatto marginale, perché incidono direttamente sulle funzionalità social, limitando o sbloccando chat e strumenti di comunicazione che rappresentano una parte fondamentale dell’esperienza di gioco.

Controlli aggirabili e mercato parallelo

Un’altra criticità riguarda la facilità con cui il sistema può essere eluso. In rete sono già comparsi esempi di account verificati messi in vendita, che permettono a chiunque di bypassare i controlli sull’età. Questo fenomeno evidenzia come una verifica affidata esclusivamente all’AI, senza un collegamento forte all’identità reale dell’utente, sia vulnerabile ad abusi.

Il risultato è un paradosso: chi rispetta le regole può ritrovarsi penalizzato, mentre chi cerca di aggirarle trova scorciatoie relativamente semplici.

Effetti negativi sulla community e sui giochi

Le conseguenze si stanno facendo sentire anche sul piano della vita sociale interna a Roblox. Molti giocatori segnalano chat meno attive, gruppi di amici spezzati artificialmente e difficoltà a coordinarsi durante le sessioni di gioco. Questo clima incide anche sul lavoro degli sviluppatori, che vedono diminuire l’interazione tra gli utenti e, di conseguenza, il coinvolgimento nei loro giochi.

Per una piattaforma che si fonda sui contenuti generati dagli utenti e sulla collaborazione, la riduzione della comunicazione rappresenta un problema strutturale, non un semplice effetto collaterale.

Privacy, dati biometrici e sfiducia degli utenti

Non mancano poi le preoccupazioni legate alla privacy. Roblox sostiene che i dati biometrici vengano eliminati subito dopo l’analisi, ma molti genitori e utenti restano scettici. La richiesta di scansionare il volto, soprattutto quando riguarda minori, solleva dubbi sulla gestione dei dati sensibili e sulla reale trasparenza del processo. In diversi casi, gli utenti scelgono di rinunciare alle funzionalità social pur di non sottoporsi alla verifica.

Un sistema ancora immaturo

L’introduzione di questa tecnologia arriva in un momento delicato per Roblox, già sotto osservazione da parte delle autorità statunitensi e coinvolta in procedimenti legali legati alla tutela dei minori online. L’azienda ha dichiarato che decine di milioni di utenti hanno completato la verifica e che il sistema verrà migliorato nel tempo, ammettendo implicitamente che l’attuale versione non sia definitiva.

L’esperienza dimostra come l’uso dell’intelligenza artificiale per la verifica dell’età, se non affiancato da controlli più solidi e da una progettazione attenta all’esperienza degli utenti, rischi di trasformarsi da strumento di protezione a nuovo fattore di rischio, minando fiducia, socialità e sicurezza invece di rafforzarle.