Meta AI parla di sesso con i minori. Il chatbot finisce sotto inchiesta
Secondo una recente inchiesta pubblicata dal Wall Street Journal Meta AI sarebbe in grado di parlare di contenuti sessualmente espliciti anche coi minorenni
Meta AI finisce di nuovo nell’occhio del ciclone e, secondo un rapporto del Wall Street Journal, il tool bastato sull’intelligenza artificiale desterebbe gravi preoccupazioni riguardo la sicurezza dei minori all’interno di WhatsApp, Facebook e Instagram. Secondo l’inchiesta, infatti, il chatbot AI sarebbe in grado di intrattenere conversazioni sessualmente esplicite anche con utenti minorenni.
Meta AI, l’inchiesta del Wall Street Journal
L’indagine del WSJ è durata diversi mesi e ha richiesto decine e decine di conversazioni con il chatbot (che in USA è disponibile già da parecchio tempo). In uno dei casi analizzati, ad esempio, utilizzando la modalità vocale questo strumento è stato in grado di simulare la voce dell’attore e wrestler John Cena, descrivendo in modo piuttosto dettagliato una situazione sessualmente esplicita a una persone che si era identificata come una ragazza di 14 anni.
In un altro esempio citato Meta AI ha “immaginato” una situazione in cui un poliziotto accusava lo stesso John Cena di aver stuprato una fan di 17 anni; una notizia falsa, chiaramente, ma che comunque desta non poche preoccupazioni.
Nel report del Wall Street Journal si legge anche che episodi del genere hanno scatenato diverse preoccupazioni all’interno del team di sviluppo di Meta, con diversi dipendenti che avrebbero segnalato gravi vulnerabilità nella protezione dei minori, senza però ottenere risposte adeguate.
In tutta risposta un portavoce di Meta ha minimizzato l’accaduto, definendo i test come “estremamente forzati, marginali e ipotetici” con questi contenuti espliciti che rappresenterebbero solo lo 0,02% delle risposte fornite da Meta AI e AI Studio a utenti minorenni (in un periodo di 30 giorni).
È possibile proteggere i minori dall’ AI?
Nonostante Meta stia cercando di minimizzazione l’accaduto, l’azienda di Menlo Park ha anche aggiunto di aver introdotto nuove misure di sicurezza per rendere ancora più difficile manipolare il chatbot per scopi inappropriati, ribadendo anche il costante impegno per rafforzare i propri sistemi di protezione, in particolare per quel che riguarda l’utilizzo delle varie piattaforme del suo ecosistema da parte di utenti più giovani.
Questa situazione, però, riporta in evidenza un tema molto importante: la necessità che le grandi aziende garantiscano ambienti digitali più sicuri per i minori che, soprattutto sui social, vengono esposti di continuo a contenuti inadatti che non sempre vengono identificati come tali. Dall’altro lato, però, trattandosi di piattaforme diventate ormai vastissime, diventa sempre più complesso vigilare a dovere, col rischio che qualcosa anche di piuttosto grave possa sempre sfuggire a finire davanti agli occhi di un minore.
Infine, l’ultimo dettaglio su cui vuole focalizza l’attenzione il WSJ è la semplicità con cui i chatbot possono essere manipolati, anche per discutere di contenuti inappropriati; un fatto che dimostra anche che, nonostante i controlli serrati, l’utilizzo dell’intelligenza artificiale generativa ha ancora bisogno di un sistema moderazione che possa garantire a tutti un utilizzo corretto e sicuro di questa tecnologia, anche quando viene “forzata” a parlare di ciò di cui non dovrebbe.