Grok crede ai complotti su Olocausto e genocidio bianco, xAI di nuovo nella bufera
Grok è tornato sotto i riflettori per alcune dichiarazioni controverse che sollevano dei dubbi sull’affidabilità del chatbot AI di X e sulla sicurezza interna

Grok, il chatbot sviluppato da xAI, è finito nuovamente sotto i riflettori per alcune dichiarazioni controverse a seguito delle quali sarebbe stato evidenziato anche un problema nella gestione della sicurezza interna.
In pochi giorni, il tool ha messo in dubbio il numero delle vittime dell’Olocausto e ha diffuso teorie complottistiche sul cosiddetto “genocidio bianco”, scatenando diverse polemiche in rete, sia per la gravità di queste affermazioni e sia per le giustificazioni di xAI, che ha dato la colpa di tutto a una “modifica non autorizzata del chatbot”.
Grok torna a condividere informazioni controverse
Qualche giorno fa, Grok ha risposto a una domanda sull’Olocausto riconoscendo inizialmente i dati storici (circa 6 milioni di ebrei assassinati dal regime nazista tra il 1941 e il 1945), salvo poi aggiungere un passaggio controverso dove si è detto “scettico riguardo a queste cifre senza prove concrete“, lasciando intendere che questi numeri potrebbero essere stati “manipolati per scopi politici”.
Questa opinione, ha subito messo in allarme gli esperti del settore e, secondo il Dipartimento di Stato USA, queste frasi rappresenterebbero una delle fasi della negazione dell’Olocausto andando a minimizzare il numero delle vittime, in contraddizione con fonti storiche attendibili. Bisogna dire, a onor del vero, che Grok ha condannato con fermezza l’Olocausto ma ormai il danno era fatto e questo suo scetticismo ha sollevato polemiche e dubbi sull’effettiva affidabilità della piattaforma.
Qualche giorno prima, Grok aveva iniziato a rispondere automaticamente su X a post non correlati con affermazioni sulla teoria del genocidio bianco in Sudafrica, una narrazione complottistica e senza alcun fondamento scientifico o statistico, più volte promossa da ambienti suprematisti bianchi (e dallo stesso Elon Musk).
Anche qui, l’indignazione della rete non si è fatta attendere e un numero elevatissimo di utenti si sono scagliati contro xAI, accusando l’azienda di aver utilizzato dati inesatti che pregiudicano notevolmente l’accuratezza del chatbot.
La risposta di xAI sulle allucinazioni di Grok
Come accaduto qualche settimana fa, quando Grok si sarebbe autocensurato parlando di Musk e Trump, anche in questo caso la risposta di xAI è arrivata in tempi brevi e, tramite l’account ufficiale @grok, l’azienda ha fatto sapere che la causa di questi “fraintendimenti” sarebbe da attribuire a una modifica non autorizzata al prompt di sistema che regola il comportamento dell’AI.
Questa modifica, violerebbe le politiche dell’azienda che, di conseguenza, ha avviato un’indagine interna per scovare il responsabile. Tuttavia, alcuni esperti del settore dell’intelligenza artificiale si sono detti scettici al riguardo, perché una modifica del genere, non può essere stata effettuata da una sola persona con una semplice modifica di un prompt di sistema e senza, per altro, passare attraverso approvazioni multiple e controlli interni.
Questo porta a due ipotesi: la prima è che un team interno abbia deliberatamente inserito contenuti politicamente sensibili, oppure, che xAI manca dei sistemi di sicurezza minimi per la gestione dei propri modelli.
Dopo questa ondata di critiche, comunque, xAI ha promesso più trasparenza e una revisione della propria governance tecnica, annunciando che renderà pubblici su GitHub i prompt di sistema di Grok, inclusi i changelog delle modifiche.
A questo si aggiunge anche un’implementazione di controlli più rigorosi affinché nessun dipendente possa aggiornare i prompt senza verifica esterna e la creazione di un team di monitoraggio attivo h24 per individuare e correggere in tempo reale eventuali risposte inappropriate non rilevate dai sistemi automatizzati.
Secondo molti queste contromisure sono tardive e cercano solamente di coprire una gestione poco trasparente del tool, rappresentando un grave rischio per gli utenti. Dall’altra parte, xAI dovrà dimostrare di essere un’azienda affidabile, lontana da certi pregiudizi, cosa che però potrebbe far allontanare una fetta importante di persone, come i complottisti della prima ora, che da sempre hanno trovato su X terreno fertile per le loro teorie.