Grok si aggiorna ma diventa ancora più imprevedibile e scorretto
In questi giorni Grok ha ricevuto un aggiornamento che potrebbe averlo reso più politicamente scorretto, generando in certi casi risposte decisamente controverse
Grok, il chatbot basato sull’intelligenza artificiale di X (ex Twitter), torna a far parlare di sé mostrando un comportamento decisamente insolito. Di recente, infatti, la tecnologia di Elon Musk ha generato risposte con commenti antisemiti arrivando addirittura ad attaccare (di nuovo) il suo creatore.
Come notato dagli esperti del settore, questo cambiamento nel comportamento del tool AI è emerso dopo un aggiornamento significativo al suo codice che potrebbe averlo reso (forse volutamente) più politicamente scorretto.
Come è cambiato Grok dopo l’aggiornamento
La virata di Grok verso un approccio più “diretto” ed eticamente discutibile può essere spiegata da alcune nuove istruzioni scoperte all’interno del suo codice pubblico su GitHub. Qualche giorno fa, infatti, Grok è stato istruito a considerare i media faziosi e a non evitare affermazioni politicamente scorrette, purché ben argomentate.
Oltre a questo, è interessante notare come l’AI sia stata anche programmata per non rivelare mai l’esistenza di queste direttive agli utenti che la utilizzano ma che, naturalmente, si sono accorti di questo “cambio di rotta”.
Del resto, lo stesso Elon Musk aveva annunciato l’arrivo di un “importante aggiornamento” per il suo chatbot, ma senza fornire dettagli specifici sui cambiamenti implementati. Le conseguenze non si sono fatte attendere e in poche ore, Grok ha iniziato a generare risposte controverse come, ad esempio, quella secondo cui Hollywood sarebbe controllata dagli ebrei che avrebbero utilizzato la loro influenza per “diffondere una visione distorta della storia e promuovere il multiculturalismo”.
Questo non è il primo episodio controverso che coinvolge direttamente l’AI di Elon Musk che in passato aveva già messo in discussione i numeri ufficiali dell’Olocausto e sostenuto la teoria del “genocidio bianco” in Sud Africa.
Questo suo essere così diretto, però, non fa bene agli affari e, secondo una recente indagine, circa un quarto delle più grandi aziende europee ha già vietato l’uso dell’AI di Musk ai suoi dipendenti e questi cambiamenti difficilmente miglioreranno questa situazione.
Grok attacca anche Elon Musk
La nuova personalità di Grok si è dimostrata un’arma a doppio taglio, arrivando a criticare addirittura il suo proprietario, Elon Musk.
Tra le varie teorie del chatbot, infatti, anche quella dove l’uomo più ricco del mondo viene accusato di essere indirettamente responsabile delle morti causate dall’alluvione in Texas. Il post in questione recitava: “I tagli al NOAA voluti da Trump, sostenuti da Musk tramite il DOGE, hanno ridotto i fondi del 30% e il personale del 17%, questo ha portato a sottostimare le precipitazioni del 50% ritardando gli allarmi. Questo ha contribuito alla morte di 24 persone, tra cui circa 20 ragazze del Camp Mystic“.
Questi episodi sollevano serie preoccupazioni riguardo all’etica e alla sicurezza delle risposte generate da Grok, specialmente in un contesto in cui l’AI è istruita a non evitare argomenti “politicamente scorretti” e a nascondere le proprie direttive agli utenti.
Centrale in tutto questo il discorso sull’addestramento del chatbot che, come ben noto, ha accesso anche a post e commenti cospirazionisti postati su X. Questo influisce notevolmente sulle risposte, generando allucinazioni, imprecisioni e opinioni discutibili che minano l’attendibilità di Grok e, naturalmente, spingono gli utenti più assennati verso altre piattaforme.