L'AI scrive le Fake News anche meglio degli umani
Fake News e intelligenza artificiale: secondo una ricerca dell’Università di Zurigo l’AI riuscirebbe a scrivere una notizia falsa molto meglio di un essere umano
Secondo una ricerca dell’Università di Zurigo apparsa su Science Advances, riconoscere una fake news generata dall’intelligenza artificiale è più complicato di quanto accade per quelle scritte dall’uomo. Lo studio ha scoperto che gli utenti su Twitter hanno meno possibilità di individuare un tweet falso generato dall’AI, un divario che al momento è estremamente ridotto ma che dimostra chiaramente che il problema è destinato a crescere in maniera significativa e ad avere una risonanza ancora maggiore grazie proprio all’utilizzo (errato) dei social network.
Perché le Fake News AI sono “migliori”
Nonostante un utilizzo improprio dell’aggettivo “migliore” in materia di fake news, bisogna dire che una notizia falsa generata dall’intelligenza artificiale è più economica, più veloce e molto più efficace di una scritta dalla mente umana.
Per validare questa ipotesi i ricercatori dell’Università di Zurigo hanno chiesto a Chat GPT-3 di generare 10 tweet veri e 10 tweet falsi su alcuni degli argomenti più comuni quando si parla di Fake News: il cambiamento climatico e il Covid-19. Fatto questo hanno raccolto diversi tweet (veri e falsi) condivisi su Twitter ma scritti di proprio pugno dai vari utenti della piattaforma.
L’esperimento ha coinvolto 697 persone che sono state messe davanti a queste notizie per giudicare quali fossero quello generate dall’AI e quelle provenienti da una forma di “intelligenza” umana. L’esito dell’esperimento è stato chiaro ed è stato rilevato che i partecipanti hanno ritenuto più “attendibili” i tweet falsi scritti dall’AI piuttosto che quelli scritti dall’uomo.
Insomma, almeno quando si parla di bufale, l’intelligenza artificiale è migliore dell’essere umano. Il perché di questo comportamento non è ancora chiaro ma, secondo gli studiosi, dipende dal fatto che GPT-3 sia in grado di realizzare un testo più strutturato rispetto a quello scritto da un uomo. L’AI, oltretutto, riuscirebbe anche a condensare più nozioni all’interno dello stesso scritto, cosa che lo renderebbe più semplice da elaborare.
Quale futuro per Fake News e intelligenza artificiale
Il boom dell’intelligenza artificiale consente a chiunque di sfruttare una serie di strumenti molto potenti che non sempre sono orientati verso scopi benevoli. Chiaramente OpenAI è consapevole di questa cosa ed è consapevole anche che la sua intelligenza artificiale potrebbe essere utilizzata per produrre campagne di disinformazione di massa.
Tuttavia l’azienda statunitense ha anche invitato alla cautela e, soprattutto a non sopravvalutare le potenzialità del suo progetto anche perché, trattandosi di un argomento relativamente recente, non ci sono ancora studi completi che possano valutare la relazione tra l’evoluzione di Chat GPT e il livello di “accuratezza” nel realizzare Fake News credibili.
Se, come appena visto, un modello come GPT-3 riesce a generare velocemente un testo volutamente errato ma che sembra convincente, il progredire della tecnologia potrebbe amplificare ulteriormente questi pericoli arrivando, teoricamente, a un testo (giusto o sbagliato che sia) che potrebbe essere davvero indistinguibile da uno realizzato da un essere umano.
Esistono, naturalmente delle contromisure per contrastare il problema ma non sono ancora così efficienti, anche se in futuro gli esperti puntano a realizzare una serie di strumenti di analisi del testo in grado di capire se questo è stato generato o meno dall’AI. Al momento, comunque, non è ancora ora di farsi prendere dal panico, ma è bene fermarsi un po’ di più a riflettere sulle informazioni che vengono condivise sui social network.