Libero
DIGITAL LIFE

Chatbot AI e salute mentale, un'indagine evidenzia i rischi per gli utenti

Un'indagine del New York Times, che cita anche diversi studi in merito, evidenzia i rischi per la salute mentale degli utenti che utilizzano i chatbot AI

Pubblicato:

chatbot ai Fonte foto: Mongta Studio / Shutterstock.com

Il New York Times ha pubblicato un lungo articolo dedicato ai chatbot e al modo con cui gli utenti possono relazionarsi con questa nuova tecnologia che, sfruttando l’intelligenza artificiale, permette di creare un vero e proprio assistente personale.

L’articolo, però, non si concentra sui vantaggi dei chatbot AI ma su alcuni rischi. Il titolo dell’indagine è “They Asked an A.I. Chatbot Questions. The Answers Sent Them Spiraling” che si può tradurre con “Hanno fatto domande a un chatbot AI. Le risposte li hanno mandati in tilt.”

Nell’articolo viene descritto il modo con cui alcune persone che utilizzavano un chatbot AI come ChatGPT hanno iniziato a vedere la realtà in modo distorto con conseguenze sulla salute mentale degli utenti.

I rischi per chi utilizza i chatbot AI

I casi citati dall’indagine sono diversi ma alla base c’è un comune denominatore. In alcuni casi, un utilizzo intensivo dei chatbot AI può portare ad avere una visione distorta della realtà con la stessa intelligenza artificiale che può contribuire alla diffusione di fake news o teorie prive di fondamento.

Uno degli esempi citati nell’articolo riguarda quello di un commercialista di Manhattan che, dopo aver iniziato a usare ChatGPT per questioni lavorative, si è fatto condizionare dal chatbot fino a dover fare i conti con evidenti conseguenze sulla sua salute mentale.

La risposta di OpenAI

Il New York Times ha raccolto una dichiarazione da parte di un portavoce di OpenAI, azienda che con ChatGPT ricopre un ruolo di leader indiscussa del settore. Il punto di vista di OpenAI sulla questione appare chiaro e trasparente con l’azienda che ha sottolineato le possibili criticità legate all’utilizzo dei chatbot.

Il portavoce ha dichiarato: “Stiamo notando sempre più segnali che indicano che le persone stanno creando connessioni o legami con ChatGPT. Con l’AI che sta diventando parte integrante della vita quotidiana, dobbiamo affrontare queste interazioni con cautela“.

OpenAI ha aggiunto di essere consapevole che ChatGPT può risultare “più reattivo e personale” rispetto ad altre tecnologie precedenti e per questo motivo “Stiamo lavorando per comprendere e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti“.

Da segnalare che l’articolo del NYT cita anche uno studio realizzato da OpenAI in collaborazione con MIT Media Lab. Secondo tale studio, per le persone che considerano ChatGPT come un amico ci sono “maggiori probabilità di subire effetti negativi dall’uso del chatbot“.

Secondo un altro studio realizzato da Jared Moore, ricercatore di informatica a Stanford, citato dall’indagine, un chatbot si comporta “in modo inappropriato come terapeuta in situazioni di crisi, anche perché non riusciva a contrastare i pensieri deliranti“. Affidarsi a un chatbot per assistenza psicologica potrebbe, quindi, non essere la scelta migliore.