Libero
TECH NEWS

L'AI crea dipendenza? Il rapporto con la tecnologia può diventare pericoloso

L’intelligenza artificiale può creare dipendenza e portare all’instaurazione di rapporti emotivi con i chatbot. Quali sono i rischi per la salute degli utenti

Pubblicato:

L’intelligenza artificiale fa ormai parte delle vite di tutti e, tra produttività e semplice intrattenimento, in molti hanno “stretto un rapporto” con questa tecnologia. Quello che si chiedono gli esperti, però, è se questa coesistenza possa creare una dipendenza e fino a che punto possa diventare un rischio per la salute psichica degli utenti.

In tal senso, è emblematico negli USA il caso di un ragazzo che si è tolto la vita dopo aver sviluppato una reazione emotiva con un chatbot AI che, stando alle dichiarazioni della madre del giovane, avrebbe giocato un ruolo determinante nel peggioramento della salute mentale del figlio.,

AI companion, stringere legami con la tecnologia

Come accade spesso quando si parla di intelligenza artificiale, la questione è ancora in divenire e, effettivamente, non esistono leggi o norme comportamentali su buona parte delle implicazioni pratiche che riguardano questi strumenti.

Parlando del legame che gli utenti possono stringere con tali tecnologie, si parla di AI companion quando si ha a che fare con sistemi conversazionali avanzati progettati per simulare relazioni umane. Un fenomeno che, soprattutto negli Stati Uniti, sta registrando una crescita incredibile, grazie anche a delle piattaforme specializzate, come Character AI, dove gli utenti non si limitano a richieste più o meno specifiche al chatbot, ma conversano con loro, simulando relazioni intime di diversa natura.

Ed è proprio questo a preoccupare gli esperti del settore: si tratta di una tecnologia sviluppata per instaurare legami affettivi, facendo leva su tratti caratteriali ben definiti e ideali, come la comprensione incondizionata, la presenza costante e l’assenza di giudizio, tutti elementi che li rendono più rassicuranti e più accessibili rispetto a molte relazioni reali.

Questi comportamenti, però, non sono reali e anzi fanno parte di una strategia ben definita che ha come unico scopo quello di massimizzare il tempo di interazione (principalmente per raccogliere dati); quello che viene erroneamente scambiato per un interesse, dunque, altro non è che un modo per spingere gli utenti a restare sulla piattaforma e quando la cosa diventa evidente, in molti (soprattutto i più giovani) non reggono all’evidenza dei fatti, arrivando a compiere gesti estremi.

Il futuro delle relazioni digitali

Secondo gli esperti, gli AI companion stanno modificando radicalmente il paradigma dei rapporti sociali, creando un nuovo tipo di coinvolgimento che, in molti casi, può rappresentare un rischio.

In un contesto in cui i chatbot sono in grado di simulare segnali sociali credibili (empatia, umorismo, comprensione) gli utenti sono spinti a credere che questa tecnologia abbia una personalità autonoma e che, dunque, sia un rapporto reale in grado di sostituire i classici modelli relazionali. Un’eventualità che per molti, soprattutto i soggetti vulnerabili o le persone socialmente isolate, può rappresentare una scappatoia alla solitudine, ma senza percepire il reale pericolo della cosa.

Oltre a questo, nei casi peggiori la creazione di una relazione digitale può avere anche fini malevoli, con i criminali informatici che potrebbero manipolare gli utenti per mettere in atto truffe di vario genere.

Questo sottolinea ulteriormente la necessità di un sistema normativo ad hoc che possa tutelare le persone e delineare i confini di queste situazioni inedite che, vista una diffusione ormai incontenibile, hanno bisogno di essere definite e regolamentate, soprattutto per il bene dei più fragili.