Cosa non è in grado di fare ChatGPT e per cosa non andrebbe usato
ChatGPT ha dei limiti e in certe situazioni specifiche non è consigliabile affidarsi all’AI. Vediamo in quali casi è meglio non utilizzare il chatbot di OpenAI
ChatGPT è entrato ormai nella quotidianità di milioni di utenti in tutto il mondo che ogni giorno, tra produttività e intrattenimento, si affidano al chatbot di OpenAI per milioni di motivi diversi.
Tuttavia, questo strumento basato sull’intelligenza artificiale ha dei limiti che non bisognerebbe mai superare e di cui gli utenti dovrebbero essere ben consapevoli per utilizzarlo in modo sicuro e funzionale, senza rischiare “effetti collaterali indesiderati”, dovuti a una fiducia sconsiderata nelle possibilità di questa tecnologia. Vediamo quali sono.
ChatGPT non dovrebbe essere usato per la salute
La prima cosa da evitare su ChatGPT è fare domande sui propri problemi di salute. In molti chiedono al chatbot a cosa corrispondono dolori e sintomi vari ma le risposte generate non sono per niente rassicuranti e possono passare dalla banale influenza a una malattia incurabile.
Insomma ChatGPT, seppur addestrato con un vasto dataset di informazioni mediche, non è sicuramente un medico e in caso di problemi, dolori o fastidi è bene lasciar stare i chatbot AI e chiedere il parere di uno specialista.
E questo, naturalmente, vale anche per la propria salute mentale. Il tool di OpenAI non è uno psicologo e non può fornire alcuna terapia di supporto per superare un momento negativo e “affidarsi alle sue cure” può solamente peggiorare una situazione psichica che potrebbe essere già molto delicata.
Per prendere decisioni non ci si rivolge all’AI
Quando si parla di “decisioni importanti”, si fa riferimento a tutte quelle azioni che possono avere ripercussioni gravi sulla vita delle persone.
Quando si parla di sicurezza personale, ad esempio, il chatbot potrebbe non essere pronto ad affrontare il discorso e chiedergli di chiamare i soccorsi in caso di bisogno, non sempre si rivela una scelta saggia, anche perché non è in grado di capire che cosa è o non è un pericolo per gli utenti.
Bisogna ricordare che questo tool funziona solo con le informazioni che gli vengono fornite e, in caso di emergenza, potrebbe non esserci il tempo di conversare con lui su cosa fare o non fare in caso di una fuga di gas (che ovviamente non è in grado di rilevare).
ChatGPT è sicuramente in grado di spiegare economia e finanza ma non è sicuramente la scelta giusta per prendersi cura del proprio patrimonio, suggerire investimenti e, più in generale, occuparsi di tutte quelle incombenze che normalmente spetterebbero a un commercialista.
Il chatbot, infatti, potrebbe non avere accesso a dati aggiornati oppure potrebbe non conoscere tutte le informazioni del caso e gli errori nel settore economico, spesso, possono portare a sanzioni anche piuttosto importanti.
È meglio non usare ChatGPT per gestire dati importanti
Ormai l’AI occupa un posto fisso nella produttività, ma ciò non vuol dire che il suo lavoro sia sempre impeccabile. In molti casi, infatti, i tool come ChatGPT possono sbagliare e commettere errori gravi o grossolani, per questo motivo in caso di gestione di dati importanti, soprattutto se per lavoro, è sempre bene non fare affidamento sull’intelligenza artificiale o, quantomeno, controllare accuratamente quanto svolto e verificare sempre da fonti attendibili.
Oltretutto, non ci sono conferme sulla qualità dei dati con cui è stata addestrata l’AI, per cui non sono da escludere allucinazioni di sorta. Inoltre, dare in pasto a ChatGPT dati e info personali può essere un rischio per la privacy e queste informazioni potrebbero essere archiviate e utilizzate in futuro per fornire dati per l’addestramento del modello linguistico.
Truffe e illegalità non vanno d’accordo con l’AI
Ovviamente, senza nemmeno il bisogno di spiegare nel dettaglio la cosa, ChatGPT non andrebbe mai usato per truffe e altre attività illegali o poco “pulite”.
Sconsigliabile, dunque, usare l’AI per inscenare frodi e inganni vari, imbrogliare durante i test o i compiti in classe, il gioco d’azzardo e tutte quelle altre situazioni che richiedono un minimo di etica. Insomma, ChatGPT non ha una coscienza e non è consapevole di cosa è giusto e cosa non lo è, per questo dovrebbero essere gli utenti a scegliere sempre di seguire comportamenti corretti.