L'AI di Google consiglia la pizza alla colla
Gemini ha suggerito a un utente di mettere della colla sulla pizza. Gli esperti si interrogano sulla qualità dei dati con viene addestrata l’AI e sui suoi limiti
L’intelligenza artificiale è una tecnologia in fortissima espansione e non stupisce che sempre più aziende stiano ridisegnando i propri servizi proprio grazie ai nuovi e potentissimi tool.
Tuttavia in molti raccomandano ancora prudenza, invitando gli utenti non dare per buono al 100% ciò che questi strumenti dicono o fanno, chiedendo di verificare sempre e comunque il lavoro di questi assistenti smart.
Uno dei casi più emblematici degli ultimi giorni ha coinvolto Google Gemini, l’innovativa tecnologia del colosso di Mountain View che ha suggerito a un utente un ingrediente decisamente singolare per la sua pizza: la colla.
Google Gemini non sa preparare la pizza
Questa buffa “incomprensione” è stata prontamente segnalata da un utente che ha postato su Reddit uno screnshoot che mostra le discutibili doti culinarie di Gemini.
La domanda iniziale fatta all’intelligenza artificiale era, banalmente, la richiesta di un suggerimento per evitare che il formaggio scivoli via da una pizza fatta in casa. La risposta, invece, è stata decisamente inaspettata e Gemini ha ben pensato di suggerire di aggiungere alla salsa un po’ di colla atossica, per darle più “collosità“.
Chiaramente, se si prova adesso a porre la stessa domanda al chatbot, l’opzione della colla non figurerà più tra i suggerimenti, segno evidente che qualcuno ha fatto notare a Google l’assurdità della cosa e l’ha spinto a imparare che gli ingredienti di una buona pizza sono ben altri.
Comunque, in molti si sono interrogati su dove Gemini abbia preso questa informazione. Dopo un po’ di ricerche, sono risaliti a un vecchio post su Reddit, con cui Google ha stipulato un accordo per utilizzarne per l’addestramento di Gemini AI. Su Reddit, circa undici anni fa, qualcuno ha ironicamente suggerito di mettere la colla nella pizza.
Ironicamente, appunto, facendo quindi uso di una figura retorica che chiaramente l’intelligenza artificiale ancora non riesce a comprendere.
I limiti dell’intelligenza artificiale
Per addestrare l’intelligenza artificiale sono necessarie enormi quantità di informazioni che non sempre sono verificate e prive di errori.
Questo accade perché (quasi tutte) le aziende acquistano grandissime quantità di dati dal web e le danno in pasto al loro tool AI, senza controllare che cosa contengono. Perciò non è raro imbattersi in risposte più o meno fantasiose che, al pari della colla sulla pizza, hanno strappato una risata (in certi casi amara) agli utenti dall’altra parte dello schermo.
Del resto, Google e buona parte dei colossi che operano in questo settore continua a ripetere a gran voce che l’intelligenza artificiale generativa è una tecnologia sperimentale, sottintendendo che l’azienda non si assume alcuna responsabilità sull’accuratezza delle risposte e lasciando la palla agli utenti che devono sempre vigilare e rileggere quanto prodotto da questi strumenti.
Oltre a questo, l’invito è anche quello di segnalare gli errori all’AI valutando come giuste o sbagliate le sue risposte, così da aiutarla nel processo di apprendimento.