Libero
DIGITAL LIFE

Fermate l'AI: può essere pericolosa

L'appello del Future of Life Institute, composto dalle menti più brillanti nel campo della tecnologia, scienza e imprenditoria, è di prendersi una pausa di sei mesi dall'Intelligenza Artificiale.

Intelligenza artificiale rischi Fonte foto: Gorodenkoff/Shutterstock

L’intelligenza artificiale è una delle tecnologie che negli ultimi anni ha iniziato ad essere usata in modo massiccio. Ognuno di noi, infatti, si interfaccia costantemente con le raccomandazioni di contenuti di nostro interesse fino alle auto a guida autonoma. Senza contare il rapido successo di strumenti generativi come ChatGPT o Dell-e che oramai sono alla portata di tutti. Ma con quali conseguenze?

C’è chi non è d’accordo con questo approccio troppo veloce a queste nuove tecnologie, poiché non sono tenute in conto sia l’etica sia le conseguenze inimmaginabili sul futuro dell’umanità. A scagliare la classica pietra nello stagno è l’istituto Future of Life che conta tra i suoi esperti moltissime personalità di spicco del mondo della scienza, dell’industria e finanza. Come Elon Musk. L’istituto, infatti, ha pubblicato qualche giorno fa una lettera con un accorato appello: l’umanità ha bisogno di prendere una pausa di sei mesi dall’intelligenza artificiale.

Pausa di sei mesi dall’intelligenza artificiale

Nei loro articoli divulgativi che includono analisi ricche di dati e informazioni sui rischi, gli esperti di Future of Life prendono in considerazione quattro cose che possono mettere a repentaglio la sopravvivenza umana sul Pianeta: armi nucleari, cambiamenti climatici, biotecnologie e intelligenza artificiale.

L’intelligenza artificiale, ad oggi, è una IA ristretta deputata a svolgere pochi compiti specifici. E già si corrono rischi importanti, scrivono gli esperti, come “l’erosione dei processi democratici, i crolli finanziari o la corsa agli armamenti da parte di armi autonome“.

D’altro canto la ricerca prosegue e il prossimo obiettivo sarà avere una “AGI” (Artificial General Intelligence), un’intelligenza artificiale generale che sia in grado di svolgere molti compiti diversi, superando anche le competenze umane. Se da un lato l’AI può sostenere l’umanità nel combattere povertà e guerre dall’altro rischia seriamente di affossarla.

In poche parole, gli esperti, temono l’arrivo di una superintelligenza e che questa diventi ingerente nelle faccende umane. Perché avvertono, “Il rischio non deriva dalla potenziale cattiveria o dalla coscienza dell’IA, ma dalla sua competenza. In altre parole, non da ciò che sente, ma da ciò che fa“. E non c’è ostacolo che tenga davanti agli obiettivi dell’IA.

L’appello alla pausa dall’AI

Scrivono gli esperti nella lettera manifesto pubblicata sul sito di Future of Life: “Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili“.

L’appello è stato sottoscritto finora da oltre 1.300 firmatari e tra questi compaiono moltissimi docenti universitari, scienziati, ricercatori e imprenditori che condividono l’invito alla prudenza dell’istituto Future for Life. Tra questi compaiono anche Elon Musk, Steve Wozniak (co fondatore di Apple), Jaan Tallinn (co fondatore di Skype), Even Sharo (co fondatore di Pinterest), Craig Peters (Ceo di Getty Image) e da almeno una decina di ingegneri di Microsoft.

L’appello sostanzialmente invita alla prudenza e a rallentare per dare tempo alla politica di capire la tecnologia e valutare i rischi dell’AI. Quindi serve prevenire e valutare i pericoli presenti e futuri, ma con i tempi umani.