Libero
TECH NEWS

L’AI ha una coscienza? Secondo un ingegnere di Google sì, secondo i suoi capi no

La denuncia dell'ingegnere di Google Blake Lemoine sulla presunta coscienza dell'intelligenza artificiale LaMDA non trova d'accordo i suoi diretti superiori

intelligenza artificiale coscienza Fonte foto: Shutterstock

L’Intelligenza Artificiale secondo quanto riferito da un ingegnere di Google, Blake Lemoine, avrebbe una coscienza. Sarebbe senziente, cioè in grado di capire, esattamente come un essere umano, cosa è bene e cosa è male. A suffragio di questa sua tesi, Lemoine riporta una conversazione avuta con LaMDA, acronimo che sta per Language Model for Dialogue Applications (modello di linguaggio per applicazioni di dialogo). In pratica un algoritmo che risponde alle domande che gli facciamo, come se fosse un interlocutore che dialoga con noi.

Ebbene, l’AI LaMDA è riuscita a convincere l’ingegnere Lemoine che la terza legge della robotica di Isaac Asimov non è corretta. Con questa prova di dialogo, Lemoine si è presentato ai vertici di Google sostenendo che LaMDA era in grado di intendere e di volere al pari di un bambino di 7 o 8 anni. Che era senziente dunque, forse non matura ma cosciente. Tanto che l’AI nel dialogo, ha riportato elementi logici per smontare la tesi secondo cui un robot deve salvaguardare la propria esistenza (terza legge di Asimov) a patto che obbedisca agli ordini degli umani (seconda Legge) e non rechi danno agli umani (prima Legge). I vertici di Google, il vicepresidente Blaise Aguera y Arcas e capo della divisione Responsible Innovation hanno analizzato il dialogo e hanno apprezzato la logica di LaMDA ma hanno escluso ogni forma di coscienza. Semmai, hanno trovato prove a sostegno del fatto che l’AI avesse seguito un percorso puramente razionale senza capire di fatto di cosa si stesse parlando. L’ingegnere Blake Lemoine però non era d’accordo. A quel punto è stato sospeso ma ha deciso di diffondere la sua presunta scoperta. Svelando al mondo come funziona LaMDA.

Chi è LaMDA e cosa fa

Google è impegnato nella ricerca dei modelli linguistici già da diversi anni e alcune funzionalità le troviamo presenti nel motore di ricerca sotto forma di risposta alle query conversazionali (ossia quelle domande poste esattamente così come parliamo nella vita di tutti i giorni) oppure nel completamento automatico di frasi.

Sundar Pichai, il CEO di Google, ha presentato l’AI LaMDA alla conferenza degli sviluppatori di Google nel 2021. Il progetto prevede che l’intelligenza artificiale specializzata nelle conversazioni sia incorporata gradualmente in tutti i prodotti Google: dal motore di ricerca all’Assistente vocale.

Perché l’Intelligenza Artificiale fa paura

L’ Intelligenza Artificiale, da come abbiamo compreso, non è realmente intelligente. Consiste, infatti, in una rete neurale basata su una sequenza di algoritmi molto complessi che elaborano velocemente miliardi di miliardi di dati, nel caso di LaMDA parole, abbinamenti di frasi, che includono modi di dire, il parlato quotidiano ecc.

Ciò consente alla rete neurale il riconoscimento di una frase e il contesto in cui viene pronunciata o scritta e dunque anche la capacità di fornire una risposta pertinente.

Un esempio può essere rappresentato dalle classiche domande che facciamo agli assistenti vocali: che ore sono, che tempo farà domani, ecc. Sono domande logiche a cui viene data una risposta logica derivante dall’imitazione di migliaia e migliaia di domande e risposte simili, fatte e date dagli umani e poi “date in pasto” all’AI affinché le impari.

Per questo motivo, per la combinazione di logica e elaborazione dati, l’AI è considerata un valido alleato nel problem solving, ossia nella risoluzione dei problemi e molto utilizzata, ad esempio, nell’ambito della logistica o dell’industria. Ma è sufficiente per dire che ha una coscienza?

La coscienza umana e la coscienza dell’AI

Per affermare che l’Intelligenza Artificiale come LaMDA sia provvista di una coscienza, sarebbe necessario trovare elementi tipici di un’attività senziente e non solo intelligente, come la capacità di distinguere il bene dal male o l’empatia.

Peculiarità che, almeno per ora, restano prerogativa della coscienza umana e che non possono essere replicate in un modello di reti neurali che si basa su algoritmi, ossia sequenze di funzioni matematiche.

Libero Annunci

Libero Shopping