Libero
TECH NEWS

Cos'è l'intelligenza artificiale e come funziona

L'intelligenza artificiale (AI) è , secondo la definizione di Wikipedia, l'abilità di un computer di svolgere funzioni e ragionamenti tipici della mente umana

Cos'è l'intelligenza artificiale e come funziona Fonte foto: Flickr

Definire cos’è esattamente l’intelligenza artificiale è un compito arduo. Per il dizionario De Mauro è “l’insieme di studi e tecniche che tendono alla realizzazione di macchine, specialmente calcolatori elettronici, in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana”. Non esiste, però, ancora una definizione universalmente accettata perché l’AI (dall’inglese Artificial Intelligence) è un settore estremamente recente e in fortissima evoluzione. Bellman ( 1978), per esempio, la considera “l’automazione di attività che associamo al pensiero umano” come “il prendere decisioni, la risoluzione automatica di problemi, l’apprendimento… “, mentre per Knight (1991) si tratterebbe dello “studio delle facoltà mentali mediante l’uso di modelli computazionali”.

O Stubblefield (1993), che la identifica con “la branca dell’informatica che riguarda l’automazione di comportamenti intelligenti”. Di fatto, per capire l’intelligenza artificiale cos’è e come può essere applicata nel quotidiano, possiamo pensare all’insieme di abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività.

Definizione di intelligenza artificiale

Proprio per via delle sue infinite applicazioni, quella dell’intelligenza artificiale non è solo una grande sfida tecnologica ma pure un tema storicamente e scientificamente ricchissimo. E che si rifà, giocoforza, all’intima aspirazione dell’uomo di creare una macchina in cui si riflettono appieno le proprie capacità. Pr quanto ci troviamo di fronte ad una tecnologia complessa, l’idea di base della IA è molto semplice: sviluppare delle macchine dotate di capacità autonome di apprendimento e adattamento del tutto ispirate ai modelli di apprendimento umani.

C’è, addirittura, chi fa notare che c’è qualcosa di anomalo nell’espressione intelligenza artificiale tanto da considerarla un ossimoro, ossia l’unione di due concetti di significato opposto che, insieme, producono un paradosso: attribuire all’artificiale una prerogativa tipica della natura umana, ossia l’intelligenza? Assurdo!

Non è un problema linguistico che, evidentemente, si deve essere posto John McCarthy quando nel 1956 coniò il termine “intelligenza artificiale” in occasione di un seminario di due mesi presso il Dartmouth College di Hanover (New Hampshire, USA), a cui invitò dieci ricercatori interessati alla teoria degli automi, alle reti neurali, allo studio dell’intelligenza, ma con interessi che spaziavano anche dallo sviluppo di sistemi di ragionamento automatico ai giochi come la dama. Studi di certo confinati – almeno tra gli anni ’60 e ’70 – all’ambito accademico, ma che hanno svolto un ruolo fondamentale per l’affermazione dell’IA in diversi ambiti applicativi.

D’altronde, in tempi moderni, l’intelligenza artificiale permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepiscono e risolvere problemi, così da agire verso un obiettivo specifico. Il computer allora riceve i dati  – già preparati o raccolti tramite sensori, come ad esempio una videocamera -, li processa e risponde. In termini assoluti, i sistemi di IA sono capaci di adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia.

IA debole e IA forte

Esistono, inoltre, due filoni di teorie sull’intelligenza artificiale delle macchine: l’IA forte e l’IA debole. Si parla di intelligenza artificiale debole quando un computer, o chiamiamolo pure robot, non sarà mai in grado di raggiungere le capacità intellettive umane, ma solo simulare alcuni processi cognitivi umani senza riuscire a riprodurli nella loro totale complessità. E questo è il presente. I fautori della teoria dell’intelligenza artificiale forte, si spingono invece oltre e ipotizzano che un giorno – magari tra solo venti o trent’anni – le “macchine” avranno un’intelligenza propria, autonoma e indipendente, pari o superiore a quella umana.

Definizioni specifiche possono poi essere date focalizzandosi o sui processi interni di ragionamento o sul comportamento esterno del sistema intelligente, ponendo come misura di efficacia o la somiglianza con il comportamento umano o con un comportamento ideale, detto razionale. Avremo così quattro principi fondamentali che possono guidarci nella comprensione di uno dei paradigmi centrali del nostro processo di ricerca e sviluppo:

  • Agire umanamente: il risultato dell’operazione compiuta dal sistema intelligente non è distinguibile da quella svolta da un umano.
  • Pensare umanamente: il processo che porta il sistema intelligente a risolvere un problema ricalca quello umano. Questo approccio è associato alle scienze cognitive.
  • Pensare razionalmente: il processo che porta il sistema intelligente a risolvere un problema è un procedimento formale che si rifà alla logica.
  • Agire razionalmente: il processo che porta il sistema intelligente a risolvere il problema è quello che gli permette di ottenere il miglior risultato atteso date le informazioni a disposizione.

In altri termini, l’intelligenza artificiale è un campo di ricerca che studia la programmazione e progettazione di sistemi mirati a dotare le macchine di una o più caratteristiche considerate tipicamente umane. Proprietà, queste, che possono spaziare dall’apprendimento alla percezione visiva o spazio-temporale. In questo scenario, capirete quanto quella dell’AI sia una disciplina fortemente dibattuta tra scienziati e filosofi poiché implica aspetti etici oltre che teorici e pratici. Nel 2014, Stephen Hawking ha messo in guardia sui pericoli propri dell’intelligenza artificiale, considerandola una minaccia per la sopravvivenza dell’umanità. Nell’agosto dello stesso anno anche il magnate Elon Musk si è espresso in merito su Twitter: “Dobbiamo essere molto attenti all’intelligenza artificiale. Potenzialmente più pericolosa del nucleare”.

Le applicazioni dell’intelligenza artificiale

Come ormai ben ribadito, alla base dell’intelligenza artificiale vi sono algoritmi, tecniche computazionali e soluzioni in grado di replicare il comportamento umano. Fisiologico allora che venga ormai largamente utilizzata in un’ampia varietà di campi e applicazioni, sia industriali che domestici. Pensiamo alla medicina e alla robotica, ma pure al mercato azionario, alla ricerca scientifica, alla legge e addirittura ai giocattoli.

Non solo, tra le nostre mura potrebbero essere presenti sistemi di domotica in grado di regolare la temperatura, l’umidità o l’illuminazione in base alle nostre esigenze, spesso utilizzando la nostra voce come input per alcuni dispositivi, che facilitano la gestione delle nostre abitazioni e, più in generale, il nostro tenore di vita. In nome di un miglioramento incisivo e di una rivoluzione costantemente in divenire.

Ciò è possibile andando ad implicare due concetti di base dell’IA stessa: le reti neurali e la logica fuzzy. Il concetto di rete neurale è di per sé molto semplice. Si tratta, in pratica, di un modello matematico – alla base di un sistema informatico – che cerca di simulare le reti neuronali biologiche del nostro cervello dove ogni neurone è collegato mediamente con una decina di migliaia di altri neuroni tramite delle sinapsi che, oltre a consentirci di ragionare, ci permette anche di gestire ogni funzione e nervo del corpo. E qui che si “aggancia” la logica fuzzy, conosciuta anche come logica sfumata o logica sfocata.

Tutti, o quasi tutti, sappiamo che un computer funziona sfruttando la logica booleana, ossia lavora su due valori, lo zero e l’uno (logica binaria). Un’affermazione, quindi, può solo essere vera o falsa senza vie di mezzo. La logica fuzzy è utilizzata nello studio dell’intelligenza artificiale per introdurre un valore di verità intermedio, ossia una variabile può assumere un valore, per esempio, di 0.2 o di 0.6. Un’evoluzione della logica booleana che, in pratica, consente a una determinata affermazione di essere vera, falsa oppure in parte vera o in parte falsa.

In termini pratici, ora che sappiamo l’intelligenza artificiale cos’è, possiamo spostarci sull’aspetto più pratico, a partire da quelle reti neurali utilizzate in ambito bancario per la prevenzione delle frodi legate all’utilizzo non autorizzato delle carte di credito. Così come in medicina per supportare le diagnosi e interpretare al meglio le immagini mediche. Non solo, l’IA è largamente utilizzata per la realizzazione di assistenti automatici online dalle compagnie telefoniche e di telecomunicazione, allo scopo di ridurre i costi di assunzione e formazione del personale.

Anche nell’ambito dei trasporti l’utilizzo dell’intelligenza artificiale sta aumentando rapidamente, con la logica fuzzy impiegata nella realizzazione di cambi di velocità per le automobili a guida autonoma sviluppate dai colossi Google e Tesla. Viene anche impiegata nel campo della videosorveglianza, mentre reti neurali complesse sono utilizzate nella generazione di testi, o meglio, nella trasformazione di un input generalmente testuale in un output anch’esso espresso in caratteri.

Le sfide etiche dell’intelligenza artificiale

Quando abbiamo chiarito cos’è l’intelligenza artificiale, abbiamo contemporaneamente fatto accenno alle sue inevitabili sfide etiche e al conseguente cambiamento culturale che il suo largo utilizzo potrebbe comportare. Se è innegabile che le applicazioni siano tantissime e tutte decisamente innovative, c’è da considerare la disputa senza tempo tra uomo e macchina, con tutte le implicazioni filosofiche e teologiche del caso.

Sono ancora molte infatti le problematiche etiche e legali legate all’AI. Altrettanti sono poi i giustificati dubbi su quale potrebbe essere l’impatto dell’intelligenza artificiale sulla nostra società e in particolare sul mondo del lavoro. Tra i quesiti più critici, ci si chiede se questo tipo di tecnologia possa rappresentare una minaccia o un’opportunità, se le macchine andranno gradualmente a sostituire uomo, e infine se i sistemi artificiali impiegati si riveleranno più abili e più intelligenti degli stessi esseri umani che li hanno creati.

In ogni caso, ci toccherà capire in futuro quali ruoli professionali saranno maggiormente coinvolti in quella che pare una vera e propria rivoluzione tecnologica, così come andranno ad incidere le principali soluzioni di job automation nella qualità del lavoro, del prodotto, e sul sistema previdenziale vigente. Il tutto guardando ad un orizzonte mutevole e luminoso, in cui l’innovazione dovrebbe rappresentare una necessità e non una spaventosa minaccia.