Allucinazioni, AGI, LLM: i significati dei termini più comuni dell’IA
Un glossario essenziale che contiene i termini più comuni per parlare di intelligenza artificiale: da LLM a RAG, quali sono le parole da conoscere e i loro significati
L’intelligenza artificiale è un campo affascinante ma intricato, in continua evoluzione. Chi ci lavora ogni giorno si affida spesso a un linguaggio altamente tecnico per descrivere strumenti, metodi, tecnologie, nuove frontiere e scoperte. Di riflesso, anche nel raccontare l’IA ci troviamo spesso a usare termini specialistici, che non sempre risultano immediati per chi non è del settore. In questo glossario essenziale ci sono dunque i termini più importanti e ricorrenti per parlare di IA.
Il glossario essenziale per capire l’intelligenza artificiale
In genere si parla semplicemente di IA, intelligenza artificiale, ma talvolta ci si riferisce all’intelligenza artificiale generale, abbreviata in IAG o più comunemente in AGI (Artificial General Intelligence). Di solito l’espressione è usata per indicare una IA che in molte attiva è capace tanto quanto o più dell’essere umano medio, ma va detto che le principali aziende del settore forniscono definizioni leggermente diverse di questo concetto.
Anche agente IA è un termine ancora in evoluzione, che può significare cose diverse per persone diverse: tendenzialmente si usa per indicare uno strumento che utilizza tecnologie di intelligenza artificiale per svolgere una serie di compiti al posto dell’utente.
Non c’è dubbio invece sul concetto di LLM (Large Language Model), che è un tipo di intelligenza artificiale progettato per comprendere e generare linguaggio naturale, costruito addestrando enormi reti neurali su grandi quantità di dati testuali (libri, articoli, siti web, codici, ecc.). Ne sono esempi GPT-4 di OpenAI e Gemini di Google.
Nella definizione di LLM abbiamo appena citato le reti neurali, un altro termine essenziale per parlare di IA. In poche parole, le reti neurali artificiali (ANN) sono strutture matematiche ispirate al funzionamento del cervello umano: sono composte da unità computazionali (i “neuroni”) disposti in livelli interconnessi, che trasformano l’input grezzo in output elaborati e complessi.
Infine, quando si parla di modalità si intendono i diversi tipi di input che un modello IA può comprendere e processare. Un modello che capisce solo il linguaggio scritto è monomodale, uno che capisce testo e immagini è bimodale, mentre uno che capisce un più alto numero di modalità (testo, immagini, audio, video) è multimodale.
Dalla catena di pensiero all’allucinazione: come “pensa” la IA
Nei LLM che abbiamo illustrato poche righe sopra, per fornire la risposta a una domanda occorre scomporre il problema in passaggi intermedi: questo processo, chiamato ragionamento a catena di pensiero o catena di pensiero, richiede più tempo per l’elaborazione dell’output, ma fornisce un risultato migliore e probabilmente più corretto.
Un altro concetto ricorrente è quello di sistema di apprendimento. Ci sono IA basate su sistemi di apprendimento automatico più semplici, come i modelli lineari o gli alberi decisionali, ma si sente sempre più spesso parlare di Deep Learning, apprendimento profondo.
Si tratta di un sottoinsieme dell’apprendimento automatico auto-migliorante in cui gli algoritmi IA sono progettati con una struttura a rete neurale artificiale multilivello: questo permette loro di cogliere correlazioni più complesse, apprendere dagli errori e, tramite la ripetizione e la correzione, di migliorare i propri input. I modelli di deep learning hanno costi di sviluppo più elevati, perché richiedono moltissimi dati per funzionare bene e tempi di addestramento più lunghi.
Un termine comune è anche allucinazione: questa parola viene usata quando un modello IA fornisce una risposta errata o inventata ma la propone con sicurezza, come se fosse vera. È uno dei problemi più grandi della IA oggi, perché per l’utente non è semplice riconoscere l’errore.
Per ridurre le allucinazioni le aziende stanno tentando diverse strade, tra cui utilizzare la RAG (Retrieval-Augmented Generation), la generazione aumentata dal recupero: è una tecnica in cui il modello IA accede in tempo reale a una base di conoscenza esterna, come un database o dei documenti, per generare risposte più accurate.
Cosa vuol dire fine-tuning e inferenza AI
Un altro termine comune per parlare di IA è fine-tuning (ovvero rifinitura), che è il processo con cui un modello di intelligenza artificiale viene ulteriormente addestrato per adattarsi a un caso d’uso specifico. Ad esempio, il modello potrebbe essere addestrato in modo specifico per fornire risposte all’utente come se fosse una persona con competenze altamente specializzate in campo medico o legislativo.
L’inferenza IA invece è il processo di utilizzo di un modello di intelligenza artificiale addestrato per produrre risultati in risposta a nuovi dati di input. Mentre l’addestramento è costoso, lungo e intensivo, l’inferenza è veloce e scalabile: in sostanza, accade ogni volta che usiamo ChatGPT o piattaforma simile chiedendogli di svolgere un compito, cioè fornendogli un input.