C'è una nuova AI cinese che fa tremare il mondo
E' gratis, open source, potente come ChatGPT e Gemini e per addestrarla serve un decimo dei soldi e della potenza di calcolo, ma ha un grosso problema: non risponde alle domande sgradite al Partito Comunista Cinese
Un nuovo chatbot di intelligenza artificiale, DeepSeek-R1, sta facendo parlare di sé nel panorama tecnologico globale. Sviluppato in Cina, questo modello è disponibile gratuitamente e si distingue per le sue avanzate capacità di ragionamento e per la sua natura open source.
DeepSeek-R1, lanciato ufficialmente di recente, è in grado di operare in diverse lingue, inclusa l’italiano, sebbene con alcune limitazioni. La sua comparsa ha generato un notevole interesse e preoccupazione nel settore, ponendo nuove sfide ai giganti dell’intelligenza artificiale come OpenAI e Google.
DeepSeek-R1, chi lo ha fatto e perché è diverso
DeepSeek-R1 è il risultato del lavoro di DeepSeek, una startup cinese fondata nel 2023 da Liang Wenfeng, ex studente della Zhejiang University. L’azienda è nata come divisione Ricerca e Sviluppo dell’hedge fund High-Flyer, con l’obiettivo di creare un’intelligenza artificiale generale.
A differenza di altri modelli sviluppati da aziende occidentali, DeepSeek-R1 è stato progettato con un approccio che privilegia l’efficienza e l’ottimizzazione delle risorse di calcolo. Mentre Google e Meta assumono professionisti esperti, DeepSeek si affida a neolaureati provenienti da prestigiose università cinesi.
DeepSeek ha sviluppato la tecnologia Multi-head Latent Attention (MLA), una tecnica che riduce il consumo di memoria del 40%. Il modello utilizza un’architettura Mixture-of-Experts (MoE), che attiva solo una parte dei suoi 671 miliardi di parametri per ogni input, riducendo i costi computazionali.
Questa architettura permette al modello di essere molto grande senza aumentare in modo proporzionale i costi di calcolo. Inoltre, DeepSeek ha scelto di addestrare R1 con la tecnica del reinforcement learning (RL), in cui il modello impara attraverso un processo di prova ed errore.
Questo approccio si discosta dal fine-tuning supervisionato, utilizzato da altri modelli, che prevede l’addestramento su esempi etichettati. Grazie a queste scelte, DeepSeek-R1 è in grado di superare in alcuni test il modello o1 di OpenAI in matematica e logica, utilizzando una frazione delle risorse di altri modelli.
Il costo di addestramento di DeepSeek-R1 è stimato a circa 15 milioni di dollari, contro i 150 milioni dei modelli di Meta. L’azienda ha inoltre rilasciato diverse versioni “distillate” del modello, focalizzate su ambiti specifici e con un numero di parametri inferiore, che va da 1,5 miliardi a 70 miliardi, rendendolo accessibile anche su dispositivi meno potenti.
DeepSeek-R1 è disponibile sotto licenza open source MIT, il che vuol dire che tutti lo possono usare gratuitamente e, soprattutto, lo possono scaricare e personalizzare in base alle proprie esigenze.
Come provare DeepSeek-R1 in italiano
DeepSeek-R1 può essere provato gratis sia andando direttamente al sito www.deepseek.com, sia attraverso diverse piattaforme, inclusa Ollama, che permette di eseguire il modello direttamente sul proprio computer.
Tuttavia, la qualità delle risposte in italiano è ancora inferiore rispetto a quella delle risposte in cinese e inglese.
Inoltre, una preoccupazione significativa riguarda la gestione dei dati degli utenti. La privacy policy di DeepSeek non è del tutto chiara, sollevando dubbi sulla protezione dei dati personali e sulla loro eventuale raccolta e utilizzo.
DeepSeek-R1: l’AI secondo i cinesi
L’emergere di DeepSeek-R1 solleva importanti questioni etiche e morali riguardo all’influenza della cultura e della politica nello sviluppo dell’intelligenza artificiale.
Diversamente dai modelli sviluppati in Occidente, DeepSeek-R1 riflette i “valori fondamentali del socialismo” richiesti dalle autorità cinesi e si rifiuta di rispondere a domande su argomenti considerati sensibili dal governo cinese, come Piazza Tienanmen, l’autonomia di Taiwan o il trattamento degli uiguri.
Questa censura è implementata direttamente nel modello, e non dipende dalla piattaforma o dal dispositivo su cui viene utilizzato: invece di fornire risposte neutrali, il modello tende a evitare tali argomenti o a offrire risposte che si allineano strettamente alla narrativa ufficiale del governo.
Questa dinamica solleva interrogativi sull’obiettività dell’intelligenza artificiale e sul potenziale rischio di manipolazione dell’informazione. L’allineamento dell’AI con i valori morali di una nazione può trasformare questi modelli in strumenti di controllo ideologico e di propaganda, minando il dibattito aperto e l’accesso libero all’informazione.
Questo problema non riguarda solo DeepSeek-R1, ma si estende a tutti i modelli di intelligenza artificiale, che riflettono inevitabilmente i valori morali e culturali di chi li addestra.