Microsoft vieta l'uso di DeepSeek ai suoi dipendenti, sarebbe un pericolo per la privacy
Microsoft ha vietato ai suoi dipendenti l’utilizzo di DeepSeek a seguito di preoccupazioni sulla sicurezza dei dati personali, archiviati dentro server cinesi
Nel corso di un recente intervento al Senato degli Stati Uniti, il vicepresidente di Microsoft, Brad Smith, ha dichiarato che all’interno dell’azienda è vietato l’uso DeepSeek da parte dei dipendenti. Una decisione che è stata motivata da preoccupazioni legate alla sicurezza dei dati che vengono dati in pasto all’intelligenza artificiale sviluppata dalla società cinese.
Il blocco non riguarda solo l’uso interno ma anche la distribuzione dell’app attraverso gli store Microsoft, sia per desktop che per dispositivi mobili.
Perché Microsoft ha paura di DeepSeek
Il problema, secondo Smith, sta nel fatto che i dati degli utenti vengono conservati su server situati in Cina, come confermato anche dalla privacy policy ufficiale di DeepSeek.
Questi dati devono, quindi, rispondere all’autorità delle leggi cinesi, che obbligano le aziende tecnologiche locali a collaborare con le agenzie di intelligence del governo. Una situazione che, ovviamente, desta forti preoccupazioni in occidente, soprattutto per i colossi della tecnologia come Microsoft che fanno della sicurezza dei propri dati una priorità assoluta.
Un ulteriore aspetto critico sollevato da Microsoft è il rischio di manipolazione dei contenuti generati dal chatbot, che secondo Smith potrebbero essere condizionati dalla linea propagandistica del Partito Comunista Cinese.
Come risaputo, infatti, DeepSeek censura tutti gli argomenti ritenuti sensibili dal governo e una politica del genere non è ammissibile per il colosso di Redmond, perché mina i principi di neutralità e trasparenza dell’intelligenza artificiale.
Una questione sicuramente spinosa in cui, però, non mancano le ambiguità, visto che Microsoft consente agli utenti di utilizzare il modello DeepSeek R1 sul suo servizio cloud Azure.
Secondo le dichiarazioni di Smith, però, la cosa non è affatto contradditoria e dipende dal fatto che tale modello, essendo open source, può essere scaricato, modificato e utilizzato su server privati senza che i dati debbano necessariamente transitare verso la Cina. Modifiche che, ovviamente, sono state prontamente apportate da Microsoft non appena si è diffuso R1, provvedendo anche ad effettuare rigorosi test di sicurezza per verificare che tale modello non rappresenti un pericolo per gli utenti.
Microsoft VS Deepseek, AI a confronto
Non bisogna, tuttavia, dimenticare che, nonostante i dubbi sulla sicurezza, DeepSeek è anche un concorrente diretto di Copilot.
Ciò vuol dire che potrebbe rappresentare una minaccia per la diffusione della propria intelligenza artificiale e, dunque, il divieto potrebbe avere anche una componente strategica e commerciale, in un momento in cui le grandi aziende tecnologiche si contendono la leadership nel settore dell’IA generativa.
In tal senso, bisogna dire che Microsoft adotta spesso un “approccio conservativo” verso le app della concorrenza anche se a non con tutte applica lo stesso metro di giudizio. Perplexity, ad esempio, è disponibile sullo store Microsoft, mentre applicazioni, come Google Gemini non sono presenti e devono essere scaricate (se possibile) da altre fonti.
Visti i progressi nel campo dell’AI sia di DeepSeek che di Gemini, dunque, non stupisce che Microsoft voglia tenere il più lontano possibile questi tool dai suoi utenti (e dai suoi sviluppatori), non solo per questioni legate alla sicurezza.