Libero
SICUREZZA INFORMATICA

Copilot e gli strumenti AI di Microsoft finiscono nel mirino degli hacker

Scoperta una vulnerabilità dentro Microsoft 365 Copilot. Una falla che fa sorgere dubbi profondi sull’affidabilità degli assistenti di intelligenza artificiale

Pubblicato:

Nemmeno gli assistenti AI sono al sicuro dalle insidie del web e di recente è stata scoperta la prima vulnerabilità zero-click all’interno di Microsoft 365 Copilot. La falla chiamata EchoLeak ha permesso agli hacker di accedere ai dati sensibili degli utenti anche sollevando serie preoccupazioni sulla sicurezza di questi strumenti.

Che cosa sappiamo della vulnerabilità EchoLeak

Da quello che sappiamo, la vulnerabilità EchoLeak ha permesso agli aggressori di estrarre informazioni riservate da applicazioni e fonti dati connesse a Copilot semplicemente inviando un’email. L’aspetto più inquietante di questa minaccia è la completa assenza di qualsiasi interazione da parte dell’utente con l’attacco che ha avuto origine da un set di istruzioni nascoste all’interno di un’email aziendale apparentemente innocua.

Questo induceva il sistema AI a inserire dati interni sensibili in un link o in un’immagine contraffatti, consentendo agli attaccanti di accedere a una vasta gamma di informazioni, tra cui documenti, email private, appuntamenti del calendario e molto altro ancora.

A scoprire EchoLeak è stata la società di sicurezza Aim Security che ha rivelato che Microsoft ha impiegato cinque mesi per risolvere completamente il problema, con un primo tentativo di patch che si è rivelato insufficiente. Questo ritardo nella gestione della situazione, mostra chiaramente la complessità e la profondità della falla, evidenziando le difficoltà incontrate dal colosso di Redmond nel contenere e risolvere una minaccia così sofisticata.

Bisogna preoccuparsi delle falle negli assistenti AI?

La vulnerabilità EchoLeak non rappresenta un evento isolato nella storia di Microsoft 365 Copilot e già in passato l’assistente virtuale aveva suscitato diverse preoccupazioni in materia di sicurezza informatica.

Criticità precedenti includevano perdite di dati involontarie e la possibilità che Copilot accedesse a informazioni per le quali gli utenti non avevano le autorizzazioni necessarie. Due scenari che hanno portato Microsoft a dover riprogettare l’assistente AI, implementando ulteriori livelli di sicurezza e perfezionando i controlli di accesso per di dati.

La scoperta di EchoLeak, però, dimostra che nonostante questi sforzi c’è ancora molto da fare e che i sistemi di intelligenza artificiale non sono sicuri come si credeva.

Intanto i ricercatori di Aim Security avvertono che EchoLeak non è solo una falla specifica di Copilot, ma evidenzia un problema di progettazione in tutti i moderni agenti AI, sollevando dei dubbi sulle modalità di elaborazione del contesto di questi sistemi non riuscendo a distinguere tra i contenuti affidabili e quelli potenzialmente dannosi.

Il fatto che qualsiasi tipo di dato venga utilizzato nello stesso “processo di pensiero” rende l’intelligenza artificiale potenzialmente vulnerabile a manipolazioni come quelle sfruttate da EchoLeak. Una debolezza strutturale da non sottovalutare, che potrebbe interessare anche altri assistenti di intelligenza artificiale che utilizzano architetture simili, rendendo necessaria una riflessione più ampia sul futuro della sicurezza AI, col rischio di dover ripartire da zero per la progettazione.