Gli hacker utilizzano Claude di Anthropic per creare virus. Bannati decine di profili
Anthropic ha confermato l’uso di Claude per degli attacchi informatici, dimostrando che gli strumenti AI sono diventati un prezioso aiuto per il cyber crimine
In un recente report pubblicato da Anthropic, l’azienda ha analizzato tutti i casi di uso improprio di Claude, il suo modello di intelligenza artificiale. Nel documento emergono delle tendenze preoccupanti che mostrano chiaramente che l’AI generativa sta diventando un elemento chiave negli attacchi informatici.
Nonostante i rigidi controlli dell’azienda, infatti, alcuni hacker sono riusciti a manipolare il chatbot e a utilizzarlo per attività dannose, dimostrando che questa tecnologia può diventare uno strumento estremamente pericoloso se messo nelle mani sbagliate.
Come cambiano le minacce informatiche con l’AI
Uno dei casi analizzati da Anthropic mostra chiaramente che alcuni hacker hanno utilizzato Claude per recuperare credenziali trapelate e ottenere accesso a telecamere di sicurezza compromesse. L’azienda non ha confermato ufficialmente se questa attività sia andata a buon fine o meno, ma il caso ha evidenziato il ruolo chiave giocato dal chatbot AI nella violazione, semplificando notevolmente il lavoro dei malintenzionati digitali.
In un altro caso, qualcuno grazie all’aiuto di Claude è riuscito a trasformare un kit open source in un malware estremamente complesso, con funzioni di riconoscimento facciale e in grado addirittura di navigare autonomamente nel dark web. Da quello che si legge nel report, l’utente in questione non avrebbe avuto particolari competenze in materia ma, grazie all’intelligenza artificiale generativa, è stato comunque in grado di creare uno strumento avanzato senza troppi sforzi.
Altro esempio preoccupante condiviso da Anthropic ha mostrato l’utilizzo di Claude in un’operazione di influence-as-a-service, col chatbot che è stato utilizzato per orchestrare campagne di disinformazione sui social network, creando contenuti, prompt per generatori di immagini AI e gestendo in totale autonomia le attività di più di cento bot su X (ex Twitter) e Facebook.
In questo caso specifico, Claude è diventato una specie di centro di controllo, gestendo le azioni dei bot (commenti, likes, condivisione dei post) in base a dei profili politici ben definiti. La finezza di questa operazione sta nel fatto che il tool non ha cercato di rendere i post immediatamente virali, ma ha provato a costruire una rete di connessioni che apparissero autentiche, aumentando la credibilità dell’operazione e favorendo una manipolazione dell’opinione pubblica.
La risposta di Anthropic al problema
L’utilizzo dell’intelligenza artificiale in queste attività illegali, dimostra senza ombra di dubbio che oggi i malintenzionati digitali hanno accesso a una suite potentissima di strumenti AI che possono utilizzare a proprio piacimento per varie operazioni criminali, raggiungendo un’accuratezza e una semplicità d’uso che fino a pochi mesi fa era impensabile.
Da parte sua Anthropic ha confermato di aver bannato immediatamente gli account che hanno utilizzato Claude per attività illecite, confermando, inoltre, di essere già al lavoro per migliorare i propri sistemi di rilevamento per individuare tempestivamente l’uso improprio dei modelli AI proprietari.
Tuttavia, visto il larghissimo uso di questa tecnologia, l’azienda sottolinea anche una certa urgenza nello sviluppare nuove strategie per la cyber security e nuove governance per l’utilizzo dell’IA. Anche con tutti i controlli del caso, infatti, strumenti come Claude possono finire nelle mani sbagliate; c’è bisogno dunque di un approccio proattivo alla sorveglianza dell’uso delle AI, optando per controlli serrati e una cooperazione internazionale per limitare il più possibile i rischi legati all’abuso di queste tecnologie.