Intelligenza artificiale e deepfake, le nuove tecnologie sono un rischio per gli utenti
I deepfake sono un fenomeno in crescita grazie anche all’ausilio delle moderne tecnologie AI. Le minacce informatiche diventano sempre più complesse e insidiose
L’intelligenza artificiale sta rivoluzionando molti settori, ma non sempre questi strumenti così potenti vengono usati a fin di bene. Al fianco di un utilizzo “benevolo” dell’AI, infatti, sono in fortissima crescita le attività illegali che sfruttano questi sofisticate tecnologie per ingannare gli utenti, come nel caso dei deepfake, ad esempio, video o audio modificati dall’AI che permettono di alterare l’identità di una persona, cambiandone il volto, il colore della pelle, la voce e altre caratteristiche.
Questa minaccia non è più confinata a video pre-prodotti e ormai i deepfake sono diventati in tempo reale, diventando una nuova modalità di una “truffa dinamica” estremamente sofisticata che può ingannare gli utenti ed eludere i moderni sistemi di autenticazione e diventando una delle minacce informatiche più temute di sempre.
Deepfake in crescita grazie all’AI
Strumenti come i deepfake sono stati considerati da sempre una delle minacce più critiche in rete (e non solo) che, grazie all’ingegneria sociale, riescono a ingannare anche l’utente più accorto. Con l’AI, però, tutto cambia di nuovo e anche questa truffa diventa più insidiosa, coi cybercriminali che ormai sono in grado di generare video/audio ancora più credibili e, soprattutto, in tempo reale.
Di recente il sito 404 media ha documentato l’uso di questi sistemi per alcune truffe che hanno preso di mira principalmente gli anziani, da sempre meno avvezzi a riconoscere l’uso di tecnologie del genere. Oltre a questo, il sito ha documentato anche un’inquietante crescita di questi strumenti che, ormai, sono diventati accessibili (a pagamento) senza troppe difficoltà.
Il fenomeno, insomma, è in fortissima crescita: dal 2017 al 2022, ad esempio, sono stati registrati un totale di 22 incidenti significativi legati ai deepfake. Nel 2023, questo numero è quasi raddoppiato arrivando a ben 42 casi. Nel 2024, gli incidenti sono aumentati del 257%, arrivando a 150 casi registrati. Ma il dato più inquietante arriva dal primo trimestre del 2025, che ha già visto 179 incidenti. Una crescita che preoccupa gli esperti di cybersecurity e che sottolinea ulteriormente la rapidissima diffusione, accessibilità e applicazione di tecnologie del genere, diventate uno degli strumenti preferiti dagli hacker di tutto il mondo.
L’AI sempre più centrale nelle truffe informatiche
Le proiezioni sul futuro delle truffe realizzate con strumenti basati sull’intelligenza artificiale sono inquietanti e, stando a quel che dicono gli esperti di cybersecurity, nei prossimi anni il numero di operazioni del genere rappresenterà circa il 60-70% delle frodi in rete. Ciò vuol dire, essenzialmente, che l’AI non sarà più solo uno degli strumenti nelle mani degli hacker, ma diventerà il principale veicolo per le loro attività fraudolente e vista la rapidità con cui si evolve questa tecnologia, i dati non possono che peggiorare.
A fronte di questo, è evidente che cautela e spirito critico, per quanto necessari, non saranno più sufficienti per scoprire e reagire a queste minacce. In futuro, diventeranno cruciali strumenti che processano le immagini e i video in automatico per verificarne l’autenticità, l’unica vera linea difensiva (e forse anche l’ultima) per aiutare le persone a capire quali contenuti sono veri e quali non lo so.
Servono, dunque, maggiori investimenti in questo senso e una continua attenzione nello sviluppo e nell’adozione di tecnologie di verifica e riconoscimento che possano operare come sentinelle degli ambienti digitali e cercare di proteggere al meglio gli utenti.