Libero
SICUREZZA INFORMATICA

Allarme FBI: attenti alle foto che pubblicate sui social

Da quando esistono i servizi di generazione di foto e video basati sull'AI, l'FBI sta ricevendo così tante segnalazioni di deepfake a scopo di sextortion da essere costretta ad avvertire i cittadini

Pubblicato:

Si chiama “sextortion” ed è un fenomeno noto già da tempo, ma negli ultimi mesi sta facendo registrare un vero e proprio boom grazie al numero sempre maggiore di servizi di manipolazione delle immagini e dei video basati sull’AI.

E, soprattutto, grazie alla loro economicità: molto spesso sono addirittura gratuiti. Un fenomeno talmente in crescita, quello della sextortion, che l’FBI ha lanciato un allarme specifico: fate molta attenzione alle foto che pubblicate sui social.

Che cos’è la sextortion

Il termine “sextortion” nasce dall’unione di “Sex” ed “Extortion“. Si tratta, cioè, di estorsione basata su materiale sessualmene esplicito: foto e video che ritraggono le vittime nude, intente in atti sessuali, con pose ammiccanti, etc etc…

Un caso molto famoso e frequente di sextortion è il revenge porn: un/una ex che minaccia l’ex partner di far circolare video privati dell’ex coppia.

La sextortion può avere come fine la minaccia, la punizione o, molto più banalmente, l’estorsione vera e propria: se la vittima non paga una determinata cifra, allora vedrà quel materiale pubblicato ovunque.

AI sextortion

Fin qui nulla di nuovo: di sextortion ne abbiamo parlato, qui su Libero Tecnologia per la prima volta già nel 2017.

Ma ultimamente il fenomeno è molto cresciuto e decisamente peggiorato, grazie alla diffusione massiccia degli algoritmi di intelligenza artificiale generativa che creano dal nulla foto e immagini.

Questi stessi algoritmi sono anche in grado di creare un contenuto foto o video partendo da un altro contenuto. In questo modo è possibile creare facilmente e in modo estremamente economico dei video deepfake che sembrano veri.

In pratica ora si può fare sextortion contro chiunque, anche un emerito sconosciuto: basta trovare un video e/o una foto in cui la futura vittima è abbastanza visibile, tutto il resto lo farà l’AI.

L’allarme dell’FBI

La situazione è già oggi molto grave, tanto che l’FBI è stata costretta ad avvertire i cittadini americani: “L’FBI continua a ricevere denunce dalle vittime, inclusi bambini minorenni e adulti non consenzienti, le cui foto o video sono stati alterati in contenuti espliciti. Le foto o i video vengono quindi diffusi pubblicamente sui social media o sui siti Web pornografici, allo scopo di molestare le vittime o di mettere in atto schemi di sextortion“.

Sempre l’FBI, poi, conferma che la maggior parte delle foto usate per creare i contenuti falsi provengono dai social network, dove spesso le vittime pubblicano foto e video che li ritraggono senza impostare una privacy restrittiva per questo materiale.

La cosa ancor più grave è che questi algoritmi così potenti sono ormai alla portata di tutti: gli store delle app, sia per Android che per iOS, sono pieni di applicazioni che possono essere utilizzate per questi scopi.

Spesso queste app sono molto semplici da usare e circolano molto anche tra gli adolescenti, diventando uno strumento formidabile di bullismo tra i giovani.

AI sextortion: come proteggersi

L’FBI, alla luce di questa pericolosa situazione in atto, raccomanda a tutti la massima prudenza: meglio pubblicare poche foto e video, non pubblicare niente se il soggetto è un bambino.

E’ anche utile cercare spesso il proprio nome (e quello dei propri figli o parenti minorenni) su Internet per vedere se c’è già del materiale contraffatto che sta circolando.

A volte, però, materiale del genere circola solo nelle chat private ed è più difficile da scovare. Nel caso delle chat tra minori, poi, entra in gioco il sempre presente dilemma tra garantire la privacy dei ragazzi o forzarla per aumentare la sicurezza di tutti.

Una cosa che certamente non va mai fatta, invece, è fornire foto e video a sconosciuti o persone poco fidate: basta un volto e una buona app, infatti, per creare un video fake pornografico.