Libero
SICUREZZA INFORMATICA

Cos'è Lensa AI e perché è pericolosa

Lensa AI è l'app del momento, con milioni di download in pochissimi giorni, ma è anche rischiosa per i dati degli utenti e, soprattutto, per donne e bambini

Pubblicato:

lensa ai Fonte foto: Prisma Labs

Periodicamente salta fuori una nuova app che conquista tutti: fa una fiammata di milioni di download, tutti ne parlano, dopo qualche settimana sparisce. Probabilmente sarà questo il destino di Lensa AI, la nuova “app del momento” che, come tutte le app con questa sorte, è anche molto criticata per questioni di privacy e sicurezza dei dati personali degli utenti. Nel caso di Lensa AI, però, c’è anche un problema in più e ha a che fare con il corpo femminile e con i bambini.

Che cos’è Lensa AI

Lensa AI è un’app sviluppata da Prisma Labs, stessa software house che nel 2016 ha lanciato l’app Prisma per trasformare le foto in dipinti. Lensa AI è disponibile per Android, con il nome di “Lensa: Photo/Pictures Editor“, e per iPhone, con il nome di “Lensa AI: Photo & Video Editor“. Su entrambi gli store l’app è classificata come sicura anche per i bambini.

Lo scopo principale di Lensa AI è quello di modificare i selfie degli utenti che la installano. L’app può applicare diversi filtri di bellezza alle foto (e anche allo sfondo). Con pochissimi tap Lensa può rimuovere brufoli e imperfezioni della pelle, cancellare le borse sotto gli occhi, rendere più luminose e carnose le labbra oltre a fare le classiche regolazioni di luci, ombre e contrasto.

Alcuni filtri sono gratuiti, mentre altri sono a pagamento. Secondo la società di analisi del mercato delle app Sensor Tower in pochi giorni Lensa AI è stata scaricata oltre 4 milioni di volte, con un guadagno di oltre 8 milioni di dollari in meno di una settimana.

Lensa AI e privacy

Il problema delle app di questo tipo è sempre lo stesso: milioni di utenti caricano diverse foto del proprio volto e, puntualmente, non è ben chiaro che fine fanno queste foto. Dettaglio non da poco, visto che il volto è un parametro biometrico che, se ben riprodotto, può sbloccare un dispositivo elettronico, oltre che un’informazione sensibile.

Prisma Labs dichiara di distruggere tutte le foto subito dopo aver generato l’immagine modificata. Afferma anche che i server che elaborano le immagini sono tutti negli Stati Uniti.

Infine, Prisma dichiara anche che Lensa AI si basa su Stable Diffusion, un modello di deep learning avanzato dedicato proprio alla generazione di immagini. Si tratta dello stesso modello usato poche settimane fa anche per generare, dal nulla, immagini basate su un testo scritto.

Come tutti gli algoritmi di deep learning, anche Stable Diffusion divora enormi quantità di dati in fase di “addestramento” e in molti temono che anche le nuove immagini caricate dagli utenti vengano utilizzate per migliorare l’algoritmo e, di conseguenza, anche l’app.

Lensa, bambini e foto hot

Un problema certamente confermato (e non smentito da Prisma Labs), invece, è che Lensa AI “mastica” senza problemi anche foto di minorenni: non li riconosce dagli adulti o, forse, non si pone proprio alcuna domanda sull’età del soggetto fotografato.

Il problema nel problema, poi, è che Lensa AI può anche generare foto di nudo integrale partendo da una semplice testa. Quindi, non solo in teoria ma anche in pratica, con l’immagine della testa di un minorenne è possibile generare una foto fake pedopornografica. In generale, poi, i risultati dei filtri di bellezza applicati alle foto di donne risultano decisamente ipersessualizzati.

Tutto questo, messo insieme, può aiutare i malintenzionati a creare immagini utili a diffamare o ricattare donne e bambini.