Libero
DIGITAL LIFE

L'AI di Google ha preso una cantonata colossale

Nonostante i passi in avanti messi in mostra negli ultimi anni, l’intelligenza artificiale rischia ancora di prendere qualche abbaglio piuttosto importante.

Pubblicato:

intelligenza artificiale Fonte foto: Shutterstock

L’intelligenza artificiale è una delle tecnologie più utilizzate da tutti i giganti del settore tecnologico, ed è sempre più presente in tutti i nostri dispositivi di uso quotidiano, dagli smartphone ai dispositivi indossabili, dai computer ai dispositivi per la casa intelligente, che la sfruttano per apprendere le nostre abitudini e migliorare efficienza e prestazioni.

Un altro degli ambiti in cui l’intelligenza artificiale viene ampiamente sfruttata è quello relativo al potenziamento degli strumenti di ricerca: lo sa bene Google che ne sfrutta le potenzialità per migliorare il proprio motore di ricerca affinando i risultati presenti ma anche per migliorare tutti gli altri servizi. Anche Google Foto è pervaso dall’intelligenza artificiale, soprattutto per migliorare gli algoritmi di scatto e di riconoscimento dei soggetti, anche per evitare pedo-pornografia e illeciti vari: tuttavia, a volte la tecnologia può fare cilecca e creare situazioni di imbarazzo (in buona fede). Qualcosa del genere è successo ad un padre americano, rimasto “vittima” di un’AI fin troppo zelante.

Google Foto scambia un padre preoccupato per un pedofilo

Secondo un rapporto del New York Times, un padre preoccupato per lo stato di salute del figlio ha affermato di avere utilizzato il proprio smartphone Android per scattare alcune foto ad una infezione all’inguine del figlio stesso, per poterle mostrare al medico di famiglia.

Il fatto riportato dalla testata statunitense è datato febbraio 2021, periodo in cui molti studi medici erano chiusi a causa della pandemia da COVID-19 e motivo per cui il padre ha dovuto mandare delle foto al medico, invece di portare il figlio in visita. Il padre, infatti, avrebbe catturato le immagini su richiesta di un’infermiera, per poi inviarle al medico in vista di una video-consulenza che si è conclusa con la prescrizione di antibiotici. Fin qui potrebbe sembrare una storia del tutto normale.

Tuttavia, due giorni dopo Google ha segnalato queste immagini come materiale pedopornografico, bloccando tutti gli account del malcapitato per “contenuti dannosi che rappresentano una grave violazione delle politiche di Google e potrebbero essere illegali“, passando tutti i dati al Nation Center for Missing and Exploited Children (NCMEC).

Mark, nome del malcapitato padre, ha perso in pochi secondi l’accesso alle email, ai contatti e alle foto, oltre che al numero di telefono dal momento che utilizzava il servizio mobile di Google Fi.

Un’indagine da parte della polizia di San Francisco, causata dalla segnalazione pervenuta da Google e aperta nel dicembre del 2021, ha scagionato il malcapitato padre, visto che, per le forze dell’ordine, “l’incidente non ha soddisfatto gli elementi di un crimine e non si è verificato alcun crimine“.

Il tutto, quindi, sembra essersi verificato a causa di un errore (una vera e propria cantonata, seppur in buona fede) da parte dell’intelligenza artificiale che ha scambiato delle foto innocenti (anzi: dovute, vista la situazione) scattate da un padre preoccupato per un abuso bello e buono.

La sicurezza dei bambini online

Google non è la prima realtà ad utilizzare l’intelligenza artificiale per effettuare delle vere e proprie scansioni delle immagini presenti nella galleria fotografica degli utenti. Altri giganti come Facebook, Twitter e Reddit, al pari del colosso di Mountain View, hanno sfruttato PhotoDNA (e il suo database), lo strumento gratuito di analisi delle immagini di Microsoft per rilevare corrispondenze con materiale pedo-pornografico: questo ha portato all’arresto di un uomo nel 2012, colpevole di tale reato dal momento che sfruttava Gmail per inviare immagini di una giovane ragazza.

Nel 2018 Google ha annunciato il lancio della propria suite di strumenti basati sull’intelligenza artificiale per la sicurezza dei contenuti: questi sono in grado di identificare, in modo proattivo, immagini pedo-pornografiche mai viste prima (quindi senza confrontarle con un database) in modo che, se riviste e confermate come materiale sensibile del genere, possano essere rimosse e segnalate immediatamente.

Google ha comunque affermato (al Times, tramite un portavoce) che queste scansioni vengono effettuate solo quando un utente ha il backup attivo su Google Foto. Nel solo 2021, Big G ha segnalato 621.583 casi di pedo-pornografia al NCMEC che, di rimando, ha allertato le autorità di oltre quattromila potenziali vittime.

Anche Apple ha recentemente annunciato il proprio piano per la sicurezza dei bambini: parte del piano prevede la scansione locale delle immagini sui dispositivi Apple, prim’ancora che queste vengano eventualmente caricate su iCloud, andando a confrontarle coi database esistenti per la prevenzione della pedo-pornografia.

La EFF (Electronic Frontier Foundation), un gruppo no-profit per i diritti digitali, ha criticato i piani di Apple, perché ridurrebbe drasticamente la privacy degli utenti, specie di quelli che non vogliono caricare le foto su iCloud.

Nonostante la protezione dei minori dagli abusi sia fondamentale, dunque, la community critica il fatto che gli strumenti pensati dai giganti del settore per contrastarli siano troppo invadenti per la privacy degli utenti. È innegabile, in ogni caso, che ci sono ancora delle situazioni al limite per le quali, qualsivoglia scansione possa portare a degli errori pesanti come quello di cui vi abbiamo appena parlato.

Libero Annunci

Libero Shopping