browser iphone Fonte foto: Wachiwit / Shutterstock
APPLE

Apple rinvia la funzione anti pedofili: troppe critiche per la privacy

Niente di fatto per il sistema che Apple avrebbe voluto rilasciare entro la fine dell’anno: troppi i dubbi e i potenziali problemi che ne potevano derivare

Doveva essere l’arma di Apple contro i pedofili che, troppo spesso, utilizzando la rete per scambiarsi file che ritraggono le proprie vittime indifese. Eppure, a poche settimane dal suo annuncio, sono state molte le voci contrarie alla sua implementazione nel nuovo sistema operativo, tanto da far tornare l’azienda sui propri passi e a rivedere in toto la questione privacy.

Secondo la tabella di marcia, il debutto su iPhone e iPad era previsto con gli update dell’OS di Cupertino, cioè iOS 15, iPadOS 15, WatchOS e la controparte per iMac e Macbook, Monterey, ma del tool capace di analizzare le immagini sui device degli utenti non vi sarà probabilmente ancora per un po’. Già all’inizio di agosto erano sorti i primi dubbi in merito, con il no del Ceo di WhatsApp Will Cathcart a dare libero accesso alle foto di minori scambiate attraverso la nota app di messaggistica istantanea. Fotografie che, nell’eventualità di falso positivo dell’algoritmo implementato da Apple, finirebbero sul monitor di revisori in carne ed ossa chiamati a verificare la natura dell’immagine ed, eventualmente, procedere con una segnalazione allo statunitense NCMEC, il National Center for Missing and Exploited Children. Ma, a tenere sulle spine, in questo caso non è solo la riservatezza dei più piccoli ma l’uso – o meglio l’abuso – dello strumento nelle mani sbagliate.

Apple, perché il CSAM mina la privacy

Ciò che più sta facendo discutere della nuova funzionalità messa in piedi da Apple per combattere la pedofilia è il suo scopo che, a detta di molti esperti di sicurezza informatica, potrebbe trasformarsi facilmente in uno strumento di controllo. Se utilizzato in Stati governati da un regime autoritario, il sistema di rilevamento CSAM potrebbe dare carta bianca per compiere azioni che ben si discostano dal fine nobile con il quale è stato progettato.

A far paura è la possibilità che il sistema in grado di scovare materiale pedopornografico (da qui l’acronimo CSAM, “Child Sexual Abuse Material“) possa essere tarato per rilevare anche altro tipi di informazioni. In particolare, questa potente feature potrebbe essere utilizzata per l’individuazione di contenuti testuali o immagini di stampo sovversivo da governi dittatoriali che, in tal modo, disporrebbero di una panoramica completa su quanto ospitato all’interno dei device di persone ritenute pericolose o attenzionate.

Apple, così ci si beffa dello strumento anti pedofili

Come sottolineato dagli esperti, è il meccanismo di azione a destare la maggior quantità di preoccupazioni. L’algoritmo che permette alla funzionalità di analizzare e individuare fotografie di minori, primo passo della metodologia a due fattori di Apple, lascia spazio a manipolazioni che ne altererebbero i parametri di ricerca, se affidato ad abili sviluppatori.

Sono bastate solamente alcune settimane a ricercatori per le modifiche al processo basato sulla tecnologia denominata NeuralHash per giungere a tali risultati. Agendo direttamente sul codice, è stato possibile confondere il sistema di verifica per riconoscere immagini completamente differenti da quelle per le quali è stato creato, svelando la punta dell’iceberg dei rischi collegati all’uso del software senza le dovute precauzioni.

Apple, quando arriverà il tool anti pedofili

Dopo la conferma dell’uscita dalla prossima tornata di aggiornamenti, Apple ha scelto di non fornire ulteriori delucidazioni su eventuali date utili per il rilascio ufficiale. Occorrerà del tempo al team di Cupertino per risolvere la complicazione che, indubbiamente, darà filo da torcere prima di permettere di trovare una quadra definitiva al problema.

© Italiaonline S.p.A. 2021Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963