Libero
TECH NEWS

Le funzioni di Meta AI su WhatsApp potrebbero essere un rischio per la privacy degli utenti

Meta AI continua a destare preoccupazioni sulla privacy con i dati personali che vengono elaborati su server esterni che non utilizzano crittografia end-to-end

Pubblicato:

WhatsApp è una delle applicazioni di messaggistica più utilizzate in assoluto, con circa 3 miliardi di utenti a livello globale. Una delle caratteristiche più apprezzate è sicuramente la privacy, grazie a all’implementazione di un efficiente sistema di crittografia end-to-end che garantisce che solo il mittente e il destinatario possano leggere i messaggi inviati, rendendo le comunicazioni inaccessibili anche a WhatsApp stessa.

Tuttavia, la recente introduzione di Meta AI sta sollevando diversi dubbi tra gli utenti, sempre più preoccupati del fatto che l’intelligenza artificiale potrebbe rappresentare un rischio per la loro privacy.

AI e privacy, i principali dubbi al riguardo

Le incognite maggiori stanno nella natura stessa di molte delle nuove funzioni che Meta sta integrando (o prevede di integrare) all’interno di WhatsApp. Strumenti come la generazione di riassunti automatici di lunghe conversazioni o l’assistenza nella composizione di risposte, infatti, richiedono un’elaborazione del contenuto, che avviene principalmente su server esterni.

Però, a differenza dei messaggi standard che, come già detto, sono crittografati, le interazioni con Meta AI e i dati inviati per l’elaborazione non seguono lo stesso protocollo e l’invio di informazioni verso server esterni (comunque di proprietà di Meta) potrebbe rappresentare un pericolo per la loro sicurezza.

Per rispondere a questa incognita, l’azienda di Menlo Park ha introdotto un sistema chiamato Private Processing, sviluppato per preservare la privacy dei dai su WhatsApp, pur consentendo l’utilizzo di funzionalità AI basate su cloud.

L’idea è quella di elaborare i dati in modo tale che nessuno, nemmeno Meta o WhatsApp, possa accedere al contenuto sensibile dei messaggi in forma leggibile durante il processo. Per farlo, l’azienda promette di utilizzare un complesso sistema di crittografia e gestione delle chiavi che avrebbe lo scopo di disaccoppiare l’elaborazione dalla visibilità del dato grezzo.

Secondo gli esperti, questa soluzione potrebbe funzionare in parte ma l’invio di dati a server esterni comporta comunque un rischio perché queste informazioni viaggiano al di fuori del tunnel della crittografia end-to-end, col rischio che possano essere intercettati, manipolati o sfruttati da attori esterni.

Come bilanciare innovazione e privacy

Meta dovrà essere in grado di bilanciare privacy e tecnologie AI, sempre più richieste dalle persone, ma che per il momento non sono ancora in grado di garantire gli stessi livelli di sicurezza delle classiche chat tra due utenti.

I prossimi passi da compiere non sono semplici e l’azienda di Menlo Park dovrà necessariamente trovare un compromesso che soddisfi tutti, anche se è evidente che ci si muove per tentativi, cercando la quadra in un contesto ancora inesplorato.

Per ora è stata introdotta la possibilità di bloccare l’uso delle funzionalità AI tramite il nuovo controllo Advanced Chat Privacy, ma si tratta di una decisione che spetta agli utenti e, in caso di chat di gruppo, la cosa potrebbe essere tutt’altro che immediata. L’ideale sarebbe l’implementazione di un sistema on-device, che, tuttavia, richiede risorse hardware di un certo tipo che non tutti gli smartphone hanno.

In attesa di una soluzione concreta, quindi, la palla passa ai consumatori che devono prestare maggiori attenzioni e a informarsi attivamente su quali caratteristiche AI scelgono di abilitare, restando sempre ben consapevoli di come viene trattata la loro privacy.