Facebook e Instagram: cosa cambierà in Italia e perché
Meta ha fatto un clamoroso passo indietro togliendo di mezzo il team di fact checking indipendente: ecco con cosa verrà sostituito e cosa cambia per gli utenti
Meta, la holding di Mark Zuckerberg che possiede i social Facebook, Instagram e Threads, oltre a WhatsApp, ha annunciato la chiusura del programma di fact checking di terze parti. Lo ha fatto con una mossa a sorpresa che, negli Stati Uniti, è stata interpretata come una enorme mano tesa a Donald Trump e al sempre più potente Elon Musk.
Al posto del fact checking “professionale“, infatti, sarà implementata una nuova modalità di moderazione dei contenuti dichiaratamente ispirata alle “note della comunità” già da tempo usate da X e ritenute, da Elon Musk, un ottimo strumento di tutela della libertà di parola.
Perché Meta scarica il fact checking
Molto probabilmente Mark Zuckerberg non vedeva l’ora di chiudere il programma di fact checking esterno, lanciato nel 2016.
Se un social ha un servizio del genere, infatti, quando qualcosa va storto la colpa è del social stesso: se c’è un fact checking e va virale una bufala colossale, infatti, vuol dire che qualcosa non ha funzionato.
Ma se non c’è nessun fact checking non c’è nemmeno nessuna responsabilità in capo al social, che può rispolverare la vecchia litania di qualche anno fa: sono gli utenti a condividere le notizie, gli algoritmi seguono.
Ufficialmente, però, Zuckerberg ha giustificato la scelta dicendo che, nel tempo, il sistema di fact checking usato da Meta si è trasformato in una vera e propria censura:
Troppi contenuti innocui vengono censurati, troppe persone si ritrovano ingiustamente rinchiuse nella “prigione di Facebook” e spesso siamo troppo lenti a rispondere quando ciò accade. Vogliamo risolvere questo problema e tornare a quell’impegno fondamentale per la libera espressione.
Community notes contro fact checking
Meta ha affermato che all’abbandono del sistema attuale di controllo dei fatti da parte di personale qualificato in fact checking corrisponderà l’introduzione di un nuovo sistema basato sul modello delle Community Notes di X, l’ex Twitter ora di proprietà di Elon Musk.
Meta afferma che gli esperti “come tutti gli altri, hanno i loro pregiudizi e le loro prospettive” e quindi non vanno più bene, mentre “abbiamo visto che le note della comunità funzionano su X, dove viene dato il potere alla comunità di decidere quando i post sono potenzialmente fuorvianti e hanno bisogno di più contesto, e le persone con una vasta gamma di prospettive decidono che tipo di contesto è utile che altri utenti vedano“.
Come funzioneranno le note di Meta
Le note della comunità verranno introdotte gradualmente su Facebook, Instagram e Threads, entro un paio di mesi a partire dagli Stati Uniti.
Saranno scritte dagli utenti che si saranno registrati al programma e Meta non deciderà quali mostrare e quali nascondere. E’ possibile iscriversi (in USA) già ora.
Come succede anche su X, le community note di Meta verranno mostrate se riceveranno l’approvazione di diversi utenti, con diverse prospettive, per evitare l’emergere di pregiudizi.
Cosa cambia per Facebook, Instagram e Threads
Il nuovo sistema di moderazione andrà verosimilmente a regime entro la prima metà di quest’anno, su tutti e tre i social di Meta: Facebook, Instagram e Threads.
Ma non in Italia e non in Europa, perché nel nostro continente è in vigore il regolamento Digital Services Act (DSA) che, tra le altre cose, impone ai grandi social di tenere in piedi un sistema di moderazione in grado di bloccare l’hate speech, la disinformazione e i contenuti pericolosi.
L’Unione Europea, a dicembre 2023, ha aperto un procedimento formale contro X proprio perché non prende sufficienti misure per garantire questi obiettivi. Meta, che già non ha ottimi rapporti con le istituzioni europee, difficilmente vorrà aprire un altro fronte.
La cosa più probabile, infatti, è che il sistema di moderazione di Facebook, Instagram e Threads rimanga identico nel nostro Paese e in tutta Europa, almeno in una prima fase.