Libero

Google crea un software per combattere il bullismo social

Google ha realizzato un'app per aiutare gli utenti dei social a gestire i commenti aggressivi e tossici: si chiama Harassment Manager ed è in fase di test su Twitter

bullismo social Fonte foto: Shutterstock

Il controllo degli abusi sui social è molto complesso complesso e richiede una macchina della moderazione costosa e articolata. Solitamente a essere bersagliati da minacce e insulti da parte de sono i soggetti più deboli: giovanissimi, donne, omosessuali, minoranze etniche, disabili. A volte, però, dietro gli insulti non si nascondono semplicemente dei “leoni da tastiera“, ma vere e proprie organizzazioni interessate a avviare la macchina del fango verso giornalisti o attivisti che subiscono intimidazioni social molto pericolose.

Per ovviare a questo problema conosciuto dalla Rete, Google scende in campo con Harassment Manager un filtro anti-molestie. Il filtro Harassment Manager è un codice open source, quindi è aperto e personalizzabile da altri sviluppatori, ed è stato progettato dall’incubatore Jigsaw (precedentemente noto come Google Ideas). Per ora è possibile implementarlo solo su Twitter, grazie all’API “Perspective” che, a sua volta, è un codice che riesce a rintracciare automaticamente i commenti offensivi. Con Harassment Manager, quindi, è possibile usare l’API per scovare in automatico i commenti problematici e poi, manualmente, rimuoverli ad uno ad uno o in blocco. E’ anche possibile silenziare o bloccare gli account e segnalarli a Twitter.

Come funziona Harassment Manager

L’AI riconosce un tweet offensivo in base a una serie di parametri ossia per la presenza di insulti, minacce, volgarità. I messaggi sono poi suddivisi e organizzati in una dashboard per la gestione in blocco e non più uno alla volta come è già possibile sul social azzurro.

Si possono filtrare i risultati per nome utente, hastag e parole chiave e i messaggi possono essere salvati e archiviati per conservare lo storico delle minacce ricevute.

Harassment Manager per i giornalisti

Il progetto vede la partecipazione attiva dei giornalisti e degli attivisti presenti su Twitter proprio per cogliere le esigenze di moderazione più urgenti. E vi hanno preso parte diverse ONG del settore del giornalismo e dei diritti umani, tra cui Article 19, Code for Africa, European Women’s Lobby, Feminist Internet, Glitch, International Center for Journalists (ICFJ), Online SOS, Paradigm Initiative, PEN America, Right To Be (ex Hollaback!), The Thomson Reuters Foundation e altri.

E sarà proprio quest’ultima associazione, la TRF, a inaugurare il nuovo sistema di moderazione.

La scelta è dell’utente

Harassment Manager si aggiunge ai tool di moderazione automatizzati già presenti sulle piattaforme social. Se da un lato gli algoritmi riconoscono facilmente i contenuti più pericolosi, come violenze o pornografia, dall’altro prendono anche cantonate clamorose sui contenuti “non espliciti“, eliminando ingiustamente commenti e contenuti di denuncia o che che non hanno nulla di pericoloso.

Molte aziende tra cui Meta o la stessa Google hanno al loro attivo sia ingegneri specializzati in linguistica sia moderatori in carne e ossa che lavorano dietro le quinte per rendere il web un posto più equo e distante da ogni forma di violenza. Ma questi apparati di moderazione restano estremamente costosi e non possono fare tutto il lavoro.

Harassment Manager, invece, rovescia l’approccio dando agli stessi utenti la possibilità di raccogliere facilmente tutti i commenti e le reazioni potenzialmente tossici e di eliminarli con pochi click. Sarà quindi l’utente a scegliere se permettere, o meno, che la sua rete di contatti usi certi toni.