Libero
TECH NEWS

YouTube: meno AI e più umani per moderare video e commenti

Anche le macchine esagerano: dopo oltre 300 mila reclami YouTube si appresta a diminuire la moderazione automatizzata basata sull'intelligenza artificiale

Pubblicato:

youtube Fonte foto: MeskPhotography / Shutterstock.com

La più grande piattaforma video del mondo, YouTube di Google, in piena pandemia da coronavirus aveva potenziato la moderazione di video e commenti tramite intelligenza artificiale. Il motivo era chiaro: sempre meno esseri umani in carne ed ossa potevano recarsi in ufficio a fare quel lavoro. Adesso, però, YouTube tira le somme e fa un passo indietro.

Questa scelta, obbligata, ha portato infatti ad una moderazione eccessiva con conseguenze pesanti (fino alla “demonetizzazione“) a carico di molti YouTuber. Per questo Google ha dichiarato al Financial Times che ha intenzione di ridurre la moderazione a carico degli algoritmi e di volerla spostare nuovamente nelle mani (e nelle intelligenze naturali) dei suoi dipendenti. YouTube ha anche ammesso che si aspettava un risultato delle macchine non eccellente, ma sostanzialmente non ha potuto fare altrimenti per cause di forza maggiore. Non appena la situazione sanitaria lo permetterà, quindi, anche YouTube tornerà alla situazione pre-covid.

Come funziona la moderazione su YouTube

Come tutte le piattaforme e i servizi globali, YouTube ha una precisa e rigorosa policy che contiene tutto ciò che si può fare e dire in un video e tutto ciò che è vietato. Violenza, volgarità, sesso, razzismo, bullismo e molto altro è formalmente vietato e chi non rispetta le regole rischia una sanzione che può arrivare fino al ban e alla chiusura del canale.

La moderazione di ogni singolo video e di ogni singolo commento ai video è in parte umana e in parte automatizzata. Per un algoritmo, ad esempio, è facile capire velocemente se nel video vengono pronunciate parolacce o se le volgarità sono scritte nella descrizione o in un commento.

E’ già più difficile, invece, capire se il ragionamento fatto da uno YouTuber contiene un sottofondo di razzismo o incita all’odio, alla violenza o a commettere reati. Dove non arriva la macchina, quindi, arriva l’uomo. Così funziona la moderazione di YouTube e per lungo tempo ha funzionato abbastanza bene.

L’AI che sbaglia

Durante la fase cruciale della pandemia anche YouTube è stata costretta a lasciare a casa molti dipendenti e ha sopperito alla loro mancanza rafforzando la parte automatizzata della moderazione. Ma i risultati non sono stati buoni.

Gli algoritmi, infatti, si sono rivelati troppo rigidi e hanno portato ad una gran quantità di moderazioni eccessive, con tutte le conseguenze immaginabili: 11 milioni di video sono stati rimossi tra aprile e giugno 2020 e YouTube ha ricevuto 320 mila reclami da parte dei suoi creator, infuriati per un video rimosso senza un motivo comprensibile.

Molti creator, poi, hanno assistito all’acuirsi del fenomeno della “demonetizzazione“, sia su singoli video che su interi canali. In pratica, cioè, nei video YouTube non inserisce più le pubblicità automatiche e questo porta a grosse perdite economiche per i creatori di alto livello.

La risposta di Google a questi problemi, quindi, sarà quella di fare un passo indietro: meno AI, più esseri umani.