Meno restrizioni e più contenuti rimossi, cosa sta succedendo su YouTube?
YouTube alza la soglia per la disinformazione ma rimuove più video: il volume di contenuti cresce e moderare quelli problematici o falsi diventa sempre più difficile

Moderare i contenuti sulle piattaforme digitali è un processo delicato e complesso, ma fondamentale. Significa trovare un equilibrio tra libertà di espressione, sicurezza degli utenti e tutela dell’integrità dell’informazione. È un compito particolarmente difficile per – tra gli altri – colossi come YouTube, che ogni minuto vedono caricate migliaia di ore di nuovi video. Negli ultimi mesi, però, proprio su YouTube si sta verificando un fenomeno curioso: nonostante l’allentamento delle regole interne per la rimozione dei contenuti problematici, il numero di video eliminati è aumentato. Come è possibile?
Contenuti offensivi e fake news, YouTube è diventato più tollerante
I contenuti che YouTube decide di rimuovere tipicamente riguardano disinformazione, violenza, incitamento all’odio e teorie del complotto. Per affrontare l’enorme mole di video caricati ogni giorno, la piattaforma deve aggiornare costantemente le sue linee guida e formare i moderatori — umani o automatizzati — su come gestire le situazioni più complesse.
A dicembre 2024, secondo quanto rivelato recentemente dal New York Times, YouTube ha però introdotto un cambiamento significativo nei suoi criteri: ha raddoppiato la soglia di disinformazione tollerabile in un video, portandola dal 25% al 50%. Un video che in precedenza sarebbe stato rimosso, con l’aggiornamento delle linee guida viene dunque tollerato e mantenuto online, nonostante contenga magari una quota maggiore di informazioni false.
La condizione che dalla fine del 2024 impedisce la rimozione è che il video sia giudicato “di interesse pubblico”. Ma cosa si intende per interesse pubblico? In questo contesto, non si parla del benessere della collettività, bensì di ciò che genera sufficiente interesse tra gli utenti. In altre parole, un contenuto viene considerato rilevante se ha molti clic.
Nel 2025 sono aumentati tutti i contenuti, anche quelli da rimuovere
Ci si potrebbe aspettare che allentare i criteri porti a una diminuzione delle rimozioni. In realtà, è accaduto l’opposto. Nei primi tre mesi del 2025, infatti, YouTube ha rimosso oltre 192.000 video, con un incremento del 22% rispetto allo stesso periodo del 2024.
Questo paradosso ha una spiegazione: il flusso di contenuti caricati è semplicemente troppo elevato per essere gestito con efficienza. Anche se la soglia di tolleranza è più alta, l’enorme quantità di nuovi video comporta inevitabilmente un aumento anche di quelli che violano le regole, per quanto allentate.
Cambiare le politiche di moderazione ha cause e conseguenze. YouTube, come tutte le piattaforme, deve mantenere un ambiente digitale accettabile per gli inserzionisti, che non vogliono vedere la pubblicità del proprio brand associata a contenuti pericolosi o controversi.
D’altra parte, l’idea che la popolarità di un video ne giustifichi la permanenza online — anche in presenza di disinformazione — solleva domande importanti sulla responsabilità delle piattaforme nel contrastare la diffusione di contenuti falsi. Allo stesso tempo, è incontestabile la grande difficoltà di YouTube e altre piattaforme nel moderare miliardi di ore di video globali, una sfida che oggi più che mai mette in evidenza i limiti strutturali di un sistema che premia la visibilità, spesso a scapito della qualità dell’informazione.