Libero
TECH NEWS

YouTube dichiara guerra ai video generati con l'AI, cosa cambia per i creator

Su YouTube stanno per arrivare nuove regole più stringenti per la monetizzazione. Al bando i contenuti generati dall’AI che danneggiano la reputazione del sito

Pubblicato:

YouTube Fonte foto: miss.cabul / Shutterstock.com

A partire dal prossimo 15 luglio, YouTube si prepara a rendere più severe le proprie politiche di monetizzazione, con l’obiettivo di contrastare il fenomeno dei “contenuti non autentici”, un trend in fortissima crescita grazie a una sempre maggiore diffusione di tecnologie basate sull’intelligenza artificiale generativa.

A breve, il colosso dello streaming aggiornerà le linee guida del suo Programma Partner, così da definire più dettagliatamente quali tipi di contenuti potranno generare ricavi e quali, invece, saranno esclusi.

Cosa cambia per i contenuti generati dall’AI su YouTube

Da quello che sappiamo, sembra che YouTube voglia indicare chiaramente che cosa si intende per contenuto “non autentico”. Importante ricordare che la piattaforma ha sempre richiesto l’upload di materiale originale, tuttavia l’avvento dell’AI generativa ha reso molto più labile questo confine, rendendo necessarie maggiori specifiche al riguardo.

Secondo Rene Ritchie, ex YouTuber ora responsabile delle relazioni con i creator di YouTube, l’impatto di questo cambiamento non sarà così pesante come si crede e non dovrebbe intaccare in alcun modo i formati già consolidati. Ritchie ha anche ribadito che già da diverso tempo il sito ha puntato il dito contro i contenuti non idonei per la monetizzazione, tra questi i video ripetitivi e quelli prodotti in serie, percepiti dagli spettatori come spam che non apporta un reale valore alla piattaforma.

Nonostante questa percezione, però, video del genere continuano a proliferare sul sito che, negli ultimi mesi è stato invaso da tonnellate di contenuti generati dall’AI (spesso di bassissima qualità) come quelli con voci sintetiche sovrapposte a immagini statiche o filmati riciclati; i canali di musica realizzata con l’AI che, pur accumulando milioni di iscritti, offrono contenuti spesso privi di qualunque profondità artistica; video falsi su eventi di cronaca, che contribuiscono a generare disinformazione e a minare la fiducia degli utenti verso il sito.

Tutti questi contenuti, secondo YouTube, non generano valore per la piattaforma e, anzi, peggiorano notevolmente la user experience, rendendo la permanenza sul sito molto meno “appagante”, utile o divertente.

Cosa vuole fare YouTube per proteggere la propria reputazione

Chiaramente, permettere che contenuti considerati di bassa qualità crescano e, soprattutto, monetizzino sulla piattaforma, a lungo termine, può danneggiare irreparabilmente la sua reputazione e il suo valore e questa è un’eventualità che YouTube vuole evitare a tutti i costi.

L’aggiornamento delle policy, dunque, si muove proprio in questa direzione, definendo una strategia necessaria per dare a YouTube (o meglio ai suoi creator) regole più chiare che renderanno più semplice identificare ed escludere dai programmi di monetizzazione questo tipo di video, salvaguardando l’integrità dell’ecosistema e garantire che la qualità che gli spettatori si aspettano.

Quindi, anche se i contenuti generati dall’intelligenza artificialeconsentono a chi non ha “particolari capacità tecniche” di girare e caricare il proprio video dall’altro, non bisogna dimenticare che possono avere un impatto negativo su YouTube e sulle altre piattaforme di streaming che in qualche modo devono proteggere la propria reputazione e integrità.

Per ora è presto per dire se queste regole saranno efficaci o meno ma di sicuro spianano la strada per l’evoluzione del panorama normativo sull’AI, gettando le basi per la futura regolamentazione di questa tecnologia nel settore dell’intrattenimento.