Libero

Facebook e Instagram contro le fake dell'AI

Meta sta per lanciare degli strumenti per regolamentare ed evidenziare i contenuti generati dall’intelligenza artificiale condivisi su Facebook, Instagram e Threads

Facebook Instagram Fonte foto: Koshiro K / Shutterstock.com

Grandi novità in casa Meta: il colosso della tecnologia ha in programma una serie di provvedimenti per regolamentare i contenuti generati dall’intelligenza artificiale.

La notizia arriva direttamente da Nick Clegg, Presidente degli affari globali della società, che in una recente intervista ha parlato dei piani futuri dell’azienda statunitense in materia di AI, anticipando alcune contromisure che vedremo nei prossimi mesi su Instagram, Facebook e Threads. Le novità riguardano l’identificazione dei contenuti generati con l’AI e una serie di provvedimenti per chi non si attiene a queste nuove regole.

Meta, le nuove regole contro l’AI

Le dichiarazioni di Clegg arrivano in un contesto tecnologico sempre più complesso e dove diventa ogni giorno più difficile riconoscere foto, video e audio creati tramite l’intelligenza artificiale.

Per questa ragione Meta è al lavoro su una serie di tool che saranno in grado di rilevare tali contenuti, contrassegnandoli con un watermark che indica agli utenti che ciò che stanno vedendo e stato creato tramite intelligenza artificiale.

Da quello che sappiamo questi strumenti saranno, anzitutto, in grado di rilevare qualsiasi immagie realizzata tramite una delle varie piattaforme disponili, da Imagine AI (della stessa Meta) e fino ad arrivare a quelle della concorrenza come Google, OpenAI, Microsoft, Adobe, Midjourney e Shutterstock.

Il problema, però, sarebbe l’identificazione di tutte quelle immagini che non hanno i metadati visibili, rendendo più difficile l’analisi da parte dei software di cui sopra. In questo senso, Meta punta alla piena collaborazione con gli altri colossi del settore che avranno il compito di elaborare strategie e tool ancora più efficaci per garantire il riconoscimento di tali contenuti e il posizionamento del relativo watermark.

Oltre a questo, fa sapere sempre Nick Clegg, la piattaforma ha intenzione di utilizzare il pugno di ferro anche contro tutti quei video e quegli audio (creati sempre tramite intelligenza artificiale) che vengono condivisi allo scopo di creare delle Fake News.

Non è ancora chiaro il dettaglio di queste contromisure ma dovrebbero includere avvertimenti per i creatori di questi contenuti e per chi li condivide senza specificare la loro provenienza e, se fosse necessario, l’intervento da parte di Meta per la rimozione del post.

L’ultima grande novità in materia coinvolgerà direttamente gli utenti, con l’azienda di Mark Zuckerberg che chiederà loro di segnalare tutti i materiali creati con l’AI che passano sulla piattaforma, un sistema per aiutare i social a garantire maggiori controlli e una permanenza più serena alle persone al loro interno.

Cosa cambia per l’intelligenza artificiale

Come appena detto Meta non è l’unica azienda a voler usare il pugno di ferro contro i contenuti creati dall’intelligenza artificiale e molte altre grandi società stanno valutando strategie simili per agevolare l’identificazione di immagini, video e audio generati coi principali tool AI.

L’obiettivo è quello di promuovere una maggiore trasparenza sul web (e soprattutto sui social) e garantire a tutti gli utenti che albergano su queste piattaforme una permanenza più sicura dove è possibile distinguere facilmente i contenuti reali da quelli che non lo sono.

La strada è ancora lunga ma nei piani futuri di Meta (e in quelli degli altri colossi della tecnologia) c’è sicuramente la volontà di creare un contesto digitale più “salutare”, cercando di trovare un equilibrio tra queste nuove tecnologie e la protezione degli utenti.