Facebook su smartphone Fonte foto: I AM NIKOM / Shutterstock.com

Facebook rende pubblico l'algoritmo per trovare i video violenti

Facebook decide di rendere open source l'algoritmo che consente di scovare video violenti o che violano il copyright. Il codice è su GitHub

8 Agosto 2019 - L’algoritmo sviluppato da Facebook in collaborazione con l’Università di Modena e Reggio Emilia per scovare i video violenti diventa open source. Il colosso dei social e l’ateneo italiano hanno deciso di diffonderne il codice al fine di permettere ad altri di collaborare allo sviluppo dell’algoritmo per migliorarlo.

Questo algoritmo, nato dalla collaborazione tra il gruppo Fair (Facebook Artificial Intelligence Research) di Facebook, che ha sede a Parigi, e i ricercatori italiani sfrutta l’intelligenza artificiale per scovare parti simili tra diversi video in tempo reale. Nato per trovare soprattutto le violazioni del copyright, l’algoritmo viene utilizzato dal social blu anche per scovare i video che contengono immagini di violenza, specialmente sui minori, e propaganda terroristica. Fino ad oggi è stato protetto da diritti d’autore, quindi non poteva essere utilizzato da altri all’infuori dell’università e di Facebook. Ma ora non sarà più così.

Disponibile su GitHub

L’algoritmo in grado di identificare i video violenti sarà disponibile a tutti su GitHub, in modo che grandi e piccoli sviluppatori (ma anche associazioni antiviolenza) possano usarlo per scovare gli “hash” (una sorta di impronta digitale) dei video pericolosi. Chiunque a breve potrà usare il codice sviluppato da Facebook e Unimore e, essendo open source, anche modificarlo e migliorarlo. Pensiamo ad esempio ad una no profit che si occupa di contrastare la violenza sulle donne o sui bambini: potrà usare l’algoritmo per scandagliare social, forum e altre piattaforme al fine di trovare video che andrebbero rimossi dal Web.

Condivisione della tecnologia

Facebook, in una nota, spiega perché è stato deciso di rendere open source l’algoritmo: “Se identifichiamo una propaganda terroristica sulle nostre piattaforme, la rimuoviamo e la indicizziamo utilizzando una varietà di tecniche, compresi gli algoritmi che stiamo condividendo oggi. Ora possiamo condividere gli ‘hash’ con i partner industriali, comprese le aziende più piccole, in modo che possano rimuovere lo stesso contenuto se appare sui loro servizi“.

Molto spesso, infatti, un video rimosso da Facebook continua poi a circolare su altri canali che non hanno gli strumenti tecnici necessari a classificarlo come pericoloso in modo automatico, senza una procedura di revisione effettuata da un umano.