Libero
SICUREZZA INFORMATICA

AI sicura: i Big Tech si coalizzano

La Coalition for Secure AI, di cui fanno parte Google, Amazon, Anthropic, Microsoft, ecc., si occuperà di migliorare la sicurezza e la privacy dei sitemi AI.

Pubblicato:

meta ai Fonte foto: Deemerwha studio / Shutterstock

Dal rilascio di ChatGPT, alla fine del 2022, l’intelligenza artificiale ha fatto balzi enormi in avanti, divenendo il cavallo su cui hanno scommesso i giganti del settore tecnologico, come Google, Microsoft, Apple, Meta, Samsung e non solo.

Tuttavia, questo rapido sviluppo è stato anche motivo di preoccupazione. Lo scorso anno, circa 350 scienziati e figure di spicco nel campo dell’AI (come Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic) hanno firmato una lettera aperta riguardante i possibili rischi dell’intelligenza artificiale. Tale tecnologia veniva infatti considerata pericolosa per l’umanità al pari di pandemie e guerre nucleari.

AI sicura: dal SAIF al CoSAI

L’anno scorso, Google ha introdotto il Secure AI Framework (SAIF). Si tratta di un modello concettuale progettato per aiutare a rendere l’AI sicura e affidabile. Nei mesi successivi l’azienda Mountain View ha poi deciso di coinvolgere altre aziende Big Tech nel suo progetto per migliorare le misure di sicurezza e privacy nei prodotti AI.

All’Aspen Security Forum, svoltosi lo scorso 18 luglio, Google ha ufficializzato questa coalizione, chiamata Coalition for Secure AI (CoSAI). Come ricordato da Big G nel suo blog, lo scopo di tale alleanza è quello di “promuovere misure di sicurezza globali per affrontare il problema rischi unici che derivano dall’intelligenza artificiale, sia per i problemi che si presentano in tempo reale, sia per quelli che verranno”.

La lista dei membri fondatori di CoSAI comprende società tra le più importanti al mondo, come Amazon, Anthropic, Chainguard, Cisco, Cohere, GenLab, IBM, Intel, Microsoft, NVIDIA, OpenAI, PayPal e Wiz.

AI sicura: i punti principali del CoSAI

Sempre nel proprio blog, Google ha annunciato le prime tre aree di interesse che la coalizione intende sviluppare, in collaborazione con l’industria e il mondo accademico, per un’AI sicura. In primis vi è la Sicurezza della catena di fornitura software per sistemi AI.

Il CoSAI garantirà essenzialmente che il codice dell’intelligenza artificiale sia creato utilizzando software sicuro e affidabile. Inoltre, monitorerà il modo in cui il software di intelligenza artificiale è sviluppato.

La coalizione mira inoltre a creare misure di salvaguardia con strumenti per identificare e combattere le minacce alla sicurezza dell’intelligenza artificiale non appena si presentano. Infine, il CoSAI intende creare una governance che definisca come sviluppare l’intelligenza artificiale e garantirne un utilizzo sicuro, con liste di controllo e scorecard per “guidare i professionisti nelle valutazioni di preparazione”.

AI sicura: possibili dubbi sul CoSAI

Gli sforzi del CoSAI sembrano concentrarsi principalmente sull’aspetto dell’AI sicura. Sebbene questo tema sia di estrema importanza, potrebbe essere un po’ ridondante. Infatti, organizzazioni come Frontier Model Forum e Partnership on AI hanno già ruoli che si sovrappongono ai piani di CoSAI.

Infine, i membri del CoSAI sono tutti giganti Big Tech e ciò potrebbe essere un’arma a doppio taglio. Una coalizione di questo tipo potrebbe aiutare senza dubbio la causa, dal momento che non mancherebbero le risorse per attuare i piani della coalizione. Dall’altro, potrebbero sollevarsi dubbi sull’imparzialità del CoSAI, poiché potrebbe proteggere favorire i propri membri, proteggendo i propri interessi.

Per evitare qualsiasi tipo di pregiudizio, la coalizione dovrebbe garantire l’estrema trasparenza riguardo le sue decisioni. Per scoprire se ciò accadrà, è probabile che bisognerà attendere ancora un po’ di tempo.

Libero Shopping