Cosa prevede la nuova legge europea sull'intelligenza artificiale
Il Parlamento Europeo ha approvato la legge sull'intelligenza artificiale, che garantisce sicurezza, rispetto dei diritti fondamentali e promuove lo sviluppo dell’AI
Il Parlamento Europeo ha approvato la legge sull’intelligenza artificiale, un testo elaborato con l’obiettivo di garantire maggiori sicurezze a tutti i cittadini, verificare che vengano rispettati i diritti fondamentali di ognuno e, contemporaneamente, promuovere l’innovazione e lo sviluppo di nuove tecnologie AI.
Il fulcro di questo discorso è quello di regolamentare l’utilizzo di questi strumenti, affinché diventino sicuri, trasparenti e accessibili a chiunque ne faccia richiesta. L’Europa si conferma, dunque, il capofila in materia di regolamentazione dell’intelligenza artificiale, anticipando gli altri paesi del mondo che potrebbero “prendere ispirazione” e avviare le pratiche per definire il corretto utilizzo dell’AI.
Applicazioni che minacciano i diritti dei cittadini
Il focus della legge sull’intelligenza artificiale è mettere un freno a tutte quelle applicazioni che potrebbero minacciare i diritti dei cittadini tra cui:
- i sistemi di categorizzazione biometrica basati su dati sensibili;
- l’estrapolazione dei volti delle persone da internet o dai sistemi di video sorveglianza per generare dati da utilizzare per il riconoscimento facciale;
- sistemi per il riconoscimento delle emozioni (sul posto di lavoro e a scuola);
- sistemi per prevenire gli illeciti basandosi sulla profilazione o sulle caratteristiche degli utenti;
- sistemi per influire sul comportamento umano sfruttando le vulnerabilità delle persone
Per quanto riguarda l’utilizzo dell’AI per le forze dell’ordine, anch’essi non potranno fare ricorso all’identificazione biometrica, salvo situazioni specifiche adeguatamente regolamentate.
L’identificazione delle persone in tempo reale, dunque, si potrà utilizzare solo nel pieno rispetto delle regole e dovrà essere limitato nel tempo e nello spazio e avvenire solo dopo autorizzazione giudiziaria o amministrativa.
Le eccezioni ammesse comprendono la ricerca di persone scomparse o eventuali misure per prevenire una minaccia terroristica. Anche in questi casi però sarà necessaria un’autorizzazione giudiziaria collegata a un reato.
Cosa sono i sistemi ad alto rischio
La legge sull’intelligenza artificiale definisce anche i sistemi ad alto rischio che sono tutte quelle applicazioni che potrebbero arrecare danni a:
- salute
- sicurezza
- diritti fondamentali
- ambiente
- democrazia
- Stato di diritto
Sono ascrivibili a queste categorie tutti gli utilizzi che riguardano:
- infrastrutture critiche
- istruzione e formazione professionale
- occupazione
- servizi pubblici e privati di base (assistenza sanitaria, servizi bancari ecc.)
- sistemi di contrasto, migrazione e gestione delle frontiere
- giustizia e processi democratici (sistemi usati per influenzare le elezioni)
In tutti questi casi è obbligatoria un’opportuna valutazione per ridurre i rischi e sarà necessario mantenere accessibili i registri d’uso che dovranno garantire la massima trasparenza. I cittadini potranno naturalmente presentare dei reclami sull’utilizzo dei sistemi di cui sopra.
Sempre in tema di trasparenza, tutti i modelli AI dovranno soddisfare degli specifici requisiti e rispettare le norme dell’Unione Europea sul diritto d’autore durante l’addestramento dei modelli. I modelli stessi, soprattutto quelli più elaborati, dovranno essere sottoposti a delle valutazioni per mitigare i rischi e garantire sempre il rispetto della normativa europea.
Inoltre, tutti i contenuti deepfake (immagini, audio e video artificiali o manipolati) dovranno essere etichettati come tali per renderne più semplice il riconoscimento.
Misure a sostegno delle PMI
Infine sulle misure a sostegno dell’innovazione e delle PMI tutti i paesi europei dovranno creare e rendere accessibili a tutti spazi di sperimentazione normativa e sandbox (soluzioni per testare i sistemi in condizioni reali) in modo che le piccole imprese e le start-up possano sviluppare i propri strumenti AI e addestrarli nel pieno rispetto della normativa prima di metterli sul mercato.
Cosa succederà in futuro
Al momento la legge sull’intelligenza artificiale, seppur definita nei modi e nelle forme, deve ancora essere sottoposta alla verifica finale dei giuristi-linguisti. Oltretutto la norma deve ancora essere approvata formalmente dal Consiglio Europeo.
Ricevuta l’approvazione entrerà in vigore venti giorni dopo dalla pubblicazione nella Gazzetta ufficiale dell’UE e sarà applicabile nei 24 mesi successivi.
Ci sono, però dei casi specifici, come i divieti relativi a tutti quegli utilizzi considerati illeciti che si applicheranno dai sei mesi dopo l’entrata in vigore; i codici per le buone pratiche, dai nove mesi dopo l’entrata in vigore; le norme sui sistemi AI per finalità generali, dai 12 mesi dopo l’entrata in vigore; gli obblighi per i sistemi ad alto rischio, che diventeranno effettivi dai 36 mesi dopo l’entrata in vigore della normativa.