DIGITAL LIFE

L'AI Act entra in vigore: tutte le pratiche proibite

Dal 2 febbraio non è più possibile usare i sistemi AI considerati a "rischio inaccettabile" per la società: ecco cosa è già vietato

Pubblicato:

Le prime prescrizioni previste dal regolamento europeo sull’intelligenza artificiale, noto come AI Act, sono entrate in vigore il 2 febbraio 2025. Questo segna un punto di svolta nella regolamentazione dell’IA a livello globale.

Mentre altre disposizioni del regolamento diventeranno applicabili in fasi successive, il divieto delle pratiche di IA ritenute inaccettabili è ora legge.

L’obiettivo principale dell’AI Act è garantire che i sistemi di intelligenza artificiale siano sicuri, affidabili e rispettino i diritti fondamentali delle persone, promuovendo al contempo l’innovazione e la crescita economica.

AI Act: il rischio dell’intelligenza artificiale

L’AI Act è il primo quadro giuridico completo sull’IA a livello mondiale. L’obiettivo è promuovere un’IA affidabile, garantendo che i sistemi rispettino i diritti fondamentali, la sicurezza, i principi etici e affrontino i rischi derivanti da modelli di IA potenti e di grande impatto.

Il regolamento classifica i sistemi di IA in base al livello di rischio: inaccettabile, alto, limitato, nullo.

  • Rischio inaccettabile: le pratiche di IA che rientrano in questa categoria sono vietate
  • Alto rischio: include l’IA utilizzata in infrastrutture critiche, istruzione, componenti di sicurezza dei prodotti, gestione dei lavoratori, servizi pubblici e privati essenziali, applicazione della legge, gestione dell’immigrazione e dell’asilo, e amministrazione della giustizia e dei processi democratici. I sistemi di IA ad alto rischio sono soggetti a rigidi obblighi prima di essere immessi sul mercato
  • Rischio limitato: si riferisce alla mancanza di trasparenza nell’uso dell’IA. L’AI Act impone obblighi specifici di trasparenza, come l’informazione agli utenti quando interagiscono con un chatbot.
  • Rischio minimo o nullo: comprende applicazioni come i videogiochi o i filtri antispam, per le quali l’uso dell’AI è libero.

AI Act: esempi di rischio inaccettabile

Il fulcro del divieto è rappresentato dai sistemi di intelligenza artificiale che presentano un livello di rischio inaccettabile per la sicurezza delle persone, o che risultano intrusivi o discriminatori.

Sistemi di questo tipo sono ora vietati nell’Unione Europea. Questo è un elenco (con completo) di sistemi AI che non sono più consentiti:

  • Sistemi di IA che manipolano le decisioni degli individui in modo subliminale o ingannevole
  • Sistemi di IA che sfruttano le vulnerabilità come l’età, la disabilità o lo status socio-economico per influenzare il comportamento
  • Sistemi di IA che valutano o classificano gli individui in base al loro comportamento sociale o alle caratteristiche della personalità
  • Sistemi di IA che valutano o prevedono il rischio di un individuo di commettere un reato basandosi sui loro tratti di personalità e caratteristiche
  • Sistemi di IA che creano o espandono database di riconoscimento facciale attraverso la raccolta non mirata di immagini del viso da internet o da riprese di telecamere a circuito chiuso
  • Sistemi di IA che deducono le emozioni nei luoghi di lavoro o nei centri educativi
  • Sistemi di IA che classificano gli individui in base ai dati biometrici per dedurre la loro razza, opinioni politiche, appartenenza sindacale, credo religioso o filosofico, vita sessuale o orientamento sessuale
  • Sistemi di IA che raccolgono informazioni biometriche “in tempo reale” in spazi pubblici accessibili per l’applicazione della legge, salvo eccezioni ben definite e regolamentate. Tali eccezioni includono la ricerca di un bambino scomparso o la prevenzione di una specifica e imminente minaccia terroristica, ma richiedono l’autorizzazione di un’autorità giudiziaria o indipendente e sono soggette a limiti temporali, geografici e di database di ricerca

A partire da febbraio 2025 tutti questi sistemi sono vietati.

Le aziende che non si atterranno a queste disposizioni dovranno affrontare sanzioni significative, con multe che possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo globale dell’azienda nell’esercizio finanziario precedente.

L’AI Act ha una portata extraterritoriale, pertanto anche le aziende internazionali non basate nell’UE potrebbero essere soggette a tali normative.

AI Act, i prossimi passi

L’AI Act è entrato in vigore il 1° agosto 2024 e sarà pienamente applicabile 2 anni dopo. Ci sono alcune eccezioni:

  • i divieti per le AI a rischio inaccettabile sono in vigore da febbraio 2025
  • le regole di governance e gli obblighi per i modelli di IA per scopi generali diventeranno applicabili dopo 12 mesi (agosto 2025)
  • le regole per i sistemi di IA integrati in prodotti regolamentati saranno applicabili dopo 36 mesi (agosto 2027)

Per agevolare la transizione, la Commissione ha lanciato l’AI Pact, un’iniziativa volontaria che invita gli sviluppatori di IA ad aderire in anticipo agli obblighi chiave dell’AI Act. L’Ufficio europeo per l’IA, istituito nel febbraio 2024, supervisiona l’applicazione e l’attuazione dell’AI Act.

© Italiaonline S.p.A. 2025Direzione e coordinamento di Libero Acquisition S.á r.l.P. IVA 03970540963