ChatGPT via dall'Europa? Che sta succedendo
La nuova direttiva europea AI Act mette a rischio lo sviluppo delle tecnologie di intelligenza artificiale: il livello di trasparenza voluto dall'Europa sarebbe eccessivo per le aziende
ChatGPT potrebbe essere ritirato dai mercati europei in risposta alle rigide norme sull’intelligenza artificiale imposte da Bruxelles, che chiede a OpenAI maggiori trasparenze riguardo alla sua AI. Dal canto suo l’azienda ha promesso di assolvere a tutte le richieste fatte ma se non fosse possibile, si dice pronta a dismettere ChatGPT nel Vecchio Continente.
ChatGPT in UE: i dubbi del CEO
Dopo il blocco temporaneo in Italia di ChatGPT, accusato dal Garante della Privacy di gestione dei dati personali degli utenti non conforme alla normativa europea GDPR, anche l’Europa ha qualcosa da ridire sul progetto di OpenAI, chiedendo all’azienda maggiore trasparenza.
Stando ai dati riportati dal sito The Verge, la nuova direttiva europea sull’intelligenza artificiale (l’AI Act, che verrà votata a metà giugno dall’Europarlamento) impone a ogni organizzazione che si occupa di intelligenza artificiale di fornire una serie di informazioni relative alla potenza di calcolo necessaria alla piattaforma, ai metodi di addestramento degli algoritmi e altre informazioni sul funzionamento dell’AI che potrebbero essere potenzialmente coperte dal segreto aziendale.
Si tratta di parametri che servono all’UE per valutare il “rischio” derivante dall’applicazione di queste tecnologie, ma la paura di OpenAI è che questi dati possano diventare pubblici ed essere sfruttati dalla concorrenza per copiare il lavoro fatto per ChatGPT.
Per questo motivo Sam Altman, CEO di OpenAI, ha espresso dubbi al riguardo, confermando comunque la volontà dell’azienda di rispondere a tutte le richieste fatte dall’UE ma dicendosi disposto, in caso ritenesse il suo business in pericolo, a chiudere l’accesso a ChatGPT agli utenti Europei.
AI Act: cos’è
L’Artificial Intelligence Act è la prima direttiva europea che affronta le enormi sfide derivanti dalle tecnologie di intelligenza artificiale. Ad esempio regola l’uso dei sistemi di riconoscimento facciale automatizzato in luoghi pubblici.
In pratica l’Unione Europea ha intenzione di catalogare le tecnologie di AI in base al livello di rischio:
- AI a rischio minimo
- AI a rischio limitato
- AI a rischio alto
- AI a rischio inaccettabile
Man mano che sale il livello di rischio di una tecnologia, aumentano anche gli obblighi per chi la sta sviluppando e il livello di trasparenza richiesto. L’idea di fondo è che, se questa tecnologia è pericolosa, il regolatore UE deve sapere su di essa tutto ciò che serve per capirla e per normarla.
Ma, chiaramente, per valutare il rischio servono già molte informazioni sulla tecnologia. Forse troppe, per OpenAI e le altre aziende che stanno sviluppando questi algoritmi in un contesto estremamente competitivo.
A questo punto, dal punto di vista del business, il problema è chiaro: meglio restare sul mercato UE e rischiare di perdere miliardi di investimenti, oppure andar via da questo mercato e rischiare di perdere miliardi di fatturato?