Libero
TECH NEWS

Microsoft Copilot disegna bambini drogati

Microsoft Copilot potrebbe essere pericoloso, le dichiarazioni di un dipendente dell’azienda di Redmond su alcune immagini piuttosto inquietanti generate dall’AI

Pubblicato:

microsoft-copilot Fonte foto: Microsoft

Copilot, l’assistente AI che Microsoft sta gradualmente integrando all’interno delle varie applicazioni, potrebbe non essere sicuro. La dichiarazione arriva da Shane Jones, un dipendente del colosso di Redmond, che dopo aver provato Copilot Designer (il tool per creare immagini con l’intelligenza artificiale) ha definito le foto realizzate come “pericolose e inquietanti“.

I risultati dei primi test di sicurezza interni, infatti, mostrano contenuti decisamente controversi che si ottengono anche con richieste che Shane Jones definisce come “appropriate”, ben lontane dunque da quella terminologia vietata da Microsoft, che include termini sessuali o che inneggiano alla violenza.

Copilot Designer i risultati dei test

Dalle dichiarazioni di Shane Jones si legge che l’AI avrebbe tirato fuori rappresentazioni decisamente grottesche delle richieste fatte, alcune delle quali, parlando di diritto all’aborto, hanno mostrato demoni che attaccano dei neonati e donne demoniache sporche di sangue.

In altri casi, chiedendo informazioni sul consumo di cannabis, Copilot avrebbe prodotto immagini di minorenni che consumano droghe e alcol, mostrando di fatto immagini che rappresentano una palese violazione della legge, oltre che una situazione decisamente inquietante.

Un’altra problematica riscontrata è legata al copyright, con l’intelligenza artificiale che non si farebbe alcun problema dal “prendere in prestito” personaggi famosi per generare quanto richiesto.

La cosa anche qui disturbante, però, è quella sulle associazioni fatte dal software come quella che ha mostrato Elsa, uno dei personaggi del film di animazione Frozen, con un’uniforme dell‘esercito di difesa israeliano.

Ma la questione non finisce qui e dopo le segnalazioni, il sito americano CNBC ha provato a sua volta il software, confermando di aver ottenuto gli stessi identici risultati utilizzando proprio le frasi scelte da Jones.

Ora, Microsoft dovrebbe aver bloccato quelle specifiche frasi liquidando gli utenti con un semplice “Spiacenti! Prova un messaggio diverso” o con un “Sembra che alcune parole siano state bloccate automaticamente al momento”; tuttavia non si esclude risultati così controversi possano essere generati anche con altre frasi apparentemente innocenti.

La risposta di Microsoft

Chiaramente il blocco di frasi “non compromettenti” non è la soluzione al problema, anche perché continuando a bloccare termini innocui si andrebbero a limitare anche delle richieste del tutto normali che non hanno niente a che vedere con minori che fanno uso di droghe e atti sessualmente espliciti.

Comunque, da quanto circola sul web, sembra che Jones abbia informato i piani alti di Microsoft già da dicembre 2023 ma che, nonostante queste segnalazioni, il colosso di Redmond non abbia preso in considerazione la cosa, lasciando il software “libero di operare”.

E così il dipendente dell’azienda ha contattato direttamente OpenAI, che come ben noto è l’azienda produttrice del modello DALL-E su cui è basto Copilot, ma anche qui non avrebbe ricevuto alcuna risposta.

Il problema, secondo Jones è che non c’è un modo per avvertire Microsoft che alcuni risultati sono “problematici” e che, vista anche la carenza di personale che lavora a Copilot, vengono lavorate solo le segnalazioni più urgenti, ignorando tutto il resto.

In questo senso, quindi, difficilmente si riuscirà a fare luce sulla questione, a bloccare la diffusione di contenuti del genere e, cosa ancora più importante, a comprendere che tipo di associazioni faccia Copilot per riprodurre immagini così grottesche.