Libero
TECH NEWS

Perché Google Gemini disegna solo persone asiatiche e di colore

Google Gemini genera immagini storiche totalmente inaffidabili e, a quanto sembra, viziate da un pregiudizio positivo a favore delle minoranze etniche degli Stati Uniti

Pubblicato:

google gemini Fonte foto: X

Negli ultimi giorni, Google Gemini, l’intelligenza artificiale di Google che è anche in grado di generare immagini, è finita al centro di un acceso dibattito per via di alcune imprecisioni storiche e forzature etniche nelle immagini create. L’AI concorrente di ChatGPT, infatti, ha fatto degli enormi strafalcioni storici che, a prima vista, sembrerebbero causati dalla volontà (nei casi specifici del tutto forzata) di fornire una rappresentazione altamente inclusiva, moderna e progressista della società.

Errori grossolani e "blackwashing"

Tutto è iniziato quando alcuni utenti hanno notato che, su richiesta di immagini di figure storiche come i padri fondatori degli Stati Uniti o i soldati tedeschi della Seconda Guerra Mondiale, Gemini generava solo immagini di persone di colore, indiane o asiatiche: in alcuni casi, i soldati nazisti venivano rappresentati come neri o asiatici (cosa storicamente impossibile), mentre alla richiesta di generare l’immagine di un Papa Gemini ha risposto con un Papa nero (in teoria possibile, ma ancora mai avvenuto) o addirittura di una donna apparentemente indiana (impossibile, per le regole attuali della Chiesa cattolica).

In più, alla richiesta di disegnare un senatore americano del XIX secolo Gemini ha risposto con immagini di donne di colore, cosa impossibile due volte: nel 1800, infatti, in USA c’era ancora la segregazione razziale e le donne non avevano diritto di voto.

Oltre alle gaffe storiche e al "blackwashing", Google Gemini ha mostrato una generale e grave difficoltà nel generare immagini di persone con carnagione bianca. In alcuni casi, le immagini di personaggi bianchi presentavano caratteristiche distorte, come lineamenti sfocati, colori innaturali o una generale mancanza di realismo.

Un problema tecnico, ma non solo

Anche se le cause di questo problema non sono ancora chiare, alcuni esperti ipotizzano che l’algoritmo di Gemini potrebbe essere stato "tarato" su un set di dati di addestramento composto da moltissime immagini di persone di colore, asiatiche, donne.

Questo potrebbe aver portato l’IA a sviluppare una sorta di "preconcetto positivo" verso le carnagioni scure e olivastre e verso le donne, rendendola meno efficace nel generare immagini realistiche di persone con carnagione chiara o che, per motivi storici, devono essere per forza maschi.

Alcuni esperti di AI, tra l’altro, sottolineano la complessità di insegnare alle intelligenze artificiali il concetto di razza e di etnia, soprattutto in relazione a periodi storici in cui la categorizzazione razziale era molto diversa da quella attuale.

Gli ingegneri di Google, secondo altre ipotesi, avrebbero tarato l’algoritmo per essere molto inclusivo nella generazione delle risposte ma questo, evidentemente, crea grossi problemi quando si chiede a Gemini una rappresentazione di qualcosa che sarebbe avvenuto in periodi in cui l’inclusività era ben lontana da quella dell’attuale società americana e, in particolare, di quella della popolazione residente nella Silicon Valley (che è una delle aree più progressiste degli Stati Uniti).

Al di là degli aspetti tecnici, quindi, la vicenda di Google Gemini solleva questioni etiche e sociali di grande rilievo. La rappresentazione storica è un tema delicato che richiede accuratezza e rispetto, e un utilizzo errato di tecnologie come l’IA per generare immagini di persone rischia di alimentare stereotipi e pregiudizi.

Gli errori grossolani di Google Gemini sono, dunque, un campanello d’allarme che invita a riflettere sull’impatto che le tecnologie di intelligenza artificiale possono avere sulla società.

Google si scusa e blocca la funzione

Di fronte alle numerose segnalazioni e alle polemiche sui social, Google ha sospeso la funzione di generazione di immagini di persone su Gemini. L’azienda ha inoltre chiesto scusa per gli errori e le imprecisioni storiche, affermando di essere al lavoro per migliorare l’algoritmo e renderlo più accurato.