Libero
TECH NEWS

Microsoft licenzia il team che vigila sui rischi dell'Intelligenza Artificiale

Ora ogni divisione avrà al suo interno una persona dedicata a studiare eventuali problemi che l'AI potrebbe causare agli utenti finali

Pubblicato:

intelligenza artificiale Fonte foto: Shutterstock

Come moltissime altre Big Tech, da Amazon a google, passando per Meta, anche Microsoft sta licenziando e l’ultima scure si è abbattuta sul team “Etica e Società” che è stato cancellato del tutto dall’organigramma dell’azienda di Redmond. Questo è solo l’ultimo dei tagli che ha visto Microsoft cancellare qualcosa come 10.000 posti di lavoro. Ma l’eliminazione di questo team e il licenziamento dei suoi membri fanno ancora più scalpore alla luce del recente “all in” di Microsoft sull’AI, visto che si trattava proprio del gruppo di lavoro che aveva il compito di vigilare sugli sviluppi degli algoritmi di intelligenza artificiale.

Ai: una sola persona in ogni team

Il team dedicato ai rischi legati all’intelligenza artificiale aveva già subito tagli nel 2022, quando dei trenta membri del 2020 Microsoft ne aveva salvati solo sette. Il licenziamento di tutto il resto del gruppo pare che sia avvenuto sotto pressione del CTO di Microsoft, Kevin Scott, e del CEO, Satya Nadella che non reputano utile un intero team e credono sia sufficiente una sola persona specializzata nell’Ai all’interno di ogni team di sviluppo dei singoli prodotti e servizi.

L’azienda ha quindi deciso di promuovere una nuova figura operativa dedicata, chiamata Office of Responsible AI (ORA). Microsoft afferma, però, che il suo investimento complessivo nel lavoro di responsabilità sui rischi che comporta l’AI è in aumento, e non in diminuizione, nonostante i recenti licenziamenti.

Che farà l’ORA

Secondo quanto riportato dal sito Platformer, che per primo ha dato la notizia del licenziamento dell’intero team “Etica e Società“, ogni divisione di prodotto e servizio di Microsoft vedrà a breve al suo interno la presenza di una persona che si occuperà (da sola) di intercettare eventuali rischi legati all’implementazione dell’intelligenza artificiale in tali prodotti e servizi. Se ne troverà, a questa persona spetterà trovare soluzioni per eliminarli.

La stessa Microsoft, dopo l’articolo pubblicato da Platformer, ha inviato al sito una nota per rassicurare gli utenti che l’azienda intende “sviluppare prodotti ed esperienze di intelligenza artificiale in modo sicuro e responsabile, e lo fa investendo in persone, processi e partnership che diano priorità alla nostra visione futura. Negli ultimi sei anni abbiamo aumentato il numero di persone nei nostri team di prodotto e all’interno dell’Office of Responsible AI che, insieme a tutti noi di Microsoft, hanno la responsabilità di garantire che mettiamo in pratica i nostri principi di intelligenza artificiale“.

Di sicuro, come riporta Platformer, i dipendenti interpellati a riguardo di questa questione hanno affermato che il team di “Etica e Società” ha svolto un ruolo fondamentale nel garantire quello che Microsoft ha dichiarato nella nota, ma secondo i dirigenti di Redmond, sette persone erano fin troppe.