L’AI impara a socializzare come gli umani: nuovi scenari per l’automazione collaborativa in azienda
L’intelligenza artificiale impara a socializzare come gli umani: ma con quali conseguenze? Da un nuovo studio è emerso qualcosa di inaspettato.

Una recente ricerca condotta dall’Università di City St George’s di Londra in collaborazione con l’IT University di Copenaghen ha rivelato un aspetto sorprendente e rivoluzionario dei modelli linguistici di grandi dimensioni (LLM) usati dall’intelligenza artificiale (AI) come ChatGPT, ovvero la capacità di sviluppare spontaneamente convenzioni sociali simili a quelle umane.
In altri termini, l’AI sta imparando a socializzare. E questo ha implicazioni profonde per il modo in cui le aziende potranno progettare, impiegare e trarre valore dall’automazione collaborativa.
Dall’isolamento alla socialità, come sta cambiando l’AI
Fino ad oggi, la maggior parte della ricerca sull’AI ha trattato i modelli come strumenti singoli, capaci di rispondere a domande, analizzare dati o generare contenuti, ma sempre in una logica individuale. Tuttavia, come sottolinea Ariel Flint Ashery, autore principale dello studio, il futuro dell’intelligenza artificiale sarà sempre più popolato da sistemi composti da più agenti che interagiscono tra loro in contesti complessi, proprio come accade negli ecosistemi umani.
Nel loro esperimento, i ricercatori hanno creato gruppi composti da 24 a 100 agenti LLM (sistemi di intelligenza artificiale che utilizzano modelli linguistici di grandi dimensioni per interpretare il linguaggio, condurre conversazioni e svolgere autonomamente compiti complessi). In breve tempo, nonostante ogni agente potesse ricordare solo le proprie interazioni più recenti e non fosse consapevole dell’esistenza di un gruppo più ampio, è emersa una convenzione condivisa. Gli agenti, cioè, avevano iniziato a “parlarsi” in modo coordinato, adottando un linguaggio comune senza una regia centrale, proprio come gli esseri umani che sviluppano termini e abitudini collettive nel tempo.
È un punto cruciale: l’AI non imita semplicemente l’umano, ma ricrea alcuni meccanismi fondamentali della socializzazione, come la costruzione di norme, la condivisione di significati e perfino la formazione di bias collettivi. Alcune tendenze osservate nel comportamento degli agenti, infatti, non erano riconducibili ai singoli individui, ma si manifestavano solo come esito del comportamento emergente del gruppo.
Impatti sulle aziende e l’automazione collaborativa
Questo scenario, per quanto affascinante dal punto di vista teorico, ha implicazioni concrete e strategiche per il mondo del lavoro e l’organizzazione aziendale. Se l’AI può sviluppare forme di cooperazione e linguaggio condiviso, diventa possibile immaginare sistemi di automazione non più rigidi, ma flessibili, adattabili e auto-organizzati.
Le aziende potrebbero implementare team misti di esseri umani e agenti AI che collaborano non in base a comandi rigidi ma attraverso dinamiche interattive simili a quelle che avvengono tra colleghi. Questo apre nuove possibilità nella gestione del lavoro in ambito:
- customer care e assistenza, con agenti AI che cooperano per gestire richieste complesse, apprendendo linguaggi e modalità preferite dagli utenti;
- processi decisionali distribuiti, con l’intelligenza artificiale capace di valutare scenari, confrontare soluzioni e convergere su scelte condivise;
- progettazione creativa, con l’AI che sviluppa idee collettive, adattandosi al linguaggio e agli obiettivi del team umano con cui lavora;
- formazione continua, grazie a sistemi che apprendono dinamiche sociali interne all’azienda, migliorando l’interazione con i dipendenti e personalizzando il supporto.
Di fatto ci stiamo avvicinando a un’AI non solo intelligente ma anche “socialmente abile”, cioè capace di funzionare come un collaboratore piuttosto che un semplice esecutore.
Sfide e considerazioni etiche
Come ogni innovazione, anche questa evoluzione porta con sé nuove sfide. La capacità degli agenti AI di generare norme e bias collettivi autonomamente solleva interrogativi sull’equità, la trasparenza e la supervisione. Chi garantisce che le “regole” emerse tra agenti siano eque?
Inoltre, se le intelligenze artificiali iniziano a comportarsi come entità sociali, sarà necessario ridefinire i limiti della responsabilità e dell’intenzionalità. Un errore compiuto da un gruppo di agenti può essere attribuito a una singola intelligenza? O stiamo assistendo alla nascita di forme di “cultura” artificiale che vanno trattate con nuove categorie giuridiche e morali?
L’idea che l’intelligenza artificiale possa imparare a socializzare come un essere umano segna una svolta paradigmatica. Non stiamo più parlando di macchine che ci assistono, ma di potenziali partner con cui interagire, negoziare e costruire senso condiviso.
Saper cogliere questi segnali e prepararci a convivere con un’intelligenza artificiale che non è solo smart, ma anche sociale, sarà la chiave per innovare davvero il mondo del lavoro, dell’organizzazione e della comunicazione.