L’avvento delle intelligenze artificiali è stato accompagnato dalla promessa di mantenere l’essere umano “in the loop”, ovvero di assicurarsi che ogni decisione finale restasse nelle mani di un dirigente in carne e ossa. Ma, pur continuando a ripetere questo principio, si moltiplicano gli indizi di un cambiamento profondo: il processo amministrativo sta scivolando sempre più verso una dipendenza strutturale dai chatbot. Una nuova ricerca britannica evidenzia infatti che la maggior parte dei dirigenti si trovi ormai nelle condizioni di assumere decisioni importanti solo dopo aver consultato un’IA.
Il dato arriva da Quick Thinking 2.0 [1], un report che sintetizza i risultati di un sondaggio commissionato nel Regno Unito da Confluent, azienda attiva nel cloud e nell’analisi dei dati. Considerando il tipo di servizi offerti dalla società, non stupisce che il documento adotti un tono marcatamente propositivo, invitando le imprese ad abbracciare l’innovazione per non restare indietro. Ciò non toglie che le cifre riportate siano interessanti: offrono infatti uno spaccato significativo degli atteggiamenti manageriali emersi tra i 200 “business leader” coinvolti.
Tra i partecipanti al sondaggio emerge che il 62% ricorre ai chatbot ogni volta che deve compiere scelte manageriali significative. Nel 27% dei casi, queste riguardano assunzioni o licenziamenti. Inoltre, il 46% dei dirigenti interpellati ammette di affidarsi più ai suggerimenti dell’intelligenza artificiale che alle opinioni dei propri colleghi. Un quadro che solleva più di una perplessità, soprattutto considerando che i chatbot possono generare informazioni errate – “allucinare” – con una frequenza stimata [2]tra il 3% e il 27%.
La crescente propensione ad affidarsi alle intelligenze artificiali viene spiegata dal fatto che l’82% dei leader aziendali intervistati dichiara di trovarsi spesso costretto a scegliere tra agire rapidamente o prendersi il tempo necessario per maturare decisioni più ponderate. Il 92% sostiene inoltre che, negli ultimi tre anni, il ritmo imprenditoriale sia aumentato in modo significativo, rendendo più urgente che mai dimostrare prontezza manageriale. Non sorprende quindi che il 60% lamenti di avere sempre meno tempo per prendere decisioni cruciali per il raggiungimento degli obiettivi di business.
In questo scenario, i chatbot vengono percepiti come un ponte di connessione tra i due estremi: strumenti capaci di sintetizzare in pochi istanti una mole di informazioni che, impiegando i metodi tradizionali, richiederebbe molto più tempo per essere analizzata. Le IA finiscono così per essere impiegate non piú come assistenti, ma come consulenti, soprattutto in situazioni che richiedono scelte critiche e tempi stretti – un contesto che rende ancora più difficile controllare l’affidabilità delle informazioni generate dai modelli.
Quanto riportato da Confluent offre uno spaccato del settore privato britannico che si basa su di un campione tutto sommato ristretto, non è detto che possa essere esteso automaticamente ad altri contesti. Tuttavia, queste statistiche restituiscono una misura concreta di un fenomeno che sta già incidendo su molti ambiti in cui figure apicali sono retribuite per farsi carico delle decisioni – talvolta anche difficili. Un assunto che, come dimostrano segnali sempre più frequenti, non riguarda soltanto il mondo aziendale ma tocca anche il perimetro dell’amministrazione pubblica.
Sappiamo, per esempio, che i recenti attacchi statunitensi e israeliani contro l’Iran sono stati supportati in qualche misura da sistemi di intelligenza artificiale. Sappiamo inoltre che il Department of Government Efficiency – guidato ufficiosamente da Elon Musk – ha delegato a ChatGPT la selezione di alcune realtà a cui tagliare i fondi, ritenute colpevoli di aver approfittato delle politiche di inclusività ed eguaglianza. I tagli sono stati eseguiti, salvo poi scoprire [3]che in molti casi le valutazioni automatizzate erano errate e la supervisione umana é stata annullata in favore di una maggiore “efficienza”. Nel contesto militare, dove la trasparenza è ancora più limitata, è difficile ottenere dati affidabili sul tasso di errore: ciò che possiamo ipotizzare, però, è che le IA impiegate in ambito bellico non siano magicamente esenti da fallimenti e che, durante le operazioni più recenti, gli Stati Uniti hanno colpito [4] anche delle scuole.