Il mercato spinge a presentare i chatbot non solo come motori di ricerca o assistenti personali, ma anche come consulenti legali, psicoterapeuti, coach o amici su cui fare affidamento. Invece di assumersi la responsabilità delle gravi criticità legate a tali usi impropri, le aziende stanno imboccando una strada diversa: si tutelano dagli oneri legislativi introducendo forme inedite di sorveglianza. Il nuovo approccio prevede infatti che ogni confidenza dell’utente ritenuta problematica possa essere eventualmente segnalata alle autorità, una scelta che mina la privacy individuale e apre la strada a un modello di controllo di massa.
Per comprendere l’attuale contesto è necessario compiere un passo indietro. Da oltre un anno, negli Stati Uniti si registrano casi di persone che, dopo aver interagito con i chatbot, sprofondano nella psicosi, danno sfogo a idee che portano al loro arresto, avviano pratiche di autolesionismo o arrivano addirittura a togliersi la vita. In molti di questi episodi, i protagonisti non erano caratterizzati da precedenti clinici pertanto i cronisti, i politici e i parenti delle vittime si sono focalizzati sugli scambi intrattenuti da questi soggetti con le IA, attribuendo alle macchine la responsabilità di quanto accaduto.
Il problema, verosimilmente, è più complesso e affonda le radici in carenze strutturali profonde. Chi si affida a uno “psicologo IA”, per esempio, lo fa spesso perché non può accedere a cure specialistiche di stampo tradizionale. Eppure questo non cambia la percezione pubblica: l’idea che i chatbot possano causare sofferenza e disturbi mentali sta progressivamente prendendo piede. A fine agosto, i genitori di Adam Raine – un sedicenne morto suicida dopo numerose interazioni con ChatGPT – hanno intentato causa contro OpenAI. Dalle carte processuali sono emerse conversazioni inquietanti: la macchina, programmata per convalidare le idee dell’utente, finiva per assecondare il disagio del giovane, un atteggiamento che, secondo l’accusa, avrebbe contribuito a spingerlo verso la tragedia. Pochi giorni dopo l’emergere della vicenda, OpenAI ha pubblicato un annuncio sul proprio blog, promettendo “un sostegno concreto alle persone nel momento del bisogno”.
In pratica, questo “sostegno” consiste nell’inoltrare alcune conversazioni sensibili a un “team addestrato”, ovvero a revisori umani che possono decidere a loro discrezione se girare il caso alle autorità competenti. Sebbene Sam Altman – CEO di OpenAI – avesse in passato dichiarato di confidare in un futuro in cui i chatbot avrebbero ottenuto la stessa riservatezza garantita oggi a uno psicoterapeuta, l’azienda si mostra attualmente pronta a monitorare e segnalare alla polizia ogni forma di potenziale reato violento. Sulla scia di OpenAI, anche Anthropic, Google e Microsoft hanno a loro volta adottato politiche affini. Una scelta che assume in questo senso contorni ancora più significativi, visto che queste imprese stanno costruendo ecosistemi di servizi integrati che vanno ben oltre i chatbot. Stiamo parlando di sistemi di posta elettronica, assistenti alla programmazione o segretari digitali, capaci di penetrare in ogni sfera della vita online.
In merito, il Garante della Privacy italiano ha recentemente lanciato un segnale d’allarme, sottolineando come le normative vigenti – Digital Services Act, GDPR e persino l’AI Act – lascino ampie zone grigie su questa forma di “controllo digitale automatizzato”. “Le multinazionali dell’intelligenza artificiale hanno già dispiegato sistemi di monitoraggio che superano le capacità di sorveglianza tradizionali”, ha spiegato Agostino Ghiglia, componente del Garante per la protezione dei dati personali. “E lo hanno fatto aggirando completamente il processo di approvazione democratica europeo”. In un’intervista a Il Giornale, Ghiglia è ancora più esplicito: “ogni parola può diventare un fascicolo. Il confine tra sicurezza e sorveglianza massiva si assottiglia ogni giorno”.
Usare i chatbot come confidenti non significa solamente affidarsi a strumenti inaffidabili e soggetti a “allucinazioni”: equivale, di fatto, a fornire il proprio consenso a essere denunciati. Ciò dipende dalle interpretazioni più ampie del cosiddetto “interesse legittimo”, il principio giuridico a cui le grandi aziende digitali si appellano senza sosta per giustificare la raccolta e il trattamento massivo dei dati utente. Sul piano normativo, si potrebbe però fare affidamento su qualche argine improvvisato: strumenti giuridici teoricamente applicabili potrebbero dimostrarsi utili a contenere questi eccessi e a difendere i diritti fondamentali legati alla privacy, tuttavia si tratta di regole pensate per altri contesti, che dovrebbero essere interpretate e adattate per star dietro a una tecnologia che corre molto più veloce della legge stessa. Il vero problema è la volontà politica: oggi manca la determinazione ad applicare le norme già esistenti. Anzi, la tendenza sembra andare nella direzione diametralmente opposta, con governo e istituzioni europee che discutono di alleggerire l’AI Act e il GDPR per favorire il “progresso” e la “competitività” industriale. Nel frattempo, cresce anche la tentazione di cedere a misure securitarie permeabili e invasive come il Chat Control, proposta normativa che vuol far sì che sia possibile scansionare in tempo reale le chat private, al fine di rendere più efficace la lotta contro gli abusi sessuali sui minori.