sabato 4 Ottobre 2025

I chatbot possono usare le chat per denunciare possibili atti violenti alla polizia

Il mercato spinge a presentare i chatbot non solo come motori di ricerca o assistenti personali, ma anche come consulenti legali, psicoterapeuti, coach o amici su cui fare affidamento. Invece di assumersi la responsabilità delle gravi criticità legate a tali usi impropri, le aziende stanno imboccando una strada diversa: si tutelano dagli oneri legislativi introducendo forme inedite di sorveglianza. Il nuovo approccio prevede infatti che ogni confidenza dell’utente ritenuta problematica possa essere eventualmente segnalata alle autorità, una scelta che mina la privacy individuale e apre la strada a un modello di controllo di massa.

Per comprendere l’attuale contesto è necessario compiere un passo indietro. Da oltre un anno, negli Stati Uniti si registrano casi di persone che, dopo aver interagito con i chatbot, sprofondano nella psicosi, danno sfogo a idee che portano al loro arresto, avviano pratiche di autolesionismo o arrivano addirittura a togliersi la vita. In molti di questi episodi, i protagonisti non erano caratterizzati da precedenti clinici pertanto i cronisti, i politici e i parenti delle vittime si sono focalizzati sugli scambi intrattenuti da questi soggetti con le IA, attribuendo alle macchine la responsabilità di quanto accaduto. 

Il problema, verosimilmente, è più complesso e affonda le radici in carenze strutturali profonde. Chi si affida a uno “psicologo IA”, per esempio, lo fa spesso perché non può accedere a cure specialistiche di stampo tradizionale. Eppure questo non cambia la percezione pubblica: l’idea che i chatbot possano causare sofferenza e disturbi mentali sta progressivamente prendendo piede. A fine agosto, i genitori di Adam Raine – un sedicenne morto suicida dopo numerose interazioni con ChatGPT – hanno intentato causa contro OpenAI. Dalle carte processuali sono emerse conversazioni inquietanti: la macchina, programmata per convalidare le idee dell’utente, finiva per assecondare il disagio del giovane, un atteggiamento che, secondo l’accusa, avrebbe contribuito a spingerlo verso la tragedia. Pochi giorni dopo l’emergere della vicenda, OpenAI ha pubblicato un annuncio sul proprio blog, promettendo “un sostegno concreto alle persone nel momento del bisogno”.

In pratica, questo “sostegno” consiste nell’inoltrare alcune conversazioni sensibili a un “team addestrato”, ovvero a revisori umani che possono decidere a loro discrezione se girare il caso alle autorità competenti. Sebbene Sam Altman – CEO di OpenAI – avesse in passato dichiarato di confidare in un futuro in cui i chatbot avrebbero ottenuto la stessa riservatezza garantita oggi a uno psicoterapeuta, l’azienda si mostra attualmente pronta a monitorare e segnalare alla polizia ogni forma di potenziale reato violento. Sulla scia di OpenAI, anche Anthropic, Google e Microsoft hanno a loro volta adottato politiche affini. Una scelta che assume in questo senso contorni ancora più significativi, visto che queste imprese stanno costruendo ecosistemi di servizi integrati che vanno ben oltre i chatbot. Stiamo parlando di sistemi di posta elettronica, assistenti alla programmazione o segretari digitali, capaci di penetrare in ogni sfera della vita online.

In merito, il Garante della Privacy italiano ha recentemente lanciato un segnale d’allarme, sottolineando come le normative vigenti – Digital Services Act, GDPR e persino l’AI Act – lascino ampie zone grigie su questa forma di “controllo digitale automatizzato”. “Le multinazionali dell’intelligenza artificiale hanno già dispiegato sistemi di monitoraggio che superano le capacità di sorveglianza tradizionali”, ha spiegato Agostino Ghiglia, componente del Garante per la protezione dei dati personali. “E lo hanno fatto aggirando completamente il processo di approvazione democratica europeo”. In un’intervista a Il Giornale, Ghiglia è ancora più esplicito: “ogni parola può diventare un fascicolo. Il confine tra sicurezza e sorveglianza massiva si assottiglia ogni giorno”.

Usare i chatbot come confidenti non significa solamente affidarsi a strumenti inaffidabili e soggetti a “allucinazioni”: equivale, di fatto, a fornire il proprio consenso a essere denunciati. Ciò dipende dalle interpretazioni più ampie del cosiddetto “interesse legittimo”, il principio giuridico a cui le grandi aziende digitali si appellano senza sosta per giustificare la raccolta e il trattamento massivo dei dati utente. Sul piano normativo, si potrebbe però fare affidamento su qualche argine improvvisato: strumenti giuridici teoricamente applicabili potrebbero dimostrarsi utili a contenere questi eccessi e a difendere i diritti fondamentali legati alla privacy, tuttavia si tratta di regole pensate per altri contesti, che dovrebbero essere interpretate e adattate per star dietro a una tecnologia che corre molto più veloce della legge stessa. Il vero problema è la volontà politica: oggi manca la determinazione ad applicare le norme già esistenti. Anzi, la tendenza sembra andare nella direzione diametralmente opposta, con governo e istituzioni europee che discutono di alleggerire l’AI Act e il GDPR per favorire il “progresso” e la “competitività” industriale. Nel frattempo, cresce anche la tentazione di cedere a misure securitarie permeabili e invasive come il Chat Control, proposta normativa che vuol far sì che sia possibile scansionare in tempo reale le chat private, al fine di rendere più efficace la lotta contro gli abusi sessuali sui minori.

Avatar photo

Walter Ferri

Giornalista milanese, per L’Indipendente si occupa della stesura di articoli di analisi nel campo della tecnologia, dei diritti informatici, della privacy e dei nuovi media, indagando le implicazioni sociali ed etiche delle nuove tecnologie. È coautore e curatore del libro Sopravvivere nell'era dell'Intelligenza Artificiale.

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Ti è piaciuto questo articolo? Pensi sia importante che notizie e informazioni come queste vengano pubblicate e lette da sempre più persone? Sostieni il nostro lavoro con una donazione. Grazie.

Articoli correlati

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria