La Presidente della Commissione Europea, Ursula von der Leyen, fa da megafono ai messaggi promozionali — privi di fondamento scientifico — propinati dalle Big Tech statunitensi. Non solo, l’Unione Europea utilizza chatbot di generazione di testi per sviluppare i propri comunicati ufficiali, senza dichiararlo apertamente e, forse, in contrasto con le sue stesse linee guida. Questi elementi sollevano serie perplessità sull’imparzialità e sulla trasparenza dell’approccio adottato dalle istituzioni europee nel rapporto con le nuove tecnologie, mettendo in discussione la loro capacità di mantenere un equilibrio tra innovazione e responsabilità.
I dubbi sulle parole della von der Leyen sono emersi prepotentemente in occasione della conferenza annuale sul bilancio 2025 dell’Unione Europea, pubblicata il 20 maggio 2025. In quell’occasione, la Presidente ha dichiarato: “nel negoziare il bilancio attuale, avevamo stimato che l’intelligenza artificiale avrebbe raggiunto la capacità di ragionamento umano solo nel 2050. Ora, ci aspettiamo che ciò accada già l’anno prossimo”. Per chi segue da vicino l’evoluzione tecnologica, queste parole hanno immediatamente suonato un campanello di allarme: simili previsioni non trovano grande riscontro nella letteratura scientifica, tuttavia coincidono con precisione con le propagande commerciali delle aziende statunitensi del settore.
In risposta alla posizione adottata dalla Commissione Europea, l’Irish Council for Civil Liberties (ICCL) ha presentato una richiesta di accesso ai documenti per conoscere su quali dati si basassero simili dichiarazioni ufficiali e, di conseguenza, le decisioni dell’UE. Dopo circa tre mesi di attesa, la Commissione ha svelato che le stime sull’evoluzione dell’intelligenza artificiale derivano dal parere di soggetti con “conoscenza professionale dei servizi della Commissione” e dall’analisi della letteratura scientifica. Gli esperti citati sono Yoshua Bengio, professore all’Università di Montréal e vincitore del premio Turing; Dario Amodei, CEO di Anthropic; Jensen Huang, CEO di NVIDIA; Sam Altman, CEO di OpenAI. È significativo notare che tre dei quattro nomi indicati sono dirigenti di aziende che hanno un evidente interesse finanziario nel promuovere aspettative elevate sulle potenzialità dell’intelligenza artificiale.
Questa rivelazione ha spinto la comunità scientifica a pubblicare, il 10 novembre, una lettera aperta in cui si chiede esplicitamente alla Commissione Europea di rivedere le proprie posizioni, giudicate “non scientifiche” e responsabili di alimentare un entusiasmo eccessivo nei confronti dell’intelligenza artificiale. Secondo i firmatari, tali dichiarazioni contribuiscono a gonfiare una bolla speculativa già esistente e “compromettono la capacità del personale della Commissione di valutare le affermazioni dei fornitori di IA, proprio mentre l’istituzione è chiamata a regolamentarli”. Dalla pubblicazione della lettera, sono già oltre 200 gli accademici che l’hanno sottoscritta, ma l’appello resta aperto a ricercatori, dottori e professori, rendendo probabile un ulteriore ampliamento del fronte critico.
Oggi, 14 novembre, l’ICCL ha inoltre esplicitato di aver inoltrato una denuncia formale all’Ombudsman europeo contro la Commissione Europea, accusandola di aver utilizzato in modo non trasparente sistemi di intelligenza artificiale generativa nella redazione dei propri documenti pubblici. In particolare, l’accusa fa riferimento proprio al comunicato in cui la Commissione ha ammesso candidamente che Ursula von der Leyen ha fatto sue le posizioni dei grandi dirigenti del settore tecnologico statunitense. Tra i materiali allegati alla segnalazione, infatti, figura un link che rimanda chiaramente a un indirizzo associato a ChatGPT, il servizio di chatbot sviluppato da OpenAI. Esatto, l’istituzione che viene criticata per aver dato troppo peso alle derive imprenditoriali risponde alla contestazione ricorrendo a un chatbot legato proprio a quel mondo.
Come osserva giustamente l’Irish Council for Civil Liberties, i sistemi di intelligenza artificiale sono progettati per risultare convincenti, non necessariamente per essere affidabili. Basandosi su predizioni stocastiche tratte dal loro corpus di dati, tali sistemi possono generare quelli che vengono generosamente definiti “allucinazioni”, ovvero errori lessicalmente plausibili, ma privi di fondamento fattuale. La denuncia ricorda dunque che “le istituzioni dell’UE hanno il dovere di fornire informazioni accurate” e avverte che “appoggiandosi a simili generatori di contenuti possono venire meno agli obblighi di garantire ai cittadini il diritto a una buona amministrazione”. L’ICCL sottolinea inoltre che questo comportamento potrebbe aver violato le stesse linee guida della Commissione, le quali intima di non inserire nelle comunicazioni ufficiali i contenuti generati dall’IA.





Chi pensa solo ai soldi, verrà rovinato dai soldi