mercoledì 22 Ottobre 2025

Numerose figure pubbliche chiedono di bandire la Superintelligenza Artificiale

Il Future of Life Institute ha lanciato oggi, mercoledì 22 ottobre, un’iniziativa che chiede ai governi di tutto il mondo di introdurre “un divieto che blocchi lo sviluppo della superintelligenza [artificiale]” fino a quando “non ci sarà un ampio consenso scientifico sul fatto che la tecnologia sarà sviluppata in maniera affidabile e controllabile”. La proposta è stata accompagnata da una lettera aperta e ha ricevuto il supporto esplicito di numerosi premi Nobel, di decine di figure politiche e persino di qualche testa coronata. Tuttavia, rischia di distogliere l’attenzione dai problemi reali in favore di un futuro ipotetico che appare ancora estremamente remoto.

L’appello ha raccolto oltre 800 adesioni, tra cui figurano personalità di altissimo profilo come Steve Bannon, imprenditore e podcaster estremamente influente sulle politiche Repubblicane statunitensi, il principe Henry e la duchessa Meghan, il cofondatore di Apple Steve Wozniak, André Hoffmann del World Economic Forum (WEF), padre Paolo Benanti, presidente della “Commissione algoritmi” italiana, e Brando Benifei, europarlamentare italiano che ha avuto un ruolo chiave nella stesura dell’AI Act. A questi si aggiungono figure meno rilevanti sul piano politico, ma dal forte richiamo mediatico quali gli attori Joseph Gordon-Levitt e Sir Stephen Fry, il musicista will.i.am e il giornalista del Corriere della Sera Riccardo Luna.

L’iniziativa si presenta in modo lapidario: poche righe per affrontare una tematica ampia e complessa, un comunicato che sembra più che altro mirato a offrire un trampolino espositivo per il concetto di fondo. La preoccupazione del gruppo è che l’avvento ipotetico della superintelligenza artificiale (ASI) possa avere effetti disastrosi sulla vita delle persone: “dall’obsolescenza e dal depotenziamento dell’economia, alla perdita di libertà civili, dignità e controllo, fino ai rischi per la sicurezza nazionale e persino alla potenziale estinzione umana”. Per scongiurare a priori questo scenario, i firmatari si trovano a chiedere con un certo grado di allarmismo un intervento preventivo da parte dei governi di tutto il mondo.

Per comprendere la portata della richiesta del Future of Life Institute, è però necessario chiarire cosa si intenda per ASI. Secondo la definizione del gruppo, si tratta di tutti quei sistemi di IA che “superano significativamente gli esseri umani essenzialmente in tutti i compiti cognitivi”, una fase evolutiva ulteriore rispetto a quelle delle già avanzate intelligenze artificiali generali (AGI), le quali mirano a eguagliare le capacità della mente umana. Al momento, nessuna di queste due categorie di intelligenza artificiale appare alla portata della ricerca scientifica e vi sono seri dubbi sul fatto che l’attuale direzione tecnologica — quella dei grandi modelli di linguaggio — possa mai tradursi in forme di pensiero dotate della consapevolezza necessaria a eguagliare un cervello biologico.

La definizione stessa di intelligenza artificiale, del resto, rimane estremamente fumosa. Il termine nacque negli anni Cinquanta come trovata di marketing accademico per attrarre nuovi fondi alla ricerca; di conseguenza, anche concetti come AGI e ASI tendono a essere più strumenti narrativi che definizioni rigorose. Questi due orizzonti, apparentemente ancora lontani, diventano però più raggiungibili se si adotta la definizione offerta da OpenAI, azienda leader del settore, secondo cui l’intelligenza artificiale generale sarà raggiunta quando un sistema di IA sarà “in grado di generare un profitto di 100 miliardi di dollari”. Una prospettiva che, tuttavia, potrebbe essere viziata dal fatto che i gravosi legami contrattuali tra OpenAI e Microsoft verranno meno solo al raggiungimento dell’AGI.

Ammesso che le preoccupazioni del Future of Life Institute siano avanzate con le migliori intenzioni, queste appaiono comunque premature, se non addirittura fuorvianti. L’organizzazione era già stata protagonista nel 2023 di una lettera in cui chiedeva di sospendere la ricerca su strumenti più potenti dei modelli di IA allora disponibili, così da evitare “rischi esistenziali” dai toni fantascientifici. Anche in quel caso, l’iniziativa era stata criticata per aver spostato l’attenzione dai problemi già concreti a prospettive remote e inverosimili, alimentando paure irrazionali più che un dibattito costruttivo. Questo nuovo appello rischia quindi di replicare la medesima formula: dare spazio a un sostegno pubblico di facciata a scapito di quegli interventi immediati che sarebbero invece necessari.

Avatar photo

Walter Ferri

Giornalista milanese, per L’Indipendente si occupa della stesura di articoli di analisi nel campo della tecnologia, dei diritti informatici, della privacy e dei nuovi media, indagando le implicazioni sociali ed etiche delle nuove tecnologie. È coautore e curatore del libro Sopravvivere nell'era dell'Intelligenza Artificiale.

Ti è piaciuto questo articolo? Pensi sia importante che notizie e informazioni come queste vengano pubblicate e lette da sempre più persone? Sostieni il nostro lavoro con una donazione. Grazie.

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Articoli correlati

2 Commenti

    • Talmente ovvio che le bombe nucleari distruggeranno l’umanità.
      Solo l’IA può trovare una via di uscita, che richiede l’energia mentale di varie Centrali nucleari pacifiche per venire progettata ed implementata, che chi non lo capisce sta bene in gabbia.

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

+ visti