domenica 15 Marzo 2026

Intelligenza Artificiale e usi militari: il concretizzarsi di una distopia

L’intelligenza artificiale promette di sconvolgere la società umana, di rivoluzionarla antropologicamente. Questo avverrà anche in campo militare, dove già sta iniziando a trovare la sua applicazione. In quest’ultimo ambito, alcuni Stati vorrebbero limitarla, mentre altri sono intenzionati a utilizzare l’IA nella sua forma più avanzata: quella autonoma. In tal modo, il futuro distopico immaginato da alcuni film e romanzi di fantascienza sembra divenire sempre più reale, contutte le complicate questioni etiche e morali (non di poco conto) che ne conseguono. La prospettiva, infatti, è assistere all’utilizzo massiccio di sistemi d’arma capaci di prendere decisioni operative in autonomia e ingaggiare il nemico senza bisogno di intervento umano. In sede ONU, per la prima volta, l’Assemblea Generale si è espressa sull’argomento, mentre il Segretario Generale chiede che si arrivi a una forte limitazione, se non il suo completo divieto di utilizzo. Una richiesta, quest’ultima, rimasta per il momento inascoltata.

I sistemi d’arma autonomi letali

Sebbene le armi autonome (LAWS, Sistemi d’arma autonomi letali) siano ormai realtà da diverso tempo, il loro grado di autonomia e indipendenza diviene sempre più ampio fino ad arrivare, con l’applicazione dell’IA, alla completa libertà di movimento e decisione. Fino ad oggi, infatti, le armi autonome hanno funzionato sempre con un intervento umano che ne definiva in anticipo le azioni, i tempi di svolgimento e gli obiettivi. Questo rapporto di comando uomo-macchina può adesso scomparire, rendendo possibile la completa autonomia della macchina.

I tipi più comuni di armi con funzioni autonome sono sistemi come le mine anti-veicolo e anti-uomo, che una volta attivate funzionano autonomamente sulla base di meccanismi d’innesco. I sistemi più recenti di armi autonome impiegano tecnologie sempre più sofisticate e includono principalmente sistemi di difesa missilistica in grado di rilevare e ingaggiare autonomamente bersagli. Altri esempi includono le loitering munition (note anche come kamikaze o drone che esplode) che incorporano una testata e attendono intorno ad un’area predefinita fino a quando un bersaglio non viene localizzato da un operatore a terra, o da sensori automatizzati a bordo, per poi attaccarlo. Queste armi sono emerse per la prima volta negli anni Ottanta e, da allora, le funzionalità dei loro sistemi sono diventate sempre più sofisticate, consentendo, tra le altre cose, autonomie più lunghe e carichi utili più pesanti. L’intelligenza artificiale non è quindi un prerequisito per il funzionamento di questi sistemi ma, una volta incorporata, potrebbe consentire di arrivare ad una completa autonomia della macchina. Per mezzo di essa, infatti, il sistema potrebbe acquisire ed elaborare dati in maniera costante, potendo così prendere decisioni indipendenti o regolare il comportamento in base alle circostanze.

Le superpotenze non intendono limitarne l’uso, per il momento

Il Segretario Generale delle Nazioni Unite, António Guterres

In un appello congiunto risalente ad ottobre, il Segretario Generale delle Nazioni Unite António Guterres e il presidente del Comitato Internazionale della Croce Rossa Mirjana Spoljaric avevano chiesto ai leader politici di stabilire urgentemente nuove regole internazionali sui sistemi d’arma autonomi, per proteggere l’umanità. La volontà di Guterres sarebbe infatti quella di vietare l’applicazione dell’IA alle armi autonome, mantenedo su di esse il controllo umano: «Dobbiamo agire ora per preservare il controllo umano sull’uso della forza. Il controllo umano deve essere mantenuto nelle decisioni di vita e di morte. Il targeting autonomo degli esseri umani da parte delle macchine è una linea morale che non dobbiamo oltrepassare. Le macchine con il potere e la discrezionalità di togliere vite umane senza il coinvolgimento umano dovrebbero essere vietate dal diritto internazionale» ha dichiarato.

Per la prima volta, il 1° novembre scorso, ci si è espressi in sede ONU sulla questione inerente i LAWS, ma il risultato è stato piuttosto deludente. LAssemblea Generale ha infatti approvato una risoluzione (la L.56, promossa con 164 voti a favore) che chiede l’applicazione del diritto internazionale e del diritto internazionale umanitario ai sistemi d’arma autonomi letali, senza però riuscire ad ottenere una limitazione – nè tantomeno il divieto. La risoluzione, presentata dall’Austria con 43 co-sponsor, è la prima in assoluto dell’Assemblea Generale incentrata esclusivamente sulle armi autonome. Cinque Stati hanno votato contro (India, Russia, Bielorussia, Mali e Niger), mentre sono state otto le astensioni (Cina, Israele, Iran, Arabia Saudita, Corea del Nord, Siria, Turchia ed Emirati Arabi Uniti). Tuttavia, dal momento che nei rapporti tra Stati domina ancora la legge di natura piuttosto che il diritto internazionale, come illustrato all’interno del Monthly Report n. 26 dello scorso settembre, possiamo dire che il risultato raggiunto equivalga sostanzialmente a un nulla di fatto.

«Questo è davvero uno dei punti di svolta più significativi per l’umanità» ha detto in un’intervista Alexander Kmentt, capo negoziatore austriaco, sulla questione. «Qual è il ruolo degli esseri umani nell’uso della forza: è una questione di sicurezza assolutamente fondamentale, una questione legale e una questione etica». Come fa sapere il New York Times, sebbene gli USA abbiano votato a favore della risoluzione austriaca, essi sostengono, insieme a Russia, Australia, Israele e altri Paesi, che per il momento non sia necessaria alcuna nuova legge internazionale specifica per regolare l’utilizzo dei LAWS. I sostenitori del controllo degli armamenti, invece, sostengono che la Cina volesse definire qualsiasi limite legale in modo così restrittivo che avrebbe avuto scarso effetto pratico. Il risultato delle varie posizioni è stato quello di annodare il dibattito in maniera indistricabile, lasciando poco spazio al raggiungimento di un mandato giuridicamente vincolante. La posizione assunta dalle grandi potenze crea la concreta possibilità che i LAWS inizino a diventare di uso comune sui campi di battaglia prima che ci sia, quantomeno, un accordo sulle regole per il loro utilizzo.

I LAWS sono già in utilizzo

Borodyanka, regione di Kyev, Ucraina

Jaan Tallinn è particolarmente spaventato dalle implicazioni nell’uso militare dell’IA. Tra i fondatori di Skype, del Cambridge Centre for the Study of Existential Risk e del Future of Life Institute, due organizzazioni dedicate allo studio e alla mitigazione dei rischi esistenziali (in particolare del rischio derivante dallo sviluppo di tecnologie avanzate di intelligenza artificiale), Tallinn ha rilasciato dichiarazioni molto dure sul tema: «Potremmo semplicemente creare un mondo in cui non è più sicuro stare all’aperto perché potresti essere inseguito da sciami di robot da macello».

I sistemi di arma autonomi sono già stati utilizzati unitamente all’intelligenza artificiale – quindi senza il controllo umano sulla macchina. Stando a un report pubblicato dal Consiglio di Sicurezza delle Nazioni Unite, inoltre, in Libia sarebbe già stato utilizzato un sistema d’arma completamente autonomo. I droni STM Kargu-2, forniti dalla Turchia al governo di Fayez Mustafa al-Sarraj, sarebbero stati utilizzati durante il conflitto contro le forze guidate dal Generale Khalifa Haftar. Secondo NewScientist, anche nel conflitto russo-ucraino si sta facendo utilizzo di una simile tecnologia d’arma completamente autonoma: “L’Ucraina sta utilizzando droni dotati di intelligenza artificiale in grado di identificare e attaccare obiettivi senza alcun controllo umano” viene riportato. Il futuro che non volevamo, forse, è già qui.

[di Michele Manfrin]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Ti è piaciuto questo articolo? Pensi sia importante che notizie e informazioni come queste vengano pubblicate e lette da sempre più persone? Sostieni il nostro lavoro con una donazione. Grazie.

Articoli correlati

3 Commenti

  1. Leggete attentamente perché non ripeterò, con Guccini è difficile spiegare è difficile capire se non hai capito già.
    L’Universo può essere visto come luogo soggetto a regole e creatore come da mainstream opinion e su questo universo forzatamente gerarchico l’IA la farà da padrone e l’uomo è destinato a sparire.
    Oppure non c’è alcun Universo, solo il caos che crea qualunque realtà del Multiverso così grande che la nostra mente ed immaginazione non possono in alcun modo rappresentarlo come i numeri naturali non possono rappresentare tutti i numeri.
    In questo Multiverso comandano da una parte l’Entropia frattale che col secondo principio implica la fine di ogni universo e dall’altro l’inevitabile insorgenza causata dal caos di attrattori di cui un esempio è l’Universo in cui viviamo e conseguentemente degli Strani Attrattori che con la loro natura frattale possono riuscire a contrastare la termodinamica frattale e creare uno spazio di illimitata eternità per gli uomini: Questo è il regno dell’Umanità che non può essere delle IA.

  2. Sono costernato. Non so come commentare queste notizie. L’IA prenderà, in tutto il mondo, il posto della mente umana. Le conseguenze saranno una continua guerra senza vie d’uscita.

Comments are closed.

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria