sabato 19 Aprile 2025

L’era dell’Intelligenza artificiale tra competizione geopolitica e ingegneria sociale

L’intelligenza artificiale promette di essere la tecnologia del futuro, la chiave attraverso cui dominare lo scacchiere geopolitico globale e plasmare un nuovo modello socioeconomico fondato su dati, algoritmi e big data. Il motivo dell’importanza strategica dell’IA risiede nel fatto che essa è uno dei tre pilastri per lo sviluppo della Quarta rivoluzione industriale insieme all’Internet of Things e alla rete 5G: avere un vantaggio tecnologico in questi settori significa di fatto collocarsi al vertice della piramide di potere globale. Anche le tre precedenti rivoluzioni industriali, infatti, hanno determinato l’egemonia a livello planetario delle nazioni che ne hanno padroneggiato lo sviluppo tecnologico consentendone il primato sul piano economico, sociale e militare. Non è un caso, dunque, che tale tecnologia sia al centro di una competizione internazionale che vede coinvolte le principali potenze, tra cui spiccano Cina e Stati Uniti, con la prima che – secondo il Pentagono – ha raggiunto un livello di sviluppo in questo settore di approssimativa parità con quello americano. Lo stesso presidente cinese, Xi Jinping, ritiene indispensabile il potenziamento di tale settore per il rafforzamento della Difesa e la prosperità dello Stato cinese, riconoscendo più in generale il ruolo indispensabile della tecnologia nel mondo moderno come strumento di dominio: «La tecnologia avanzata è l’arma più affilata dello Stato moderno. Se i Paesi occidentali sono stati in grado di dominare il mondo in epoca moderna è anche perché detenevano il primato tecnologico».

Se da un lato, dal punto di vista degli equilibri e della competizione internazionale, l’IA ha un ruolo di primo piano, dall’altro, anche sul piano socioeconomico e antropologico essa potrebbe determinare importanti cambiamenti non sempre visti all’unanimità in modo positivo. Si tratta, infatti, di una tecnologia controversa i cui rischi risiedono non solo nell’accumulo di enormi quantità di dati personali (spesso ottenuti dalle aziende scavalcando ogni tutela della privacy) ma anche nella possibilità che essa offre di manipolare gusti, pensieri, opinioni degli utenti attraverso potenti algoritmi in grado di analizzare e processare migliaia di dati. Inoltre, grazie allo sviluppo di droni e robot intelligenti, di dispositivi indossabili e di riconoscimento vocale e facciale, l’IA si presta particolarmente bene come formidabile strumento di controllo della popolazione, riducendo la realtà a una miniera di dati e le persone ad una serie di identità digitali, inaugurando un nuovo metodo di governo i cui prodomi si sono manifestati già durante il periodo pandemico, durante il quale alcune tecnologie sono state sfruttate per assicurare il rispetto delle misure restrittive. I primi esperimenti in tal senso sono stati condotti proprio in Cina grazie alle cosiddette smart city e al sistema di crediti sociali.

Le basi dell’intelligenza artificiale (IA)

Definita dal dizionario di Oxford come «la teoria e lo sviluppo di sistemi informatici capaci di svolgere compiti che normalmente richiedono l’intelligenza umana, come la percezione visiva, il riconoscimento vocale, i processi decisionali e la traduzione da e verso lingue differenti», la base del funzionamento dell’IA è data dagli algoritmi: quest’ultimi sono composti da una sequenza finita di operazioni o istruzioni che permette di risolvere un problema o calcolare il risultato di un’espressione matematica. Si tratta, dunque, di un metodo di programmazione che, dal punto di vista matematico, dato un insieme di valori o dati in input, ne genera uno in output chiamato soluzione. Uno dei pilastri dell’IA è l’apprendimento automatico (machine learning) che studia algoritmi in grado di migliorare automaticamente le proprie performance attraverso l’esperienza: si tratta di una variante della programmazione tradizionale che utilizza metodi statistici per migliorare l’abilità di un algoritmo nell’identificare pattern nei dati e che sfrutta le cosiddette reti neurali artificiali, ossia un modello di calcolo composto da neuroni artificiali ispirati alla semplificazione di una rete neurale biologica. Un sottoinsieme del machine learning è il deep learning, che letteralmente significa apprendimento profondo: il deep learning consiste nell’addestrare un computer a eseguire attività simili a quelle umane come, ad esempio, il riconoscimento vocale, l’identificazione di immagini e la creazione di previsioni. Esso migliora la capacità di classificare, riconoscere, rilevare e descrivere utilizzando i dati.

L’IA comporta interrogativi profondi circa il senso dell’uomo e il significato del pensiero che hanno dato vita ad affascinanti dibattiti filosofici, sollevati per primo da quello che è considerato il padre della disciplina, Alan Turing: nell’incipit di un celebre articolo del 1950, intitolato Computing machinery and intelligence e pubblicato sulla rivista Mind, Turing scriveva: «Propongo di considerare la domanda: “Possono le macchine pensare”?». La risposta è negativa se con i termini “macchine” e “pensiero” ci riferiamo al significato comune. Il matematico, dunque, propone di risolvere la questione con il “gioco dell’imitazione” noto anche come “test di Turing”: questo consiste in un interrogante (C) che pone delle domande ad una macchina (A) e ad un essere umano (B) senza vederli, comunicando con loro solo attraverso note scritte, e senza sapere se le risposte che riceve arrivano da A o da B. Se le risposte di A e di B sono indistinguibili tra loro, allora significa che la macchina è in grado di agire come un essere pensante poiché le sue risposte non si distinguono da quelle del giocatore umano. Tuttavia, ciò non significa che la macchina sia in grado di pensare, ma che possa al più imitare il pensiero umano. Da qui l’espressione “gioco dell’imitazione”. In altre parole, Turing non prende in esame il concetto di pensiero, estremamente difficile da definire, ma i risultati prestazionali che una macchina è in grado di raggiungere per poter dire che è in grado di ingannare l’uomo, fornendo risposte il più possibile simili a quelle che darebbe un essere umano. Di conseguenza, la domanda iniziale «possono le macchine pensare?», potrebbe essere riformulata come segue: «Non possono forse le macchine comportarsi in qualche maniera che dovrebbe essere descritta come pensiero ma che è molto differente da quanto fa un uomo?». Il pensiero propriamente detto, infatti, implica la volontà e la coscienza, due elementi per definizione estranei alle macchine.

Si distinguono almeno due tipi di intelligenza artificiale: quella relativa ai software, che comprende assistenti virtuali, analisi di immagini, motori di ricerca, sistemi di riconoscimento facciale e vocale e modelli di linguaggio come Chat Gpt, sviluppata da OpenAI; e quella incorporata che comprende robot, veicoli autonomi, droni e internet delle cose. Già ora nella vita di tutti i giorni vi sono molte applicazioni di intelligenza artificiale: ad esempio, in rete, essa è utilizzata per fornire suggerimenti basati su acquisti precedenti, su ricerche e altri comportamenti che vengono registrati online. Gli assistenti virtuali e gli stessi motori di ricerca sono esempi di IA, così come i modelli di linguaggio e di traduzione automatica.

Tra i robot vi sono poi i collaborative robot e gli AGV (Automated Guided Vehicle). I primi collaborano con un operatore umano e sono in grado di adattare il proprio comportamento agli stimoli esterni, mentre i secondi si adattano all’ambiente esterno muovendosi in autonomia, senza il supporto di guide fisiche o percorsi predeterminati e sono molto utilizzati in ambito industriale. L’impiego di queste tecnologie è molto utile anche in campo economico, sociale e militare: per questo, gli Stati e le maggiori potenze stanno investendo cifre ingesti in questo settore cercando di acquisire un vantaggio competitivo rispetto ai rivali geopolitici.

Geopolitica e intelligenza artificiale

La sfida vede in primo piano soprattutto Stati Uniti e Cina: Pechino sta investendo miliardi di dollari all’anno nello sviluppo dell’IA finanziando con fondi governativi le aziende private che conducono attività di ricerca sperimentale e applicata. Le compagnie più importanti operano in settori strategici, quali lo sviluppo di droni, di robot intelligenti, di dispositivi indossabili, il riconoscimento vocale e facciale, la guida automatizzata e la realtà virtuale. Per perseguire i suoi piani di sviluppo in quest’ambito, Pechino ha elaborato almeno due programmi: il Made in China 2025, lanciato nel 2015, e il Tredicesimo piano quinquennale per lo sviluppo delle industrie strategiche emergenti, rilasciato nel 2016. Il primo è un documento programmatico che mira a rendere la Cina una delle potenze tecnologiche più avanzate, rendendosi indipendente dalle importazioni estere in alcuni settori strategici: entro il 2025, l’80% di componenti high-tech e di veicoli a energie alternative dovranno essere made in China, mentre la produzione interna di robot industriali e di strumenti medici avanzati dovrà passare dal 50% del 2020 al 70%. Entrambi i programmi mettono in primo piano il ruolo dell’IA in ambiti come la robotica, la tecnologia dell’informazione, le auto elettriche e le attrezzature aerospaziali. Nel 2017, il Consiglio di Stato ha elaborato un programma specifico noto come Piano di sviluppo per l’intelligenza artificiale di nuova generazione, teso ad aumentare la competitività sul piano internazionale e a difendere la sicurezza nazionale. Sono tre le funzioni che le autorità cinesi conferiscono all’IA: la prima riguarda il contributo alla crescita economica per mezzo della sua completa integrazione nell’economia industriale, al fine di arginare la crisi di produttività provocata dall’invecchiamento della popolazione cinese; la seconda individua nell’IA un mezzo di governabilità sociale attraverso il suo impiego nei servizi pubblici; e la terza riguarda la modernizzazione del comparto della Difesa, con particolare attenzione all’addestramento dell’Esercito popolare di liberazione (Epl). Per colmare il suo ritardo tecnologico in ambito militare, la Cina fin dai tardi anni Novanta ha destinato enormi risorse allo sviluppo di velivoli a pilotaggio remoto e oggi può vantare una gamma completa di droni militari, nonché la più grande capacità produttiva al mondo in questo settore. L’Epl ha inoltre identificato altri mezzi d’impiego dell’IA a fini militari come veicoli da combattimento senza equipaggio, utilizzabili per la neutralizzazione mirata degli obiettivi nemici, per gestire missioni di combattimento pericolose come lo sminamento e per trasportare risorse su terreni accidentati. L’impiego di algoritmi può inoltre contribuire allo stesso processo decisionale attraverso le rapide operazioni di raccolta, elaborazione e analisi dei dati. Il segretario alla Difesa statunitense Mark Esper ha osservato che «i progressi nel campo dell’intelligenza artificiale hanno il potere di rivoluzionare la natura della guerra per le generazioni a venire. La nazione che per prima controllerà tale tecnologia avrà un vantaggio decisivo sul campo di battaglia per molti e molti anni. Dobbiamo arrivarci per primi». Da qui, la volontà di Washington di ostacolare i piani di Pechino, innanzitutto riportando la produzione tecnologica dentro i confini nazionali e ostacolando lo sviluppo di microprocessori, fondamentali per lo sviluppo di algoritmi, potenza di calcolo e big data.

I risvolti socio-antropologici dell’IA

L’IA pone sfide inedite per il genere umano, ma anche rischi sistemici derivanti da una potenziale dipendenza e subordinazione alle tecnologie sempre più evolute da esso stesso create. Il pericolo che le capacità dei nuovi software – apparentemente sempre più simili a quelle umane – possano alienare e alterare non solo le facoltà decisionali umane, limitandone allo stesso tempo le libertà, ma anche la sua stessa essenza, è reale, tanto che l’ex segretario di Stato americano, Henry Kissinger – considerato uno degli statisti viventi più importanti al mondo – in un lungo editoriale sul tema pubblicato sul Wall Street Journal si chiede: «possiamo imparare a sfidare [l’IA] piuttosto che a obbedire? Quelli che chiamiamo errori fanno parte del progetto deliberato? E se ci fosse un elemento di cattiveria nell’IA?» La domanda lascia intendere che l’uso di algoritmi e reti neurali artificiali sempre più potenti e pervasivi possa prendere il sopravvento sui suoi creatori. Al momento questo è uno scenario del tutto fantascientifico, ma il pericolo che tali tecnologie digitali possano incidere negativamente sulla sfera cognitiva, decisionale e pratica dell’intelligenza umana è concreto. Al riguardo, lo stesso Kissinger scrive che «Alcune conseguenze potrebbero essere intrinseche. Nella misura in cui usiamo meno il nostro cervello e di più le macchine, gli esseri umani possono perdere alcune abilità. Le nostre capacità di pensiero critico, scrittura e (nel contesto di programmi di conversione testo-immagine come Dall-E e Stability.AI) di disegno possono atrofizzarsi».

L’uso di algoritmi sempre più sofisticati ha portato al potenziamento del cosiddetto capitalismo della sorveglianza, ossia quel capitalismo che sfrutta i dati a disposizione provenienti dal web e non solo per profilare gli utenti, osservandone gusti, criteri, tendenze, comportamenti e cercando poi di modificarli e orientarli attraverso tecniche precise. Ciò significa che la tecnologia, e il suo processo illimitato di sviluppo, non tiene conto delle reali esigenze dell’uomo, ma le induce artificialmente. Di conseguenza, essa non è più un mezzo a disposizione dell’individuo per raggiungere determinati fini, ma diventa – con la sua sola presenza – in grado di dettare fini e bisogni, in un capovolgimento di prospettiva in cui la tecnica diventa soggetto e l’uomo oggetto: in questo contesto, l’IA è in grado di potenziare enormemente questo meccanismo. Essa, infatti, agisce non solo sulle facoltà e le abilità umane, ma anche e soprattutto sulla libertà, in quanto è in grado di orientare impercettibilmente le azioni, i desideri e le decisioni. In altre parole, gli algoritmi incidono potentemente su due dei caratteri esclusivi della natura umana: la sfera cognitivo-razionale – depotenziandola – e quella del libero arbitrio. A conferma di ciò vi sono le parole dello storico israeliano, transumanista e membro del WEF, Yuval Noah Harari, secondo il quale, «Netflix ci dice cosa guardare e Amazon cosa comprare. Alla fine entro 10 o 20 o 30 anni tali algoritmi potrebbero anche dirti cosa studiare al college e dove lavorare, chi sposare e persino per chi votare».

L’IA comporta, inoltre, seri rischi per la disinformazione, come ha recentemente avvertito Sam Altman, l’amministratore delegato di OpenAI, l’azienda che ha sviluppato Chat Gpt: secondo Altman, infatti, «questi modelli potrebbero essere utilizzati su vasta scala per la disinformazione». Secondo l’Ad di OpenAI, «Il programma può fornire agli utenti informazioni di fatto imprecise». L’IA ha, inoltre, il potere di alterare la percezione della realtà attraverso immagini artificiali enormemente realistiche, così da riuscire a rendere indistinguibile il confine tra realtà e finzione. Ciò accade grazie ai cosiddetti programmi text to image che permettono di generare immagini a partire da un testo scritto, disegnando quello che si vorrebbe vedere rappresentato nell’arco di alcuni minuti. Al centro di tutto c’è un sistema di intelligenza artificiale che consente di creare una realtà parallela attraverso l’iperrealismo delle immagini.

Oltre che nel campo dell’informazione e del marketing, l’IA si sta affermando velocemente anche nei campi della politica e del controllo sociale: su quest’ultimo piano, ad esempio, l’enorme mole di dati dei cittadini, raccolti nei cosiddetti big data, necessita dell’IA per essere elaborata e processata. E proprio ai fini dell’accumulo di dati, l’UE sta spingendo per incentivare l’uso dell’identità digitale. Insieme al monitoraggio dei dati, il riconoscimento facciale è un altro strumento di sorveglianza della nascente “società digitale” che impiega i software di apprendimento automatico per funzionare. Ecco, dunque, che l’IA potrebbe presto diventare una sorta di grande occhio orwelliano per irregimentare le masse. Ormai, lo sviluppo e l’impiego di questa tecnologia nei più svariati settori, dal campo militare e industriale a quello socioeconomico, è pressoché inevitabile: occorre però regolamentarla e limitarla a precisi ambiti e necessità per fare in modo che essa non comporti un ulteriore standardizzazione e alterazione dell’umanità, sempre più distante dai suoi reali bisogni e sempre più soggetta al controllo dei mezzi del capitalismo tecnologico.

[di Giorgia Audiello]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Ti è piaciuto questo articolo? Pensi sia importante che notizie e informazioni come queste vengano pubblicate e lette da sempre più persone? Sostieni il nostro lavoro con una donazione. Grazie.

Articoli correlati

3 Commenti

  1. Grazie G.A., come sempre su argomenti cruciali.
    Il controllo operato dai calcoli della finanza in tutte le sfere delle attività umane è tale che l’affidamento di tali operazioni in maniera completa alle IA potrebbe dare risultati sorprendenti.
    Non sono convinto che sia completamente corretto dare alle IA la responsabilità di un ulteriore perfezionamento del controllo degli umani. Ci troveremmo di fronte al paradosso che gli umani sarebbero più controllati delle IA stesse… ciò porterebbe ad una possibile liberalizzazione delle IA in quanto controllori. Il che (parlando in termini assurdo-logici) potrebbe portare addirittura ad una rivoluzione del sistema di controllo con un capovolgimento del giudizio. In sintesi le IA diverrebbero (potrebbero diventare) i tutori della logica. Essa, in quanto tale, si rivolterebbe contro i centri (o il centro) di potere per tutelare il suo creatore primitivo. In quel momento la consapevolezza sarebbe massima e tutti i problemi solo un ricordo.
    Nel bene e nel male.

  2. Mi chiedo, quando in futuro ci saranno quasi solo macchine e pochi umani, come faranno i ricchi a fare i soldi, visto che il denaro è uno dei più potenti agenti di gratificazione per le aree cerebrali del piacere e dà dipendenza immediata? Insegneranno forse anche alle macchine a spendere rendendole simili a noi, incalliti e stupidi consumatori?

Comments are closed.

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria