martedì 19 Marzo 2024

L’ipocrisia del «rischio di estinzione» denunciato dai boss dell’intelligenza artificiale

I dirigenti di OpenAI, Google DeepMind, Anthropic e altre aziende omologhe hanno annunciato che le intelligenze artificiali potranno un giorno rappresentare un pericolo accomunabile alla pandemia del 2019, se non addirittura alle armi nucleari. Non è la prima volta che i leader del settore gettano benzina sugli allarmismi sfrenati e non sarà certamente l’ultima, tuttavia la loro preoccupazione non fa altro che inquinare il discorso pubblico deviando l’attenzione dalle vere insidie che si legano alle IA.

L’ultima vampata sul tema è avvenuta martedì 30 maggio, giorno in cui il Center of AI Safety ha pubblicato sul suo portale uno statement siglato da alcuni dei nomi più noti della scena tech. L’obiettivo dichiarato dai firmatari è quello di evidenziare come «mitigare il rischio di estinzione da parte delle IA debba essere una priorità globale al pari di rischi  di vasta scala quali le pandemie e le guerre nucleari». La no-profit non si azzarda a lanciare nessuna idea progettuale, il lapidario virgolettato riportato qui sopra è anzi il testo integrale di ciò che i luminari del settore hanno deciso di sottoscrivere.

La fiction esplora ormai da molti decenni mondi in cui robot rappresentano una minaccia per l’umanità, quindi l’idea che l’intelligenza artificiale possa sterminare o schiavizzare la società fa parte dell’immaginario collettivo e chiunque faccia leva su simili argomentazioni non faticherà mai a trovare terreno fertile per le proprie parole. Ciò che spesso i CEO omettono di rimarcare è però che quelle stesse derive sci-fi siano ben lontane dal raccontare realtà connesse ai prodotti commercializzati dalle loro aziende.

Il sottotesto che emerge in quell’unica riga di testo diffusa dal Center of AI Safety è che le IA attualmente presenti sul Mercato siano assolutamente sane e che le preoccupazioni debbano piuttosto concentrarsi su ipotetici panorami futuri dai contorni fumosi. Basta d’altronde analizzare i ruoli dei singoli personaggi per notare come i dirigenti del settore abbiano la tendenza a proporre pubblicamente nuove leggi a patto che queste non danneggino in alcun modo la loro attività. 

Solamente a marzo, un’associazione perlopiù finanziata da Elon Musk aveva enunciato la necessità di bloccare lo sviluppo degli algoritmi generativi di ultima generazione, sospensione che fatalmente non avrebbe intaccato in alcun modo le mire imprenditoriali del miliardario sudafricano. Ancora più sfacciato è Sam Altman, CEO di OpenAI che da un lato sostiene con foga la necessità di implementare nuove regole e che dall’altro manifesta apertamente fastidio nei confronti di quell’AI Act europeo che dovrebbe finalmente sedare ogni sua preoccupazione formale.

Altman e diversi suoi colleghi hanno un’idea ben chiara del mondo in cui le intelligenze artificiali dovrebbero essere gestite e suggeriscono apertamente che il tema debba cadere in seno direttamente alle Nazioni Unite. Così come il nucleare può fare affidamento alla International Atomic Energy Agency (IAEA), anche le intelligenze artificiali meriterebbero insomma un proprio organo di vigilanza di portata internazionale. Poco conta che la IAEA sia spesso criticata per il suo ruolo passivo, per la sua scarsa indipendenza e per l’assenza di un potere esecutivo che possa obbligare i singoli Governi a sottostare effettivamente ai patti concordati.

Spostando l’attenzione su di un ipotetico «rischio di estinzione» ci sono buone possibilità che il pubblico e i legislatori si distraggano o che ridimensionino i pericoli già ben integrati negli strumenti di IA generativa. Dar voce al terrore ancestrale non fa altro che sminuire la percezione del danno che potrebbe essere causato da una gestione torbida degli archivi di riferimento delle IA e dall’istituzione di un’oligopolio imprenditoriale che, una volta ottenuta una posizione di vantaggio, potrebbero in qualsiasi momento ridefinire i contenuti a disposizione della massa. Le derive strategiche assunte dai social media dovrebbero insegnare, tuttavia i precedenti servono a poco quando si distoglie lo sguardo dall’esperienza per guardare a un futuro inverosimile quanto minaccioso.

[di Walter Ferri]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Articoli correlati

2 Commenti

  1. Questo è un articolo molto intelligente. Le strategie dell’elite tecnocratica e transumanista sono sempre più raffinate di quel che sembra.
    Sulla stessa onda è da riflettere sull’uso strumentale della “dissidenza” e sulla falsa denuncia di “complotti” inesistenti che serve solo a distrarre e confondere dai pericoli reali e attuali della trasformazione della società in un regime totalitario basato sul condizionamento di massa, la sorveglianza totale, la distorsione della capacità intellettiva, il controllo totale della informazione e cultura.

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria

Grazie per aver già letto

10 dei nostri articoli questo mese.

Chiudendo questo pop up potrai continuare la lettura.
Sappi però che abbiamo bisogno di te,
per continuare a fare un giornalismo libero e imparziale.

Clicca qui e  scopri i nostri piani di abbonamento e supporta
Un’informazione – finalmente – senza padroni.

ABBONATI / SOSTIENI