mercoledì 11 Dicembre 2024

Gli USA lanciano la task force per applicare l’intelligenza artificiale alla guerra

Il Pentagono ha annunciato la creazione della task force “Lima” con l’obiettivo generale di applicare l’Intelligenza artificiale (IA) al comparto della Difesa: «Valutare, sincronizzare e impiegare l’intelligenza artificiale generativa in tutto il Dipartimento», è quanto si legge nella bozza di annuncio stampa per la presentazione della nuova task force. Nello specifico, lo scopo della creazione di un gruppo di lavoro apposito per l’IA è duplice: da un lato capire come impiegare la tecnologia in modo sicuro, individuando e risolvendo i diversi pericoli e le criticità che può comportare; dall’altro, prevedere come potenze quali la Cina potrebbero utilizzare l’IA generativa per danneggiare gli Stati Uniti. Secondo la definizione del World Economic Forum (WEF), l’intelligenza artificiale generativa si riferisce a «una categoria di algoritmi di intelligenza artificiale che generano nuovi risultati in base ai dati su cui sono stati addestrati».

A capo della task force, annunciata lo scorso 10 agosto, è stato nominato Craig Martell, direttore del reparto digitale del Dipartimento della Difesa. Lo stesso Martell ha dichiarato che, sul piano pratico, la sua task force si dedicherà ad individuare «una serie di casi d’uso, interni al dipartimento, in cui riteniamo che l’IA generativa possa aiutarci a svolgere il nostro lavoro e in cui i pericoli e le difficoltà dell’IA generativa possono essere mitigati». Tra i problemi più rilevanti che presentano i modelli di IA vi è quello della cosiddetta “Hallucination” (allucinazione), ossia l’incapacità della tecnologia di distinguere i dati veri di un database da quelli fittizi. Per questa ragione, il Pentagono ha deciso di sviluppare un modello di IA ex novo, piuttosto che utilizzare modelli preesistenti come ChatGpt o Bard. Quest’ultimi non sono adatti al Dipartimento della Difesa (DOD) a causa della quantità di domande necessarie per produrre risultati adeguati: le lunghe sequenze di domande vanno bene per gli utilizzatori amatoriali, ma un operatore che deve svolgere molti altri compiti complessi ha bisogno di un’interfaccia intuitiva e che funzioni meglio fin dall’inizio.

Compito della task force sarà, dunque, quello di individuare il materiale necessario per la creazione di un nuovo modello. Non è ancora detto, però, che il progetto raggiunga pienamente i suoi scopi, in quanto anche se un sistema ad hoc dovrebbe ridurre al minimo i rischi, permarrebbe comunque un minimo grado di “unrealiability” – ossia di inaffidabilità – dovuto alla massiccia quantità di dati presenti negli archivi del Dipartimento della Difesa, la cui anche parziale sovrapposizione potrebbe causare errori d’interpretazione da parte della macchina. Inoltre, per creare il nuovo modello, sarà necessario aumentare notevolmente la potenza di calcolo: «Se decidiamo di costruire il nostro modello di base, dobbiamo obbligatoriamente aumentare progressivamente il calcolo, non c’è dubbio. Per costruire il proprio modello fondativo, è necessaria molta potenza di calcolo. Se vogliamo comprarla da qualcun altro, o se vogliamo prenderne una open source e raffinarla secondo i nostri bisogni, potrebbero essere necessari contratti diversi», ha affermato Martell.

Uno degli obiettivi della task force è anche quello di indicare all’industria privata il miglior percorso da seguire per produrre prodotti o servizi che soddisfino gli standard del Dipartimento della Difesa. Ciò probabilmente si tradurrà nell’incentivare le aziende non solo a ridurre i rischi insiti nei loro modelli, ma anche ad aumentarne la facilità d’uso per più persone. In ogni caso, resta ancora molta strada da fare per l’applicazione dell’IA al settore militare. Lo stesso Martell, infatti, ha affermato che «C’è molta ricerca che deve essere fatta, non solo per il DOD, ma nella comunità nel suo insieme, su questi due elementi: cosa significa automatizzazione, ingegneria rapida e contesto, e cosa la mitigazione automatica dell’“allucinazione”. Queste cose sono ancora sconosciute». Tuttavia, il lavoro della task force sta ponendo le basi per delle linee guida che potrebbero contribuire al miglioramento delle norme etiche nell’ambito dell’IA in tutte le aziende, anche private, che operano nel settore.

[di Giorgia Audiello]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Ti è piaciuto questo articolo? Pensi sia importante che notizie e informazioni come queste vengano pubblicate e lette da sempre più persone? Sostieni il nostro lavoro con una donazione. Grazie.

Articoli correlati

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria