- L'INDIPENDENTE - https://www.lindipendente.online -

Il fronte delle immagini IA: come Iran e Occidente lottano per il monopolio della “verità”

Negli ultimi giorni, hanno iniziato a circolare fotografie di missili balistici che solcano i cieli  di Tel Aviv, pubblicate da pagine di propaganda filo-iraniane. L’obiettivo era  dimostrare che i tanto decantati sistemi di difesa israeliani non sono poi la muraglia  invalicabile che si vuole far credere. Queste immagini sono risultate successivamente generate dall’intelligenza artificiale. L’esperienza maturata con la guerra in Ucraina (il primo conflitto ampiamente documentato in tempo reale via social) ha mostrato quanto i tradizionali protocolli di  verifica fatichino a tenere il passo con la velocità della circolazione informativa. Nonostante la smentita, quelle immagini, in quanto simbolo, hanno prodotto comunque il  loro effetto psicologico, permettendo agli ambienti informativi filo-iraniani di assaporare  rappresentazione simbolica di una vendetta a lungo attesa. Quella che si va delineando è un nuovo fronte della guerra dell’informazione che mette in campo generatori di immagini false sulle sponde dei campi di battaglia.

Alla produzione di immagini artefatte – che pure esistono e vanno denunciate – ha fatto immediatamente seguito l’attivazione del meccanismo della smentita ufficiale. Esemplare, in questo senso, un contenuto della BBC [1] che ha prontamente smascherato le immagini AI. 

Un servizio giornalisticamente ineccepibile, ma che ignora il contesto: la  BBC – e in particolare il suo World Service – è storicamente considerata [2]uno strumento di  soft power britannico, finanziata [3]per anni dal Foreign Office e tutt’oggi allineata con le  narrazioni occidentali e, su molti dossier, con Israele. Il fact-checking diventa così anche un atto politico: smascherare il falso iraniano significa, nel medesimo gesto, riaffermare la  superiorità informativa del proprio schieramento. In mezzo, una domanda sempre più urgente, ma che nessuno sembra volersi porre: chi decide, oggi, cos’è vero? E con quali strumenti, e soprattutto con quale autorità? 

La vicenda assume contorni paradossali se si analizza il ruolo giocato dagli stessi  strumenti di IA nella certificazione della notizia. Diverse immagini hanno superato il vaglio  di Grok, l’intelligenza artificiale integrata nella piattaforma X di Elon Musk, che le ha etichettate come reali. Un episodio che rivela una crepa fondamentale nell’architettura della verifica contemporanea: le IA, per quanto sofisticate, sono soggette a bias algoritmici e si rivelano insufficienti se usate da sole. La validazione richiede ancora  l’intervento umano, capace di andare oltre l’impressione visiva. Il fact-checking tradizionale si basa su analisi comparative: confronto tra diverse fonti, verifica della coerenza architettonica con le mappe satellitari e altri strumenti specifici per ogni situazione. In assenza di certezze, di fronte ad immagini che presentano i tipici difetti delle generazioni IA, la prassi migliore resta il beneficio del dubbio. 

Esistono poi diversi paradossi tecnologici. Alcune piattaforme hanno iniziato a sperimentare sistemi di tracciabilità come lo standard C2PA [4], che permette di incorporare metadati crittografici al momento della generazione dell’immagine. Si tratta però di tecnologie recenti, lungi dall’essere universali: la maggior parte delle piattaforme non è ancora attrezzata per leggerle, e si affida alle segnalazioni di fact-checker, un  processo più lento e fallibile. 

Il vero punto debole, però, è la fragilità del manufatto digitale. I metadati sono facilmente eliminabili: immagini e video che diventano virali subiscono screenshot, ricompressioni, passaggi su WhatsApp o Telegram, perdendo irrimediabilmente le informazioni di origine. Anche il sistema più avanzato si trova così di fronte a un’immagine muta, incapace di raccontare la propria provenienza. Ma questa stessa fragilità tecnica è anche ciò che permette la circolazione libera dell’informazione: se ogni foto fosse permanentemente tracciabile, sarebbe impossibile per un testimone oculare in una zona di conflitto condividere ciò che ha visto senza passare attraverso i filtri delle redazioni centralizzate. 

Questa ritrovata libertà, che restituisce pluralismo all’informazione, porta però con sé una  sfida: la frammentazione delle fonti rende oggi più difficile distinguere il reporter  indipendente dal propagandista. È il paradosso della democrazia informativa: più voci possono parlare, più è complesso orientarsi. Un prezzo da pagare, che ha come alternativa il ritorno censorio ai monopoli dell’informazione.

Il pericolo più concreto è che in tempi di escalation militari queste rappresentazioni finte  possano innescare reazioni reali da parte degli Stati. In uno scenario di tensione altissima,  dove i tempi di decisione si riducono a pochi minuti, un’immagine virale di un “attacco in  corso” potrebbe teoricamente influenzare i decisori politici o essere fraintesa dai sistemi di intelligence. Se un governo agisse sulla base di un falso credendolo vero, il confine tra simulacro e realtà verrebbe meno, con conseguenze incalcolabili. 

Quando Khamenei è stato ucciso, è diventata virale questa immagine che mostra il corpo della vecchia Guida Suprema iraniana sotto le macerie

Il problema etico sollevato da questi episodi, tuttavia, non nasce con l’avvento  dell’intelligenza artificiale, ma affonda le radici in una questione più profonda, di natura  epistemologica: come facciamo a sapere ciò che sappiamo? Chi è autorizzato a certificare la verità in un’epoca in cui la rappresentazione della realtà è divenuta tecnicamente indistinguibile dalla realtà stessa? 

L’Iran forma ogni anno centinaia di migliaia di laureati [5] in discipline STEM, ma la macchina della delegittimazione occidentale resta più forte sul piano mediatico. Lo abbiamo già visto in passato: un meccanismo subdolo ed efficace, dove si prende un falso, lo si smaschera, e si estende il sospetto a tutto l’universo informativo dell’avversario.

Questa dinamica rivela il cuore del problema, che è anche strutturale: gli sviluppatori dei  sistemi automatizzati di tracciabilità e verifica delle immagini – dalla Content Authenticity  Initiative (CAI) [6] di Adobe, passando per gli standard C2PA [4](coalizione che include Adobe,  Microsoft, Intel e la BBC) e strumenti come InVID [7](progetto finanziato dalla Commissione Europea nell’ambito del progetto Horizon) – così come i media che detengono successo e  riconoscimento internazionale, sono in stragrande maggioranza occidentali. Questo crea  uno scompenso epistemologico di partenza. Non esistono, al momento, sistemi di  tracciabilità sviluppati in paesi del Global South con pari diffusione e riconoscimento  internazionale. La certificazione della verità avviene quindi sempre e comunque attraverso  infrastrutture cognitive e tecnologiche che appartengono a una delle parti in conflitto. 

Le nuove tecnologie di verifica, se rimangono a disposizione esclusiva di chi detiene già l’egemonia culturale e tecnologica, rischiano così di diventare non strumenti di verità, ma armi di delegittimazione preventiva. Finché un post falso iraniano verrà smascherato da un apparato di fact-checking che vede la partecipazione attiva delle principali testate giornalistiche occidentali – non sempre semplici utilizzatrici, ma co-progettiste degli standard e delle tecnologie di verifica, mentre un post tendenzioso della controparte verrà ignorato, giustificato o semplicemente non sottoposto allo stesso vaglio, la “guerra delle immagini” rimarrà un conflitto a senso unico.  

La radice del problema resta quella di sempre: la verità non è mai stata solo una questione di fatti, ma di chi ha il potere di certificarla. Oggi, però, questo potere è  incorporato negli algoritmi, nei metadati, nei protocolli di autenticazione. E in questo nuovo campo di battaglia, vince chi riesce a stabilire non solo cosa è vero, ma chi è autorizzato a dirlo, e con quali strumenti.

Avatar photo

Vittoria Elena Simone

Laureata in Media Design e Arti Multimediali presso la NABA di Milano, si occupa di teoria critica applicata ai mezzi di comunicazione. Per L’Indipendente ricopre il ruolo di supporto alla verifica dell’autenticità delle immagini.