Un poliziotto in ginocchio sull’asfalto bagnato, il corpo piegato in avanti e sorretto da un collega che si china per aiutarlo. Uno indossa ancora il casco, l’altro ha il volto scoperto e teso; una mano cerca appoggio sulla spalla per sostenete il collega ferito. La scena è isolata dal buio della notte, illuminata da luci artificiali che ne accentuano il carico emotivo. Così si presenta la fotografia pubblicata dalla Polizia di Stato il 1° febbraio su X, a corredo della comunicazione sugli scontri avvenuti a Torino durante la manifestazione a sostegno di Askatasuna del giorno precedente. Lo scatto, divenuto virale sui social e sui media, si è imposto come immagine simbolo della violenza subita dalle forze dell’ordine. Tuttavia, un’analisi più attenta mostra che si tratta di una immagine modificata con l’utilizzo dell’intelligenza artificiale. L’immagine, tra l’altro, non collima con altri materiali originali dello stesso istante diffusi dai profili social del partito di maggioranza, Fratelli d’Italia, e da diversi media e agenzie di stampa.
L’immagine è stata sottoposta dalla nostra redazione a diversi strumenti di rilevamento di contenuti generati o modificati con intelligenza artificiale. I risultati non sono identici, ma convergono tutti su un punto: la fotografia mostra una percentuale significativa di intervento AI, variabile dal 32% fino a oltre il 99% a seconda del detector utilizzato. La variabilità delle percentuali è spiegabile dal fatto che la base dell’immagine è reale, ma lo scatto è stato successivamente rigenerato tramite intelligenza artificiale per aumentarne la risoluzione e accentuarne l’effetto drammatico. Non si tratta, quindi, di un’immagine interamente costruita, bensì di un frame estratto da un video autentico dell’assalto al poliziotto e poi rielaborato con strumenti di AI generativa. L’intervento ha evidentemente migliorato nitidezza e definizione, puntando soprattutto a rafforzarne l’impatto emotivo. Ma non solo, ha anche modificato in maniera sostanziale la fotografia.
Il confronto diretto tra il video degli scontri e la foto diffusa sui social istituzionali rivela numerose incongruenze visibili a occhio nudo, difficilmente spiegabili con una semplice differenza di angolazione. Nel video originale il poliziotto indossa una maschera antigas e impugna uno scudo antisommossa; nella foto postata dalla Polizia di Stato, questi elementi scompaiono o vengono trasformati. Il volto, coperto nel filmato, appare invece visibile e, dunque, ricostruito, con artefatti grafici tipici del “riempimento generativo” utilizzato da software AI. Anche lo sfondo cambia: una vettura visibile nel video sparisce, la pavimentazione non coincide, le fonti di luce risultano incoerenti. Le texture dei pantaloni e dei guanti mostrano una morbidezza innaturale, le scritte “Polizia” risultano deformate, le pieghe dei tessuti sembrano ridisegnate. Tutti segnali noti a chi lavora con immagini AI: quando l’algoritmo “immagina” ciò che non vede, crea una scena plausibile, ma non vera. Il risultato è una foto più pulita, più drammatica, ma anche meno fedele alla realtà.
L’analisi porta a una conclusione chiara: con altissima probabilità l’immagine diffusa dalla Polizia di Stato è il prodotto finale di una catena di rielaborazioni AI, partite da un video reale – che nessuno contesta – ma spinte progressivamente verso una rappresentazione emotivamente più efficace. In questo processo, il volto ricostruito e la postura “iconica” del poliziotto diventano centrali: l’AI colma ciò che la realtà non mostrava abbastanza chiaramente, aggiungendo un livello di empatia visiva. Il problema non è tecnologico, ma comunicativo.
Non è la prima volta in cui sull’account Instagram della Polizia di Stato vengono pubblicati contenuti evidentemente generati con intelligenza artificiale, segno di un uso ormai abituale di questi strumenti nella comunicazione social.
Si potrebbe obiettare, e non a torto, che si tratta di modifiche di poco conto, che non cambiano la sostanza dell’immagine né quello che rappresenta. Tuttavia, in un’era in cui la distinzione tra reale e falso si fa sempre più labile e l’uso dell’IA a fini propagandistici entra nella quotidianità, appare doveroso che le istituzioni dello Stato facciano un uso responsabile delle nuove tecnologie. Che la polizia di Stato, a qualsiasi fine, modifichi contenuti in suo possesso tramite l’uso dell’intelligenza artificiale e li divulghi senza comunicarne l’alterazione è certamente un possibile motivo d’allarme rispetto alla poca trasparenza, o quantomeno alla superficialità con cui queste operazioni possono essere svolte anche da parte dello Stato. In un’epoca in cui le immagini influenzano il dibattito pubblico, la trasparenza resta una responsabilità istituzionale.





A C A B !
In effetti viene spontaneo pensarlo