sabato 27 Aprile 2024

L’intelligenza artificiale genera sempre più disinformazione

Da operazioni di propaganda con personaggi ben vestiti ma inesistenti ad articoli scritti da bot e dichiarazioni di politici mai fatte e condivise poco prima delle elezioni, l’intelligenza artificiale si conferma per l’ennesima volta uno strumento capace anche di generare danni tutt’altro che indifferenti. Secondo gli ultimi aggiornamenti di un’analisi di NewsGuard, un’organizzazione che si occupa di disinformazione e classificazione dei siti web per gli inserzionisti, solo da maggio i portali che presentano articoli falsi creati dall’intelligenza artificiale aumentati di oltre il 1000%, passando da 49 ad oltre 600. Gli esperti hanno affermato che la rapida crescita di questi siti è “preoccupante”, soprattutto in vista delle elezioni americane del 2024: «Alcuni di questi siti generano centinaia se non migliaia di articoli al giorno, ecco perché lo chiamiamo il prossimo grande superdiffusore di disinformazione. È una guerra dell’informazione su una scala mai vista prima», ha affermato Jack Brewster, il ricercatore di NewsGuard che ha condotto l’indagine.

Jeffrey Blevins, esperto di disinformazione e professore di giornalismo all’Università di Cincinnati ha spiegato che i siti funzionano principalmente in due modi: esistono storie che vengono create manualmente chiedendo ai chatbot articoli che amplifichino una già esistente narrativa politica, oppure il processo può anche essere automatico e basarsi solo su poche parole chiave, le quali consentono comunque la ricerca di articoli e la riscrittura per simulare l’unicità ed eludere le accuse di plagio. È così che è possibile creare fake news come quella dello psichiatra di Benjamin Netanyahu che si sarebbe suicidato sostenendo il coinvolgimento del primo ministro israeliano, notizia falsa che è circolata su diversi siti di informazione arabi, inglesi ed indonesiani e persino in un programma televisivo iraniano. Oppure è possibile ricreare casi simili a ciò che è successo ad ottobre in Slovacchia, ovvero clonare le voci dei politici e pubblicare dichiarazioni controverse giorni prima delle elezioni diffondendo notizie false e sensazionalistiche. Il tutto poi circondando gli articoli di inserzioni e guadagnandoci sopra, sfruttando il fatto che in moltissimi casi la pubblicità paga per i click a prescindere dalla natura o dalla qualità del sito web. Secondo l’indagine, sono centinaia i siti che svolgono azioni simili quotidianamente su temi come politica, tecnologia, intrattenimento e viaggi, tra cui 36 in lingua italiana. La cosa peggiore poi, è che tecnologie simili non vengono create solo da siti ed utenti malintenzionati (e quindi più facilmente riconoscibili), ma anche da portali che spesso accompagnano ad articoli generati dall’IA altre inchieste ed interviste reali su argomenti tutt’altro che semplici. Su Global Village Space per esempio – lo stesso sito che ha diffuso la notizia falsa sulla morte dello psichiatra del primo ministro israeliano – è anche possibile leggere delle sanzioni statunitensi ai fornitori di armi russi, degli investimenti di colossi petroliferi in Pakistan o di articoli scritti da avvocati laureati in prestigiose università. Avere a fianco notizie vere e notizie generate dall’intelligenza artificiale rende così storie ingannevoli più credibili.

«Ci sono persone che semplicemente non sono sufficientemente informate sui media per sapere che questo è falso», ha dichiarato Blevins, aggiungendo che le persone dovrebbero prestare attenzione agli indizi negli articoli, ai “segnali di allarme” come “grammatica strana” o ad errori di costruzione nella frase, anche se lo strumento più efficace è aumentare la consapevolezza e la “alfabetizzazione mediatica” tra i lettori. Bisogna quindi «rendere le persone consapevoli che esistono questo tipo di siti là fuori. Ma riconosciamo anche che non tutte le fonti sono ugualmente credibili. Solo perché qualcosa afferma di essere un sito di notizie non significa che in realtà abbiano un giornalista che produce contenuti», ha poi concluso.

Il dato arriva poi proprio nello stesso mese in cui un nuovo studio svolto in collaborazione con l’Ufficio di ricerca dell’esercito americano ha mostrato che quattro reti neurali profonde ampiamente utilizzate presentano molte più vulnerabilità di quanto si pensasse in precedenza. Gli autori hanno testato due tecnologie adibite all’analisi delle immagini visive e all’interpretazione di dati sequenziali, scoprendo che è molto più facile eseguire attacchi contraddittori e confondendo quindi volontariamente le analisi dei programmi. Secondo i ricercatori, tali vulnerabilità permetterebbero per esempio di rendere un cartello stradale invisibile o diverso oppure di alterare i dati delle immagini mediche producendo diagnosi imprecise o errate.

[di Roberto Demaio]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Articoli correlati

2 Commenti

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria

Grazie per aver già letto

10 dei nostri articoli questo mese.

Chiudendo questo pop up potrai continuare la lettura.
Sappi però che abbiamo bisogno di te,
per continuare a fare un giornalismo libero e imparziale.

Clicca qui e  scopri i nostri piani di abbonamento e supporta
Un’informazione – finalmente – senza padroni.

ABBONATI / SOSTIENI