lunedì 26 Febbraio 2024

L’Europa trova un accordo sulle norme per IA e riconoscimento facciale

Alle 23.50 di venerdì 8 dicembre 2023, la Presidente della Commissione europea Ursula von der Leyen ha annunciato sui social che l’estenuante confronto tra Parlamento, Consiglio e Commissione è risultato in una fumata bianca: è stato trovato un punto di incontro per lanciare il pacchetto di leggi che dovrà normare le intelligenze artificiali, il cosiddetto AI Act. Il documento finale non è ancora stato reso pubblico, tuttavia le anticipazioni indicano tutta una serie di interventi ben più efficace e capillare di quanto non fosse lecito credere nell’ultimo periodo, ovvero da che Germania, Francia e Italia avevano chiesto un alleggerimento del codice.

Lo storico risultato è stato il frutto di una vera e propria maratona, una corsa contro il tempo che ha visto i politici chiudersi in fitte contrattazioni per una “tre giorni” alimentata da molti caffè e dalla consapevolezza che questo incontro avrebbe rappresentato l’ultima occasione per dar vita al pacchetto legislativo. Qualora le tre istituzioni europee non avessero trovato un punto comune, tutto sarebbe slittato verso la prossima legislatura Parlamentare, sviluppando strada facendo un ritardo di mesi, se non addirittura di anni. Ci sono volute 36 ore di negoziati, per trovare un compromesso.

Il documento finale non è ancora stato ufficialmente pubblicato, ma un comunicato stampa diffuso dal Parlamento europeo nella mattinata di sabato 9 indica i punti salienti del nuovo pacchetto di leggi. Alcune applicazioni dell’IA che sono state considerate potenzialmente pericolose per i diritti umani sono effettivamente state vietate, tra queste la categorizzazione biometrica delle caratteristiche sensibili (posizioni politiche, religione, etnia, orientamento sessuale), l’esfiltrazione dell’immagine dei volti umani al fine di creare un archivio utile al riconoscimento facciale, l’applicazione di strumenti di riconoscimento emozionale all’interno di posti di lavoro e scuole e tutto ciò che ha a che vedere col credito sociale. A questo si sommano due categorie più ambigue: l’uso di AI atto a manipolare il libero arbitrio umano e l’uso dell’AI per sfruttare le persone vulnerabili.

In generale si tratta di un ottimo risultato, tuttavia balza subito all’occhio che, al fine di trovare un accordo, siano stati lasciati ai Governi ampi margini di manovra che quasi certamente genereranno prima o poi delle applicazioni torbide e controverse dei sistemi di intelligenza artificiale. In tal senso, sono per esempio state riconfermate alcune esenzioni per le Forze dell’ordine, le quali potranno adoperare i sistemi di riconoscimento biometrico in tempo reale nel caso sia necessario cercare persone scomparse, prevenire specifiche minacce terroristiche o localizzare soggetti sospettati di aver commesso uno o più degli atti criminali elencati all’interno di una omnicomprensiva lista stilata dall’UE.

Un altro ruolo importante nella contrattazione tra le istituzioni UE lo hanno avuto i modelli fondativi, quelle applicazioni IA che il mondo intero ha avuto modo di conoscere grazie a ChatGPT, DallE e strumenti omologhi. In questo caso ha vinto la proposta spagnola di formare due livelli di inquadramento: uno che vada a vigilare sulle cosiddette AI ad alto impatto e che al momento include esclusivamente i prodotti futuri delle aziende statunitensi, l’altro che andrà a coprire i modelli di più piccolo cabotaggio e che entrerà in azione solamente quando questi verranno effettivamente commercializzati. Non ci vuole molto a comprendere che l’UE – Francia e Germania in primis – non volesse appesantire lo sviluppo di sistemi IA interni, i quali sono al momento ancora nella fase di ricerca e sviluppo.

[di Walter Ferri]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Articoli correlati

2 Commenti

  1. Mi fa riflettere che venga vietato l’uso della AI per manipolare il libero arbitrio delle persone quando sappiamo che sistemi umani come Cambridge Analitica operano in tal senso da circa 10 anni e riescono nell’intento manipolatorio senza usare direttamente la AI. Quindi si ammette istituzionalmente che si possa manipolare il libero arbitrio e si vieta che tale pratica venga effettuata direttamente dalla AI, ma non le si vieta di praticare studi e raccogliere dati utili a tale scopo, perciò la AI può analizzare dati utili a definire come avviene il libero arbitrio senza utilizzarli direttamente ma che indirettamente potranno essere usati dall’uomo per perpetrare le finalità della manipolazione ottenendo lo stesso scopo ma aggiungendo la pratica umana. Per tanto servirà solo più tempo ma le finalità di strumentalizzazione e manipolazione potranno comunque essere perpetrate.

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria

Grazie per aver già letto

10 dei nostri articoli questo mese.

Chiudendo questo pop up potrai continuare la lettura.
Sappi però che abbiamo bisogno di te,
per continuare a fare un giornalismo libero e imparziale.

Clicca qui e  scopri i nostri piani di abbonamento e supporta
Un’informazione – finalmente – senza padroni.

ABBONATI / SOSTIENI