- L'INDIPENDENTE - https://www.lindipendente.online -

L’Europa trova un accordo sulle norme per IA e riconoscimento facciale

Alle 23.50 di venerdì 8 dicembre 2023, la Presidente della Commissione europea Ursula von der Leyen ha annunciato sui social che l’estenuante confronto tra Parlamento, Consiglio e Commissione è risultato in una fumata bianca: è stato trovato un punto di incontro per lanciare il pacchetto di leggi che dovrà normare le intelligenze artificiali, il cosiddetto AI Act. Il documento finale non è ancora stato reso pubblico, tuttavia le anticipazioni indicano tutta una serie di interventi ben più efficace e capillare di quanto non fosse lecito credere nell’ultimo periodo, ovvero da che Germania, Francia e Italia avevano chiesto un alleggerimento del codice.

Lo storico risultato è stato il frutto di una vera e propria maratona, una corsa contro il tempo che ha visto i politici chiudersi in fitte contrattazioni per una “tre giorni” alimentata da molti caffè e dalla consapevolezza che questo incontro avrebbe rappresentato l’ultima occasione per dar vita al pacchetto legislativo. Qualora le tre istituzioni europee non avessero trovato un punto comune, tutto sarebbe slittato verso la prossima legislatura Parlamentare, sviluppando strada facendo un ritardo di mesi, se non addirittura di anni. Ci sono volute 36 ore di negoziati, per trovare un compromesso.

Il documento finale non è ancora stato ufficialmente pubblicato, ma un comunicato stampa [2] diffuso dal Parlamento europeo nella mattinata di sabato 9 indica i punti salienti del nuovo pacchetto di leggi. Alcune applicazioni dell’IA che sono state considerate potenzialmente pericolose per i diritti umani sono effettivamente state vietate, tra queste la categorizzazione biometrica delle caratteristiche sensibili (posizioni politiche, religione, etnia, orientamento sessuale), l’esfiltrazione dell’immagine dei volti umani al fine di creare un archivio utile al riconoscimento facciale, l’applicazione di strumenti di riconoscimento emozionale all’interno di posti di lavoro e scuole e tutto ciò che ha a che vedere col credito sociale. A questo si sommano due categorie più ambigue: l’uso di AI atto a manipolare il libero arbitrio umano e l’uso dell’AI per sfruttare le persone vulnerabili.

In generale si tratta di un ottimo risultato, tuttavia balza subito all’occhio che, al fine di trovare un accordo, siano stati lasciati ai Governi ampi margini di manovra che quasi certamente genereranno prima o poi delle applicazioni torbide e controverse dei sistemi di intelligenza artificiale. In tal senso, sono per esempio state riconfermate alcune esenzioni per le Forze dell’ordine, le quali potranno adoperare i sistemi di riconoscimento biometrico in tempo reale nel caso sia necessario cercare persone scomparse, prevenire specifiche minacce terroristiche o localizzare soggetti sospettati di aver commesso uno o più degli atti criminali elencati all’interno di una omnicomprensiva lista stilata dall’UE.

Un altro ruolo importante nella contrattazione tra le istituzioni UE lo hanno avuto i modelli fondativi, quelle applicazioni IA che il mondo intero ha avuto modo di conoscere grazie a ChatGPT, DallE e strumenti omologhi. In questo caso ha vinto la proposta spagnola di formare due livelli di inquadramento: uno che vada a vigilare sulle cosiddette AI ad alto impatto e che al momento include esclusivamente i prodotti futuri delle aziende statunitensi, l’altro che andrà a coprire i modelli di più piccolo cabotaggio e che entrerà in azione solamente quando questi verranno effettivamente commercializzati. Non ci vuole molto a comprendere che l’UE – Francia e Germania in primis [3] – non volesse appesantire lo sviluppo di sistemi IA interni, i quali sono al momento ancora nella fase di ricerca e sviluppo.

[di Walter Ferri]