venerdì 29 Marzo 2024

L’arte cerca di spiegare le insidie del riconoscimento facciale

Benedetto dal sostegno materiale dell’Unione Europea, l’artista olandese Tijmen Schep si è lanciato in un progetto che si posiziona in equilibrio tra il ludico e il documentaristico: ha creato un algoritmo in Rete che esplora i tratti fondamentali dei sistemi di riconoscimento facciale e li racconta con fare didascalico all’utente medio. Partorita in occasione della residenza Sherpa, la ricerca mira a evidenziare alcuni dei rischi tech che ci attendono entro il 2025 o che, a ben vedere, sono già parte della nostra attualità. 

L’esperimento assume la forma di un sito – How Normal Am I? – nel quale l’internauta viene accompagnato in un percorso che analizza i sistemi di riconoscimento facciale con tono ironico e leggero. Non volendo rovinare la sorpresa a coloro che vorranno sperimentare sulla propria pelle l’avventura digitale, non affronteremo nei dettagli i suoi contenuti, tuttavia non possiamo che rimarcare come molte delle osservazioni di Schep colgano nel segno, soprattutto per quanto riguarda le insidie proprie all’interpretazione dei dati biometrici.

Quando pensiamo al facial recognition, ci immaginiamo fitti archivi fotografici e telecamere capaci di vedere dietro a ogni angolo, tuttavia ci sono dei mali molto più subdoli e invisibili che assediano i cittadini. In particolare, non è insolito che aziende e Governi puntino a rendere più efficienti le proprie infrastrutture interpretando atteggiamenti e tratti umani in numeri facilmente quantificabili. Basta porsi davanti a una webcam e un algoritmo può stimare peso, età e attrattività di un singolo individuo per poi assegnargli dei valori che possono essere processati in base alle necessità.

Finché le cifre vengono adoperate per semplici inezie si potrebbe anche chiudere un occhio, tuttavia esiste già oggi la tendenza a sfruttare queste informazioni per scopi che antepongono il profitto al benessere sociale. Le stime biometriche, come riporta puntualmente Schep, vengono per esempio utilizzate da alcune compagnie assicurative per inquadrare i clienti al fine di stabilire in un battibaleno quanto oneroso dovrà essere il loro contratto. Stando a The Takeaway, la Cina ci offre casi ancora più estremi attraverso l’agenzia cinese Ping An, la quale avrebbe adoperato il riconoscimento facciale per stimare con atteggiamento lombrosiano l’affidabilità dei propri clienti e stabilire a priori se questi siano propensi o meno alla frode assicurativa.

La stessa Unione Europea aveva elargito nel 2018 4,5 milioni di euro per finanziare il progetto iBorderCtrl, un programma che prometteva di mettere a disposizione mezzi utili a identificare i “biomarker della menzogna”, cosa che a sua volta sarebbe stata usata per scremare i richiedenti asilo assiepati sui confini dei Paesi Membri. La principale società che gestiva la tecnologia adoperata dal programma, la Silent Talker, ha ormai chiuso i battenti e il sito dedicato è scomparso dal web, tuttavia ancora oggi l’UE tratta l’argomento con un certo colpevole imbarazzo. Al di là delle preoccupazioni prettamente deontologiche, questo genere di analisi biometriche tendono spesso a condividere un medesimo problema: adoperano approcci antiscientifici che si basano su luoghi comuni e stereotipi. I sistemi di machine learning fanno affidamento ad archivi che, volenti o nolenti, sviluppano punti di vista discriminatori che rischiano di influenzare profondamente i tecnici che poi devono interpretare i dati finali, dolendo in particolar modo a chi è già di per sé in una posizione di vulnerabilità.

Visto che molti Governi mirano a delegare ai calcolatori scelte particolarmente complesse – come quelle belliche – va da sé che lasciare carta bianca a sistemi che funzionano poco e male non sia una prospettiva che fa dormire sonni tranquilli. Politici come Patrick Breyer del Partito Pirata tedesco stanno lottando assiduamente per assicurarsi che l’UE intensifichi le regole di applicazione delle IA prima che queste vengano implementate massicciamente, tuttavia una contronarrativa viene messa in campo dal World Economic Forum, il quale sta cercando di introdurre l’idea dell’“IA responsabile” con l’obiettivo di prevenire un potenziale intoppo amministrativo che andrebbe a incidere negativamente sugli interessi economici di molte multinazionali.

Come spesso capita in queste situazioni, ci troviamo a un bivio e dobbiamo scegliere se sviluppare il machine learning con approccio deontologico, ma col rischio di rimanere indietro rispetto a Cina e Stati Uniti, o se preferiamo buttarci a capofitto su quella filosofia del move fast and break things che ha contribuito a rendere grande internet. Considerando com’è andata per la Rete, forse è il caso di decidere prima che le regole di sfruttamento delle intelligenze artificiali siano determinate in esclusiva dal Mercato.

[di Walter Ferri]

L'Indipendente non riceve alcun contributo pubblico né ospita alcuna pubblicità, quindi si sostiene esclusivamente grazie agli abbonati e alle donazioni dei lettori. Non abbiamo né vogliamo avere alcun legame con grandi aziende, multinazionali e partiti politici. E sarà sempre così perché questa è l’unica possibilità, secondo noi, per fare giornalismo libero e imparziale. Un’informazione – finalmente – senza padroni.

Articoli correlati

Iscriviti a The Week
la nostra newsletter settimanale gratuita

Guarda una versione di "The Week" prima di iscriverti e valuta se può interessarti ricevere settimanalmente la nostra newsletter

Ultimi

Articoli nella stessa categoria

Grazie per aver già letto

10 dei nostri articoli questo mese.

Chiudendo questo pop up potrai continuare la lettura.
Sappi però che abbiamo bisogno di te,
per continuare a fare un giornalismo libero e imparziale.

Clicca qui e  scopri i nostri piani di abbonamento e supporta
Un’informazione – finalmente – senza padroni.

ABBONATI / SOSTIENI