L’impiego di strumenti di intelligenza artificiale nei processi di selezione del personale, pur restando oggetto di accesi dibattiti, è ormai diventato una pratica radicata e trasversale che tocca una varietà di settori. Inoltre coinvolge tanto le aziende, quanto i candidati. Per chi invia un curriculum, la frustrazione nasce soprattutto dall’opacità dei criteri con cui le IA valutano i profili, nonché dall’impossibilità di conoscere le ragioni di un eventuale scarto. Una class action avviata in California potrebbe però cambiare radicalmente questo scenario, imponendo ai gestori di tali sistemi una serie di nuovi obblighi che vadano a garantire un minimo di trasparenza.
L’azienda finita sotto i riflettori della magistratura è Eightfold AI, una realtà poco conosciuta dal grande pubblico, ma che è ampiamente utilizzata da numerose corporazioni di primo piano. Dai colossi tecnologici come Microsoft, Ubisoft e PayPal fino a gruppi globali come Vodafone e Bayer, molte imprese si affidano alla sua piattaforma di intelligenza artificiale per valutare e selezionare i candidati. Secondo l’accusa, però, questo processo si fonderebbe su pratiche assimilabili a un vero e proprio dossieraggio.
I promotori dell’azione legale, Erin Kistler e Sruti Bhowmik, sostengono che l’azienda abbia raccolto su di loro — e su milioni di altri lavoratori — una mole di dati personali che va ben oltre quanto indicato nei curriculum: dai contenuti pubblicati sui social media alla geolocalizzazione dei loro device, dai cookie di navigazione alle informazioni acquistate da terze parti. Una pratica resa possibile da un sistema di valutazione che non offre ai candidati una reale possibilità di negare il consenso all’uso dei dati. L’impressione è che ci si debba sottomettere alle richieste di Eightfold AI per non essere automaticamente esclusi dal processo di selezione. “Non facciamo esfiltrazione sui social media e simili”, sostiene il portavoce di Eightup, Kurt Foeller. ”Siamo profondamente impegnati nell’IA responsabile, nella trasparenza e nella conformità con la protezione dei dati e le leggi sul lavoro applicabili”.
La causa, depositata martedì 20 gennaio, si fonda sul Fair Credit Reporting Act e sul California Investigative Consumer Reporting Agencies Act, leggi federali nate originariamente per tutelare i cittadini dall’inserimento volontario o negligente di informazioni inesatte nei rapporti di credito e nelle assunzioni. La norma mira a impedire che la presenza di dati errati produca conseguenze dannose e riconosce alle persone il diritto di reclamare le ragioni alla base delle decisioni che le riguardano. In assenza di regolamentazioni specifiche sull’IA, insomma, gli avvocati dell’accusa puntano ad applicare questo quadro giuridico preesistente a un contesto che, altrimenti, potrebbe essere identificato come perlopiù inedito.
”Questo caso riguarda un mercato distopico che viene guidato dall’IA, dove alcuni robot che operano dietro le quinte finiscono con il prendere decisioni su alcune delle cose più importanti della nostra vita: se troviamo un lavoro, una casa o l’assistenza sanitaria”, contestualizza sui X David Seligman, direttore esecutivo di Towards Justice, gruppo no-profit che rappresenta i querelanti. “Ma ecco il punto chiave: questo NON è il selvaggio West. Non esiste un’eccezione per l’IA alla legge – a prescindere da quanto la tecnologia possa sembrare sofisticata o quanto capitale vi venga riversato dietro”.
Il destino di questo procedimento resta altamente incerto. Guardando ai precedenti storici, è altamente probabile che la battaglia legale finirà con il trascinarsi per anni. Ciononostante, l’iniziativa appare come uno degli interventi più significativi nel tentativo di fare chiarezza su un tema che sobbolle ormai da oltre un decennio: l’impiego dell’IA nei processi di selezione del personale, un’attività che si può far risalire a quando le attuali “intelligenze artificiali” erano ancora etichettate semplicemente “algoritmi”.




