- L'INDIPENDENTE - https://www.lindipendente.online -

Meta riduce la supervisione umana, l’IA giudicherà i rischi per la privacy

Stando a quanto riportato da documenti interni trapelati alla stampa, Meta avrebbe deciso di ridimensionare gli attuali meccanismi di supervisione progettati per garantire che le modifiche ai propri portali social non comportino rischi eccessivi per la società e per la privacy degli utenti. La Big Tech starebbe infatti valutando la sostituzione dei revisori umani con un sistema automatizzato che rischia, però, di trasformarsi in una forma di autocertificazione, privilegiando l’efficienza e la rapidità a scapito della sicurezza.

Questa evoluzione gestionale è stata inizialmente evidenziata dalla testata The Information [1], cui ha fatto seguito un’inchiesta di NPR [2], testata che è entrata in possesso di documenti chiaramente non destinati alla divulgazione pubblica. Secondo quanto emerge dai carteggi, Meta vorrebbe delegare una parte significativa delle verifiche sulle nuove funzionalità a dei modelli di intelligenza artificiale. L’attuale processo, svolto da esseri umani, prevede un confronto interno volto a individuare e prevenire eventuali criticità. Il nuovo approccio mira ad automatizzare circa il 90% delle valutazioni, riducendo in maniera sensibile il numero di dipendenti, i quali avranno più che altro il compito di supervisionare i casi giudicati troppo complessi per la sola IA.

Il cambiamento rappresenterebbe la realizzazione del sogno di molti ingegneri informatici dell’impresa, soggetti che vengono valutati soprattutto in base alla velocità e all’efficienza con cui sviluppano e rilasciano nuove funzionalità per piattaforme come Facebook, WhatsApp e Instagram. Il modello oggi vigente richiede tempo, rallentando non poco la pubblicazione delle innovazioni progettate. Ridurre il coinvolgimento umano consentirebbe un’accelerazione significativa dei cicli di sviluppo e una maggiore reattività nei cambiamenti ai servizi. 

Il timore principale è, tuttavia, che Meta stia abbracciando nuovamente la celebre massima aziendale del “move fast and break things”, privilegiando la rapidità e l’espansione rispetto alla tutela degli utenti. Una strategia che potrebbe rivelarsi rischiosa, soprattutto considerando che l’IA si potrebbe trovare a giudicare situazioni delicate legate alla disinformazione, alla diffusione di contenuti violenti o ai pericoli per i minori.

Meta, del resto, non ha mai mostrato un forte entusiasmo per questo genere di sistemi di supervisione. Il meccanismo che l’azienda si appresta a stravolgere è stato originalmente imposto [3] nel 2012 dalla Federal Trade Commission (FTC), l’ente statunitense per la tutela dei consumatori. Dopo un anno di indagini, l’Agenzia fu in grado di evidenziare che l’allora Facebook fosse probabilmente solita condividere con terze parti una quantità di dati personali che gli utenti non avevano autorizzato a rendere pubblici: il sistema di vigilanza  fu parte integrante di un accordo extragiudiziale stipulato per far cadere le accuse.

Tuttavia, quella soluzione non si è mai distinta per efficacia né per un reale intento protettivo. Già nel 2013, appena un anno dopo l’accordo con la FTC, Facebook dette vita a politiche di raccolta dati che, nel 2018, sono finite al centro [4]dello scandalo Cambridge Analytica. Un caso che ha mostrato quanto il social potesse rappresentare una minaccia concreta alla privacy e al benessere collettivo. Nel 2019, dopo una lunga ed estenuante indagine, la FTC ha inflitto [5] a Meta una multa record da 5 miliardi di dollari per violazioni in materia di privacy e protezione dei dati, imponendo nuove restrizioni e l’adozione di un robusto programma interno di responsabilizzazione, con obblighi che hanno coinvolto anche i vertici aziendali e il consiglio di amministrazione.

L’adozione massiva dell’automazione nei controlli rischia quindi di configurarsi come un espediente per svuotare di significato obblighi normativi che, pur non essendo formalmente revocabili, possono essere indeboliti fino a diventare inefficaci. Una strategia che, tra l’altro, potrebbe acuire le tensioni con l’Unione Europea. Non è affatto scontato, infatti, che un sistema basato su IA sia in grado di rispettare i requisiti previsti dal Digital Services Act, pacchetto di leggi che impone standard rigorosi di trasparenza e due diligence per le piattaforme digitali. Il problema è che, al momento, non esistono indicazioni chiare su come un sistema così profondamente affidato a un’IA possa adempiere a tali obblighi.

Avatar photo

Walter Ferri

Giornalista milanese, per L’Indipendente si occupa della stesura di articoli di analisi nel campo della tecnologia, dei diritti informatici, della privacy e dei nuovi media, indagando le implicazioni sociali ed etiche delle nuove tecnologie. È coautore e curatore del libro Sopravvivere nell'era dell'Intelligenza Artificiale.