- L'INDIPENDENTE - https://www.lindipendente.online -

WhatsApp ha oltre mille dipendenti incaricati di leggere le chat private

WhatsApp ha più di mille impiegati in diversi uffici in tutto il mondo, il cui compito è esclusivamente quello di setacciare milioni di messaggi privati, immagini e video inviati tra gli utenti, per poi dare un feedback su ogni cosa analizzata, generalmente in meno di un minuto. A rivelarlo una lunga indagine [1] da parte di ProPublica sul funzionamento della crittografia end-to-end, attraverso la quale l’azienda di proprietà di Mark Zuckerberg promette ai propri clienti di garantire privacy e sicurezza.

I “moderatori” avrebbero accesso – come chiarisce ProPublica – solo a un certo tipo di messaggi WhatsApp. Ovvero, quelli contrassegnati dagli utenti come contenenti possibili abusi. Tali messaggi vengono automaticamente riconosciuti dalla Intelligenza artificiale come potenzialmente inappropriati e sottoposti alla revisione. La questione dei moderatori è avvolta in un’aurea di “mistero”: essi sono infatti tenuti a firmare degli accordi di non divulgazione e, inoltre, deve essere tenuto in sordina il fatto che lavorino per WhatsApp. Anche gli annunci di lavoro parlano di posizioni di “Content Review” senza menzionare Facebook o WhatsApp. I lavoratori citati sono appunto coloro che avranno poi il ruolo di moderatori, definiti nei primi contratti come “content moderation associate”.

Durante l’operazione di monitoraggio, viene anche preso in esame il materiale non criptato come per esempio account e dati degli utenti. Quando poi un utente segnala un contenuto a WhatsApp, in automatico vengono inviati anche dei messaggi precedenti, misura che comunque è chiaramente specificata a qualsiasi utente che stia per fare una segnalazione a WhatsApp.

La crittografia end-to-end, dovrebbe assicurare che solo mittente e destinatario possano arrivare a leggere i contenuti dei loro messaggi. Chi, invece, dovesse provare a inserirsi nella chat (come, per esempio, gli hacker) troverà dei caratteri incomprensibili e impossibili da decifrare. Un meccanismo di protezione che però, evidentemente, dagli uffici di WhatsApp può essere forzato in modo molto semplice.

Altri punti non del tutto chiari sono relativi proprio alla delicata questione relativa alla privacy, visto che il rapporto sulla trasparenza [2] parla dettagliatamente di Facebook e Instagram mentre rimane più “appannato” per quanto riguarda WhatsApp. Vengono infatti rilasciati rapporti di trasparenza trimestrali che raggruppano chiaramente quanti siano stati gli account Facebook e Instagram ad avere contribuito alla diffusione di contenuti abusivi, in qualsiasi categoria. Un rapporto del genere, per quanto riguarda WhatsApp, è però inesistente.

Carl Woog, il direttore delle comunicazioni di WhatsApp, ha dovuto ammettere l’esistenza dei moderatori che esaminano i messaggi degli utenti ma, come prevedibile, ha sottolineato che lo fanno solo per la sicurezza degli utenti. Ossia al fine di prevenire e limitare gli abusi, scoprire contenuti rischiosi, proteggere dalla pedofilia e dal terrorismo.

[di Francesca Naima]