- L'INDIPENDENTE - https://www.lindipendente.online -

Il caso Mia Moglie e la verità scomoda sulla censura dei social

In questi giorni si sta molto discutendo della diffusione online non consensuale di nudi trafugati e dell’istigazione allo stupro di soggetti pubblici e privati. In entrambi i casi, le vittime sono quasi sempre donne. Questa rinnovata attenzione nasce dagli scandali legati al gruppo Facebook “Mia moglie” e all’esistenza del forum Phica: spazi digitali in cui si sono consumati abusi, ma che sono riusciti per anni a sfuggire al controllo di sistemi di moderazione che, su altre tematiche, sanno dimostrarsi inflessibili ed efficienti. Da qui il dubbio: perché realtà di questo tipo prosperano sottotraccia, mentre contenuti che analizzano quanto accade in Palestina o che parlano di suicidio vengono rimossi con tempestività?

Per affrontare la questione è innanzitutto necessario riconoscere che in ambo i casi citati, le aziende direttamente coinvolte hanno preso le distanze dal fenomeno. “Non consentiamo contenuti che minacciano o promuovono violenza sessuale, abusi sessuali o sfruttamento sessuale sulle nostre piattaforme” ha dichiarato un portavoce di Meta, azienda proprietaria di Facebook. “Se veniamo a conoscenza di contenuti che incitano o sostengono lo stupro, possiamo disabilitare i gruppi e gli account che li pubblicano e condividere queste informazioni con le forze dell’ordine”. Nel suo messaggio di addio, Phica si descrive invece come “uno spazio dedicato a chi desiderava certificarsi e condividere i propri contenuti in un ambiente sicuro”, evidenziando che quanto è accaduto sia da considerarsi un’aberrazione. “Nonostante gli sforzi, non siamo riusciti a bloccare in tempo tutti quei comportamenti tossici che hanno spinto Phica a diventare, agli occhi di molti, un posto dal quale distanziarsi piuttosto che sentirsi orgogliosi di far parte”.

Va però chiarito: se la condivisione consensuale di immagini intime non configura necessariamente un illecito, la diffusione non consensuale di nudi altrui – nota come Image-Based Sexual Abuse (IBSA) – è un crimine [1] che alimenta la cultura dello stupro. Eppure, nonostante la gravità del fenomeno, le posizioni ufficiali di queste aziende tradiscono un’ignoranza sistematica che può derivare solamente da due fattori: incompetenza cronica o ipocrisia consapevole. Colossi come Facebook e YouTube hanno dimostrato di possedere strumenti molto sofisticati, specializzati nell’intercettare un determinato tipo di contenuti: difficile quindi attribuire la responsabilità a mere carenze tecniche.

Premesso che la censura non è quasi mai la soluzione più efficace, resta il fatto che i social applicano regole con due pesi e due misure. Google, ad esempio, ospita [2]inserzioni di propaganda israeliana nonostante queste violino formalmente le policy interne; Elon Musk, dal canto suo, continua a trovare nuovi modi per infrangere le linee guida della sua stessa piattaforma, X, consapevole che nessuno potrà intervenire contro di lui. Il punto è semplice: le policy aziendali non sono legge e le piattaforme, non essendo veri spazi pubblici, operano secondo i propri interessi finché non entrano in conflitto con la normativa vigente.

Fornire una maggiore attenzione censoria al contrasto delle denunce palestinesi o ai discorsi di scandalo sulle sparatorie statunitensi è una scelta che, ancor prima di essere politica, è commerciale. I moti di protesta e sensibilizzazione vogliono essere esplicitamente visibili, adottano una prospettiva divulgativa e intercettano facilmente lo sguardo di inserzionisti e politici, capaci di esercitare pressioni economiche o legislative sulle Big Tech. Diverso è il caso di realtà come quella di “Mia Moglie”. Queste sono autentiche “camere d’eco” che generano traffico consistente, ma che restano perlopiù circoscritte e nascoste, dunque meno esposte al controllo esterno. Tale discrezione le rende paradossalmente più “tollerabili” agli occhi delle piattaforme, che dal traffico traggono profitto grazie a inserzionisti e data broker.

Che gli interessi economici prevalgano lo dimostra la fine di GARM, un’organizzazione no-profit che segnalava ai grandi marchi quando le loro pubblicità venivano associate a contesti tossici o illegali. L’iniziativa ha chiuso [3]nel 2024 dopo che Musk l’ha trascinata in tribunale, accusandola di aver cospirato per boicottare X.

Avatar photo

Walter Ferri

Giornalista milanese, per L’Indipendente si occupa della stesura di articoli di analisi nel campo della tecnologia, dei diritti informatici, della privacy e dei nuovi media, indagando le implicazioni sociali ed etiche delle nuove tecnologie. È coautore e curatore del libro Sopravvivere nell'era dell'Intelligenza Artificiale.