Tiktok annuncia un giro di vite all’uso dell’app da parte degli under-13, soggetti la cui iscrizione sulla piattaforma non è consentita. Almeno ufficialmente. Mentre diversi Paesi europei stanno indagando o valutando di aprire indagini sul social, l’azienda cinese opta dunque per l’introduzione di una nuova tecnologia di verifica dell’età destinata agli utenti dell’Unione Europea. Il sistema, in arrivo nelle prossime settimane, promette di individuare gli account irregolari attraverso un’analisi basata su strumenti di intelligenza artificiale assistiti dall’intervento di un equipe di moderatori.
L’annuncio, diffuso alla stampa venerdì 16 gennaio, presenta la nuova soluzione come il risultato di un anno di collaborazione con il regolatore irlandese per la protezione dei dati, il Data Protection Commissioner. Secondo quanto riportato, il sistema è stato testato in parallelo all’entrata in vigore nel Regno Unito dell’Online Safety Act, ovvero quella normativa che impone alle piattaforme di limitare l’accesso dei minori a contenuti ritenuti illegali o potenzialmente dannosi per il loro sviluppo.
TikTok afferma che il nuovo sistema di controllo si baserà su un’analisi dei comportamenti degli utenti, con l’obiettivo di individuare profili le cui abitudini risultino compatibili con quelle giudicate tipiche di un minore. Gli account che supereranno questa prima fase di filtraggio verranno poi segnalati al personale umano, il quale è incaricato di valutare se procedere o meno al blocco. Il comunicato, come spesso accade in questi casi, è però avaro di dettagli tecnici, soprattutto per quanto riguarda il ruolo e le modalità di intervento degli addetti alla moderazione.
Da anni le grandi piattaforme social hanno progressivamente ridotto le risorse dedicate alla supervisione dei contenuti. Ufficialmente, questa scelta viene motivata con l’inefficienza delle forme tradizionali di moderazione, considerate lente, fallibili e influenzate da pregiudizi. Molti osservatori, però, ritengono che la svolta sia legata anche ai mutamenti del clima politico globale e, più semplicemente, alla volontà di contenere i costi [1] e massimizzare i profitti. Il personale rimasto è spesso impiegato tramite società esterne [2], che finiscono regolarmente al centro di scandali legati a turni estenuanti e alla scarsa tutela della salute mentale di dipendenti e collaboratori.
Il rischio è che gran parte del processo venga affidata a un sistema automatizzato poco supervisionato, calibrato su criteri che potrebbero penalizzare anche utenti perfettamente conformi alle norme. Non a caso, TikTok precisa che la nuova procedura sarà affiancata da meccanismi di appello potenziati, attraverso i quali gli utenti potranno dimostrare la propria età tramite carte di credito, documenti ufficiali o strumenti di verifica biometrica forniti da terze parti. Nello specifico, da Yoti. L’azienda sottolinea inoltre come l’evoluzione del quadro normativo europeo — sempre più orientato all’identificazione anagrafica degli utenti — imponga la necessità di trovare compromessi tra la tutela dei minori e la protezione della privacy.
A monte di tutto ciò, restano i dubbi sull’efficacia di un approccio che si limita a impedire ai minori di accedere ai social senza che vengano affrontate parallelamente le cause profonde dei rischi che li riguardano. Il proibizionismo si è spesso rivelato più uno strumento di controllo che una reale risposta ai problemi di disagio, soprattutto quando non è accompagnato da interventi educativi, sociali, culturali ed economici capaci di agire sulle criticità alla radice. Nel caso dei social, inoltre, il crescente intreccio tra finanza globale e grandi aziende tecnologiche alimenta ulteriori perplessità sulla reale applicabilità e tenuta delle norme.
L’esempio più recente dei limiti di questo approccio arriva dall’Australia, Paese che lo scorso dicembre ha vietato [3] l’uso dei social per gli under-16. I primi riscontri mostrano l’inefficacia radicale delle misure: le sospensioni sono state poche e molti minori hanno rapidamente trovato modi per aggirare i controlli. Come osserva [4]la neuropsicologa Tiziana Metitieri, il rischio è che l’insistenza sul tenere i giovani fuori dai social si presta soprattutto a diventare una forma di distrazione, utile a sollevare le piattaforme dalle responsabilità legate alla diffusione di disinformazione, propaganda e contenuti illegali, finendo al contempo per restringere gli spazi digitali di aggregazione delle nuove generazioni.