YouTube ospita un numero crescente di video prodotti in maniera industriale, i quali vengono spesso realizzati con l’ausilio di strumenti di intelligenza artificiale. Alimentati dagli algoritmi di raccomandazione della piattaforma e supportati da una produzione automatizzata su larga scala, questi contenuti stanno progressivamente oscurando i creatori tradizionali, contribuendo a una progressiva svalutazione dell’intero ecosistema del social. Per contrastare il fenomeno, YouTube ha annunciato che, a partire dal 15 luglio 2025, introdurrà modifiche al proprio YouTube Partner Program (YPP) con l’intenzione di colpire sul piano economico i contenuti considerati “inautentici” o “ripetitivi” — una categoria che l’opinione pubblica ha ormai ribattezzato come “AI slop”.
L’aggiornamento delle policy è stato anticipato in una nota sull’Help Center della piattaforma, tuttavia i dettagli restano per ora estremamente limitati. Alphabet, società madre di YouTube, afferma che la nuova impostazione permetterà di individuare con maggiore efficacia i contenuti “prodotti in massa e ripetitivi”, escludendoli dalla monetizzazione in quanto non conformi ai requisiti di originalità e autenticità previsti dalla piattaforma. È tuttavia significativo che nel comunicato non venga mai menzionata esplicitamente l’intelligenza artificiale.
In un post pubblicato su X, YouTube ha definito l’aggiornamento come un raffinamento delle regole esistenti, volto a chiarire con maggiore precisione quali tipologie di video siano ammissibili alla monetizzazione, salvaguardando nel contempo l’esperienza degli utenti e l’integrità del portale. A fare ulteriore chiarezza è intervenuto Rene Ritchie, responsabile Editoriale e dei Rapporti con i Creatori, che in un video pubblicato il 7 luglio ha specificato che i nuovi canoni non mirano a penalizzare formati legittimi, ma solo quei contenuti automatizzati che potrebbero essere considerati come “spam” e che non offrono alcun contributo umano significativo.
Nel mirino rientreranno dunque video caratterizzati da una struttura estremamente ripetitiva, quali compilations di diapositive, doppiaggi generati da AI senza intervento umano, o Shorts basati su template standardizzati privi di valore aggiunto. Tutti elementi che possono essere etichettati come “AI slop”, ovvero media perlopiù costruiti impiegando strumenti text-to-video, voci sintetiche e materiali di repertorio di dubbia provenienza, con il solo scopo di accumulare visualizzazioni e ricavi pubblicitari tramite pratiche di content farming.
Questo cinico giro di soldi fa sì che una parte significativa di questa produzione automatizzata provenga da aree a basso reddito quali Vietnam, Pakistan o Indonesia, zone in cui i compensi derivanti dalla monetizzazione delle inserzioni possono rappresentare un’entrata significativa e sostanziale. Si tratta di uno spaccato non dissimile da quello visto nel 2021 con il videogioco NFT Axie Infinity, il quale ha alimentato brevemente i sogni dei filippini promettendo guadagni assicurati,salvo poi rivelarsi un sistema economicamente insostenibile e propenso allo sfruttamento.
Resta ancora incerto come YouTube intenda arginare in modo strutturato il fenomeno. Non è chiaro, a esempio, se l’azienda punterà su un potenziamento della moderazione manuale, su un inasprimento dell’algoritmo di valutazione o su un tracciamento più trasparente dell’uso di AI nei contenuti pubblicati. La linea adottata da Alphabet sul tema appare ambivalente: da un lato, la piattaforma riconosce l’impatto negativo che questi contenuti hanno sulla qualità percepita del portale; dall’altro, continua a sviluppare modelli di generazione video — come Veo 3 — anche attingendo ai contenuti caricati dagli utenti, spesso senza consenso esplicito, per addestrare sistemi che alimenteranno a loro volta nuovi flussi di contenuti sintetici.