Bastano sette settimane su X per farci cambiare idea politica. Non è una teoria, ma il risultato di uno studio pubblicato su Nature: l’algoritmo della piattaforma orienta sistematicamente gli utenti verso posizioni più conservatrici, lasciando effetti che persistono anche dopo essere stato disattivato.
Lo studio [1] è firmato da un team internazionale di ricercatori delle università di San Gallo, Zurigo, della Paris School of Economics e della Bocconi di Milano. Nell’estate del 2023 hanno reclutato 4.965 utenti americani attivi su X tramite la società di sondaggi YouGov, dividendoli in due gruppi: chi avrebbe usato il feed algoritmico – la sezione “Per te”, quella che mostra contenuti scelti dalla macchina – e chi avrebbe invece usato il feed cronologico, dove appaiono solo i post degli account seguiti, in ordine di tempo. Dopo averli seguiti per 7 settimane hanno effettuato un sondaggio sulle opinioni politiche.
Il punto metodologico che rende questo studio diverso da tutti i precedenti è cruciale: i ricercatori non hanno collaborato con X. Non hanno chiesto permessi, non hanno ricevuto dati interni e non hanno firmato accordi di riservatezza. Si sono limitati a sfruttare una funzionalità pubblica della piattaforma, quella di poter scegliere tra i due feed, trasformandola in un esperimento scientifico rigoroso. «Condurre lo studio in modo indipendente dalla piattaforma», scrivono gli autori, «aiuta ad affrontare le preoccupazioni di validità esterna» che affliggono le ricerche condotte in partnership con le aziende tech. In altre parole: nessuno poteva aggiustare i dati.
I risultati sono netti. Chi è passato dal feed cronologico a quello algoritmico era il 4,7% più propenso a dare priorità a temi tipicamente repubblicani come inflazione, immigrazione e criminalità. Era il 5,5% più propenso a ritenere le indagini penali su Trump inaccettabili. Era il 7,4% meno propenso ad avere una visione positiva di Zelensky. L’algoritmo non cambia la militanza partitica – chi si dichiarava democratico restava democratico – ma modifica le opinioni su questioni specifiche.
La scoperta più inquietante non sta nel quanto, bensì nel come. Quando i ricercatori hanno invertito l’esperimento – rimettendo il feed cronologico a chi aveva usato l’algoritmico – non è successo quasi nulla. Le opinioni non sono tornate quelle precedenti. Il meccanismo, spiegano gli autori, è semplice e brutale: l’algoritmo porta gli utenti a seguire account di attivisti politici conservatori. E quegli account continuano ad essere seguiti anche quando l’algoritmo viene spento. Non è una “camera d’eco”, funziona come un imprinting: una volta avvenuto, è difficile da invertire.
L’algoritmo di X, emerge dallo studio, promuove attivamente i contenuti conservatori, con una probabilità del 19,9% superiore rispetto al feed cronologico, e gli attivisti politici con una percentuale del 27%; penalizza invece i media tradizionali, i cui post compaiono il 58% meno spesso. E non si tratta di una novità dell’era Musk: uno studio [2] del 2021 aveva già documentato che Twitter privilegiava i contenuti di destra fin dal 2016, quando l’algoritmo fu introdotto per la prima volta, con una proprietà completamente diversa.
Vale la pena ricordare che giovani e adulti ormai utilizzano i social media come fonte primaria di notizie [3]: che l’algoritmo di X non sia neutro non è una sorpresa per molti, ma che ora lo dimostri uno studio su Nature, condotto in piena autonomia e con un campione di quasi cinquemila persone, è un’altra cosa.
La macchina non ci sta solo mostrando quello che vogliamo vedere. Sta provando a scegliere per noi. E lo fa così lentamente, così metodicamente, che quando smette di farlo, abbiamo già imparato la lezione.