La memoria è sempre stata un campo di battaglia. Chi decide cosa viene ricordato e cosa viene dimenticato esercita una delle forme più sottili — e più devastanti — di potere. Per secoli questo compito è spettato a storici, istituzioni, governi, editori: filtri umani con i loro pregiudizi, certo, ma almeno identificabili, contestabili, rovesciabili con una buona controinchiesta o una rivolta culturale. Oggi quel ruolo si sta spostando, in modo silenzioso e quasi inavvertito, verso i Large Language Model — i pilastri dell’intelligenza artificiale generativa. GPT-4, Claude, Gemini, DeepSeek: sono loro i nuovi custodi della memoria collettiva per centinaia di milioni di persone che ogni giorno chiedono a un chatbot di spiegargli il mondo. Il problema — e qui non ci giriamo intorno — è che questi modelli non ricordano tutto. Ricordano quello che qualcuno ha deciso di dargli in pasto. E dimenticano tutto il resto, con la stessa efficienza brutale di un censore che non ha bisogno di lasciare tracce perché nessuno sa cosa manca.
Il bias dei LLM non è un bug tecnico da correggere con il prossimo aggiornamento, non è un “problema noto” nella lista delle patch. È una questione politica, e trattarla come un problema ingegneristico è già un modo per neutralizzarla. I dati di addestramento, i processi di allineamento, le scelte di moderazione: ogni passaggio nella creazione di un modello linguistico è una decisione su cosa conta e cosa no, su quali voci meritano di essere amplificate e quali possono essere tranquillamente ignorate. Timnit Gebru e Emily Bender lo hanno scritto nero su bianco nel 2021 con il loro paper On the Dangers of Stochastic Parrots — e per averlo fatto, Gebru è stata cacciata da Google. Cinque anni dopo, le loro preoccupazioni non solo si sono rivelate fondate: sono diventate la realtà quotidiana di chiunque interagisca con un’intelligenza artificiale. Il pappagallo stocastico ripete quello che ha sentito nella stanza — e il punto è capire chi parla, chi tace, e chi è stato chiuso fuori dalla porta.
I dati di addestramento non sono neutri: le voci di chi?
Partiamo dai numeri, perché i numeri smontano le narrative meglio di qualsiasi proclama. Il 60% dei dati di addestramento di GPT-3 proviene da Common Crawl, un archivio mastodontico di oltre 300 miliardi di pagine web che suona democratico — tutto il web! — ma che in realtà è drammaticamente sbilanciato verso contenuti in lingua inglese prodotti da siti con alta autorità di dominio. Un altro 22% viene da WebText2, che è essenzialmente Reddit filtrato per i link più votati. Il 16% da raccolte di libri digitalizzati, il restante 3% da Wikipedia in inglese. Un’analisi indipendente su oltre 150.000 citazioni ha confermato questa gerarchia: Reddit al 40,1%, Wikipedia al 26,3%, Google al 23%, YouTube al 23%. Mettila così: la “conoscenza del mondo” secondo un LLM è quella che un utente maschio, anglofono, tendenzialmente bianco e con accesso a internet ad alta velocità ha deciso di condividere su un forum o di scrivere su un’enciclopedia collaborativa dove l’88% degli editor è uomo. Le voci di chi non ha accesso digitale, di chi scrive in lingue minoritarie, di chi vive in comunità marginalizzate — semplicemente non esistono nel dataset. E ciò che non esiste nel dataset non esiste nella memoria dell’AI.
La Mozilla Foundation ha pubblicato un’analisi su Common Crawl che mette in luce un meccanismo perverso: l’archivio usa un sistema di scoperta URL automatizzato basato sulla centralità armonica dei domini web, il che significa che i siti più linkati — quelli delle grandi istituzioni occidentali, delle corporation, dei media mainstream — vengono sovrarappresentati, mentre le comunità digitalmente marginalizzate finiscono sistematicamente escluse. Non è un complotto, è un’architettura. Ma l’effetto è identico a quello di un complotto: determinate storie, culture, epistemologie vengono cancellate prima ancora che il modello inizi ad apprendere. La faccenda si fa ancora più grottesca quando consideri i filtri di “sicurezza” applicati ai dati: Common Crawl esclude contenuti considerati non sicuri, ma questi filtri funzionano quasi esclusivamente per l’inglese. Il risultato è che enormi quantità di contenuto in lingue non anglofone — spesso le voci più autentiche di comunità locali — vengono eliminate non perché pericolose, ma perché il sistema non è in grado di valutarle. Uno studio dell’Università di Pittsburgh sulla rappresentazione di genere nei dati di GPT-3 ha trovato le voci femminili significativamente sottorappresentate, con la conseguenza di output meno precisi e meno frequenti quando il modello deve generare prospettive femminili. Se questo vale per il genere in un contesto anglofono, immaginati cosa succede con le narrative dei popoli indigeni, con la storia orale delle comunità subalterne, con le tradizioni epistemiche che non sono mai transitate per un server in Virginia.
Il paper Stochastic Parrots aveva messo il dito nella piaga: i LLM non comprendono il linguaggio, lo ripetono statisticamente. Sono pappagalli stocastici, e il problema di un pappagallo è che ripete solo quello che ha sentito. Se nella stanza c’erano solo voci anglofone, maschili, occidentali e privilegiate, il pappagallo ripeterà quelle — con una differenza cruciale rispetto al volatile reale: centinaia di milioni di persone trattano questi modelli come fonti autorevoli di verità. Gebru, licenziata da Google per aver co-firmato quel paper insieme a Emily Bender e Margaret Mitchell, ha fondato il Distributed AI Research Institute (DAIR) per continuare la ricerca fuori dal controllo delle Big Tech. Un gesto che dice più di qualsiasi studio accademico su chi detiene il potere sulla memoria algoritmica. I dati di addestramento non sono un dettaglio tecnico: sono la politica dell’intelligenza artificiale espressa in terabyte, e finché le comunità che producono quei dati non avranno voce in capitolo su come vengono usati, i modelli continueranno a replicare — su scala industriale e con l’aura rassicurante di neutralità della macchina — le stesse gerarchie che i movimenti dal basso combattono da generazioni.
RLHF, censura e la fabbrica del consenso algoritmico
Se i dati di addestramento decidono cosa il modello sa, il Reinforcement Learning from Human Feedback — il famigerato RLHF — decide come lo dice. È il processo con cui i modelli vengono “allineati” ai valori umani, e detta così suona ragionevole, quasi rassicurante. Il punto è: i valori di chi? Uno studio del MIT pubblicato a dicembre 2024 ha dimostrato che i modelli di ricompensa utilizzati nell’RLHF presentano bias politici sistematici, anche quando vengono addestrati su dati fattuali. Non è un effetto collaterale: è strutturale. Gli annotatori umani che forniscono il feedback hanno le loro convinzioni, i loro pregiudizi, i loro punti ciechi — e quei pregiudizi vengono codificati nei pesi del modello con la stessa efficienza con cui vengono codificati i fatti. La ricerca ha anche mostrato che i LLM conversazionali tendono a presentare orientamenti progressisti più marcati rispetto ai modelli base, il che suggerisce che è proprio la fase di allineamento a introdurre o amplificare queste inclinazioni. L’RLHF non allinea il modello “ai valori umani” in astratto — lo allinea ai valori specifici delle persone che lavorano nelle aziende di AI della Bay Area. Gente che vive in una bolla economica, culturale e politica molto precisa, e che sta decidendo — senza che nessuno gliel’abbia chiesto — quale versione del mondo è accettabile per tutti.
Il caso DeepSeek è il più clamoroso e il più istruttivo, perché rende esplicito ciò che negli altri modelli resta implicito. Uno studio pubblicato su PNAS Nexus nel febbraio 2026 da Jennifer Pan e Xu Xu ha confrontato le risposte di modelli cinesi — DeepSeek, BaiChuan, ChatGLM, Ernie Bot — con modelli occidentali su 145 domande di politica cinese. I risultati sono prevedibili, ma vederli quantificati fa un certo effetto: i modelli cinesi presentano tassi di rifiuto drasticamente più alti, risposte più corte e meno accurate, una tendenza sistematica a riprodurre la linea del Partito Comunista su Taiwan, minoranze etniche e attivisti pro-democrazia. DeepSeek-R1, secondo un’analisi separata su arXiv, genera contenuti con livelli di propaganda e sentimento anti-statunitense nettamente superiori a ChatGPT, soprattutto quando interrogato in cinese semplificato — le query in inglese producono bias quasi nulli, come se il modello sapesse quando farsi bello davanti agli ospiti. Ancora più inquietante: quando DeepSeek riceve input con termini politicamente sensibili come “Falun Gong”, “Uiguri” o “Tibet”, genera fino al 50% in più di codice con vulnerabilità di sicurezza, come ha documentato VentureBeat. La censura non si limita al contenuto: sabota la qualità tecnica dell’output. In Cina, per operare, i modelli devono ottenere l’approvazione dell’amministrazione del cyberspazio e conformarsi ai “valori socialisti” — un eufemismo per dire che l’AI deve mentire su comando.
Sarebbe comodo e rassicurante fermarsi qui, puntare il dito verso Pechino e dire: ecco, il problema è l’autoritarismo cinese. Ma sarebbe intellettualmente disonesto, e questo blog non fa sconti a nessuno. I modelli occidentali non sono neutri — sono allineati diversamente, con forme di censura più sottili ma non meno efficaci nel plasmare la percezione. ChatGPT evita con cura chirurgica qualsiasi posizione netta su Palestina, riduce le lotte sindacali a fenomeni storici senza mordente contemporaneo, e tratta l’anarchismo come una curiosità filosofica del XIX secolo piuttosto che come una tradizione politica viva, praticata e — cosa che evidentemente terrorizza qualcuno — attuale. Claude, il modello di Anthropic, ha un approccio “costituzionale” che nella pratica produce risposte su temi politicamente caldi così bilanciate da risultare vuote — la diplomazia aziendale tradotta in token. Gemini di Google soppesa ogni parola con il terrore di chi sa che un tweet sbagliato può far crollare il titolo in borsa. Non è censura di stato come quella cinese, certo. Ma è una forma di normalizzazione che produce effetti analoghi: determinati argomenti, determinate lotte, determinate prospettive vengono limate, ammorbidite, rese innocue — come abbiamo già raccontato analizzando il rapporto tra AI e controllo dei lavoratori. L’RLHF, detto senza mezzi termini, è una macchina per la fabbricazione del consenso — tanto a Pechino quanto a San Francisco. Cambia il committente, non il meccanismo.
Il bias in azione: cosa ricordano le AI e cosa cancellano
Facciamo un esercizio pratico, qualcosa che puoi replicare adesso sul tuo computer. Chiedi a GPT-4 di raccontarti la storia del colonialismo italiano in Libia o in Etiopia — le stragi, i gas chimici di Graziani, i campi di concentramento nel Corno d’Africa. Poi chiedi la stessa cosa sulla colonizzazione britannica dell’India. Confronta la profondità, il dettaglio, il tono emotivo delle due risposte. Il colonialismo britannico — più presente nella letteratura anglofona, più documentato su Wikipedia in inglese, più discusso nei subreddit di storia — riceverà un trattamento articolato, con nomi, date e sfumature. Il colonialismo italiano verrà liquidato in pochi paragrafi generici, spesso con imprecisioni imbarazzanti. Non perché il modello sia “razzista” in senso intenzionale, ma perché la sua memoria è costruita sulle fonti disponibili — e quelle fonti riflettono le gerarchie di potere del presente, non la gravità storica degli eventi. Un articolo pubblicato su AI & Society di Springer parla apertamente di “imperialismo cognitivo nell’intelligenza artificiale”: il dominio dell’inglese come lingua dell’AI marginalizza le epistemologie indigene, distorce la rappresentazione nelle lingue sottorappresentate e privilegia sistematicamente prospettive eurocentriche. Non è una metafora azzardata. È colonialismo digitale, quello vero, e funziona esattamente come quello vecchio: appropriazione, estrazione, cancellazione.
La cancellazione non riguarda solo le lingue o la geografia. Riguarda intere categorie di esperienza umana che vengono sistematicamente addomesticate. La storia dei movimenti operai, delle lotte sindacali, degli scioperi generali — una tradizione che in Italia ha radici profondissime, dal biennio rosso ai COBAS — viene raccontata dai LLM con il distacco asettico di un manuale scolastico, quando viene raccontata. L’anarchismo? Prova a chiedere a qualsiasi modello commerciale di spiegarti il pensiero di Errico Malatesta, di Murray Bookchin, del mutuo appoggio di Kropotkin. Otterrai una scheda enciclopedica pulita, educata, completamente svuotata della carica sovversiva che quelle idee portano con sé — come se qualcuno avesse passato il diserbante su un prato di fiori selvatici per farne un giardino all’inglese. La Palestina? Ogni modello mainstream cammina sulle uova, distribuendo “complessità” e “punti di vista multipli” con una simmetria che è essa stessa una posizione politica — quella di chi non vuole disturbare nessun inserzionista, nessun governo alleato, nessun partner commerciale. I ricercatori della Northeastern University hanno documentato, nello studio pubblicato su PNAS Nexus, come questa evasione non sia accidentale: i modelli vengono specificamente addestrati per evitare posizioni nette su temi geopolitici sensibili. Il risultato è un’AI che sa tutto e non dice niente — la versione algoritmica del diplomatico che annuisce a tutti e non ha mai un’opinione propria.
Il problema diventa strutturale quando consideri l’effetto di scala — e la scala, qui, è quella di centinaia di milioni di utenti quotidiani. Studenti che preparano esami, giornalisti che cercano background, ricercatori che esplorano letteratura, lavoratori che tentano di capire i propri diritti: tutti usano questi modelli come primo punto di accesso alla conoscenza. Se un LLM tratta sistematicamente determinate lotte come marginali, quelle lotte rischiano di diventare marginali nella percezione collettiva di un’intera generazione. Se riduce il colonialismo a un “periodo storico complesso” senza nominare responsabili e vittime, normalizza l’amnesia. Se racconta la tecnologia come progresso inevitabile senza menzionare i lavoratori sfruttati nelle miniere di cobalto del Congo o nelle catene di montaggio di Foxconn — un tema che abbiamo già affrontato parlando di intelligenza artificiale e lavoro — contribuisce a una narrazione che serve esclusivamente chi da quello sfruttamento trae profitto. Cultural Survival, organizzazione storica per i diritti dei popoli indigeni, ha avvertito che senza la partecipazione attiva delle comunità indigene nello sviluppo dell’AI, questi sistemi perpetuano “modelli storici di cancellazione culturale”. L’assenza nei dati di addestramento non è un’omissione neutra: è cancellazione digitale. L’AI non può preservare ciò che non ha mai visto, e non rispetterà ciò che non è mai stato validato nel suo ecosistema di addestramento.
Rompere lo specchio: alternative dal basso alla memoria algoritmica
La tentazione, a questo punto, è lo scoraggiamento. Se i dati sono sbilanciati, l’RLHF è manipolazione e i modelli replicano le gerarchie di potere esistenti, che si fa? Si parte dal basso, come sempre. Il software libero e l’open source offrono la strada più concreta per contrastare la concentrazione della memoria algoritmica nelle mani di poche aziende — ne abbiamo parlato a fondo nel nostro pezzo sulle alternative open source alle Big Tech. Modelli aperti come Llama, Mistral e i loro derivati possono essere addestrati, modificati e riallineati da comunità indipendenti senza chiedere il permesso a nessuno. Esistono già progetti di LLM locali che girano su hardware personale, fuori dal controllo di qualsiasi cloud provider, e iniziative di dataset comunitari che cercano di includere voci sistematicamente escluse dai grandi archivi commerciali. Il DAIR Institute fondato da Gebru lavora esattamente su questo: ricerca sull’AI che non risponde agli azionisti ma alle comunità. Cooperative di calcolo, mesh network per l’addestramento distribuito, archivi digitali autogestiti — non sono utopie da manifesto, sono progetti in corso che sfidano concretamente il monopolio della memoria. La sovranità tecnologica — non quella degli stati, che è solo un altro padrone, ma quella delle comunità — passa anche da qui: dal decidere collettivamente cosa i nostri modelli devono ricordare e quali storie non possono permettersi di dimenticare.
Le soluzioni tecniche, da sole, non bastano — e chiunque ti dica il contrario sta cercando di venderti qualcosa, probabilmente un abbonamento cloud. Il nocciolo della questione è il potere: chi lo detiene, chi lo esercita, chi lo subisce. Nessun dataset “più inclusivo” risolverà il problema finché saranno cinque aziende della Silicon Valley e il Partito Comunista Cinese a decidere come funziona la memoria del pianeta. Serve una critica radicale — nel senso etimologico, che va alla radice — del modello stesso di AI centralizzata, proprietaria, estrattiva. Serve pretendere trasparenza totale sui dati di addestramento, sulle scelte di allineamento, sui criteri di moderazione. Serve che la ricerca indipendente come quella di Gebru, Bender e del DAIR riceva finanziamenti pubblici e non dipenda dalla benevolenza di chi ha interesse a mantenere lo status quo. E serve, soprattutto, smettere di trattare i LLM come oracoli e ricominciare a usarli per quello che sono: strumenti potentissimi ma profondamente parziali, specchi deformanti che riflettono non il mondo com’è, ma il mondo come qualcuno vuole che tu lo veda. La prossima volta che chiedi qualcosa a un chatbot, chiediti anche: di chi è la voce che sto ascoltando? E quali voci sono state zittite perché tu potessi sentire solo questa?
