Delve. Una parola che tre anni fa compariva a malapena nei testi accademici anglofoni e che oggi infesta ogni angolo di internet — paper scientifici, post LinkedIn, email aziendali, persino romanzi autopubblicati su Amazon. La sua frequenza nei testi generati da ChatGPT è 48 volte superiore rispetto alla scrittura umana. Ma “delve” è solo la punta dell’iceberg, il sintomo più visibile di una malattia profonda: i modelli linguistici di grandi dimensioni stanno riscrivendo il modo in cui l’umanità comunica, pensa, si esprime. E lo stanno facendo nella direzione più prevedibile possibile — verso l’uniformità.
Il punto non è che le AI scrivano male. Il punto è che scrivono tutte allo stesso modo. E il problema vero — quello che dovrebbe togliere il sonno a chiunque abbia a cuore la diversità culturale e la libertà di pensiero — è che questa uniformità sta contagiando gli esseri umani. Un’indagine pubblicata su Trends in Cognitive Sciences nel gennaio 2026 lo dice senza giri di parole: i LLM hanno un effetto omologante sull’espressione e sul pensiero umano, un effetto che si amplifica con ogni ciclo di feedback tra testo generato e testo consumato. Non è fantascienza, è linguistica computazionale. Ed è già in corso. Tu apri il laptop, chiedi a ChatGPT di riscriverti un paragrafo, accetti il suggerimento senza pensarci troppo — e intanto una fetta della tua voce sparisce, sostituita da quella di un modello statistico che ha già deciso quali parole sono normali e quali no. Moltiplica questo gesto per centinaia di milioni di utenti al giorno, e ottieni la più grande operazione di standardizzazione linguistica della storia — senza che nessuno l’abbia votata, senza che nessuno ne sia responsabile.
Lo “stile ChatGPT” e la morte della varietà linguistica
Apri LinkedIn un lunedì mattina qualsiasi. Scorri il feed. Conta quanti post iniziano con un aneddoto personale vagamente ispiratore, proseguono con tre punti elenco di “lezioni apprese” e chiudono con una call-to-action motivazionale. Se la risposta è “quasi tutti”, non è un caso. Secondo lo studio di Originality.AI aggiornato al 2025, il 54% dei post lunghi su LinkedIn è probabilmente generato da intelligenza artificiale. Più della metà. E non parliamo di bot anonimi — parliamo di professionisti, manager, CEO che affidano la propria voce pubblica a ChatGPT e poi la firmano come propria. Il lancio di ChatGPT alla fine del 2022 ha prodotto un’impennata del 189% nell’uso dell’AI nei post LinkedIn, con un aumento medio della lunghezza del 107%. Più parole, meno sostanza. Più volume, meno segnale. Il rumore si è fatto assordante, e ha tutto la stessa identica frequenza.
Il risultato è un paesaggio comunicativo piatto come una tavola. La ricercatrice Yalda Daryani e i suoi colleghi hanno pubblicato nel 2026 su SAGE Journals uno studio dal titolo eloquente: “The Homogenizing Engine”. Il motore omologante. La tesi è tanto semplice quanto devastante: i LLM, rispecchiando i pattern dominanti nei dati di addestramento, promuovono l’omologazione stilistica e concettuale mentre sopprimono le voci alternative. Non è un effetto collaterale — è la conseguenza diretta di come funzionano questi modelli. Un LLM non inventa: comprime, media, leviga. Ted Chiang l’ha detto meglio di chiunque altro nel suo celebre saggio sul New Yorker: ChatGPT è “una JPEG sfocata del web”. Un’approssimazione compressa che perde dettaglio a ogni passaggio, e i dettagli che si perdono per primi sono quelli che contano di più — le irregolarità, gli accenti, le scelte lessicali che rendono una voce riconoscibile e irriducibile.
I linguisti del Max Planck Institute hanno scoperto qualcosa che fa venire i brividi: gli YouTuber accademici hanno iniziato a usare parole preferite dall’AI con una frequenza superiore del 51% dopo il lancio di ChatGPT. “Crucial”, “landscape”, “multifaceted”, “tapestry” — parole che nessun essere umano userebbe con questa ossessività in una conversazione reale, ma che i modelli rigurgitano compulsivamente perché abbondano nei dati di addestramento. Tre o più di queste parole-spia in 500 parole aumentano la probabilità di rilevamento AI del 35-50%, secondo la metodologia di Originality.ai. Ma il fenomeno non si limita all’inglese: uno studio della Cornell University ha dimostrato che l’AI sta influenzando lo stile degli anglofoni indiani, spingendolo verso un inglese americano standard. Detto senza mezzi termini: non solo scriviamo tutti come ChatGPT, ma ChatGPT ci fa scrivere tutti come americani della classe media istruita di San Francisco. E qui si tocca il nervo scoperto, perché il problema dell’omologazione linguistica non è estetico — è politico.
Quando un singolo modello addestrato prevalentemente su testi in inglese americano diventa il filtro attraverso cui centinaia di milioni di persone producono testo, quel modello esercita un potere culturale che nessun editore, nessuna accademia della lingua, nessun governo ha mai avuto nella storia. E lo fa senza mandato democratico, senza trasparenza, senza responsabilità. Lo fa perché OpenAI, Google, Anthropic e Meta hanno deciso che il loro modello di business è vendere la capacità di comunicare — e il modo più efficiente di farlo è standardizzare la comunicazione stessa. Non è un complotto, è capitalismo nella sua forma più pura. Il prodotto più redditizio è quello che si adatta al maggior numero di clienti, e un testo omologato è per definizione il testo che scontenta meno persone possibile. Il prezzo lo paghiamo tutti, in diversità perduta e pensiero appiattito.
Le lingue che non contano: dal napoletano al nahuatl
C’è un numero che dovrebbe far riflettere chiunque si occupi di diversità linguistica: nel mondo si parlano oltre 7.000 lingue, ma i principali LLM sono addestrati su circa 100. Tutto il resto — dialetti, lingue minoritarie, varietà regionali, lingue orali mai trascritte in formato digitale — è rumore di fondo. Non esiste per l’intelligenza artificiale, e progressivamente rischia di non esistere più nemmeno per chi la usa quotidianamente. Come ha documentato un rapporto di Stanford del 2025, l’AI sta letteralmente lasciando indietro chi non parla inglese: per i 97 milioni di parlanti vietnamiti i LLM funzionano male; per i 1,5 milioni di parlanti nahuatl, non funzionano affatto. Addestrare un modello richiede petabyte di testo in formato leggibile — un volume che solo poche decine di lingue al mondo hanno accumulato. Le altre sono invisibili, e l’invisibilità digitale nel 2026 è una forma di estinzione accelerata.
Il caso italiano è emblematico e dovrebbe preoccuparti più di quanto pensi. L’Istat ha certificato nel 2024 che l’uso esclusivo o prevalente del dialetto in famiglia è sceso sotto il 10%, dal 33% del 1988. Trentasei anni di erosione costante che l’AI accelera in modo brutale. L’UNESCO classifica 31 varietà linguistiche italiane come minacciate — dal napoletano al sardo, dal friulano al siciliano, alcune parlate da meno di cento persone anziane. Uno studio del MIT pubblicato su Transactions of the Association for Computational Linguistics ha analizzato le sfide tecnologiche per le varietà linguistiche d’Italia e ha trovato quello che tutti sospettavano: per l’NLP queste lingue sono risorse a basso valore, troppo frammentate, troppo poco documentate per valere l’investimento computazionale. Un LLM non parla napoletano, non capisce il sardo, non distingue il piemontese dal lombardo. E quando milioni di italiani usano ChatGPT per scrivere email, post, documenti — lo fanno in un italiano standard levigato che non ha niente a che vedere con la ricchezza linguistica del paese reale. Ogni prompt è un piccolo funerale per una particolarità espressiva che nessuno catalogherà mai.
Esistono eccezioni virtuose, certo. Il progetto Latam-GPT mira a includere lingue indigene come il quechua, il nahuatl e il mapudungun in un modello open source. In Nuova Zelanda, il team di Te Hiku Media ha sviluppato Papa Reo per il te reo Māori — un esempio concreto di sovranità linguistica dal basso, in cui è la comunità parlante a decidere come e se la propria lingua viene digitalizzata. Ma sono gocce nell’oceano di un sistema che premia l’inglese standard e punisce tutto il resto. E qui si innesca il meccanismo più perverso di tutti: il model collapse. Lo studio pubblicato su Nature nel 2024 lo ha dimostrato matematicamente — quando i modelli vengono addestrati su dati che contengono output di altri modelli, la qualità degrada progressivamente. Come fotocopiare una fotocopia, per tornare all’immagine di Chiang. Ma il degrado non è uniforme: le prime informazioni a scomparire sono quelle minoritarie, le code della distribuzione, i pattern rari. Cioè esattamente le lingue, i dialetti, le espressioni culturali che non hanno abbastanza massa critica per resistere alla compressione statistica. Il model collapse è il bias che cancella la memoria collettiva portato alle sue conseguenze estreme: non solo l’AI dimentica il passato, ma dimentica le minoranze del presente. I ricercatori di Epoch AI stimano che il mondo potrebbe esaurire il nuovo testo umano utilizzabile per l’addestramento tra il 2026 e il 2032 — e a quel punto, il serpente che si mangia la coda non avrà più nulla da inghiottire se non se stesso.
La fabbrica dei cloni: il paradosso della democratizzazione
Nel 2023 qualcuno promise che l’intelligenza artificiale avrebbe “democratizzato la scrittura”. Chiunque poteva diventare autore, bastava un prompt. Tre anni dopo il bilancio è sotto gli occhi di tutti: Amazon è sommersa da milioni di libri generati da AI — ricettari con ricette che non funzionano, manuali di programmazione pieni di allucinazioni, romanzi scritti da nessuno per nessuno. La piattaforma ha dovuto limitare a tre il numero di libri pubblicabili al giorno per autore e introdurre l’obbligo di dichiarare i contenuti generati da AI, ma il problema peggiora. I resi sono ai massimi storici. I lettori cercano disperatamente libri scritti da esseri umani e faticano a trovarli nel mare di spazzatura algoritmica. La “democratizzazione” si è rivelata per quello che era fin dall’inizio: una parola di marketing per giustificare l’abbattimento dei costi di produzione a scapito della qualità — e quando senti un’azienda tech usare la parola “democratizzazione”, la prima domanda da farti è sempre la stessa: chi ci guadagna davvero?
Ma il punto non è Amazon in sé — Amazon è solo il sintomo più grottesco. Quando milioni di persone scrivono con lo stesso modello, il risultato non è la democratizzazione ma il suo esatto contrario: la concentrazione del potere espressivo nelle mani di chi controlla il modello. Tu scrivi, ma è OpenAI che decide il vocabolario. Tu esprimi un’opinione, ma è il RLHF — Reinforcement Learning from Human Feedback — che l’ha già levigata, ammorbidita, resa inoffensiva prima ancora che tu la formuli completamente. Come abbiamo analizzato parlando di proprietà intellettuale e conoscenza collettiva, il paradosso è strutturale: i modelli si addestrano su tutta la produzione culturale umana, ma restituiscono una versione ridotta, compressa, normalizzata di quella stessa cultura. Prendono tutto e restituiscono meno, con un sovrapprezzo.
Ted Chiang l’ha articolato con una chiarezza disarmante durante la sua conferenza a Princeton nel marzo 2025: partire da una copia sfocata di lavoro non originale non è un buon modo per creare lavoro originale. Sembra ovvio — eppure è esattamente quello che fa chiunque usi un LLM come punto di partenza per scrivere. Non stai costruendo su una base solida, stai già dentro il recinto delle possibilità previste dal modello. La tua creatività è limitata dallo spazio di probabilità calcolato su miliardi di testi preesistenti, e quello spazio — per definizione — tende al centro, al già detto, al prevedibile. Lo studio pubblicato su ScienceDirect nel 2025, che ha confrontato la diversità creativa tra testi umani e testi di ChatGPT, conferma esattamente questo: ogni saggio scritto da un essere umano aggiunge più idee nuove di un saggio equivalente generato da GPT-4. La diversità semantica degli utenti che scrivono con ChatGPT è significativamente inferiore a quella di chi usa strumenti di supporto creativo tradizionali. L’AI non amplifica la creatività — la comprime. E lo fa in modo tanto più insidioso quanto più il risultato appare fluido e professionale, perché il testo generato suona bene, è grammaticalmente impeccabile, sembra serio. Solo che suona bene esattamente come tutti gli altri testi generati dallo stesso modello.
Qui si chiude il cerchio con la questione politica, che poi è la questione centrale. Chi controlla il linguaggio influenza il pensiero — non è un’esagerazione orwelliana, è linguistica di base da Sapir-Whorf in poi. E Ursula K. Le Guin — che in I reietti dell’altro pianeta ha immaginato una società anarchica fondata su un linguaggio costruito per impedire il possesso e la gerarchia — ci ricorderebbe che quando riduci tutto a un unico codice espressivo omologato, le differenze scompaiono. Se A suona come B e B suona come C, il pensiero critico muore — perché pensare criticamente significa esattamente questo: vedere distinzioni dove gli altri vedono uniformità, trovare le crepe nel consenso, dare nomi diversi a cose diverse. Quando tre o quattro aziende della Silicon Valley controllano i modelli che mediano la comunicazione scritta di centinaia di milioni di persone, il potere che esercitano sulla cultura è senza precedenti nella storia umana. E a differenza dei media tradizionali, dove almeno potevi scegliere tra fonti diverse con voci diverse, qui la fonte è una sola — il modello. Cambi il prompt, ma il modello resta. Come abbiamo scritto analizzando la guerra tra modelli aperti e chiusi, la risposta dal basso esiste — modelli open source, LLM locali come strumento di resistenza, comunità che si riappropriano degli strumenti. Ma finché la stragrande maggioranza delle persone usa i modelli delle big tech senza farsi una sola domanda, l’omologazione prosegue indisturbata, un prompt alla volta.
La questione che nessuno vuole affrontare è brutalmente semplice: stiamo consegnando il linguaggio — lo strumento più potente che la specie umana abbia mai sviluppato — nelle mani di sistemi statistici progettati per massimizzare la prevedibilità. E la prevedibilità è l’antitesi esatta del pensiero critico, della creatività, della resistenza. Ogni volta che accetti un suggerimento di ChatGPT senza riformularlo, ogni volta che lasci che il modello completi la tua frase, stai rinunciando a una micro-scelta linguistica che era solo tua. Una parola, una sfumatura, un modo di dire che portava la tua storia, il tuo dialetto, il tuo modo di pensare. Moltiplica quel gesto per miliardi di utenti e miliardi di interazioni al giorno, e il risultato è un’erosione silenziosa e capillare della diversità espressiva umana — più rapida di qualsiasi politica linguistica mai imposta dall’alto, più efficace di qualsiasi censura, perché non ha bisogno di proibire nulla. Le alternative esistono, ma richiedono una scelta consapevole: usare strumenti aperti, scrivere con la propria testa, difendere le proprie imperfezioni linguistiche come atti politici. Perché un mondo in cui tutti scrivono come ChatGPT, tutti pensano come ChatGPT e nessuno se ne accorge — quel mondo non è una distopia futura. È il presente. E “abbastanza bene” non è mai stato sinonimo di vivo.
