L’11 febbraio 2026, mentre a San Francisco i vertici di OpenAI discutevano la prossima mossa per blindare il mercato e Anthropic firmava l’ennesimo accordo con il Pentagono, dalla Cina è arrivato un colpo che nessuno aveva previsto con queste proporzioni. Zhipu AI — startup nata dalla Tsinghua University, inserita nella lista nera statunitense, tagliata fuori dai chip NVIDIA per decreto del governo americano — ha rilasciato GLM-5: un LLM open source da 744 miliardi di parametri, addestrato interamente su processori Huawei Ascend e distribuito con licenza MIT. Per capirci: chiunque al mondo può scaricarlo, modificarlo, usarlo a scopo commerciale, senza chiedere permesso a Zhipu, a Pechino o a qualsiasi altra autorità sulla faccia della terra.
Le sanzioni americane dovevano soffocare l’intelligenza artificiale cinese. Il risultato è un modello che compete testa a testa con GPT-5.2 e Claude Opus 4.5 nei benchmark più brutali — dalla risoluzione di bug in codebase reali ai problemi scientifici ai limiti della conoscenza umana — e lo fa a un costo cinque-sei volte inferiore. Ma la vera notizia non è la guerra tecnologica tra superpotenze, anche se i media adorano raccontarla così perché fa audience. La vera notizia è che per la prima volta un modello di frontiera è genuinamente open source, con una licenza che non nasconde clausole, asterischi o limitazioni per chi fattura troppo. Un saluto a Meta e alla sua definizione creativa di “open”, che esclude chiunque abbia più di 700 milioni di utenti — cioè tutti tranne i piccoli che fanno il beta testing gratis.
Resta una domanda che vale più di qualsiasi benchmark e che la stampa specializzata — sempre pronta a compilare la classifica del modello più forte del mese — sistematicamente ignora: a chi serve davvero un GLM-5 open source LLM da 744 miliardi di parametri? Alle comunità che vogliono costruire tecnologia senza padroni, ai ricercatori con budget ridotti all’osso, ai collettivi che provano a fare autogestione digitale dal basso? Ai giornalisti e attivisti che hanno bisogno di strumenti di analisi senza passare per le API di aziende che collaborano con governi autoritari? Oppure all’ennesimo ciclo di hype dove il codice aperto diventa l’esca per vendere servizi chiusi e gli utenti restano consumatori passivi di una piattaforma altrui? La risposta dipende da chi prende in mano lo strumento — e soprattutto da chi controlla l’infrastruttura su cui quello strumento gira.
744 miliardi di parametri, zero chip americani
I numeri di GLM-5 parlano da soli, e non serve addolcirli con il linguaggio delle slide aziendali. Il modello utilizza un’architettura Mixture-of-Experts (MoE) con 744 miliardi di parametri totali, di cui 40 miliardi attivi per ogni token generato — una scelta progettuale che permette prestazioni da modello frontier mantenendo costi computazionali gestibili, perché non devi far passare ogni token attraverso l’intera rete neurale. L’architettura conta 256 esperti, di cui 8 vengono selezionati e attivati a ogni operazione di inferenza. L’addestramento ha consumato 28,5 trilioni di token, un balzo significativo rispetto ai 23 trilioni del predecessore GLM-4.5, che si fermava a 355 miliardi di parametri totali con 32 miliardi attivi. In meno di un anno Zhipu ha più che raddoppiato la scala del modello, ha adottato il meccanismo DeepSeek Sparse Attention per gestire finestre di contesto fino a 200.000 token, e ha integrato una tecnica di reinforcement learning battezzata APRIL per migliorare la gestione dei problemi a coda lunga — quelli rari e complessi che fanno inciampare la maggior parte dei modelli linguistici. L’intero framework di addestramento, chiamato “slime”, è stato rilasciato sotto licenza MIT insieme ai pesi del modello: non solo il prodotto finito, ma gli strumenti per capire come è stato costruito.
Il dato tecnico che trasforma GLM-5 da semplice concorrente a evento geopolitico, però, è l’hardware su cui è stato addestrato. Centomila processori Huawei Ascend 910B, orchestrati dal framework MindSpore — l’alternativa cinese all’ecosistema CUDA di NVIDIA che per anni ha rappresentato il collo di bottiglia monopolistico dell’intero settore. Parliamoci chiaro: l’Ascend 910B non è un chip all’avanguardia e non ha senso raccontare favole in proposito. Le sue prestazioni sono paragonabili a quelle di un NVIDIA A100, cioè hardware del 2020, non del 2026. Usa memoria HBM2E che lo penalizza di un terzo in capacità rispetto ai chip NVIDIA più recenti e del 40% in banda di comunicazione chip-to-chip. In un benchmark trapelato da Baidu, otto Ascend 910B hanno impiegato l’8% in più rispetto a otto H100 per addestrare Llama-2-70B. Sulla carta, un handicap pesante. Nella realtà, Zhipu ha compensato con l’ingegneria software e architetturale — ottimizzazioni del framework, parallelismo intelligente, uso strategico della sparsità — e il risultato finale racconta una storia che chi lavora con il software libero conosce da sempre: non serve l’hardware più costoso se sai ottimizzare quello che hai. La forza bruta perde contro l’ingegno, e questo è forse l’insegnamento più sovversivo che GLM-5 ci lascia. È anche la dimostrazione che il monopolio di NVIDIA su CUDA e sull’ecosistema di sviluppo AI non è un muro invalicabile — è un recinto che può essere aggirato quando la motivazione è abbastanza forte.
I benchmark sono il terreno dove si separa la sostanza dal fumo, e GLM-5 regge il confronto con i colossi proprietari. Su SWE-bench Verified — il test che misura la capacità di risolvere bug reali in repository open source, probabilmente il benchmark più rilevante per chi usa questi modelli nel lavoro quotidiano — segna 77,8%. Claude Opus 4.5 è a 80,9%, GPT-5.2 a 80,0%: uno scarto di 2-3 punti che diventa trascurabile quando metti in conto il rapporto qualità-prezzo. Su BrowseComp, il test per la navigazione web autonoma, GLM-5 demolisce la concorrenza con un 62,0% contro il 37,0% di Claude, che su questo fronte mostra limiti evidenti — quasi il doppio del punteggio. Su Humanity’s Last Exam, il benchmark progettato per spingere un LLM ai limiti assoluti della conoscenza umana con domande di frontiera in ogni disciplina, GLM-5 è primo al mondo con il 50,4%, sopra Claude Opus 4.5 (43,4%) e GPT-5.2. Sul ragionamento matematico avanzato di AIME 2025 segna 92,7%, battendo DeepSeek, Gemini e Llama. L’unico terreno dove i modelli americani mantengono un vantaggio netto è la finestra di contesto — GPT-5 arriva a 400.000 token contro i 202.000 di GLM-5 — e la multimodalità nativa, dato che per la visione serve la variante GLM-5V. Ma il messaggio complessivo è un macigno sulla narrativa secondo cui senza chip americani non si può fare AI di frontiera.
Un aspetto che sfugge quando si ragiona solo di parametri e punteggi: l’accessibilità economica è essa stessa una forma di redistribuzione del potere computazionale. A 0,80 dollari per milione di token in input e 2,56 in output, GLM-5 costa una frazione di qualsiasi modello frontier proprietario — parliamo di un fattore cinque-sei rispetto a GPT-5.2 e Claude Opus 4.6, non di differenze marginali. Per una cooperativa tecnologica, un gruppo di ricerca universitario con fondi risicati o un progetto comunitario dal basso, quella differenza non è un dettaglio contabile: è la differenza tra poter esistere e dover rinunciare. E questo ancora prima di considerare il self-hosting, dato che la licenza MIT permette di far girare il modello sulla propria infrastruttura senza pagare un centesimo a Zhipu. Il costo diventa quello dell’hardware e dell’energia — un problema reale e tutt’altro che banale, come sa chiunque abbia provato a mettere in piedi un cluster — ma un problema che puoi affrontare collettivamente, organizzandoti dal basso, senza intermediari che estraggono rendita dal tuo bisogno di calcolo.
Le sanzioni come acceleratore: la lezione che Washington rifiuta
C’è un’ironia tossica nella storia di GLM-5 che i think tank di Washington faranno finta di non vedere, come fanno da anni con ogni segnale che contraddice il dogma del contenimento tecnologico. Zhipu AI è finita nella Entity List statunitense, divieto assoluto di acquistare chip avanzati americani: niente NVIDIA H100, niente AMD MI325X, niente di niente. L’intenzione era chirurgica — tagliare l’accesso alla tecnologia fondamentale per impedire alla Cina di raggiungere la parità nell’intelligenza artificiale. Il risultato è esattamente l’opposto. Privata dell’hardware americano, Zhipu ha costruito un’infrastruttura alternativa da zero, stringendo alleanze con l’intero ecosistema cinese dei semiconduttori — Huawei in testa, poi Cambricon Technologies, Moore Threads, Kunlunxin — tutti galvanizzati dalla pressione esterna e dai finanziamenti statali che le sanzioni hanno reso politicamente inevitabili. La logica è quella di sempre: se mi chiudi la porta, sfondo il muro. E il muro l’hanno sfondato con un modello che nei benchmark chiave sta a tre punti dai migliori al mondo, addestrato su hardware che sulla carta non avrebbe dovuto permetterlo.
Non è la prima volta che succede, e questo rende la cosa ancora più grottesca. Lo stesso schema l’abbiamo visto con DeepSeek, che ha demolito il mito dei miliardi nell’AI dimostrando come l’efficienza algoritmica batta la forza bruta degli investimenti in GPU. Le sanzioni americane funzionano come una pressione selettiva darwiniana: eliminano chi non sa adattarsi e rafforzano enormemente chi trova strade alternative. La Cina non aveva scelta, e proprio per questo ha accelerato su fronti che senza le restrizioni avrebbe affrontato con molta più calma — investimenti massicci nell’ecosistema hardware domestico, sviluppo di framework software alternativi a CUDA, creazione di catene di approvvigionamento parallele e completamente indipendenti. In un voltafaccia rivelatore, a gennaio 2026 l’amministrazione Trump ha allentato le restrizioni sull’export degli H200 verso la Cina, passando da un divieto presuntivo a una valutazione caso per caso. Le aziende tech cinesi — ByteDance in testa — hanno immediatamente piazzato ordini per oltre 2 milioni di chip, per un valore stimato di 14 miliardi di dollari. Un’ammissione implicita che il contenimento non stava funzionando, arrivata troppo tardi per chi aveva già imparato a farne a meno. Detto senza mezzi termini: hai speso miliardi in politiche di embargo e il tuo avversario è tornato più forte di prima.
La traiettoria futura è ciò che dovrebbe davvero togliere il sonno a chi a Washington crede ancora nella strategia del soffocamento tecnologico. Huawei ha annunciato l’Ascend 950, previsto entro fine 2026, con un obiettivo di 1 petaflop in formato FP8, fino a 144 gigabyte di memoria on-chip e bandwidth fino a 2 terabyte al secondo. Il progetto Atlas 950 SuperPod punta a collegare 8.192 chip per raggiungere 8 exaflop complessivi — numeri che, se si materializzano, cancellano il gap hardware che oggi penalizza i modelli cinesi. GLM-5 è stato costruito nonostante l’hardware inferiore. La prossima generazione potrebbe nascere su hardware comparabile a quello occidentale, interamente domestico, senza dipendere da un singolo componente straniero. Considerando la velocità con cui la Cina sta bruciando le tappe — e i precedenti di chi l’aveva sottovalutata — non è più questione di “se” ma di “quando”. A quel punto le sanzioni non avranno più nemmeno il valore simbolico che conservano oggi.
Fermarsi alla rivalità tra superpotenze, però, significa perdere il punto più importante di tutta questa storia. Tanto Washington quanto Pechino giocano la stessa partita — il controllo centralizzato dell’intelligenza artificiale come leva di dominio — e nessuna delle due ha a cuore la tua libertà tecnologica. Gli Stati Uniti vogliono che l’AI resti monopolio delle loro corporation, con OpenAI e Anthropic che firmano contratti con il Pentagono mentre Palantir diventa infrastruttura militare permanente. La Cina risponde con campioni nazionali finanziati e orientati dallo stato, dove “open source” non significa assenza di controllo politico ma un tipo diverso di controllo, meno visibile e non meno pervasivo. In entrambi i casi, sei spettatore di una partita giocata sopra la tua testa. La differenza, questa volta, è che il codice di GLM-5 è pubblico, la licenza è MIT, e nessuno dei due governi può tecnicamente impedire a un collettivo tech di Barcellona, a un’università di Nairobi o a uno sviluppatore indipendente di scaricarlo e farne ciò che vuole. È una crepa nel sistema di controllo. Piccola, ma concreta. Quanto tempo durerà prima che il gioco delle grandi potenze la richiuda è un’altra questione — ma intanto il codice è là fuori, e il codice non si può sanzionare.
Licenza MIT, promesse open source e le contraddizioni del potere
La scelta della licenza non è mai un dettaglio tecnico — è una dichiarazione politica, e nel caso di GLM-5 pesa come un macigno. La licenza MIT è la più permissiva tra le licenze open source riconosciute: zero restrizioni d’uso, nessun obbligo di condivisione delle modifiche, nessun limite commerciale, nessuna clausola geografica. Puoi prendere GLM-5, costruirci sopra un prodotto proprietario e venderlo senza restituire una riga di codice alla community — esattamente come puoi usarlo per alimentare un servizio comunitario autogestito senza spendere un centesimo in licenze. È un approccio radicalmente diverso da quello di Meta con Llama, che si autoproclama “open” ma include una clausola che vieta l’uso a chi supera i 700 milioni di utenti mensili — quanto comodo, un tetto che esclude solo i concorrenti diretti di Meta mentre permette a tutti gli altri di fare testing e sviluppo gratis. Come abbiamo scritto analizzando la guerra tra LLM open source e modelli chiusi, la definizione stessa di “open” è diventata un campo di battaglia semantico dove ogni azienda ridefinisce i termini a proprio vantaggio. GLM-5 almeno su questo fronte non lascia margine all’ambiguità.
La community ha risposto con un entusiasmo che va oltre il semplice hype da nuovo modello del mese, e i motivi sono concreti. Zhipu non ha rilasciato solo i pesi del modello — ha aperto anche “slime”, il proprio framework di reinforcement learning asincrono che ha alimentato l’addestramento di tutte le versioni dalla GLM-4.5 alla 5. Per chi fa ricerca o sviluppo dal basso, questo è materiale raro e genuinamente prezioso: non il prodotto confezionato ma il processo, gli strumenti, la conoscenza per capire come si costruisce un modello frontier senza budget miliardari. La generazione dei rollout — la fase in cui il modello produce risposte che vengono poi valutate per il reinforcement learning — consuma oltre il 90% del tempo di addestramento, e la strategia APRIL di GLM per gestire i problemi a coda lunga rappresenta un contributo reale allo stato dell’arte. Un team con risorse limitate ma competenze solide può studiare queste tecniche e applicarle ai propri progetti, partendo da una base documentata e completamente accessibile. Il modello è già su Hugging Face, disponibile via OpenRouter, con documentazione completa. È il tipo di apertura che il software libero dovrebbe sempre garantire: non solo il binario, ma il percorso costruttivo intero. Non è poco, in un settore dove la trasparenza è l’eccezione e il segreto industriale è la regola.
Poi c’è il rovescio della medaglia, e sarebbe disonesto fingere di non vederlo. Il 16 marzo 2026 — appena trentatré giorni dopo il rilascio di GLM-5 — Zhipu ha lanciato GLM-5-Turbo, una variante ottimizzata per compiti agentici di lunga durata. Completamente chiusa. Codice proprietario, nessun impegno a rilasciarlo sotto MIT, nessuna roadmap verso l’apertura. Nel frattempo l’azienda ha rivisto i piani tariffari, eliminando l’accesso ai modelli di punta dal piano Pro e alzando sensibilmente i prezzi. Qualcuno nella community ha fatto notare la tempistica con un sarcasmo meritato. Il pattern è quello classico del capitalismo open source — lo conosci già se frequenti questo mondo: costruisci reputazione e community con il codice aperto, attiri sviluppatori ed early adopter che ti fanno testing gratuito e buzz mediatico, crei un ecosistema dipendente dal tuo prodotto, poi monetizzi con le versioni premium chiuse. È la strategia perfezionata da Red Hat, Elastic, HashiCorp e decine di altri prima di Zhipu. Non è necessariamente un tradimento — Zhipu è la prima azienda AI quotata in borsa in Cina, ha obblighi verso azionisti che non includono la tua emancipazione digitale — ma è un promemoria che vale ripetere senza stancarsi: l’open source aziendale serve gli interessi dell’azienda. Quando coincidono con i tuoi, bene per tutti. Quando divergono, indovina chi perde.
E qui arriviamo al nodo che va oltre GLM-5 e tocca il cuore del rapporto tra tecnologia e libertà. Un modello con licenza MIT è uno strumento, e come tutti gli strumenti il suo valore reale dipende da chi lo impugna e dall’infrastruttura che lo rende utilizzabile. Collettivi tech, università pubbliche, ONG, piccole cooperative di sviluppatori — tutti possono costruire su GLM-5 senza chiedere permesso a nessuno. Ma apparati di sorveglianza, eserciti e multinazionali possono fare esattamente lo stesso, con risorse incomparabilmente superiori e senza nessuno scrupolo etico. La licenza non discrimina, ed è al tempo stesso la sua forza e il suo limite strutturale. La domanda vera è questa: se per far girare GLM-5 a livello di produzione serve comunque un cluster nel cloud di Amazon, Google o Microsoft, allora la licenza MIT è libertà formale, non sostanziale — come avere il diritto di voto senza il trasporto per raggiungere il seggio. La vera sovranità tecnologica non sta nella licenza del codice ma nel controllo dell’hardware, dell’energia e dell’infrastruttura fisica su cui quel codice gira. Sta nel self-hosting, nelle cooperative di calcolo, nelle reti mesh comunitarie, nei cluster autogestiti. Finché il modello è libero ma l’infrastruttura è in mano a tre hyperscaler americani, la libertà resta una promessa scritta su carta — bella da leggere, impossibile da esercitare fino in fondo.
GLM-5 è molte cose contemporaneamente, e nessuna è semplice. È un traguardo tecnico notevole: un modello frontier addestrato su hardware che tutti davano per inadeguato, rilasciato con la licenza più permissiva che esista. È uno schiaffo alla politica delle sanzioni — la dimostrazione vivente che il tentativo di controllare l’innovazione attraverso il blocco delle esportazioni crea esattamente ciò che vuole impedire. È un regalo alla community open source, con codice, framework e documentazione a disposizione di chiunque abbia le competenze per usarli. Ed è al tempo stesso un prodotto aziendale, con tutte le contraddizioni che questo comporta — inclusa la versione Turbo chiusa uscita neanche un mese dopo e i rincari che sono seguiti a ruota.
La corsa che conta non è tra Cina e Stati Uniti. È tra chi centralizza il potere computazionale — che sia a Mountain View, a Pechino o in un bunker del Pentagono — e chi lo distribuisce. Tra chi vende l’intelligenza artificiale come servizio blindato dietro API e contratti militari, e chi la mette a disposizione perché chiunque possa prenderla e costruirci sopra qualcosa che prima non esisteva. Il modello è su Hugging Face, la licenza è MIT, il codice è lì. Decidi tu cosa farne: se consumare passivamente l’ennesimo prodotto — cinese o americano che sia, la sostanza cambia poco — o se usarlo come mattone per un’infrastruttura che non risponde a nessun padrone, a nessun azionista, a nessun governo. La tecnologia non è mai stata neutrale: è sempre stata al servizio di chi la controlla. Ma il codice aperto apre una possibilità — fragile, contraddittoria, incerta — di cambiare le regole del gioco. Sta a noi fare in modo che resti così.