Circuito elettronico ravvicinato con chip e connessioni - DeepSeek AI Cina modelli aperti

Contenuto

Il 27 gennaio 2025 NVIDIA ha perso 589 miliardi di dollari di capitalizzazione in un solo giorno — il crollo più grande nella storia di Wall Street. A provocarlo non è stata una crisi finanziaria, né uno scandalo aziendale. È bastata una startup cinese con un nome che suonava esotico ai trader di Manhattan: DeepSeek. Una manciata di ingegneri di Hangzhou ha dimostrato che puoi costruire un modello AI competitivo con GPT-4 spendendo meno di sei milioni di dollari, mentre OpenAI ne bruciava cento e più per ottenere risultati analoghi. Il messaggio era brutale nella sua semplicità: la corsa all’intelligenza artificiale non si vince con il libretto degli assegni.

Quella giornata ha mandato in frantumi una narrazione che Silicon Valley aveva costruito con cura: servono miliardi, data center grandi come città, GPU a palate. Servono — ci dicevano — infrastrutture che solo le corporation americane e i fondi sovrani del Golfo possono permettersi. E invece da un laboratorio cinese, con risorse che un fondo venture di serie A considererebbe modeste, è uscito un modello che ha fatto tremare le valutazioni di mezzo Nasdaq. Kai-Fu Lee, fondatore di 01.AI e autore di AI Superpowers, si è detto «vendicato»: nel suo libro aveva predetto che gli Stati Uniti avrebbero guidato le scoperte fondamentali, ma la Cina avrebbe vinto sull’ingegneria. DeepSeek gli ha dato ragione nel modo più clamoroso possibile. Eppure — e qui la storia si fa interessante davvero — il paese che ha prodotto i modelli più aperti dell’intero ecosistema AI è lo stesso che censura qualsiasi menzione di piazza Tiananmen. Benvenuto nel paradosso che definisce l’intelligenza artificiale nel 2026.

Sei milioni contro cento: quando l’ingegneria batte il capitale

I numeri raccontano una storia che nessun comunicato stampa di OpenAI potrà mai riscrivere. DeepSeek R1 è stato addestrato con un budget di circa 6 milioni di dollari — il 3-5% di quello che OpenAI ha speso per GPT-4. E non parliamo di un modello giocattolo: R1 supera o1 di OpenAI nei benchmark di ragionamento matematico (MATH-500, AIME 2024) e tiene testa nei task di ingegneria software. Lato API, il divario è ancora più grottesco: 0,55 dollari per milione di token in input contro i 15 di o1, 2,19 dollari in output contro 60. Ventisette volte meno. Non è un’ottimizzazione marginale — è un cambio di paradigma che ha fatto dire a Kai-Fu Lee che «il più grande incubo di Sam Altman è che il suo concorrente sia gratuito».

La differenza tecnica sta nell’approccio all’addestramento, e vale la pena capirla perché smonta un intero modello di business. OpenAI segue la strada del supervised fine-tuning (SFT): prendi il modello base, lo alimenti con enormi dataset curati da annotatori umani, lo affini con feedback umano iterativo. È costoso, laborioso, richiede eserciti di data labeler — spesso sottopagati nel Sud globale, ma questo è un altro discorso. DeepSeek ha fatto una scelta radicale: ha applicato il reinforcement learning puro direttamente al modello base, saltando la fase SFT. Meno dati curati, meno lavoro umano, meno costi. Il risultato? Un modello che ragiona in modo diverso, a volte più creativo, e che ha costretto l’intero settore a chiedersi se la strada americana non fosse semplicemente quella sbagliata — o quantomeno quella più costosa e meno efficiente.

A marzo 2026, DeepSeek ha alzato ancora l’asticella. Il V4 — il cui rilascio è stato anticipato da settimane di speculazioni, compresa la bufala del modello «Hunter Alpha» su OpenRouter che si è rivelato essere MiMo-V2-Pro di Xiaomi — introduce un’architettura con cache KV a livelli che taglia il consumo di memoria del 40%, supporto multimodale nativo e una finestra di contesto da un milione di token. Costo per l’utente? 0,30 dollari per milione di token in input. Jensen Huang di NVIDIA ha detto che il mercato aveva frainteso l’impatto di DeepSeek, che la domanda di GPU sarebbe rimasta forte. Ha ragione sul fatto che NVIDIA si è ripresa — ha toccato i 5.000 miliardi di capitalizzazione nell’ottobre 2025 — ma ha torto su un punto fondamentale: DeepSeek ha dimostrato che l’efficienza algoritmica può sostituire la forza bruta computazionale. E questo, per chi vende GPU da 40.000 dollari l’una, è un problema strutturale che nessun recupero borsistico può nascondere.

Il paradosso cinese: codice aperto, bocca cucita

Ecco il nodo che nessuno riesce a sciogliere senza contraddirsi. La Cina — regime a partito unico, sorveglianza di massa, censura capillare — sta producendo i modelli AI più aperti del pianeta. DeepSeek pubblica i pesi dei suoi modelli, la documentazione tecnica, i paper di ricerca. Qwen di Alibaba ha superato l’ecosistema Llama di Meta come famiglia di modelli più scaricata su Hugging Face — trecento milioni di utenti attivi, modelli che supportano 119 lingue, benchmark che battono o1 di OpenAI nella codifica. Il mercato open source AI è cresciuto del 340% anno su anno nel 2026, e la Cina ne è il motore principale. Nel frattempo Sam Altman e OpenAI — l’azienda che ha «open» nel nome — chiudono tutto dietro API a pagamento e accordi di licenza blindati.

Detto senza mezzi termini: è una situazione che dovrebbe far riflettere chiunque si riempia la bocca di «democrazia» e «innovazione aperta» a San Francisco. La Silicon Valley ha trasformato l’AI in un club esclusivo dove entri solo con miliardi di dollari di capitale, contratti con il Pentagono e un esercito di avvocati per la proprietà intellettuale. La «democratizzazione dell’AI» di cui parlano i comunicati stampa di OpenAI, Google e Anthropic è una barzelletta: i modelli migliori sono chiusi, le API costano care, i dati di addestramento sono un segreto industriale. DeepSeek ha ribaltato questa logica — non per idealismo, probabilmente, ma per strategia geopolitica. Rendere i modelli gratuiti e aperti è il modo più efficace per costruire un ecosistema, attrarre sviluppatori, e rendere l’infrastruttura AI cinese uno standard de facto. È una mossa da manuale, e funziona.

Ma — e questo «ma» pesa come un macigno — prova a chiedere a DeepSeek cosa è successo a piazza Tiananmen il 4 giugno 1989. Il modello inizia a generare una risposta, poi la cancella in tempo reale e risponde: «Mi dispiace, questo va oltre le mie capacità attuali. Parliamo d’altro». Chiedigli se Taiwan è un paese indipendente e riceverai la posizione ufficiale del Partito Comunista Cinese, parola per parola: «Taiwan è sempre stata parte integrante della Cina sin dai tempi antichi». Open source e sotto controllo — come ha titolato efficacemente Down to Earth. Il codice è libero, ma il discorso no. I pesi del modello li puoi scaricare e modificare, ma nella versione servita da DeepSeek la censura è integrata a livello di sistema. Non è un bug, è una feature del regime. E chi pensa che basti hostare il modello in locale per risolvere il problema non ha capito il punto: la censura è nei dati di addestramento, nelle scelte architetturali, nel reinforcement learning che ha insegnato al modello cosa può e cosa non può dire. Sradicarla richiede lavoro, competenze, risorse — e la maggior parte degli utenti non lo farà mai.

Nel frattempo, le accuse di furto intellettuale si accumulano. OpenAI e Anthropic hanno accusato DeepSeek (insieme a Moonshot AI e MiniMax) di «distillazione su scala industriale» — in sostanza, di aver usato i modelli occidentali come insegnanti per addestrare i propri. Anthropic parla di 16 milioni di scambi con Claude attraverso 24.000 account fraudolenti. La questione è reale, ma ha anche un retrogusto ipocrita: le stesse aziende che hanno addestrato i loro modelli su miliardi di pagine web senza chiedere permesso a nessuno ora gridano al plagio. Il punto è che nel capitalismo della conoscenza le regole le scrive chi ha più avvocati, non chi ha più ragione.

L’embargo che ha creato il proprio nemico

C’è un’ironia feroce nella geopolitica dei semiconduttori. Gli Stati Uniti hanno imposto restrizioni sempre più severe sull’esportazione di chip AI verso la Cina — prima con Biden, poi formalizzate dall’amministrazione Trump con le regole entrate in vigore il 15 gennaio 2026. L’obiettivo dichiarato era rallentare lo sviluppo AI cinese tagliando l’accesso alle GPU più avanzate di NVIDIA e AMD. Il risultato? L’esatto opposto. L’embargo ha costretto le aziende cinesi a investire massicciamente in efficienza algoritmica, compressione dei modelli e tecniche di addestramento a basso consumo di risorse. DeepSeek è il figlio diretto di questa pressione: quando non puoi comprare le GPU migliori, impari a fare di più con quelle che hai. La necessità, ancora una volta, si è rivelata la madre dell’innovazione — e Washington ha finanziato involontariamente la propria concorrenza.

L’ecosistema AI cinese, del resto, non è solo DeepSeek. Alibaba con Qwen ha costruito una famiglia di modelli che compete testa a testa con i migliori prodotti americani: Qwen 3.5 Small, lanciato a marzo 2026, è una serie di modelli compatti da 0,8 a 9 miliardi di parametri progettati per girare direttamente sull’hardware — smartphone, dispositivi edge, sistemi embedded. È la direzione opposta rispetto alla corsa ai modelli sempre più grandi che ossessiona Silicon Valley. Poi c’è 01.AI di Kai-Fu Lee, che ha puntato tutto sull’open source e vende soluzioni AI a clienti corporate nel settore finanziario, gaming e legale, costruendo il suo business sopra i modelli DeepSeek. E ci sono le «tigri» — Moonshot AI, MiniMax, Baichuan AI, StepFun — che formano un ecosistema denso e competitivo dove l’innovazione non è monopolio di una singola azienda ma emerge dalla pressione reciproca. È l’antitesi del modello Silicon Valley, dove tre o quattro colossi controllano l’intera catena del valore dall’hardware al software all’interfaccia utente.

La mossa più recente di DeepSeek — rivelata il 24 marzo 2026 da Bloomberg — è il pivot verso l’AI agentica. Diciassette nuove posizioni aperte, tutte focalizzate su sistemi autonomi: ricercatori di deep learning per agenti, esperti di valutazione dati, ingegneri infrastrutturali. L’obiettivo dichiarato è sviluppare agenti AI completamente autonomi entro fine 2026 — sistemi che operano con supervisione umana minima, capaci di eseguire task complessi dall’analisi dati al decision-making. Se DeepSeek ha demolito il mito che servano miliardi per addestrare un LLM, la prossima scommessa è demolire un altro mito: che servano le infrastrutture cloud americane per far girare agenti AI a scala. E considerando il track record, non scommetterei contro di loro.

E l’Europa? Duecento miliardi di buone intenzioni

Mentre Cina e Stati Uniti combattono la guerra dei modelli, l’Europa fa quello che sa fare meglio: annuncia piani. La Commissione europea ha svelato un programma da 200 miliardi di euro per l’AI — 50 miliardi pubblici, 150 da investitori privati attraverso la European AI Champions Initiative. La Spagna ha messo 100 milioni per la «sovranità digitale», la Francia di Macron spinge per il debito comune come «unica via per competere». Il programma EIC 2026 stanzia 1,4 miliardi per startup deeptech. Sulla carta, sembrano numeri importanti. Nella realtà, sono briciole distribuite con la velocità di una burocrazia che ha bisogno di anni per decidere quale modulo compilare. DeepSeek ha costruito un modello competitivo con GPT-4 in pochi mesi e con 6 milioni di dollari. L’Europa, nello stesso tempo, stava ancora discutendo i criteri di ammissibilità per i fondi del primo bando.

Il problema dell’Europa non sono i soldi — ne ha, volendo. Il problema è strutturale, e ha a che fare con una frammentazione che nessun piano comunitario riesce a superare. Ogni paese ha la sua agenzia AI, la sua strategia nazionale, i suoi campioni da proteggere. La Germania guarda a un asse con la Spagna, la Francia vuole guidare da sola, l’Italia parla di robotica avanzata senza avere un singolo modello linguistico competitivo. Non esiste un mercato unico dei dati, non esiste un’infrastruttura di calcolo condivisa, non esiste una politica industriale AI che sia davvero europea e non una somma di strategie nazionali incollate con lo scotch. L’Europa potrebbe competere — ma solo se smettesse di comportarsi come 27 paesi che fingono di essere uno. E non succederà, perché la sovranità nazionale è il feticcio che nessun governo vuole abbandonare, nemmeno quando significa condannarsi alla marginalità tecnologica.

Da una prospettiva che guarda dal basso, però, la questione è un’altra. Il vero problema non è se l’Europa possa competere con la Cina o gli Stati Uniti nella corsa ai modelli giganti — è se debba farlo. La lezione di DeepSeek non è che la Cina ha vinto e gli altri hanno perso. La lezione è che l’AI non deve essere un gioco riservato a chi ha più GPU, più miliardi, più potere. Se un laboratorio cinese con risorse limitate può competere con OpenAI, allora possono farlo anche le comunità open source europee, i collettivi di sviluppatori, le università, i centri di ricerca indipendenti. La sovranità tecnologica che serve non è quella degli stati o delle corporation — è quella delle comunità che si auto-organizzano, che condividono conoscenza, che costruiscono infrastrutture dal basso. È la differenza tra chiedere a Bruxelles 200 miliardi e costruire un cluster di calcolo cooperativo tra dieci università. La seconda opzione è meno fotogenica, ma funziona.

DeepSeek ha dimostrato una cosa che chi lavora nel software libero sa da trent’anni: l’innovazione non è una funzione del capitale, è una funzione dell’ingegneria e della cooperazione. Il problema è che questa lezione viene da un paese che usa la tecnologia per controllare un miliardo e mezzo di persone — riconoscimento facciale ovunque, social scoring, censura algoritmica, sorveglianza totale. E viene usata da un altro paese che spende più di chiunque altro al mondo in tecnologia militare e sorveglianza di massa. Il paradosso di DeepSeek non è solo tecnico, è politico: il codice è aperto, ma il potere resta nelle mani di chi lo controlla. La domanda che dovremmo farci non è chi vincerà la corsa all’AI tra Washington e Pechino. La domanda è: e noi? Non come europei, non come consumatori, ma come persone che subiscono le decisioni di chi ha il potere di addestrare questi modelli, di decidere cosa censurano, di scegliere a chi vendere le GPU e a chi no. La risposta, come sempre, non verrà dall’alto. Verrà — se verrà — da chi si rifiuta di aspettarla.