Ieri mattina, nell’aula del tribunale federale di San Francisco, la giudice Rita Lin ha guardato gli avvocati del Dipartimento della Difesa e ha detto una frase che dovrebbe far drizzare le orecchie a chiunque si occupi di tecnologia: “Sembra un tentativo di distruggere Anthropic”. Non un’osservazione di un attivista, non il titolo sensazionalistico di un blog — le parole di una giudice federale degli Stati Uniti, pronunciate in un’udienza ufficiale il 24 marzo 2026, mentre esaminava la decisione del Pentagono di inserire un’azienda AI americana nella lista nera della sicurezza nazionale. Il motivo? Anthropic si è rifiutata di permettere che il suo modello Claude venisse usato per la sorveglianza di massa dei cittadini americani e per i sistemi d’arma autonomi. Avete letto bene: un’azienda tech punita dal proprio governo perché ha detto no alle armi autonome. Benvenuti nel 2026, dove chi mette limiti etici all’intelligenza artificiale diventa un nemico della sicurezza nazionale.
La vicenda Anthropic-Pentagono non è un caso isolato. È il nodo che tiene insieme tutti i fili della guerra in corso per il controllo dell’AI: chi decide cosa possono fare i modelli, chi li possiede, chi ne risponde. E nel mese di marzo 2026, quel nodo si è stretto in modo irreversibile. OpenAI ha rilasciato i suoi primi modelli open-weight dalla notte dei tempi. La Cina ha piazzato GLM-5, 744 miliardi di parametri sotto licenza MIT, addestrato su chip Huawei. Meta ha rinviato per la seconda volta il suo modello chiuso Avocado, che nemmeno funziona come dovrebbe. Il campo di battaglia non è mai stato così chiaro: da una parte chi vuole blindare l’intelligenza artificiale dietro API proprietarie e contratti militari, dall’altra chi la libera. E la partita si sta giocando adesso — non domani, non tra un anno. Questa settimana.
Il processo di San Francisco: quando dire no al Pentagono diventa un reato
Ricostruiamo i fatti, perché la sequenza è importante. A febbraio 2026 Anthropic stava negoziando il rinnovo del contratto con il Dipartimento della Difesa per l’uso di Claude in contesti governativi. L’azienda ha posto due condizioni esplicite: niente uso per la sorveglianza di massa dei cittadini e niente integrazione in sistemi d’arma autonomi letali. Il Pentagono ha risposto che voleva usare Claude per “tutti gli scopi leciti” e che un’azienda privata non può dettare le regole al governo in materia di sicurezza nazionale. Le trattative si sono rotte. Documenti emersi nel processo — rivelati da TechCrunch il 20 marzo — mostrano che una settimana prima della rottura il Pentagono stesso aveva comunicato ad Anthropic che le posizioni erano “quasi allineate”. Poi Trump ha deciso di fare un esempio.
Il segretario alla Difesa Pete Hegseth ha classificato Anthropic come “rischio per la catena di approvvigionamento” — una designazione pensata per proteggere i sistemi militari da sabotaggio straniero, mai usata prima contro un’azienda americana. L’effetto pratico è devastante: non solo il governo non può più comprare servizi da Anthropic, ma nessun contractor federale può farlo. Ogni azienda che lavora con il Pentagono — e sono migliaia — deve tagliare i rapporti con Anthropic o rischiare di perdere i propri contratti governativi. La giudice Lin, nell’udienza di ieri, non ha usato mezzi termini. Ha definito le tre azioni dell’amministrazione — il ban presidenziale, l’ordine di Hegseth ai contractor, la designazione di rischio — come “inquietanti” e “non calibrate rispetto alla presunta preoccupazione di sicurezza nazionale”. Ha chiesto agli avvocati del governo se la loro posizione fosse davvero che un’azienda può essere classificata come rischio per la sicurezza perché è “testarda” e “fa domande scomode”. NPR ha riportato che la giudice ha parlato di “punizione”, non di sicurezza. La decisione è attesa entro pochi giorni.
La reazione dell’industria è stata senza precedenti. Più di 30 dipendenti di OpenAI e Google DeepMind hanno firmato una dichiarazione pubblica in difesa di Anthropic — gente che lavora per i concorrenti diretti, che ha tutto da guadagnare dalla caduta di un rivale, e che invece ha scelto di schierarsi. Perché sanno che il precedente è terrificante: se il governo può distruggere un’azienda AI perché si rifiuta di togliere i limiti etici dai propri modelli, nessuno è al sicuro. La prossima volta potrebbe toccare a loro. Il messaggio di Hegseth al settore è cristallino — la militarizzazione dell’AI non è negoziabile, e chi si oppone viene fatto fuori.
OpenAI apre i pesi, la Cina alza l’asticella: il mese che ha cambiato tutto
Mentre Anthropic combatte in tribunale, il panorama dei modelli AI si è trasformato in poche settimane. OpenAI — sì, la stessa OpenAI che ha firmato il contratto da 200 milioni con il Pentagono — ha rilasciato gpt-oss, i suoi primi modelli open-weight dal 2019. Due varianti: gpt-oss-120b con 117 miliardi di parametri e gpt-oss-20b con 21 miliardi, entrambi sotto licenza Apache 2.0 — la stessa licenza usata da Android, Kubernetes, Spark. Nessuna restrizione geografica, nessun limite sul numero di utenti, nessuna clausola che permetta di revocare i diritti a piacimento. Il modello grande raggiunge quasi le prestazioni di o4-mini sui benchmark di ragionamento e gira su una singola GPU da 80 GB. Il piccolo offre risultati comparabili a o3-mini e funziona con 16 GB di memoria — il tuo portatile, non un data center. I pesi sono su Hugging Face, scaricabili da chiunque. Sam Altman ha fatto esattamente quello che aveva criticato in Meta: ha aperto i modelli sotto pressione competitiva, non per convinzione. Ma il risultato è lo stesso — codice aperto, verificabile, modificabile. La motivazione conta poco quando il codice è leggibile.
Il vero schiaffo all’establishment AI americano, però, arriva dalla Cina. GLM-5, rilasciato da Zhipu AI a febbraio, è un modello da 744 miliardi di parametri — il più grande open source al mondo — sotto licenza MIT, la più permissiva che esista. I benchmark raccontano una storia che fa male a Silicon Valley: prestazioni da modello di frontiera su ragionamento, coding e task agentico, al livello di GPT-5.2 in diverse categorie. Ma il dato più significativo è un altro: GLM-5 è stato addestrato interamente su chip Huawei Ascend, non su GPU NVIDIA. Le sanzioni americane sui semiconduttori avanzati, che dovevano fermare l’AI cinese, hanno ottenuto l’effetto opposto — hanno accelerato lo sviluppo di un’infrastruttura di calcolo autonoma. Zhipu AI è anche la prima azienda AI cinese quotata in borsa, il che significa trasparenza finanziaria obbligatoria — un dettaglio non banale in un settore dove tutti gli altri giocatori sono privati e opachi. Il costo su OpenRouter? Circa 0,80 dollari per milione di token in input. Claude Opus costa sei volte tanto. DeepSeek V3.2, l’altro gigante cinese open source con i suoi 685 miliardi di parametri, continua intanto a dominare le classifiche per ragionamento e task agentici. Due modelli cinesi open source che competono alla pari con i migliori modelli chiusi americani — e costano una frazione. Le sanzioni funzionano alla grande, complimenti.
E Meta? Il colosso che ha costruito la sua reputazione AI sull’apertura di Llama? Sta affondando nel ridicolo. Avocado, il modello closed-source che doveva segnare il grande ritorno di Zuckerberg nella gara dei modelli di frontiera, è stato rinviato per la seconda volta — da marzo a maggio, minimo. I test interni mostrano prestazioni inferiori a Gemini 3.0 di Google. Ci sono report secondo cui Meta starebbe valutando di acquistare una licenza per Gemini — il che significherebbe ammettere pubblicamente di non riuscire a competere con un proprio modello. Ricordiamo che Avocado è stato addestrato usando Qwen di Alibaba, un modello open source cinese: prendi dal commons, chiudi, fallisci comunque. La struttura del progetto è guidata da Alexandr Wang, il nuovo Chief AI Officer che ha sostituito di fatto il ruolo di Yann LeCun — lo stesso LeCun che se n’è andato denunciando benchmark truccati. L’ironia è densa come un modello da 744 miliardi di parametri: Meta ha tradito l’open source e non ne ha nemmeno ricavato un prodotto funzionante. Chiunque abbia scaricato le alternative open source e le faccia girare in locale con Ollama ha oggi un vantaggio tecnologico reale su una delle aziende più ricche del pianeta.
Modelli aperti contro stati armati: la posta in gioco reale
Mettiamo insieme i pezzi, perché il quadro che emerge da questo marzo 2026 è più nitido di quanto sembri. Il Pentagono vuole modelli AI senza limiti etici e punisce chi ne mette. OpenAI ha firmato il contratto militare senza battere ciglio. Anthropic ha detto no e finisce in tribunale. Ma nel frattempo, il codice aperto prolifera a una velocità che nessun governo può controllare. GLM-5 sotto licenza MIT significa che qualsiasi persona sulla Terra può scaricarlo, studiarlo, modificarlo, usarlo — e nessun decreto presidenziale può impedirlo. Lo stesso vale per gpt-oss sotto Apache 2.0 e per DeepSeek sotto MIT. L’open source non chiede permesso, non negozia clausole con i segretari della difesa, non si siede al tavolo del potere. Esiste e basta. È questo che terrorizza chi vuole controllare l’AI — non la Cina, non i terroristi, non i rischi esistenziali. Il fatto che il codice, una volta aperto, non si può richiudere.
La giudice Lin potrebbe emettere un’ingiunzione preliminare contro il Pentagono nei prossimi giorni, e sarebbe un precedente storico. Ma anche se Anthropic vincesse in tribunale — e le probabilità sembrano buone — il problema strutturale resta intatto. Il governo americano ha dimostrato di essere disposto a usare il potere regolatorio come arma contro le aziende che pongono limiti etici all’uso militare dell’AI. La prossima azienda ci penserà due volte prima di dire no. E quella dopo non dirà no affatto. L’unica garanzia che un modello non venga usato per la guerra autonoma o per la sorveglianza di massa non è una clausola contrattuale — è la trasparenza del codice. Se il modello è aperto, ogni integrazione in un sistema d’arma è verificabile. Se è chiuso, devi fidarti del Pentagono e di OpenAI. E dopo questo mese, fidarsi è un lusso che nessuno dovrebbe permettersi.
L’intelligenza artificiale nel marzo 2026 si trova a un bivio che non ammette mezze misure. Da un lato c’è chi vuole modelli chiusi, controllati da poche aziende, integrati in apparati militari e di sorveglianza senza alcuna supervisione pubblica. Dall’altro c’è chi rilascia modelli sotto licenze libere, chi li fa girare su hardware consumer, chi costruisce dataset trasparenti come il Common Pile di EleutherAI, chi scrive codice che chiunque può leggere. La sentenza di San Francisco non risolverà questa tensione — ma ha reso impossibile ignorarla. E se sei arrivato fin qui, la domanda non è più se schierarti. È come.
