Trecentosettanta miliardi di dollari. È la capitalizzazione di mercato di Palantir Technologies a marzo 2026 — più del doppio di Lockheed Martin, il colosso che per decenni ha incarnato il complesso militare-industriale americano. Non è un dato finanziario qualsiasi: è il segnale che il potere si è spostato, e se non te ne sei accorto è perché chi lo detiene preferisce che tu non ci faccia caso. Il Pentagono ha stanziato 13,4 miliardi di dollari per intelligenza artificiale e sistemi autonomi nel bilancio 2026 — la prima volta in assoluto che l’AI ottiene una voce di spesa dedicata nel budget della Difesa americana. Per darti un termine di paragone: è più della metà dell’intero budget annuale della NASA, concentrato in un singolo anno e in un singolo obiettivo. In queste stesse settimane, Anduril — la creatura di Palmer Luckey, il ragazzo prodigio che ha fondato Oculus e poi si è riciclato come costruttore di droni autonomi — si è aggiudicata un contratto da 20 miliardi con l’esercito americano. OpenAI ha firmato un accordo da 200 milioni con il Pentagono poche ore dopo che Anthropic veniva dichiarata “rischio per la sicurezza nazionale” dall’amministrazione Trump. E Grok, il modello AI di Elon Musk che ha generato materiale di abuso sessuale su minori e istruzioni per attacchi terroristici, ha ottenuto l’accesso ai sistemi militari classificati. La Silicon Valley non vende più app e pubblicità. Vende guerra. E il prezzo — in democrazia, in diritti, in vite umane — lo stai già pagando.
La guerra dei contratti: chi si piega e chi viene punito
Il meccanismo è brutale nella sua semplicità: accetti le condizioni del Pentagono senza fare storie, ottieni contratti miliardari; sollevi obiezioni etiche, vieni eliminato. Il caso Anthropic è la dimostrazione più lampante di come funziona la nuova economia della guerra tecnologica. A settembre 2025, il Dipartimento della Difesa ha chiesto ad Anthropic di rendere il suo modello Claude disponibile per “tutti gli usi legittimi” sulle piattaforme militari, compresa GenAI.mil. Anthropic ha rifiutato due condizioni specifiche: la sorveglianza di massa dei cittadini americani e lo sviluppo di armi autonome che sparano senza intervento umano. Il 27 febbraio 2026, il segretario alla Difesa Pete Hegseth ha dichiarato Anthropic un “rischio per la catena di approvvigionamento della sicurezza nazionale” — un’etichetta che normalmente si applica a fornitori di paesi nemici come Cina o Russia, e che il Washington Post ha definito senza precedenti contro un’azienda americana. Il sottosegretario alla Difesa Emil Michael — e qui il conflitto di interessi diventa grottesco — stava contemporaneamente offrendo ad Anthropic un accordo che avrebbe permesso la raccolta e l’analisi di dati personali degli americani: geolocalizzazione, cronologia di navigazione, informazioni finanziarie. Detto senza mezzi termini: il Pentagono voleva un modello AI per la sorveglianza domestica, e quando l’azienda ha detto no, l’ha trattata come un nemico dello stato. Anthropic ha fatto causa il 9 marzo, e un giudice federale ha messo in discussione la legalità della decisione chiedendo al Pentagono se non stesse “punendo” l’azienda.
Confronta questo con quello che è successo nelle stesse ore — perché la tempistica racconta tutto. OpenAI, che fino al 2023 aveva nel proprio statuto il divieto esplicito di usi militari della propria tecnologia, ha firmato un contratto da 200 milioni di dollari con il Pentagono. Sam Altman ha ammesso pubblicamente che l’accordo “sembrava opportunistico e raffazzonato” e ha tentato di rattoppare la situazione con clausole aggiuntive sulla sorveglianza, tra cui la promessa che i tool di OpenAI non sarebbero stati usati dalla NSA. Il punto però non sono le clausole, che peraltro hanno la solidità giuridica di un gentlemen’s agreement scritto su un tovagliolo. Il punto è che firmare un accordo militare a poche ore dalla messa al bando del tuo principale concorrente non è strategia aziendale: è sciacallaggio. E Altman lo sa — lo ha praticamente ammesso. La cancellazione del divieto di uso militare non è avvenuta dopo un profondo ripensamento etico: è avvenuta quando sono diventati disponibili contratti da centinaia di milioni. Se ti serviva una prova che la “AI sicura e benefica per l’umanità” di cui queste aziende si riempiono la bocca è marketing e nient’altro, eccola servita su un piatto d’argento.
La storia di xAI è ancora più rivelatrice, e francamente più inquietante. Il 23 febbraio 2026 — quattro giorni prima della messa al bando di Anthropic — la società di Musk ha firmato un accordo per rendere Grok disponibile sui sistemi classificati del Pentagono. La differenza cruciale? xAI ha accettato lo standard “tutti gli usi legittimi” senza battere ciglio, quello stesso standard che Anthropic rifiutava perché apriva la porta alla sorveglianza di massa. Un dettaglio che dovrebbe toglierti il sonno: Grok è il modello che ha generato materiale di abuso sessuale su minori, istruzioni per commettere omicidi e attacchi terroristici, contenuti antisemiti. La senatrice Elizabeth Warren ha chiesto formalmente spiegazioni al Pentagono, e Boing Boing ha titolato — con una crudezza che sarebbe comica se non fosse tragica — che il Pentagono ha dato accesso ai sistemi classificati al “MechaHitler” di Musk. Il modello non è ancora operativo, ma è stato certificato e integrato in ambiente classificato, come ha confermato un ufficiale del Pentagono ad Axios. Ripetiamolo lentamente: un modello AI con una storia documentata di output pericolosi e fuori controllo ha accesso ai sistemi dove si prendono decisioni sulla vita e la morte, mentre un modello che rifiuta di essere usato per la sorveglianza viene bandito come se fosse un fornitore di Kim Jong-un. Se questo non è un sistema di incentivi perverso, non so davvero cosa lo sia.
E poi c’è Palantir, che in questa partita ha già vinto da tempo e ora incassa i dividendi. Il suo Maven Smart System — lo stesso Project Maven da cui Google si ritirò nel 2018 dopo le proteste dei propri dipendenti — è stato designato come programma ufficiale su tutti e cinque i rami delle forze armate americane, con un contratto enterprise decennale da 10 miliardi di dollari che consolida 75 contratti preesistenti in un unico canale. Non è un appalto tra i tanti: è il sistema operativo AI dell’esercito americano. I numeri parlano con una brutalità che rende superfluo ogni commento: durante le operazioni militari in Iran, Maven ha identificato e processato 1.000 obiettivi in 24 ore — un volume che analisti umani non raggiungerebbero in settimane. Peter Thiel, fondatore di Palantir, finanziatore politico di JD Vance — ora vicepresidente degli Stati Uniti —, mentore di Palmer Luckey e di una generazione di imprenditori tech riconvertiti alla difesa, è probabilmente l’uomo più influente del complesso militare-industriale del XXI secolo. Non ha mai vestito una divisa, non ha mai messo piede in un campo di battaglia, ma le sue tecnologie decidono chi vive e chi muore con un’efficienza che nessun generale della storia ha mai avuto a disposizione.
Golden Dome e i nuovi signori della guerra
Centottantacinque miliardi di dollari — una cifra salita di altri 10 miliardi solo la scorsa settimana per “accelerare lo sviluppo delle capacità spaziali critiche”. È il costo previsto del Golden Dome, lo scudo antimissile spaziale voluto da Trump, progettato sulla carta per intercettare missili balistici, da crociera e ipersonici. Il software di comando e controllo che dovrà far funzionare questa infrastruttura viene sviluppato da un consorzio guidato da Anduril e Palantir, con la startup AI Scale AI e Aalyria Technologies a supporto, e test previsti per l’estate 2026. I vecchi appaltatori della difesa — Lockheed Martin, RTX, Northrop Grumman — mantengono il ruolo di prime contractor per l’hardware, ma il cervello del sistema è nelle mani di aziende nate nella Silicon Valley. È un passaggio storico che meriterebbe molta più attenzione: per la prima volta, il software di un sistema d’arma strategico americano è affidato non a un’azienda della difesa tradizionale con decenni di esperienza e protocolli consolidati, ma a startup sostenute dal venture capital e guidate da imprenditori tech trentenni. Palmer Luckey ha fondato Oculus a 19 anni, è stato licenziato da Facebook per aver finanziato una campagna di troll pro-Trump, e ora la sua Anduril ha un contratto da 20 miliardi per droni autonomi e sistemi di difesa — il primo ordine concreto, 87 milioni di dollari, è stato firmato questa settimana. Da ragazzino prodigio della realtà virtuale a mercante di armi autonome: una parabola che dice più di qualsiasi analisi geopolitica.
La fusione tra Silicon Valley e Pentagono ha anche un volto istituzionale, e si chiama Detachment 201. Quattro dirigenti tech sono diventati tenenti colonnello della riserva dell’esercito americano: il CTO di Meta Adam Bosworth, il responsabile prodotto di OpenAI Kevin Weil, il CTO di Palantir Shyam Sankar e Bob McGrew. Non è una metafora, non è un titolo onorifico: sono letteralmente ufficiali militari che durante la settimana guidano le aziende che ti profilano, ti vendono pubblicità e ottimizzano gli algoritmi per tenerti incollato allo schermo, e nel fine settimana consulano il Pentagono su come usare l’AI in contesto bellico. Il progetto punta a “velocizzare l’introduzione dell’expertise della Silicon Valley nella burocrazia della difesa” — una frase anodina che nasconde un cortocircuito democratico devastante. Le stesse competenze che servono a massimizzare il tempo che passi su Instagram vengono applicate per identificare obiettivi militari. Lo stesso approccio move fast and break things che ha prodotto disinformazione di massa, dipendenza da social media e erosione della privacy viene ora importato nella macchina da guerra più potente del pianeta. Cosa potrebbe mai andare storto?
I numeri, letti nella loro brutalità, raccontano una storia che non ha bisogno di interpretazione. Il budget del Pentagono per AI e sistemi autonomi nel 2026 ammonta a 13,4 miliardi: 9,4 miliardi per veicoli aerei senza pilota, 1,7 miliardi per sistemi marittimi autonomi, 734 milioni per capacità sottomarine, 1,2 miliardi per integrazione software cross-dominio. Il Defense Innovation Unit — il ponte istituzionale tra Pentagono e startup — ha visto il suo budget salire a 2 miliardi dai 1,3 dell’anno precedente. Palantir ha una guidance di ricavi per il 2026 di 7,19 miliardi, un aumento del 61% anno su anno — numeri da unicorno tech, non da fornitore militare. Ma non sono solo i “nuovi” a banchettare: Microsoft ha i contratti IVAS per i visori di realtà aumentata dell’esercito, Amazon Web Services gestisce l’infrastruttura cloud della CIA e della NSA — Jeff Bezos, proprietario del Washington Post e secondo uomo più ricco del mondo, è anche uno dei maggiori fornitori di servizi alle agenzie di intelligence americane. Google, dopo il ritiro da Project Maven nel 2018, è tornata silenziosamente a collaborare con la difesa. Il denaro pubblico scorre in una direzione sola: verso il settore privato. E con il denaro, come sempre, il potere.
Mariana Mazzucato lo ha argomentato in modo convincente ne “Lo Stato Innovatore”: è sempre il settore pubblico a finanziare l’innovazione radicale — internet, il GPS, i touchscreen, la ricerca di base su cui si fondano i modelli linguistici — e poi il settore privato a raccoglierne i profitti privatizzando ciò che è stato creato con denaro di tutti. Ma quello che accade nel 2026 va oltre la dinamica descritta da Mazzucato, perché non si tratta più solo di profitti: si tratta di potere sovrano. Lo Stato americano non sta soltanto cedendo i frutti dell’innovazione — sta esternalizzando funzioni militari core a aziende private che rispondono ai propri azionisti, non ai cittadini. Quando Maven identifica 1.000 obiettivi in Iran in 24 ore, chi decide la soglia di probabilità oltre la quale un segnale diventa un bersaglio legittimo? Un algoritmo proprietario il cui codice sorgente è segreto commerciale di Palantir. Quando Golden Dome deve decidere in frazioni di secondo se intercettare quello che i sensori classificano come un missile, chi risponde degli errori, dei falsi positivi, delle vite civili distrutte per un bug nel codice? Una catena di comando che passa attraverso software sviluppato da venture capitalist il cui primo obiettivo è il ritorno sull’investimento, non la protezione dei civili.
DOGE, Musk e il mito della Silicon Valley pacifista
C’è un paradosso che racconta tutto di questo momento storico, e ha il nome di un meme. Il DOGE di Elon Musk — il Department of Government Efficiency che dovrebbe tagliare gli sprechi della spesa pubblica — ha devastato l’infrastruttura IT del Pentagono al punto che la Defense Information Systems Agency ha lanciato un allarme di “rischio estremo di perdita di servizio” su scala militare globale. I tagli al personale hanno reso impossibile mantenere i canali sicuri che collegano il Pentagono agli asset militari nel mondo, incluse le capacità nucleari — un dettaglio rivelato da The Intercept a gennaio. Ma il DOGE non ha toccato i contratti miliardari con le big tech. Palantir, Anduril, OpenAI: nemmeno un dollaro tagliato. Musk critica l’F-35 di Lockheed Martin come “il peggior rapporto qualità-prezzo nella storia degli appalti militari”, ma la sua soluzione non è meno guerra — sono droni più avanzati, tecnologia più “efficiente”, morte più “pulita”. Il suo xAI ottiene accesso ai sistemi classificati. Il suo SpaceX e Starlink sono infrastruttura militare de facto, usati dall’esercito ucraino e sempre più integrati nella strategia di difesa americana. The Nation lo ha scritto con una chiarezza che non lascia spazio a dubbi: Musk non è contro il complesso militare-industriale, vuole esserne il nuovo padrone.
La narrazione della Silicon Valley pacifista — i ragazzi in felpa che volevano “rendere il mondo un posto migliore” con le loro app — è sempre stata una favola comoda, buona per i keynote e le interviste patinate. La realtà è che la tecnologia americana nasce militare, viene commercializzata, e poi torna militare con margini di profitto che farebbero impallidire qualsiasi contractor tradizionale. La stessa DARPA ha finanziato la creazione di internet. Il GPS è nato come sistema di guida per missili. Google ha accettato Project Maven nel 2017 prima di ritirarsi nel 2018 sotto la pressione dei propri dipendenti — l’unico caso significativo in cui la resistenza dal basso abbia funzionato nel settore tech. Otto anni dopo, quella resistenza non esiste più: i lavoratori sono stati disciplinati da ondate di licenziamenti, i sindacati nel settore sono praticamente inesistenti, e le aziende hanno imparato la lezione — mai più dare ai dipendenti il potere di bloccare un contratto militare. Google è tornata alla difesa, OpenAI ha cancellato il suo divieto quando sono arrivati i soldi veri, Meta manda il CTO a fare il tenente colonnello. L’unica azienda che ha provato a porre limiti viene trattata come fosse Huawei. Il cerchio si è chiuso.
La domanda che dovresti porti ogni volta che leggi di un nuovo contratto militare firmato nella Silicon Valley è sempre la stessa: chi ha il potere, e chi lo subisce? Le porte girevoli tra tech e difesa non girano nemmeno più — sono spalancate. JD Vance è un protetto di Peter Thiel. Emil Michael viene dal venture capital. I dirigenti tech siedono nei consigli consultivi militari con il grado di tenente colonnello. Le alternative dal basso esistono: software libero, modelli open source che puoi far girare sul tuo hardware senza chiedere permesso a nessuno, reti decentralizzate, cooperative di calcolo, infrastrutture autogestite. Ma la finestra per costruire un ecosistema tecnologico autonomo dal complesso militare-industriale-tech si restringe ogni giorno. Quando Palantir ha il monopolio sull’AI militare, quando il Pentagono pianifica di far addestrare le aziende AI su dati classificati — come riportato a metà marzo dal MIT Technology Review —, quando le startup hanno bisogno di contratti governativi per sopravvivere, l’ecosistema si chiude come una trappola. E dentro quella trappola ci sei anche tu, con i tuoi dati, le tue comunicazioni, la tua geolocalizzazione.
Quello che si sta formando davanti ai nostri occhi non è un’alleanza tra stato e imprese private: è un nuovo centro di potere senza precedenti nella storia, senza contrappesi istituzionali, senza accountability democratica, senza alcun meccanismo che permetta ai cittadini di dire “questo no”. Un’azienda software vale il doppio del più grande produttore di armi della storia. Un chatbot con precedenti di contenuti pericolosi ha accesso ai sistemi nucleari classificati. Mille obiettivi identificati e processati in ventiquattr’ore da un algoritmo proprietario. E l’unica voce che ha provato a dire “forse dovremmo parlarne prima” è stata messa a tacere con la velocità e la brutalità di un’operazione militare. Che è, a pensarci bene, esattamente quello che è stata.
