Drone militare in volo su sfondo scuro e tecnologico - militarizzazione intelligenza artificiale armi autonome

Contenuto

Tredici miliardi e quattrocento milioni di dollari. Questa è la cifra che il Pentagono ha stanziato per l’intelligenza artificiale nel bilancio 2026 — la prima volta nella storia in cui l’AI militare ottiene una voce di spesa dedicata nel budget della difesa statunitense. Non un fondo sperimentale, non un programma pilota: una linea di procurement strutturale che finanzia droni autonomi da 9,4 miliardi, sistemi marittimi robotici da 1,7 miliardi, veicoli terrestri senza equipaggio e software di targeting capaci di identificare mille bersagli in ventiquattr’ore. La militarizzazione dell’intelligenza artificiale e la corsa alle armi autonome non sono rischi futuri — sono il presente, e hanno un prezzo preciso scritto nel bilancio federale degli Stati Uniti.

Il punto è che questa corsa non avviene nel vuoto. Avviene in un contesto in cui OpenAI ha cancellato il divieto di uso militare dei propri modelli, Palantir è diventata il fornitore AI ufficiale di tutte le forze armate USA, e Anthropic — l’unica tra le grandi aziende AI ad aver rifiutato di piegarsi — è stata dichiarata dal Pentagono “rischio per la catena di approvvigionamento della sicurezza nazionale”. Un’etichetta mai applicata prima a un’azienda americana, riservata finora a Huawei e Kaspersky. Il messaggio è trasparente nella sua brutalità: o collabori alla macchina bellica, o il governo ti distrugge commercialmente. Non ci sono vie di mezzo, non ci sono obiezioni di coscienza ammesse.

Questo non è un articolo equidistante — non può esserlo. La guerra pulita, quella che i generali vendono come “chirurgica” e i contractor della difesa presentano nei pitch agli investitori di Sand Hill Road, è una bugia con un budget miliardario. E il mito della precisione algoritmica è lo strumento che la rende politicamente accettabile, moralmente digeribile, economicamente redditizia.

Da Google a OpenAI: la Silicon Valley sceglie la guerra

La fusione tra Silicon Valley e complesso militare-industriale ha un punto di svolta preciso: il Project Maven, lanciato dal Pentagono nell’aprile 2017 con il nome burocratico di Algorithmic Warfare Cross Functional Team. L’obiettivo era semplice nella formulazione e devastante nelle implicazioni: usare il machine learning per analizzare i filmati catturati dai droni militari e identificare automaticamente bersagli umani. Google fu il primo partner commerciale. Quando la notizia trapelò nel 2018, la reazione interna fu feroce: migliaia di dipendenti firmarono una lettera aperta chiedendo all’azienda di ritirarsi, e Meredith Whittaker — ricercatrice AI che organizzò le proteste — finì per lasciare l’azienda. Oggi guida Signal, il servizio di messaggistica cifrata: una scelta che dice tutto sulla sua fiducia residua nelle big tech. Google si ritirò pubblicamente dal contratto, e per qualche anno sembrò che il settore tecnologico avesse tracciato una linea rossa tra innovazione civile e applicazioni belliche. Quella linea non esiste più.

Il vuoto lasciato da Google è stato colmato con entusiasmo da Palantir, l’azienda fondata da Peter Thiel — miliardario libertarian che ha finanziato la campagna di Trump e che siede nel consiglio di Meta. Il 9 marzo 2026, il vicesegretario alla Difesa Steve Feinberg ha firmato un memorandum che designa il Maven Smart System di Palantir come programma ufficiale del Pentagono, operativo entro settembre 2026 su tutti i rami delle forze armate. Non è un aggiornamento burocratico: significa che il sistema di targeting automatizzato di Palantir diventa infrastruttura militare permanente degli Stati Uniti. L’Agenzia Nazionale per l’Intelligence Geospaziale ha dichiarato che entro giugno 2026 Maven trasmetterà intelligence “generata al 100% dalle macchine” ai comandanti operativi sul campo. E durante l’operazione Epic Fury del 28 febbraio 2026 contro l’Iran, Maven ha permesso alle forze statunitensi di identificare e processare mille obiettivi nelle prime ventiquattr’ore — un dato che il Pentagono ha pubblicizzato con orgoglio, come se la velocità nell’identificare chi bombardare fosse un traguardo tecnologico e non un indicatore della disumanizzazione della guerra.

La svolta più rivelatrice riguarda OpenAI. Fino a gennaio 2024, i termini di servizio dell’azienda vietavano esplicitamente qualsiasi uso militare dei propri modelli. Poi quella clausola è scomparsa, in silenzio, senza comunicati stampa. Sam Altman ha giustificato la scelta con la retorica della sicurezza nazionale e della competizione con la Cina — lo stesso argomento che i governi usano da sempre per giustificare qualsiasi escalation militare. A febbraio 2026, OpenAI ha formalizzato un accordo con il Pentagono dichiarando tre “linee rosse”: niente sorveglianza di massa domestica, niente armi autonome dirette, niente decisioni automatizzate ad alto rischio. Lo stesso Altman ha ammesso che il tempismo dell’annuncio — arrivato poche ore dopo la punizione inflitta ad Anthropic — sembrava “opportunistico e sciatto”. La Electronic Frontier Foundation ha smontato quei paletti definendoli “weasel words” — parole da donnola: formulazioni vaghe, non vincolanti, prive di qualsiasi meccanismo di verifica indipendente. Detto senza mezzi termini, OpenAI ha scritto le proprie regole d’ingaggio sapendo che nessuno potrà verificarne il rispetto.

E poi c’è Anthropic, il caso che chiude il cerchio e rivela la natura coercitiva del sistema. Il Pentagono ha chiesto di poter usare il modello Claude “per tutti gli scopi legittimi” — una formula che, tradotta dal legalese, significa carte bianche. Anthropic ha rifiutato, insistendo su due condizioni: niente armi completamente autonome e niente sorveglianza di massa sui cittadini americani. Due paletti che qualsiasi persona ragionevole considererebbe il minimo sindacale. La risposta del segretario alla Difesa Pete Hegseth è stata brutale: designare Anthropic come “rischio per la supply chain della sicurezza nazionale”, seguita dall’ordine di Trump a tutte le agenzie federali di cessare immediatamente l’uso dei suoi prodotti. Anthropic ha fatto causa, e un gruppo di ex giudici federali ha depositato un brief sostenendo che il Pentagono ha violato le procedure previste dalla legge. Ma il danno politico è già fatto, e il messaggio a tutto il settore tech è arrivato forte e chiaro: nel nuovo complesso militare-industriale-digitale, l’obiezione di coscienza aziendale viene trattata come un atto ostile alla sicurezza nazionale.

L’esercito delle macchine: chi costruisce le armi autonome

I numeri del budget della difesa USA per il 2026 vanno letti come un catalogo della guerra che viene. Dei 13,4 miliardi destinati all’AI e all’autonomia, 9,4 miliardi finanziano veicoli aerei senza pilota — droni d’attacco, droni da ricognizione, sciami coordinati da algoritmi. 1,7 miliardi vanno ai sistemi marittimi autonomi, 734 milioni alle capacità sottomarine robotiche, 210 milioni ai veicoli terrestri autonomi. A questi si aggiungono i fondi del contratto JWCC — il Joint Warfighting Cloud Capability, l’infrastruttura cloud militare spartita tra Microsoft, Google, Oracle e Amazon — che fornisce la potenza di calcolo su cui girano tutti questi sistemi. Il budget complessivo della difesa per il 2026 ha superato per la prima volta i mille miliardi di dollari, in crescita del 13% rispetto all’anno precedente. Chi dice che l’AI militare è ancora in fase sperimentale non ha letto questi numeri, oppure mente sapendo di mentire.

I nomi delle aziende che si spartiscono questa torta raccontano la metamorfosi del complesso militare-industriale. Anduril Industries — fondata da Palmer Luckey, l’ex enfant prodige di Oculus VR che Facebook comprò per 2 miliardi — ha incassato a marzo 2026 un contratto dall’esercito statunitense del valore di 20 miliardi di dollari per integrare il suo software AI Lattice nell’infrastruttura militare, con durata fino al 2036. Prima ancora, a marzo 2025, 86 milioni dal Comando Operazioni Speciali per piattaforme senza equipaggio. A febbraio 2025, il rilevamento da Microsoft del programma di visori per soldati IVAS. La valutazione dell’azienda ha raggiunto i 30,5 miliardi dopo un round di finanziamento da 2,5 miliardi guidato da Founders Fund — il fondo di Peter Thiel, ancora lui. Shield AI, valutata 12 miliardi, ha schierato il software di autonomia Hivemind nel programma Collaborative Combat Aircraft dell’aeronautica a febbraio 2026, e sta sviluppando l’X-BAT, un caccia senza pilota a decollo verticale che inizierà i test di volo quest’anno in Kansas. Skydio, che ha saggiamente abbandonato il mercato consumer nel 2023, genera oltre metà dei suoi 1,2 miliardi di ordini da clienti della difesa. Non sono startup che hanno “pivotato” verso il settore bellico per opportunismo — sono imprese costruite sin dall’inizio per vendere strumenti di morte al miglior offerente in uniforme.

Il programma Replicator — annunciato nell’agosto 2023 con la promessa di schierare “migliaia” di sistemi autonomi entro agosto 2025 — ha prodotto risultati molto più modesti del previsto: centinaia, non migliaia, di droni effettivamente dispiegati. Il numero esatto è classificato, il che dovrebbe già dirti qualcosa sulla trasparenza di questi programmi. Ma il fallimento quantitativo non ha rallentato l’ambizione: Replicator è stato ribattezzato Defense Autonomous Working Group, sta conducendo wargame con droni d’attacco a lungo raggio più grandi e letali, e a gennaio 2026 la Defense Innovation Unit ha lanciato l’Orchestrator Prize Challenge — 100 milioni di dollari in premi per sviluppare un software di controllo “user-friendly” per sciami di droni aerei, terrestri e marittimi. Fermiamoci su queste due parole — “user-friendly” — applicate al comando di sciami di macchine armate. Il linguaggio dell’UX design e delle interfacce consumer applicato all’orchestrazione della violenza: rendere l’omicidio di massa accessibile quanto ordinare su un’app di delivery. Non è un’iperbole — è la logica dichiarata del programma, scritta nero su bianco nei documenti della Defense Innovation Unit.

La corsa non è solo americana. La NATO ha aggiornato la propria strategia AI nel luglio 2024 e al vertice dell’Aia del 2025 ha adottato il Rapid Adoption Action Plan, che mira a integrare nuove tecnologie nelle forze armate alleate entro un massimo di 24 mesi. Scale AI sta sviluppando Thunderforge per il Pentagono — un sistema di pianificazione militare alimentato dall’intelligenza artificiale, focalizzato sulle operazioni in Europa e nell’area indo-pacifica, le due regioni dove il confronto con Russia e Cina si fa più caldo. Il Brennan Center for Justice ha documentato come il confine tra industria della difesa e settore tech privato sia ormai dissolto in un rapporto dettagliato sul business dell’AI militare. E il DOGE di Elon Musk — il Department of Government Efficiency che si vanta di tagliare gli sprechi federali — non ha toccato un centesimo del budget per le armi autonome. D’altronde Musk ha contratti miliardari con il governo attraverso SpaceX, e Skydio collabora proprio con SpaceX e OpenAI per competere sui contratti della difesa. Non stiamo più parlando del vecchio complesso militare-industriale di Eisenhower, fatto di acciaierie e cantieri navali. Quello nuovo è costruito su API, modelli linguistici, visione artificiale e contratti cloud. È più veloce, più opaco, infinitamente più scalabile — e infinitamente più difficile da controllare democraticamente, perché il codice sorgente è proprietario e i contratti sono classificati.

Guerra pulita, bugia sporca

Il mito della guerra chirurgica non è nuovo — risale almeno alla prima Guerra del Golfo, quando la CNN mandava in onda i filmati delle bombe “intelligenti” che entravano dalle finestre degli edifici iracheni come fossero videogiochi. Trent’anni dopo, l’intelligenza artificiale ha dato a quel mito una seconda vita potente, perché promette qualcosa che nessuna tecnologia precedente osava promettere: la rimozione completa dell’errore umano dal ciclo decisionale della morte. Se un algoritmo identifica il bersaglio, se un drone autonomo esegue il colpo senza che un dito umano prema il grilletto, allora l’uccisione diventa un output computazionale — pulita, precisa, impersonale. Nessuno da processare alla Corte Penale Internazionale, nessun trauma da stress post-bellico per il pilota, nessuna immagine di corpi smembrati nei telegiornali della sera. La guerra come servizio cloud: scalabile, efficiente, invisibile.

La realtà racconta una storia brutalmente diversa. Come analizzato nell’articolo sui droni letali da Gaza all’Ucraina, i sistemi di targeting AI usati dall’esercito israeliano — Lavender e Gospel — hanno generato liste automatiche di bersagli che hanno portato al bombardamento sistematico di edifici residenziali, ospedali, scuole, campi profughi. L’inchiesta di +972 Magazine ha documentato che Lavender ha contrassegnato 37.000 palestinesi come potenziali obiettivi militari, con un tasso di errore stimato intorno al 10% — considerato “accettabile” dai vertici delle forze armate israeliane. Tradotto in numeri che significano qualcosa: 3.700 persone segnalate per errore dall’algoritmo, vite umane declassate a rumore statistico in un database di targeting. Questa non è guerra chirurgica. È burocrazia della morte automatizzata, dove la velocità del processo ha sostituito l’accuratezza e l’accountability è scomparsa dietro uno schermo di dati aggregati che nessun tribunale potrà mai interrogare.

Il paradosso è che la presunta precisione delle armi autonome le rende più letali, non meno — perché abbassa la soglia politica e psicologica dell’uso della forza. Il Segretario generale dell’ONU António Guterres lo ha detto con una chiarezza rara per la diplomazia internazionale: nel maggio 2025 ha definito le armi letali autonome “politicamente inaccettabili e moralmente ripugnanti”, chiedendo un trattato vincolante entro il 2026. La Campaign to Stop Killer Robots — coalizione di circa 270 organizzazioni della società civile — e l’ICRAC (International Committee for Robot Arms Control) conducono questa battaglia da oltre un decennio, insieme al Future of Life Institute che nel 2023 mobilitò migliaia di ricercatori con la lettera aperta sulla moratoria AI. Più di 120 paesi sostengono l’apertura di negoziati per un trattato che proibisca i sistemi d’arma autonomi letali. Ma gli Stati Uniti, la Russia, Israele e un pugno di altri paesi — tutti, guarda caso, grandi produttori ed esportatori di armi — continuano a bloccare qualsiasi strumento giuridicamente vincolante. Washington ha votato a favore della risoluzione ONU del maggio 2025, per poi dichiarare che non ha alcuna intenzione di fermare le proprie ricerche. L’ipocrisia diplomatica è così sfacciata da non richiedere nemmeno un commento.

La contraddizione di fondo è strutturale, e nessuna policy aziendale potrà mai risolverla. Si chiede alle stesse corporation che costruiscono le armi di definire i limiti etici del loro utilizzo — come chiedere all’oste se il vino è buono, ma con conseguenze che si misurano in cadaveri. OpenAI scrive le proprie “linee rosse”. Anduril pubblica principi di “AI responsabile”. Il Pentagono produce direttive sull'”uso etico dell’autonomia”. Ma chi controlla i controllori? Chi verifica che quei paletti non vengano spostati quando un contratto da 20 miliardi bussa alla porta? Lo abbiamo già visto succedere: OpenAI ha cancellato il divieto di uso militare con la stessa disinvoltura con cui si aggiorna una privacy policy. Lo vediamo con il trattamento riservato ad Anthropic: l’unica azienda che ha provato a dire no è stata trattata come un nemico della sicurezza nazionale. Il cosiddetto “controllo umano nel loop” — la foglia di fico etica dell’AI militare, il mantra che ripetono i sostenitori del controllo algoritmico in ogni ambito — non vale nulla quando l’intero sistema è progettato per rendere quel loop il più rapido possibile, e l’umano è ridotto a un collo di bottiglia da eliminare per ragioni di efficienza operativa.

L’alternativa — l’unica alternativa credibile — non passa per l’autoregolamentazione delle corporation tecnologiche né per le buone intenzioni dei governi che producono, vendono e usano armi. Passa per un trattato internazionale vincolante — come quelli che hanno bandito le mine antiuomo e le munizioni a grappolo — che proibisca le armi letali autonome senza eccezioni. Passa per la pressione dal basso: ricercatori che rifiutano di lavorare su progetti militari, ingegneri che fanno whistleblowing, lavoratori tech che si organizzano come fecero i dipendenti di Google nel 2018 contro Project Maven. L’opposizione alla sorveglianza algoritmica cresce anche in Europa — e non è una battaglia separata da quella contro le armi autonome. Sono due facce della stessa medaglia: la delega delle decisioni sulla vita e sulla morte delle persone a macchine controllate da chi ha il potere e i soldi per costruirle.

C’è un dettaglio che dovrebbe toglierti il sonno. Quando il Pentagono ha celebrato i mille bersagli identificati da Maven nelle prime ventiquattr’ore dell’operazione contro l’Iran, non ha detto quanti di quei bersagli fossero sbagliati. Non lo sapremo mai, probabilmente — perché i dati sono classificati e i morti non fanno ricorso. Questa è l’essenza vera della guerra pulita: non quella dove nessuno muore, ma quella dove nessuno è responsabile. L’algoritmo ha deciso, il drone ha eseguito, il titolo in borsa di Palantir è salito, il budget è stato approvato dal Congresso con voto bipartisan. Chi muore sotto una bomba guidata dall’intelligenza artificiale non ha un volto nei briefing del Pentagono — è un data point, un nodo in un grafo, una riga in un database che l’intelligence “generata al 100% dalle macchine” ha sputato fuori. La domanda vera non è se l’AI renderà la guerra più precisa. È chi ha deciso che la guerra deve essere più veloce, più scalabile, più automatizzata — e nell’interesse di chi. La risposta, come sempre, segue i soldi: 13,4 miliardi per il 2026, venti miliardi per Anduril, valutazioni stellari per startup che fabbricano macchine per uccidere. Il mito della guerra pulita non è un errore di comunicazione. È il miglior pitch deck che il complesso militare-industriale-tech abbia mai prodotto.