Drone militare in volo sopra un paesaggio di conflitto - droni letali guerra Gaza Ucraina

Contenuto

Un sistema di intelligenza artificiale ha generato una lista di 37.000 persone da uccidere a Gaza. Non è la trama di un film distopico, non è un esperimento mentale da convegno accademico: è quello che ha documentato +972 Magazine nel 2024. Si chiama Lavender, ed è il software che l’esercito israeliano ha usato per decidere — con una supervisione umana ridotta a verificare che il bersaglio fosse maschio — chi bombardare nelle proprie case, di notte, con le famiglie dentro. Mentre scrivo queste righe, i droni letali sono la prima causa di morte civile nei conflitti attivi del pianeta. Secondo Just Security, gli attacchi con droni sono aumentati del 4.000% tra il 2020 e il 2024, passando da 4.525 a quasi 20.000 in un anno. Da Gaza all’Ucraina, dalla Libia al Sudan, il cielo è diventato il territorio di caccia più efficiente mai concepito dall’industria bellica.

Il punto non è solo tecnologico — è politico, e riguarda te direttamente. Dietro ogni drone che colpisce un palazzo residenziale a Gaza City o insegue un ciclista a Kherson c’è una catena di potere che parte dai consigli di amministrazione della Silicon Valley, passa per il Pentagono, transita per le fabbriche iraniane e turche, e finisce con un’esplosione su qualcuno che stava solo cercando di vivere la propria giornata. È un ecosistema globale della morte a distanza dove nessuno si sente responsabile: l’ingegnere scrive il codice, il generale approva la lista, l’operatore preme il pulsante a 10.000 chilometri di distanza. Il civile muore. Il titolo del giornale dice “target neutralizzato”. La famiglia dice “mio figlio”.

I droni letali non sono un’arma come le altre. Sono la realizzazione perfetta del sogno di ogni potere autoritario: uccidere senza rischiare, sorvegliare senza essere visti, bombardare senza provare il peso morale di quello che si sta facendo. La guerra diventa un videogioco dove il sangue non macchia le mani di nessuno, dove la distanza tra chi uccide e chi muore è così grande da rendere l’atto quasi astratto. E la domanda che dovresti farti non è se questa tecnologia funziona — funziona fin troppo bene — ma chi ha il diritto di decidere che la tua vita vale meno di un target su uno schermo.

Quando a decidere chi muore è un algoritmo

L’inchiesta di +972 Magazine e Local Call ha squarciato un velo che molti preferivano non vedere. Il sistema Lavender, sviluppato dalle forze armate israeliane, ha analizzato i dati di decine di migliaia di palestinesi a Gaza, assegnando a ciascuno un punteggio di probabilità di appartenenza a Hamas. Il software impara a riconoscere i “pattern” dei militanti noti — comportamenti, contatti, spostamenti — e poi li applica alla popolazione generale: se il tuo profilo somiglia abbastanza a quello di un operativo, finisci nella lista. Con un’accuratezza dichiarata del 90%, che significa — detto senza mezzi termini — che una persona su dieci nella lista dei bersagli è innocente per ammissione dello stesso sistema. L’IDF ha comunque autorizzato l’uso massiccio di Lavender per generare target. Il protocollo di supervisione umana? Un operatore verificava che il bersaglio fosse di sesso maschile. Stop. In un contesto dove il 49% della popolazione di Gaza ha meno di 18 anni e dove milioni di persone vivono ammassate in pochi chilometri quadrati, questa non è supervisione: è una foglia di fico algoritmica sopra un sistema di uccisioni di massa.

Ma Lavender non lavorava da solo. Un secondo sistema, dal nome oscenamente domestico di “Where’s Daddy?”, tracciava le persone inserite nella kill list e segnalava quando rientravano a casa, di notte, con le proprie famiglie. L’obiettivo non era nascosto, non era un segreto militare coperto da classificazione: colpire i sospetti quando erano circondati dai loro cari, dentro le mura domestiche, perché quello era il momento in cui la localizzazione risultava più semplice. Tradotto nel linguaggio che i comunicati militari evitano: l’intelligenza artificiale ha ottimizzato il momento migliore per massacrare intere famiglie. Non è un effetto collaterale, non è un errore di calcolo — è il design del sistema, la sua funzione primaria. E quando l’IDF risponde che Lavender è solo uno “strumento ausiliario” e che ogni decisione passa per un analista umano, sta applicando la stessa retorica che le aziende tech usano per qualsiasi prodotto che causa danni: è solo un tool, la responsabilità è dell’utente. Come se l’utente non fosse un esercito che sta bombardando una delle zone più densamente popolate della Terra.

I numeri parlano con una brutalità che le parole diplomatiche cercano invano di ammorbidire. Airwars ha documentato più di 150 famiglie che hanno perso diversi membri nello stesso conflitto. Decine di migliaia di vittime civili a Gaza dall’ottobre 2023 — e il conteggio reale è probabilmente più alto, perché quando un palazzo crolla sui suoi abitanti non sempre restano corpi identificabili da contare. Il nocciolo della questione è questo: l’intelligenza artificiale non ha reso questa guerra più “precisa”, come prometteva la propaganda militare. L’ha resa più veloce. Ha permesso di generare target a un ritmo che nessun analista umano potrebbe sostenere, trasformando il conflitto in un processo industriale dove l’input sono dati e l’output sono cadaveri. Lavender è la dimostrazione più crudele di cosa succede quando dai a un potere militare uno strumento che automatizza la selezione delle vittime: non ottieni più precisione, ottieni più morte a un costo inferiore per chi la infligge. Il sogno di ogni burocrazia della violenza.

La proliferazione senza controllo: dal Bayraktar agli Shahed

Gaza non è un caso isolato — è il laboratorio più avanzato di una tendenza globale che sta ridisegnando la guerra nel ventunesimo secolo. Guarda l’Ucraina: secondo il Consiglio Nazionale di Sicurezza e Difesa ucraino, il paese ha raggiunto una capacità produttiva di oltre 8 milioni di droni FPV all’anno. Nel 2025, circa 500 aziende — molte delle quali civili riconvertite alla produzione bellica, da startup di elettronica a piccoli laboratori artigianali — sfornano 200.000 droni al mese. Prima dell’invasione russa su larga scala, i produttori ucraini di droni militari erano sette. Sette in tutto il paese. Questa non è semplicemente “innovazione tecnologica”, come amano dire i think tank atlantisti: è la militarizzazione dell’industria civile su scala industriale, e dovrebbe spaventare chiunque abbia a cuore il confine — sempre più sottile, sempre più poroso — tra economia di pace ed economia di guerra. Quando le fabbriche che producevano componenti per smartphone iniziano a produrre droni d’attacco, il messaggio è chiaro: la guerra si è mangiata un pezzo di società civile, e non lo restituirà.

Dall’altro lato del fronte, la Russia ha lanciato oltre 38.000 droni Shahed di fabbricazione iraniana nel solo 2025, compresi 5.000 nel mese di settembre. Questi droni kamikaze, che costano tra i 20.000 e i 50.000 dollari l’uno, sono progettati per un unico scopo: saturare le difese aeree avversarie con il peso dei numeri. Abbatterli con un missile Patriot da 3-4 milioni di dollari è un’equazione economica che favorisce sistematicamente l’aggressore — per ogni Shahed distrutto, la difesa spende cento volte il costo dell’attacco. L’Iran ha costruito un impero dell’export bellico a basso costo che alimenta conflitti dalla Russia allo Yemen, e ogni Shahed che esplode su un condominio di Kiev è la prova che la “democratizzazione” della tecnologia militare non è una conquista: è una catastrofe. Nel frattempo, l’Ufficio dell’Alto Commissario ONU per i Diritti Umani ha documentato che gli attacchi con droni a corto raggio hanno ucciso almeno 395 civili e ferito 2.635 in Ucraina tra febbraio 2022 e aprile 2025. A Kherson, i piloti di droni quadcopter russi danno letteralmente la caccia ai civili — in bicicletta, a piedi, alle fermate dell’autobus — lanciando esplosivi su chiunque si muova. Il Comitato Internazionale della Croce Rossa ha raccolto queste testimonianze. Nel maggio 2025, l’ONU ha concluso che questi attacchi sono “diffusi e sistematici”, qualificandoli senza mezzi termini come crimini contro l’umanità.

E poi c’è il Bayraktar TB2 turco, il drone che ha cambiato gli equilibri militari in Libia, Siria e Nagorno-Karabakh, esportato in oltre 34 paesi. La Turchia di Erdoğan ha trasformato i droni in strumento di proiezione geopolitica: economici, efficaci, e soprattutto senza soldati in body bag da giustificare all’opinione pubblica interna. Ma il vero salto qualitativo — quello che dovrebbe toglierti il sonno — è quello che sta preparando il Pentagono. Il programma Replicator, lanciato nel 2023 dalla vicesegretaria alla Difesa Kathleen Hicks, puntava a schierare migliaia di droni autonomi a basso costo entro il 2025. I risultati finora sono stati inferiori alle promesse — centinaia invece di migliaia — ma la direzione è inequivocabile e il budget cresce. Il programma Drone Dominance prevede 30.000 droni d’attacco monouso a 5.000 dollari l’uno, con un investimento complessivo da un miliardo di dollari. Il Pentagono ha inoltre lanciato l’Orchestrator Prize Challenge da 100 milioni per sviluppare software che permetta a un singolo operatore di controllare sciami di droni autonomi. Leggilo di nuovo: un soldato, decine di migliaia di droni killer. Questo è il futuro che il complesso militare-industriale sta costruendo con i soldi delle tue tasse, e non ha nulla a che fare con la “difesa” — ha a che fare con il dominio.

La distanza morale e il diritto a non essere bombardati

C’è un concetto che i militari preferiscono non discutere in pubblico e che gli ingegneri della Silicon Valley ignorano con eleganza: la distanza morale. L’ICRC lo ha analizzato in un contributo specifico: quando il pilota di un drone siede in una base nel Nevada e il bersaglio cammina in una strada di Waziristan — o di Gaza, o di Kherson — la distanza fisica diventa distanza psicologica. Non senti l’esplosione, non vedi il sangue se non come una macchia termica su uno schermo, non odori la polvere e la carne bruciata. Confermi il target, compili il rapporto, il giorno dopo torni a casa dai tuoi figli. Questa separazione non è un difetto del sistema: è la caratteristica principale, il selling point. La guerra a distanza funziona perché abbassa la soglia morale dell’uccidere, trasforma l’atto di ammazzare un essere umano in una procedura operativa, simile a qualsiasi altro task digitale. Click, boom, next. E quando aggiungi l’intelligenza artificiale — un Lavender che seleziona i bersagli, un algoritmo che decide il momento dell’attacco — la responsabilità si dissolve in una catena dove nessun singolo anello è abbastanza grande da portarne il peso.

Facciamo un passo indietro, perché il diritto internazionale su questo tema dice qualcosa di importante, anche se insufficiente. Il diritto umanitario richiede tre principi fondamentali: distinzione tra combattenti e civili, proporzionalità nell’uso della forza, e precauzione negli attacchi. L’ICRC ha chiarito che la distanza geografica non viola di per sé queste norme — ma ha anche avvertito, con un linguaggio insolitamente diretto per un’organizzazione diplomatica, che se la distanza psicologica induce l’operatore a disinteressarsi della sorte dei non combattenti, allora la distanza diventa un problema giuridico a tutti gli effetti. Il punto è che stiamo parlando di un sistema dove l’operatore non decide più chi colpire: lo fa l’algoritmo. La supervisione umana si è ridotta a un pro forma, un checkbox burocratico che nessuno ha interesse a rendere sostanziale perché rallenterebbe la macchina produttiva. E la macchina deve produrre — target, sortite, “neutralizzazioni” — con l’efficienza di una catena di montaggio. L’ICRC ha chiesto esplicitamente il divieto delle armi autonome imprevedibili e di quelle progettate per applicare forza contro le persone, e il Segretario Generale delle Nazioni Unite ha fissato il 2026 come scadenza per regolamentarle o vietarle. Ma chi dovrebbe approvare questo divieto? Gli stessi governi che investono miliardi per costruire queste armi?

Il nocciolo della questione va oltre il diritto di guerra codificato. Esiste un diritto fondamentale che non trovi scritto in nessun trattato ma che dovrebbe essere il presupposto di tutti gli altri: il diritto a non essere bombardati nella tua casa, nella tua città, mentre vai al lavoro o porti i tuoi figli a scuola. Un diritto a una vita non bombardabile — che suona assurdo doverlo articolare, eppure eccoci qui. A Gaza, questo diritto non esiste più da tempo, e Lavender lo ha abolito con efficienza algoritmica. In Ucraina, gli Shahed lo violano ogni notte sulle città. In Yemen, Somalia, Pakistan, Afghanistan, i droni americani lo hanno calpestato per due decenni prima che qualcuno iniziasse seriamente a contare i morti civili. Gli Stati Uniti preparano 30.000 droni monouso con il programma Drone Dominance. Israele ha automatizzato la selezione dei target con l’AI. La Russia lancia migliaia di Shahed sulle infrastrutture civili ucraine. La Turchia esporta Bayraktar a 34 paesi. E nessuno di questi attori ha il minimo interesse a limitare la tecnologia che gli dà potere.

L’alternativa — e qui la prospettiva cambia radicalmente — non viene dall’alto. Non verrà mai dall’alto, perché i governi e le corporation sono i principali beneficiari di questo sistema. Viene da chi documenta e denuncia: +972 Magazine, Airwars, il monitoraggio ONU per i diritti umani, i ricercatori indipendenti che rendono impossibile nascondere cosa fanno i droni alla gente comune. Viene dai movimenti interni all’industria tech che rifiutano la complicità con il complesso militare: nel 2018, i dipendenti di Google hanno costretto l’azienda ad abbandonare il Progetto Maven, il programma di AI per il targeting del Pentagono — una vittoria rara e preziosa, anche se Google ha poi trovato modi più discreti per collaborare con il Dipartimento della Difesa. Viene dalle comunità che scelgono la sovranità tecnologica dal basso: self-hosting, infrastrutture autonome, rifiuto consapevole di partecipare alla catena di produzione della morte automatizzata. Il problema dei droni letali non si risolve con una regolamentazione che i potenti scriveranno a propria misura — la storia delle convenzioni sulle armi lo dimostra ampiamente. Si affronta smontando il sistema di potere che li rende possibili e redditizi: la concentrazione tecnologica in poche mani, la fusione tra Silicon Valley e Pentagono, la normalizzazione della guerra come industria permanente e come motore economico.

Ogni drone che vola sopra Gaza, Kherson o qualsiasi altra zona di conflitto porta con sé una domanda che non puoi evitare: chi ha deciso che quella persona doveva morire, e con quale diritto? La risposta, sempre più spesso, è: un algoritmo addestrato su dati parziali, approvato da una burocrazia militare che ha rinunciato alla responsabilità individuale, finanziato da un’industria che sulla guerra costruisce i propri profitti trimestrali. Non esiste una guerra “pulita” dei droni — esiste una guerra dove chi uccide non rischia nulla e chi muore non ha voce. Finché tratteremo il diritto a non essere bombardati come un lusso geopolitico invece che come il fondamento di ogni civiltà possibile, i droni continueranno a volare. La tecnologia non è il problema. Il problema è chi la controlla, chi ci guadagna, e chi si arroga il potere di decidere che la tua vita vale meno di un dato su uno schermo.