Sorveglianza di massa e intelligenza artificiale

Contenuto

Una società di intelligenza artificiale dice no alla sorveglianza di massa dei cittadini americani. Il Pentagono la mette in lista nera. Non è la trama di un romanzo distopico — è quello che è successo ad Anthropic nelle prime settimane del 2026, quando l’azienda ha rifiutato di cedere al Dipartimento della Difesa il controllo del suo modello Claude per operazioni di spionaggio interno. La risposta del segretario alla Difesa Pete Hegseth è stata immediata e brutale: etichettare Anthropic come «rischio per la catena di approvvigionamento della sicurezza nazionale», tagliandola fuori da ogni contratto federale. Nel frattempo, OpenAI chiudeva un accordo da 200 milioni di dollari con lo stesso Pentagono, e xAI di Elon Musk piazzava il suo modello Grok nei sistemi classificati militari. Il messaggio è cristallino: o collabori con la macchina della sorveglianza, o vieni escluso dal gioco.

Questa vicenda racconta qualcosa di più profondo di una disputa commerciale tra aziende tech e apparato militare. Racconta come la sorveglianza di massa attraverso l’intelligenza artificiale sia diventata il terreno su cui si ridefinisce il potere nel ventunesimo secolo — e chi rifiuta di giocare viene punito. Clearview AI ha schedato oltre tre miliardi di volti senza chiedere il consenso a nessuno. Lo spyware Pegasus ha trasformato gli smartphone di giornalisti e attivisti in microspie controllate a distanza. Negli Stati Uniti, la rete di lettori di targhe di Flock Safety ha tracciato manifestanti, donne che cercavano di abortire e intere comunità rom, con 12 milioni di ricerche effettuate in meno di un anno. L’Europa ha provato a tracciare una linea con l’AI Act, l’Italia mantiene una moratoria sul riconoscimento facciale, ma le eccezioni sono talmente ampie da rendere i divieti porosi come un colabrodo. E la domanda che nessun governo vuole sentirsi fare resta la stessa: chi sorveglia i sorveglianti?

Il panopticon digitale: volti, targhe, telefoni

Partiamo da un numero: tre miliardi. Sono le immagini facciali che Clearview AI ha rastrellato dal web — da Facebook, Instagram, LinkedIn, da qualsiasi piattaforma dove tu abbia mai caricato una foto — per costruire il più grande database di riconoscimento facciale mai esistito. Nessuno ti ha chiesto il permesso, nessuno ti ha informato. Il modello di business è semplice nella sua brutalità: raccogliere i volti dell’umanità connessa e vendere l’accesso alle forze dell’ordine di mezzo mondo. A marzo 2025, un tribunale federale dell’Illinois ha approvato un risarcimento da 51,75 milioni di dollari in una class action per violazione della BIPA, la legge dell’Illinois sulla privacy biometrica — una sentenza che ha fatto storia, anche se il risarcimento non è stato pagato in contanti ma in quote societarie di Clearview stessa. Le vittime trasformate in azionisti dell’azienda che le ha schedate: definire la cosa creativa è un eufemismo, chiamarla giustizia è una bestemmia. Nel Regno Unito, il tribunale d’appello ha confermato a ottobre 2025 una multa da 7,5 milioni di sterline per violazione del GDPR. Il procuratore generale del Vermont ha intentato causa, ma un giudice l’ha respinta a dicembre 2025 per questioni giurisdizionali — Clearview, dicono, «non conduce attività sostanziali» nello stato, come se rastrellare i volti dei suoi cittadini dal web non contasse. Due continenti, tre procedimenti giudiziari, e Clearview continua a operare indisturbata. Perché il suo prodotto è troppo utile per chi detiene il potere perché qualcuno lo fermi davvero.

Se Clearview cataloga i volti, Flock Safety traccia i movimenti. L’indagine condotta dalla Electronic Frontier Foundation nel corso del 2025 ha rivelato dimensioni che definire inquietanti è riduttivo: 12 milioni di ricerche effettuate da oltre 3.900 agenzie di polizia americane attraverso una rete capillare di lettori automatici di targhe, i cosiddetti ALPR. I dati ottenuti dall’EFF — relativi al periodo tra dicembre 2024 e ottobre 2025 — raccontano storie che dovrebbero far rabbrividire chiunque consideri la libertà qualcosa di diverso da una parola vuota. Centinaia di ricerche legate a manifestazioni politiche: le proteste 50501 di febbraio, le Hands Off di aprile, i cortei No Kings di giugno e ottobre. Più di 80 dipartimenti di polizia hanno usato termini discriminatori e insulti razziali nelle ricerche relative a comunità rom, spesso senza indicare alcun reato sospetto. Il caso più agghiacciante arriva dal Texas, dove uno sceriffo ha interrogato i dati di oltre 83.000 telecamere per rintracciare una donna sospettata di aver interrotto autonomamente una gravidanza — quando la polizia ha dichiarato che la ricerca riguardava una persona scomparsa, l’EFF ha dimostrato che si trattava di un’indagine su un presunto aborto. Sorveglianza usata come strumento di controllo sui corpi delle donne, nell’America del 2025. La tecnologia non è mai neutrale: è uno strumento di potere che colpisce sistematicamente chi è già vulnerabile, chi protesta, chi appartiene a minoranze, chi esercita diritti che qualcuno vorrebbe cancellare.

Lo spyware Pegasus di NSO Group rappresenta il capitolo più torbido di questa storia — quello in cui la sorveglianza di massa si fonde con la repressione politica mirata e il confine tra sicurezza nazionale e persecuzione degli oppositori si dissolve. Nel 2025, il processo intentato da WhatsApp contro NSO ha portato alla luce dettagli raccapriccianti su come il software infettasse i dispositivi di giornalisti investigativi, avvocati per i diritti umani e dissidenti politici in decine di paesi, sfruttando vulnerabilità zero-day per trasformare qualsiasi smartphone in una microspia a cielo aperto. A maggio, una giuria americana ha condannato NSO a risarcire Meta per 167 milioni di dollari — cifra poi ridotta a circa 4 milioni dal giudice in ottobre, perché evidentemente spiare migliaia di persone attraverso WhatsApp vale meno del bonus annuale di un dirigente tech. In Polonia, l’ex ministro della Giustizia Zbigniew Ziobro è stato arrestato a gennaio 2025 per l’uso illegale di Pegasus contro avversari politici. In Serbia, Amnesty International ha documentato tentativi di hacking contro giornalisti con lo stesso software. Ma il dettaglio che dovrebbe toglierti il sonno è un altro: a ottobre 2025, un consorzio di investitori americani guidato da Robert Simonds — fondatore della STX Entertainment — ha acquisito la quota di controllo di NSO Group, e a inizio 2026 l’azienda ha pubblicato un «rapporto di trasparenza» per rientrare nel mercato statunitense. La stessa azienda che ha armato autocrati in mezzo mondo si rifà il look con una mano di vernice e bussa alla porta di Washington come partner rispettabile. È la normalizzazione dello spyware commerciale, e sta accadendo sotto i tuoi occhi mentre il mondo guarda altrove.

Il complesso militare-tech: quando il Pentagono detta legge a Silicon Valley

Lo scontro tra Anthropic e il Pentagono è la cartina di tornasole di un’epoca intera. L’azienda fondata da Dario Amodei aveva posto due linee rosse non negoziabili: nessun uso del modello Claude per armi autonome letali — dove l’intelligenza artificiale, non un essere umano, prende la decisione finale di uccidere — e nessuna sorveglianza di massa dei cittadini americani attraverso l’analisi massiva di dati pubblicamente disponibili. Due condizioni che, in una società sana, sarebbero il minimo sindacale dell’etica tecnologica. Per il Dipartimento della Difesa, invece, erano inaccettabili. Hegseth ha dato ad Amodei un ultimatum durante un incontro a porte chiuse, avvertendo che le conseguenze del rifiuto sarebbero state «severe». Poche ore prima che l’accordo da 200 milioni di OpenAI con il Pentagono venisse finalizzato, Anthropic ha ricevuto la comunicazione che il suo contratto era saltato — e subito dopo è arrivata la designazione come «rischio per la sicurezza nazionale», una mossa che di fatto esclude l’azienda da qualsiasi collaborazione con il governo federale. Anthropic ha risposto con una causa legale, sostenendo che il Primo Emendamento non consente al governo di costringere un attore privato a riscrivere il proprio codice per fini governativi. Microsoft e 22 ex alti ufficiali militari americani hanno appoggiato la posizione di Anthropic — un fronte inedito che, al di là delle motivazioni di ciascuno, pone una domanda ineludibile: esiste un limite a ciò che il governo può pretendere dalle aziende tecnologiche in nome della sicurezza?

La risposta del mercato, purtroppo, è stata eloquente. OpenAI ha firmato il suo accordo con il Dipartimento della Difesa senza battere ciglio — come ha scritto il MIT Technology Review, quel «compromesso» è esattamente lo scenario che Anthropic temeva e cercava di scongiurare. Google aveva già rimosso dai propri termini d’uso le clausole che vietavano l’impiego della sua AI per armi autonome e sorveglianza di massa, un cambiamento passato quasi inosservato nel 2025. Il Pentagono ha firmato un accordo separato con xAI di Musk per usare Grok nei sistemi classificati. Detto senza mezzi termini: le aziende che hanno accettato di collaborare con la macchina militare sono state premiate, l’unica che ha posto condizioni etiche è stata punita ed espulsa. Lo schema è vecchio quanto il capitalismo di guerra — solo che oggi i cannoni sono algoritmi e i campi di battaglia sono i dati di miliardi di persone. Il complesso militare-industriale non è un concetto polveroso da manuale del Novecento: si è evoluto in un complesso militare-industriale-tech dove Silicon Valley e Pentagono sono ormai simbiotici, e l’intelligenza artificiale è il tessuto connettivo che li tiene insieme. Un dettaglio rivelatore, messo nero su bianco dall’EFF a marzo 2026: il Pentagono acquista regolarmente enormi quantità di dati personali — localizzazione, attività sui social media, cronologia di navigazione web — da broker di dati commerciali, senza bisogno di mandati giudiziari. L’AI trasforma quella montagna di dati grezzi in profili dettagliati, inferisce credenze religiose, opinioni politiche, condizioni mediche. Basta incrociare le visite a un sito web con i follower sui social e i dati di geolocalizzazione per stabilire chi frequenta una moschea, chi partecipa a una protesta, chi ha visitato una clinica per interruzioni di gravidanza. Non serve immaginare nulla: è già realtà. [INTERNAL_LINK: cybersicurezza]

L’Europa, va riconosciuto, ha provato a tracciare una linea — e alcune conquiste sono reali. L’AI Act, entrato in vigore il 1° agosto 2024 con le prime proibizioni operative dal 2 febbraio 2025, vieta il riconoscimento biometrico in tempo reale negli spazi pubblici, la creazione di database facciali tramite scraping indiscriminato dal web e dalle telecamere a circuito chiuso, e la polizia predittiva basata su profili psicologici individuali. L’Italia ha prorogato la moratoria sul riconoscimento facciale nei luoghi pubblici fino al 2027 — con un emendamento al decreto Milleproroghe approvato a febbraio 2026 — e la legge 132 del 2025 ha recepito i principi dell’AI Act a livello nazionale. Il divieto europeo di scraping facciale è assoluto e senza eccezioni, e questo è un risultato importante, strappato anche grazie alla pressione di organizzazioni come EDRi e Access Now che per anni hanno martellato le istituzioni comunitarie. Il problema è che le eccezioni inghiottono la regola: il riconoscimento biometrico «post-evento» resta permesso con autorizzazione giudiziaria, le deroghe per la sicurezza nazionale sono talmente ampie da poterci far passare un convoglio militare, e l’intero impianto normativo non si applica fuori dai confini dell’Unione — dove Clearview, NSO e i produttori cinesi di sistemi di sorveglianza continuano a operare senza vincoli di sorta. Affidarsi esclusivamente alla legge per proteggersi dalla sorveglianza significa riporre la propria fiducia nelle stesse istituzioni che, quando fa comodo, sono le prime clienti dell’industria sorvegliante — un cortocircuito logico che nessun regolamento, per quanto ben scritto, può risolvere.

Un discorso a parte merita la Cina, diventata nell’immaginario collettivo occidentale il simbolo della distopia sorvegliante per eccellenza. La realtà è più sfumata — e per certi versi più istruttiva — di quanto la narrazione dominante racconti. A marzo 2025, il Consiglio di Stato cinese ha ridefinito l’architettura del sistema di credito sociale con un documento programmatico in 23 punti. A gennaio 2026 la maggior parte dei programmi pilota di scoring individuale era stata abbandonata: il famigerato «punteggio sociale» che avrebbe dovuto decidere se potevi prendere un treno o mandare tuo figlio in una buona scuola non si è mai materializzato su scala nazionale. Il sistema si è spostato verso la compliance aziendale, con le normative del novembre 2025 che hanno introdotto meccanismi di riabilitazione per le imprese — un paradigma meno cinematografico ma efficace di disciplinamento economico. Sarebbe un errore, però, usare questa complessità per minimizzare il problema. La Cina resta uno stato che pratica la sorveglianza su scala industriale: reti capillari di telecamere con riconoscimento facciale nelle regioni abitate da uiguri, monitoraggio totale di internet, censura algoritmica in tempo reale. La lezione che il caso cinese offre non riguarda solo Pechino — riguarda tutti noi. La sorveglianza più pericolosa non è quella da film di fantascienza con punteggi e classifiche. È quella invisibile, incorporata nelle infrastrutture quotidiane — telecamere stradali, app di pagamento, piattaforme social, assistenti vocali — che si normalizza al punto da diventare sfondo, rumore bianco, parte dell’arredamento. Esattamente quello che sta accadendo nelle democrazie occidentali, dove nessuno ha bisogno di un punteggio sociale perché il profilamento commerciale fa già lo stesso lavoro — solo che lo chiamano «personalizzazione dell’esperienza utente».

Resistenze dal basso: come difendersi dalla sorveglianza di massa

La buona notizia — perché in questo panorama serve, non per consolazione ma per strategia — è che la sorveglianza di massa incontra resistenze concrete. E le più efficaci non vengono dai governi o dalle istituzioni, ma da organizzazioni indipendenti e comunità dal basso. Le indagini dell’EFF su Flock Safety nel 2025 ne sono la dimostrazione più eloquente: è stata un’organizzazione non profit, non un’agenzia statale, a ottenere e analizzare i dati di 12 milioni di ricerche di polizia, a scoprire abusi sistematici contro manifestanti e minoranze, a smascherare l’uso delle telecamere per perseguitare donne che esercitavano il diritto all’aborto. Quando Flock Safety ha inviato una diffida legale a un attivista che mappava pubblicamente la posizione delle loro telecamere di sorveglianza, quello ha rifiutato di obbedire — e l’EFF lo ha difeso. Un tribunale dello stato di Washington ha stabilito che i dati raccolti dalle telecamere Flock sono documenti pubblici, affermando un principio fondamentale: se ci sorvegliate, abbiamo almeno il diritto di sapere dove, come e perché. A febbraio 2026, una class action depositata a San Francisco ha accusato Flock di aver condiviso illegalmente dati di targhe californiane con agenzie federali e di altri stati per 1,6 milioni di volte, in violazione della legge californiana sulla privacy dei lettori di targhe. Queste battaglie — legali, investigative, di attivismo diretto e di disobbedienza civile — dimostrano che l’apparato di sorveglianza non è invincibile. Ma va combattuto attivamente, con strumenti concreti e organizzazione collettiva, non subìto passivamente aspettando che qualcun altro faccia qualcosa.

Anche lo scontro Anthropic-Pentagono, con tutti i suoi limiti — parliamo di un’azienda miliardaria della Silicon Valley, non di un collettivo di cypherpunk — ha aperto una crepa significativa nel monolite. L’amicus brief presentato dall’EFF e dalla Foundation for Individual Rights and Expression a sostegno della causa di Anthropic afferma un principio che va oltre il caso specifico: il governo non può costringere nessuno a costruire strumenti di sorveglianza. Questo vale per le multinazionali come per te, per chi scrive codice come per chi installa telecamere. Attenzione, però, a non farsi illusioni: affidarsi alla resistenza delle corporation è una strategia strutturalmente fragile nel lungo periodo. Anthropic oggi dice no, ma domani potrebbe cambiare proprietà, strategia o semplicemente bilancio — esattamente come è successo a NSO Group, passata di mano in mano fino a diventare un asset di investitori americani che vogliono rivenderla al miglior offerente. L’unica difesa che non dipende dalla buona volontà di un CEO, dalla tolleranza di un legislatore o dalla sentenza di un giudice è quella che costruisci tu, con le tue scelte tecnologiche quotidiane.

Facciamo un passo indietro e guardiamo la cosa per quello che è: la sorveglianza di massa alimentata dall’intelligenza artificiale è un problema strutturale che richiede risposte strutturali, non solo normative o giudiziarie. La crittografia end-to-end resta lo strumento più potente a disposizione di chiunque per proteggere le proprie comunicazioni — e non è un caso che governi di tutto il mondo stiano cercando di indebolirla o aggirarla, dall’Unione Europea con la proposta Chat Control agli Stati Uniti con il EARN IT Act. L’EFF ha lanciato un allarme specifico a dicembre 2025: le aziende che sviluppano chatbot AI dovrebbero proteggere le conversazioni degli utenti dalla sorveglianza di massa, perché ogni singolo prompt che scrivi a un modello di linguaggio è un dato potenzialmente sequestrabile, analizzabile e usabile contro di te. Le alternative concrete esistono e sono accessibili a chiunque decida di usarle: reti Tor per l’anonimato in rete, Signal per le comunicazioni cifrate, self-hosting dei propri servizi su hardware che controlli fisicamente, modelli di linguaggio che girano in locale sul tuo computer senza mai inviare un singolo byte a un server remoto, community mesh networks che bypassano le infrastrutture centralizzate dei grandi provider. Il software libero e open source non è un capriccio ideologico da puristi della prima ora — è l’unica architettura tecnologica che permette una verifica indipendente di ciò che il codice fa davvero con i tuoi dati. Ogni servizio chiuso, ogni piattaforma proprietaria, ogni cloud centralizzato è un potenziale punto di intercettazione, una porta che uno stato o un’azienda può aprire senza il tuo consenso e senza che tu lo sappia mai. La sovranità tecnologica non passa dagli stati — che sono i primi e più entusiasti clienti dell’industria della sorveglianza — ma dalle comunità che scelgono di costruire e gestire autonomamente la propria infrastruttura digitale. Non è utopia: è l’unica forma di pragmatismo che prende sul serio la libertà. [INTERNAL_LINK: open source e software libero]

Torniamo alla domanda iniziale: chi sorveglia i sorveglianti? La risposta onesta è che, nel sistema attuale, nessuno lo fa in modo strutturalmente efficace. I garanti della privacy emettono multe che le aziende pagano come costo operativo — 51 milioni per Clearview, 7,5 milioni di sterline nel Regno Unito, noccioline rispetto ai profitti della sorveglianza. I tribunali impiegano anni per pronunciarsi, e quando finalmente lo fanno le tecnologie si sono già reinventate tre volte. Gli stati che dovrebbero proteggere i cittadini sono spesso i primi committenti: il Pentagono compra dati dai broker, la polizia del Texas usa le telecamere per dare la caccia a chi abortisce, la Polonia usava Pegasus contro i giornalisti scomodi. L’AI Act europeo è il tentativo più ambizioso mai fatto per regolamentare la sorveglianza algoritmica, e contiene conquiste reali — il divieto assoluto di scraping facciale, il bando della polizia predittiva individuale. Ma le sue eccezioni raccontano una verità scomoda: nessun potere legifera davvero contro sé stesso fino in fondo. Il punto non è se hai qualcosa da nascondere — questa domanda è una trappola retorica progettata per farti accettare la sorveglianza come condizione normale dell’esistenza. Il punto è che il diritto a non essere osservato, tracciato, profilato e schedato non è una concessione benevola del potere. È una precondizione della libertà. E la libertà, come sanno bene quelli che l’hanno persa, non si delega a nessuno. [INTERNAL_LINK: diritti digitali e privacy]