Telecamera di sorveglianza in ambiente urbano - polizia predittiva e algoritmi

Contenuto

C’è un software, negli Stati Uniti, che contribuisce a decidere se meriti la libertà su cauzione. Si chiama COMPAS, lo produce un’azienda privata — Equivant, prima Northpointe — e il suo codice sorgente è un segreto commerciale. Nel 2016 un’inchiesta di ProPublica ha dimostrato che l’algoritmo assegna ai neri un rischio di recidiva doppio rispetto ai bianchi, a parità di profilo criminale. Nessun giudice ha mai letto quel codice. Nessun imputato ha potuto contestare la formula matematica che ha contribuito a sbatterlo in cella. L’algoritmo emette il suo verdetto numerico, il giudice firma, e la giustizia — quella vera, quella che dovrebbe guardare in faccia le persone — si volta dall’altra parte.

Se pensi che sia un problema esclusivamente americano, fermati un secondo e guarda cosa succede da questa parte dell’Atlantico. A gennaio 2026 il Viminale ha dato il via libera al riconoscimento facciale negli stadi italiani, con telecamere su ogni tornello pronte a schedare decine di migliaia di volti a partita. La polizia italiana ha usato Clearview AI — il più grande database di riconoscimento facciale al mondo, costruito rastrellando miliardi di foto dai social senza consenso — tra il 2018 e il 2020, prima che il Garante Privacy intervenisse con una multa da 20 milioni di euro. L’Unione Europea, che pure con l’AI Act ha formalmente vietato la polizia predittiva dal febbraio 2025, ha inserito nel testo abbastanza eccezioni per le forze dell’ordine da svuotare quel divieto dall’interno. Il quadro, se lo guardi senza i paraocchi del tecno-ottimismo, è piuttosto chiaro.

Il nocciolo della questione lo ha messo nero su bianco Cathy O’Neil nel suo Weapons of Math Destruction: gli algoritmi non sono neutri, sono opinioni codificate in linguaggio matematico. Quando queste opinioni decidono chi finisce in cella e chi resta libero, chi viene fermato per strada e chi passa indisturbato, non stai più parlando di tecnologia. Stai parlando di potere. E il potere, come al solito, colpisce sempre verso il basso.

La macchina che prevede il crimine (e sbaglia quasi sempre)

L’idea che un software possa prevedere dove avverrà il prossimo crimine sembra uscita da Minority Report, eppure nell’ultimo decennio è diventata prassi standard in centinaia di dipartimenti di polizia, soprattutto negli Stati Uniti. Il caso più emblematico è quello di PredPol, ribattezzato Geolitica nel 2022 — un rebranding cosmetico, un po’ come quando un’azienda con pessima reputazione si cambia il nome sperando che nessuno se ne accorga. PredPol prometteva di indicare alle pattuglie esattamente dove concentrare la sorveglianza, quartiere per quartiere, isolato per isolato, con la precisione chirurgica di un algoritmo addestrato su anni di dati criminali. Il problema è che questa precisione chirurgica era una balla colossale: un’analisi di The Markup su milioni di previsioni ha rivelato un tasso di successo inferiore allo 0,5 percento. Meno di una previsione su duecento azzeccata. Per i reati violenti come rapine e aggressioni il dato saliva a un glorioso 0,6 percento — avresti ottenuto risultati migliori tirando una freccetta su una mappa della città bendato. L’analisi ha anche mostrato che le previsioni di Geolitica colpivano in modo sproporzionato le comunità a basso reddito e a maggioranza non bianca, concentrando le pattuglie sempre nei soliti quartieri. Geolitica ha chiuso i battenti alla fine del 2023, ma non per ammissione di fallimento: SoundThinking — la società dietro ShotSpotter — ha assorbito il team di ingegneri e la proprietà intellettuale. L’azienda muore, la tecnologia sopravvive, il business continua sotto un altro cappello.

ShotSpotter merita un capitolo a parte, perché rappresenta l’altra faccia della stessa medaglia: il tentativo di automatizzare la sicurezza pubblica spacciandolo per innovazione tecnologica. Il sistema usa una rete di sensori acustici piazzati nei quartieri — sempre gli stessi quartieri, guarda caso, quelli poveri e a maggioranza nera — per rilevare colpi di arma da fuoco e inviare automaticamente la polizia sul posto. Sulla carta suona ragionevole, nei fatti è un disastro documentato da studi indipendenti: una ricerca del 2021 ha concluso che ShotSpotter non produce alcuna riduzione dei crimini violenti, ma aumenta significativamente le richieste di intervento delle forze dell’ordine. Tradotto in termini concreti significa più pattuglie nei quartieri già iper-sorvegliati, più fermi, più tensione con la comunità, zero risultati misurabili sulla sicurezza. Chicago — la città che più di tutte aveva scommesso su questa tecnologia, investendo milioni di dollari nel programma — ha lasciato scadere il contratto a febbraio 2025. Ma il modello si replica altrove, perché vendere sicurezza algoritmica alle amministrazioni comunali spaventate dal crimine resta un affare troppo redditizio per morire con dignità. A Little Rock, in Arkansas, nel 2025 campagne di sensibilizzazione con cartelloni mobili hanno cercato di impedire il rinnovo del contratto con ShotSpotter — segno che almeno la resistenza dal basso inizia a organizzarsi.

E poi c’è COMPAS, il sistema che più di tutti incarna il cortocircuito tra algoritmo e giustizia. Usato in 46 stati americani per valutazioni su cauzione, condizionale e durata della pena, l’algoritmo analizza un questionario di 137 domande — età, storia criminale, ma anche fattori come il quartiere di residenza, la stabilità lavorativa, i precedenti familiari — e produce un punteggio da 1 a 10. Un numero. Un singolo numero che contribuisce a determinare se tornerai a casa stasera o resterai in cella. L’inchiesta di ProPublica, basata sull’analisi di oltre 7.000 casi nella contea di Broward in Florida, ha dimostrato che COMPAS etichettava erroneamente come “ad alto rischio” gli imputati neri con una frequenza doppia rispetto ai bianchi. I bianchi, al contrario, venivano classificati più spesso come “a basso rischio” anche quando poi commettevano effettivamente nuovi reati. Equivant ha contestato la metodologia dell’inchiesta — ci mancherebbe, è il loro prodotto — ma ecco il punto che nessuna contro-analisi aziendale può risolvere: il codice di COMPAS è proprietario. Nessun giudice, nessun avvocato difensore, nessun imputato può esaminarlo. Ti viene comunicato il tuo punteggio, mai come ci si è arrivati. Una ricerca pubblicata su Science Advances ha poi mostrato che volontari senza alcuna formazione giuridica, con accesso solo a sette informazioni basilari su un imputato, predicevano la recidiva con la stessa accuratezza di COMPAS. Detto senza mezzi termini: un algoritmo che costa milioni di dollari e determina il destino di esseri umani non fa meglio di una persona qualunque con un foglio di carta.

Il razzismo è nel codice

C’è un argomento che i difensori della polizia predittiva ripetono come un mantra: l’algoritmo è oggettivo, non ha pregiudizi, segue solo i dati. È una bugia comoda — e pericolosa proprio perché suona ragionevole. I dati su cui questi sistemi vengono addestrati non nascono nel vuoto: sono il prodotto di decenni di politiche di polizia discriminatorie, il cosiddetto over-policing, che ha concentrato arresti, fermi e controlli nelle comunità nere, latinoamericane, migranti, povere. Se per vent’anni hai mandato più pattuglie nel quartiere X, dal quartiere X arriveranno più arresti. Non perché lì si commettano più reati in assoluto, ma perché lì ci sono più occhi addestrati a cercarli e più mani pronte a stringere manette. L’algoritmo prende questi dati storici, li mastica e restituisce la stessa conclusione travestita da previsione scientifica: il quartiere X è pericoloso, mandate più pattuglie. È un loop che si autoalimenta, una profezia che si autoavvera con il marchio rassicurante dell’oggettività matematica. E a ogni giro del ciclo, il bias si consolida, diventa strutturale, si confonde con la realtà fino a diventare indistinguibile da essa.

Cathy O’Neil, matematica ed ex analista quantitativa di Wall Street, ha dato un nome preciso a questo meccanismo nel suo libro del 2016 che resta — a distanza di dieci anni — la critica più lucida all’uso predittivo degli algoritmi. Le Weapons of Math Destruction, armi di distruzione matematica, condividono tre caratteristiche: sono opache (non puoi sapere come funzionano), sono scalabili (un errore si moltiplica per milioni di persone) e sono distruttive (le conseguenze ricadono sempre sui più vulnerabili). Il punto che O’Neil martella con insistenza non è che l’algoritmo sia “rotto” o mal programmato — funziona esattamente come è stato progettato. Il problema è a monte: è stato costruito per ottimizzare l’efficienza del sistema esistente, e il sistema esistente è attraversato da discriminazioni strutturali che nessun software potrà mai correggere dall’interno. Chi ha progettato COMPAS non si è chiesto se il sistema giudiziario americano fosse equo — ha dato per scontato che lo fosse e ha costruito uno strumento per renderlo più veloce. L’intelligenza artificiale replica e amplifica i bias della società che l’ha creata, e questo vale per i modelli linguistici esattamente come per gli algoritmi della giustizia penale.

I dati più recenti confermano questo schema con una coerenza quasi grottesca. Un rapporto di AlgorithmWatch pubblicato a marzo 2025 — Automating Injustice — ha mappato i sistemi di polizia predittiva attivi in Germania, documentando come la proliferazione di questi strumenti prosegua indisturbata nonostante le restrizioni dell’AI Act europeo. Polizia, autorità giudiziarie e persino le amministrazioni penitenziarie stanno esplorando le possibilità offerte dal digitale per “prevedere” e “prevenire” crimini, con buona pace di qualsiasi dibattito etico. A giugno dello stesso anno, un’indagine congiunta di Statewatch, AlgorithmWatch, Technopolice Belgium, La Quadrature du Net e AlgoRace ha allargato lo sguardo a tutta l’Europa, rivelando che le forze dell’ordine del continente continuano a utilizzare sistemi algoritmici per profilare individui e “prevedere” reati, colpendo in modo sistematicamente sproporzionato comunità migranti e minoranze etniche. Quello che emerge da questi report è una verità che chi studia il settore ripete da anni senza essere ascoltato: la polizia predittiva non prevede il crimine, predice chi verrà controllato. E “chi” è quasi sempre la stessa categoria di persone — quelle che il potere ha già deciso di sorvegliare, molto prima che un algoritmo confermasse i loro pregiudizi con il linguaggio della statistica. Il meccanismo, se ci pensi, non è poi così diverso da quello che opera nel controllo algoritmico dei lavoratori nelle piattaforme digitali: una classe dirigente che usa la tecnologia per disciplinare chi sta sotto, ammantando di neutralità tecnica quello che è, in ultima analisi, un atto politico.

L’Europa fra divieti di facciata e sorveglianza reale

L’AI Act dell’Unione Europea, entrato in vigore progressivamente dal 2024, viene presentato come il primo quadro normativo al mondo a vietare la polizia predittiva basata sull’intelligenza artificiale. Dal 2 febbraio 2025 è formalmente proibito l’uso di sistemi AI che valutano il rischio individuale di commettere un reato basandosi esclusivamente su profilazione o tratti della personalità. Suona bene, e i comunicati stampa della Commissione ci hanno ricamato sopra per mesi, presentandolo come una conquista storica per i diritti fondamentali europei. Il problema — ed è un problema che svuota il divieto dall’interno come un tarlo — sta nelle eccezioni scritte in caratteri più piccoli. L’AI Act vieta la profilazione pura, ma permette esplicitamente i sistemi basati su “fatti oggettivi e verificabili direttamente collegati a un’attività criminale”. In pratica basta che l’azienda produttrice dichiari nella documentazione commerciale che il suo software si basa su dati oggettivi — e quale software non lo fa, nella sua brochure patinata? — per uscire dal perimetro del divieto. Le forze dell’ordine, per giunta, sono esentate dagli obblighi di trasparenza che gravano su tutti gli altri settori: non devono pubblicare i dettagli dei sistemi ad alto rischio che utilizzano in un registro pubblico. Stai leggendo bene: l’ente che ti sorveglia non è obbligato a dirti con quali strumenti ti sorveglia. Fair Trials, un’organizzazione che si batte per i diritti degli imputati in Europa, ha definito il risultato un “divieto parziale” che lascia aperte troppe porte — e i fatti del 2025 stanno dando loro ragione.

Il caso olandese di SyRI è istruttivo, perché mostra cosa succede quando una corte ha il coraggio di guardare davvero sotto il cofano di un sistema algoritmico statale — e non si accontenta delle rassicurazioni del governo. SyRI, acronimo di System Risk Indication, era un algoritmo usato dal governo olandese dal 2014 per identificare potenziali frodi nel sistema di welfare. Funzionava incrociando 17 categorie di dati provenienti da diversi database governativi — reddito, tasse, assicurazioni, residenza, composizione familiare — e veniva dispiegato esclusivamente nei cosiddetti “quartieri problematici”, che nel linguaggio burocratico olandese significa quartieri a basso reddito e ad alta presenza di migranti. Nel febbraio 2020 il Tribunale dell’Aia ha dichiarato SyRI incompatibile con l’articolo 8 della Convenzione Europea dei Diritti dell’Uomo, quello che tutela il diritto alla vita privata. La corte ha scritto nero su bianco che “esiste il rischio concreto che SyRI crei collegamenti basati su bias, come un basso status socioeconomico o un background migratorio”. Nessuna garanzia contro la discriminazione algoritmica, troppa opacità nel funzionamento, raccolta dati sproporzionata rispetto allo scopo dichiarato.

“Una sentenza storica che ferma i tentativi del governo di spiare i poveri.” — Philip Alston, relatore speciale ONU sulla povertà estrema.

Ma la sentenza SyRI è rimasta un caso isolato, un precedente importante che non ha generato l’effetto domino che molti speravano. I governi europei non hanno smesso di usare algoritmi per controllare i poveri e i migranti — hanno solo imparato a farlo con più discrezione e migliori consulenti legali.

E l’Italia? Il nostro paese non ha mai avuto un programma di polizia predittiva formalizzato come COMPAS o PredPol, ma non è certo immune dalla seduzione della sorveglianza algoritmica. Partiamo da Clearview AI: secondo i dati ottenuti da BuzzFeed News, la polizia italiana ha effettuato tra le 100 e le 500 ricerche sulla piattaforma tra il 2018 e il 2020. Clearview ha costruito un database di oltre 30 miliardi di immagini facciali rastrellate da social media, siti web e piattaforme online senza il minimo consenso degli interessati — una violazione massiva della privacy che l’ha resa tossica in mezza Europa. Il Garante per la Privacy è intervenuto nel 2022 con una sanzione da 20 milioni di euro, ordinando la cancellazione dei dati biometrici degli italiani, ma il danno era fatto e nessuno sa con precisione come siano stati utilizzati i risultati di quelle centinaia di ricerche, né quali indagini abbiano influenzato. Poi c’è la questione degli stadi, che è la più recente e per certi versi la più rivelatrice delle intenzioni reali. A gennaio 2026 il Viminale ha varato un decreto che prevede l’installazione di telecamere con riconoscimento facciale su ogni tornello degli impianti sportivi italiani, in preparazione anche di Euro 2032 che l’Italia co-ospiterà con la Turchia. I cinque stadi coinvolti — tra cui San Siro, l’Olimpico di Roma, il nuovo impianto di Pietralata e lo Juventus Stadium — saranno dotati di control room con videosorveglianza avanzata e sistemi biometrici integrati con intelligenza artificiale. La legge specifica che il riconoscimento facciale si attiva “solo dopo che il reato è stato commesso”, aggirando così — almeno sulla carta — il divieto dell’AI Act sulla sorveglianza biometrica in tempo reale. Ma il punto è un altro, e chi ragiona in termini di infrastruttura del potere lo capisce al volo: stai costruendo un’architettura di sorveglianza biometrica di massa. Oggi la usi per identificare il tifoso che ha lanciato un fumogeno. Domani? L’infrastruttura resta, le telecamere restano, i database restano, e chi controlla l’interruttore decide quando accenderlo, per chi accenderlo, e secondo quali criteri — senza doverti chiedere il permesso. La storia della sorveglianza insegna una lezione che i legislatori fingono di non conoscere: ogni strumento costruito per un’emergenza finisce per diventare permanente.

È lo stesso schema che si ripete dalla raccolta dati di massa alla guerra con i droni: la tecnologia riduce il costo percepito della violenza, la distanza — fisica o algoritmica — disinibisce chi la esercita. La polizia predittiva non è uno strumento di giustizia. È uno strumento di controllo sociale con un’interfaccia grafica pulita e un punteggio numerico al posto della discrezionalità umana — che almeno, per quanto imperfetta, puoi contestare guardando negli occhi chi l’ha esercitata.

La domanda che dovresti farti non è se la polizia predittiva funziona — i dati dicono chiaramente di no, con percentuali di successo che farebbero ridere un meteorologo ubriaco. La domanda vera è un’altra: a chi serve? Serve ai politici che vogliono mostrarsi inflessibili sul crimine senza affrontare le cause strutturali della criminalità — povertà, disuguaglianza, marginalizzazione, quartieri abbandonati a sé stessi. Serve alle aziende tech che vendono software a centinaia di migliaia di euro alle amministrazioni pubbliche, capitalizzando sulla paura e sull’ignoranza tecnologica di chi firma i contratti. Serve a un sistema che preferisce automatizzare il controllo piuttosto che investire in servizi sociali, istruzione, housing, riduzione delle disuguaglianze — perché controllare costa meno che includere, e un algoritmo non protesta quando gli chiedi di sorvegliare un quartiere intero.

Non serve a te. Non serve alle comunità che finiscono nel mirino degli algoritmi, che sono — invariabilmente, con una coerenza che dovrebbe far rabbrividire — le stesse che il sistema ha sempre preso di mira: neri, migranti, poveri, chi vive nei quartieri sbagliati con il codice postale sbagliato. La differenza è che adesso il pregiudizio ha un’interfaccia pulita, un punteggio da 1 a 10 e l’aura rassicurante dell’oggettività scientifica. Le alternative vengono dal basso, come sempre. AlgorithmWatch, Fair Trials, La Quadrature du Net, The Markup continuano a smontare pezzo per pezzo la retorica della sicurezza algoritmica. Attivisti e ricercatori indipendenti esigono trasparenza, contestano i contratti pubblici, portano le cause in tribunale — come è successo in Olanda con SyRI, come sta succedendo nei consigli comunali delle città americane che hanno detto basta a ShotSpotter. Ma facciamo un passo indietro e guardiamo le cose con onestà: non basta chiedere algoritmi “più equi” o regolamenti “più stringenti”. Finché la tecnologia di sorveglianza resterà nelle mani di chi detiene il potere — stati, polizia, aziende — verrà usata per consolidare quel potere. La vera sicurezza non si costruisce con i sensori acustici e le telecamere biometriche. Si costruisce con la giustizia sociale, quella fatta di redistribuzione e diritti — non quella che un software pretende di calcolare con un numero da 1 a 10.