Telecamere di sorveglianza digitale su sfondo urbano tecnologico - ad-tech pubblicità digitale sorveglianza

Contenuto

Cory Doctorow lo ha scritto nero su bianco il 10 marzo scorso su Pluralistic, con quella lucidità feroce che lo contraddistingue: l’ad-tech è tecnologia fascista. Non una metafora, non un’iperbole retorica da attivista in cerca di visibilità mediatica — una diagnosi strutturale su un’industria che ha costruito la più capillare infrastruttura di sorveglianza di massa mai esistita e che oggi, sotto i tuoi occhi, viene utilizzata dal governo degli Stati Uniti per tracciare, schedare e deportare esseri umani. Il Dipartimento di Sicurezza Interna americano paga data broker e colossi come Google per ottenere i dati di localizzazione che il tuo telefono genera ogni volta che partecipa a un’asta pubblicitaria in tempo reale — centinaia di volte al giorno, ogni giorno — e li riversa nei sistemi automatizzati dell’ICE che decidono chi sarà il prossimo a essere prelevato dalla propria casa. «Non era difficile prevedere cosa sarebbe successo se avessimo lasciato l’industria della pubblicità di sorveglianza fare quello che voleva» scrive Doctorow. «I legislatori erano stati avvertiti. Non hanno fatto nulla.» Il tempismo non è casuale: mentre l’amministrazione americana intensifica le operazioni contro gli immigrati, l’infrastruttura costruita per venderti sneakers e abbonamenti streaming mostra finalmente il suo vero volto.

La Electronic Frontier Foundation ha documentato il meccanismo nel dettaglio a marzo 2026: la tecnologia identica che ti perseguita con la pubblicità delle scarpe viste su un e-commerce tre giorni fa è la stessa che localizza gli immigrati irregolari nelle città americane. E perfino AdExchanger, una delle testate di riferimento dell’industria pubblicitaria, ha ammesso che «i zeloti della privacy avevano ragione» — che l’infrastruttura dell’ad-tech è stata sempre, strutturalmente, un rischio incorporato. Se pensi che la pubblicità online sia un fastidio tollerabile, il prezzo da pagare per servizi «gratuiti», è il momento di ricrederti. Quello che chiamiamo ad-tech non è un modello di business neutro: è un’infrastruttura di controllo sociale che aspettava solo il momento giusto — e il governo giusto — per rivelare la sua natura profonda. L’industria della pubblicità digitale ha costruito l’apparato di sorveglianza più pervasivo della storia umana e lo ha chiamato «personalizzazione dell’esperienza utente». Adesso quell’apparato viene usato per scopi che Shoshana Zuboff, la studiosa di Harvard che ha coniato il termine capitalismo della sorveglianza, definisce «lo scenario della fusione»: il momento in cui potere statale autoritario e capacità digitali delle corporation si fondono in un unico sistema di dominio.

Quando la pubblicità diventa un’arma dello stato

Il meccanismo è tecnicamente elegante nella sua brutalità. Ogni volta che apri un’app sul telefono — qualsiasi app che mostri pubblicità, dalla previsione meteo al gioco scaricato per ammazzare il tempo in metro — il tuo dispositivo partecipa a un’asta chiamata Real-Time Bidding. In una frazione di secondo i tuoi dati vengono trasmessi a migliaia di aziende: posizione GPS, tipo di dispositivo, cronologia di navigazione, app installate, abitudini di acquisto, persino dati biometrici se usi dispositivi indossabili. Migliaia di aziende ricevono queste informazioni centinaia di volte al giorno, per ogni singolo utente connesso, senza alcun controllo reale su come verranno successivamente utilizzati quei dati. È il cuore pulsante della pubblicità programmatica, il sistema che genera centinaia di miliardi di dollari per Google, Meta e l’intero ecosistema dei data broker. Ed è esattamente — non accidentalmente, non per un abuso imprevisto, non per una falla di sicurezza — il sistema che il governo americano ha deciso di sfruttare come strumento di sorveglianza senza mandato giudiziario. La cosa più grottesca? Non ha nemmeno dovuto forzarlo: ha semplicemente comprato l’accesso sul mercato aperto, come un qualsiasi inserzionista.

I documenti resi pubblici dalla EFF nel marzo 2026 mostrano che la Customs and Border Protection ha riconosciuto esplicitamente di utilizzare «dati di localizzazione commerciali disponibili sul mercato» provenienti dal processo RTB e dai Software Development Kit integrati nelle app. Facciamo un passo indietro per capire cosa significa concretamente: ogni volta che un’app ti chiede il permesso di accedere alla tua posizione «per migliorare l’esperienza», quella posizione finisce in un flusso di dati che viene venduto e rivenduto decine di volte prima di arrivare a destinazione. L’ICE ha acquistato strumenti come Webloc, un tool di spionaggio capace di raccogliere le posizioni di milioni di telefoni e permettere ricerche all’interno di aree geografiche specifiche in determinati periodi di tempo — un motore di ricerca per trovare persone, alimentato dalla stessa infrastruttura che ti mostra la pubblicità del ristorante vicino a te. Un audit federale ha rivelato che CBP, ICE e Secret Service hanno tutti ottenuto o utilizzato dati di localizzazione commerciali senza rispettare pienamente le leggi federali sulla privacy, e il senatore Ron Wyden ha scritto all’ispettore generale del DHS chiedendo conto di queste pratiche. La risposta, prevedibilmente, si perde nei meandri della burocrazia. Quello che una volta si faceva con intercettazioni telefoniche, pedinamenti e ordini del tribunale ora si compra per poche migliaia di dollari sul mercato aperto dei dati pubblicitari.

E non stiamo parlando di un uso marginale, di una zona grigia interpretativa scoperta da qualche hacker governativo particolarmente creativo. Doctorow descrive la situazione con la precisione chirurgica che merita: il DHS sta pagando l’industria dell’ad-tech per la «mobilitazione fascista dei dati di sorveglianza commerciale per un pogrom razzista». Parole forti? Cambridge Analytica avrebbe dovuto insegnarci qualcosa, eppure la lezione non è stata recepita. I dati pubblicitari di Facebook vennero usati nel 2016 per manipolare le elezioni americane e il referendum sulla Brexit — non per vendere scarpe o abbonamenti streaming, ma per alterare il funzionamento stesso della democrazia. Il punto che sfugge sistematicamente al dibattito pubblico è che Cambridge Analytica non fu un’anomalia, un incidente, un abuso: fu una dimostrazione perfettamente logica di ciò che l’infrastruttura consente per design. L’ad-tech non è stata hackerata per fini autoritari. È stata costruita in modo tale che quegli usi diventassero inevitabili. Qualsiasi sistema che raccoglie dati su tutti, ovunque, in ogni momento, prima o poi finirà nelle mani di chi ha il potere e l’interesse per usarli a scopo di controllo. La domanda non è mai stata «se» ma «quando».

C’è un dettaglio che rende tutto ancora più sinistro, e che in Italia quasi nessuno racconta. Il Biometric Update ha riportato a marzo 2026 che il DHS ha costruito silenziosamente un canale strutturato di accesso ai dati dell’economia pubblicitaria — non un acquisto occasionale, ma un’infrastruttura permanente di sorveglianza basata sui dati ad-tech. Significa che la sorveglianza tramite pubblicità non è un esperimento, un progetto pilota, un’iniziativa di un singolo funzionario troppo zelante: è diventata policy. È stata normalizzata. E la cosa più inquietante è che l’industria dell’ad-tech non ha protestato, non ha fatto causa, non ha opposto resistenza — perché opporsi significherebbe ammettere pubblicamente che il proprio modello di business si basa su un livello di raccolta dati talmente invasivo da essere perfettamente adatto alla sorveglianza di stato. Detto senza mezzi termini: l’intero settore della pubblicità digitale è complice, e il silenzio vale quanto la collaborazione attiva.

Il duopolio della sorveglianza da 472 miliardi l’anno

Per capire la portata del problema devi guardare i numeri, e i numeri sono vertiginosi. Google e Meta insieme controllano circa il 44,8% del mercato pubblicitario digitale statunitense nel 2026, con un fatturato pubblicitario combinato che supera i 472 miliardi di dollari l’anno. Se aggiungi Amazon — che con il suo 17,3% di quota sta trasformando il duopolio in un triopolio ancora più concentrato — arrivi a un oligopolio che controlla quasi due terzi di tutta la pubblicità digitale globale. Non sono aziende tecnologiche nel senso in cui questo termine viene normalmente inteso: sono macchine di sorveglianza che si finanziano vendendo la tua attenzione e, come corollario strutturalmente necessario, la tua vita intera. Zuboff lo ha spiegato con una chiarezza disarmante: «Senza gli inserzionisti, niente di tutto questo sarebbe stato possibile. Gli inserzionisti sono complici. Sono la domanda, sono il mercato.» Quella frase andrebbe stampata e appesa in ogni agenzia pubblicitaria del pianeta, ma dubito che troverebbe posto accanto ai premi Cannes Lions.

Google compì una scelta deliberata nei primi anni Duemila — e questo va ricordato ogni volta che qualcuno prova a far passare la sorveglianza pubblicitaria come un’evoluzione naturale, inevitabile, quasi biologica della tecnologia. All’inizio il motore di ricerca mostrava annunci basati sul contenuto della pagina: cercavi «biciclette» e vedevi pubblicità di biciclette. Semplice, funzionale, rispettoso della tua privacy. Poi qualcuno a Mountain View calcolò che tracciare le ricerche, le email, gli acquisti, gli spostamenti fisici degli utenti avrebbe generato profitti enormemente superiori. La pubblicità contestuale divenne pubblicità di sorveglianza, e quel modello si impose come standard dell’intera industria — non perché fosse migliore per gli utenti, ma perché era più profittevole per le piattaforme. Non fu un incidente di percorso, non fu l’effetto collaterale imprevisto di un’innovazione: fu una decisione aziendale consapevole presa in una sala riunioni di Alphabet, e il mondo intero ne paga le conseguenze. Come dimostra il caso Fitbit e Adobe, il saccheggio dei tuoi dati personali non conosce limiti quando il modello di business lo richiede — i tuoi battiti cardiaci, i tuoi cicli del sonno, le tue abitudini più intime diventano merce scambiata tra data broker senza che tu ne sappia nulla.

In Italia la situazione non è migliore, solo meno raccontata. IAB Italia ha registrato oltre 3.100 inserzionisti attivi nel digital advertising a gennaio 2026, con automotive, energia e telecomunicazioni in testa agli investimenti. Il piano attività 2026 di IAB Italia si chiama — senza la minima traccia di ironia — «The Power of Influence» e punta su intelligenza artificiale, retail media e connected TV. Non una parola sulla sorveglianza. Non una riflessione sulle implicazioni etiche di un sistema che trasforma ogni tua interazione digitale in un punto dati da monetizzare e potenzialmente da vendere a chiunque abbia il portafoglio abbastanza gonfio, governi inclusi. Il mercato italiano della pubblicità digitale supera i 5 miliardi di euro e cresce ogni anno, alimentato dalle stesse piattaforme che altrove vengono indagate per violazioni sistematiche della privacy. Ma da noi l’industria del digital advertising continua imperterrita a presentarsi come un settore innovativo e dinamico, come se sorvegliare milioni di persone fosse semplicemente un modo un po’ più sofisticato di fare marketing. Il nocciolo della questione è che non esiste pubblicità programmatica senza sorveglianza — le due cose sono la stessa cosa con nomi diversi.

L’editoriale di AdExchanger pubblicato a marzo 2026 ha fatto rumore nel settore, e vale la pena citarlo per esteso: «Costruire un ecosistema dipendente da identità granulare, tracce di localizzazione e segnali comportamentali avrebbe sempre creato un’esposizione impossibile da controllare completamente.» L’autore ammette candidamente che «era più facile etichettare i critici come zeloti che esaminare se il sistema stesso portasse con sé un rischio incorporato». Parole che arrivano con almeno un decennio di ritardo e che confermano ciò che attivisti, ricercatori e organizzazioni come la EFF ripetono da anni: il problema non è l’abuso del sistema — è il sistema stesso, nella sua architettura fondamentale. Un’industria che ha bisogno strutturalmente di sapere tutto di te per funzionare non è riformabile con qualche regolamento sulla trasparenza dei cookie. È incompatibile con la libertà individuale nella sua stessa concezione. Il fatto che perfino le voci interne all’industria stiano ammettendo questa realtà dovrebbe terrorizzarti — significa che la situazione è così grave che nemmeno chi ne trae profitto riesce più a far finta di niente.

Il fascismo è il destino logico dell’ad-tech, non un incidente

La tesi di Doctorow va oltre la semplice critica della sorveglianza — e qui sta la parte più scomoda per chi vorrebbe credere che il problema si risolva con un regolamento europeo in più o un’authority un po’ più severa. L’ad-tech non è diventata fascista per un errore di percorso, per la malvagità personale di Zuckerberg o per una svista legislativa: è fascista per struttura, perché qualsiasi infrastruttura che sorveglia miliardi di persone simultaneamente e in modo granulare diventa inevitabilmente uno strumento di controllo autoritario. Non serve che chi la costruisce abbia intenzioni malvagie — basta che il sistema esista e che qualcuno con sufficiente potere decida di utilizzarlo. Doctorow collega questa dinamica al concetto di enshittification che ha coniato: il processo per cui le piattaforme digitali attraggono utenti con servizi utili, poi degradano progressivamente l’esperienza per estrarre sempre più valore da chi le usa. La pubblicità è il motore di questa degradazione, la necessità strutturale di vendere attenzione e dati spinge le piattaforme a rendere i propri prodotti sempre più invasivi, sempre più manipolatori, sempre più affamati di informazioni personali. Il cerchio è perfetto nella sua logica perversa: più dati raccogli, più puoi vendere pubblicità mirata, più la piattaforma diventa profittevole, più investitori pretendono crescita, più dati devi raccogliere.

Zuboff aveva avvertito di questo «scenario della fusione» — il momento in cui potere statale a tendenza autoritaria si fonde con le capacità digitali delle gigantesche corporation della sorveglianza. Non è più una previsione accademica da convegno universitario. Lo stai vedendo accadere nel 2026, nel paese che si definisce la più grande democrazia del mondo. L’ICE compra dati pubblicitari per deportare immigrati, il DHS costruisce silenziosamente infrastrutture permanenti di accesso ai dati del mercato pubblicitario, l’FBI acquista localizzazioni senza mandato. E l’industria dell’ad-tech collabora entusiasticamente, perché resistere significherebbe mettere in discussione il proprio modello di business — e questo, nel capitalismo, è il vero tabù insuperabile. Il punto che sfugge a chi vorrebbe riformare il sistema con qualche regolamento in più: non si tratta di regolamentare meglio la sorveglianza, ma di smantellare l’infrastruttura che la rende possibile. Un database che contiene la posizione di ogni telefono sul pianeta, aggiornato centinaia di volte al giorno, non diventa meno pericoloso se ci aggiungi un popup per il consenso informato che nessuno legge.

Un aspetto che in Italia viene sistematicamente ignorato riguarda l’impatto dell’ad-tech sull’informazione. Sempre più testate giornalistiche adottano strumenti di giornalismo automatizzato non per informare meglio i lettori, ma per massimizzare le impression pubblicitarie — produrre il maggior numero possibile di contenuti ottimizzati per generare traffico da monetizzare con la pubblicità programmatica. L’informazione diventa una funzione della sorveglianza: il giornalismo si piega alla logica dell’engagement, i titoli si scrivono per l’algoritmo, gli articoli si strutturano per massimizzare il tempo di permanenza sulla pagina (che significa più aste RTB, più dati raccolti, più profitto per l’ecosistema). Check My Ads, l’organizzazione che da anni combatte l’opacità del settore, ha definito il 2026 come «l’anno della resa dei conti per l’ad-tech in Europa», segnalando che la Commissione Europea sta finalmente valutando rimedi strutturali contro il dominio di Google — inclusa la possibile cessione forzata di Google Ad Manager. Ma le resistenze sono enormi, perché come dimostrano le dinamiche di concentrazione nel cloud, quando poche aziende controllano le infrastrutture digitali il potere non si redistribuisce spontaneamente: va strappato.

Il parallelo con il fascismo storico che Doctorow propone non è provocazione gratuita, ed è importante capire perché. Il fascismo — quello vero, non quello usato come insulto generico sui social — si basa sulla mobilitazione di un apparato statale-corporativo per perseguitare minoranze, reprimere il dissenso e controllare la popolazione. L’ad-tech fornisce a questo apparato una capacità di sorveglianza che nessun regime autoritario del Novecento avrebbe potuto nemmeno immaginare: non servono informatori di quartiere quando ogni telefono è un delatore automatico, non servono schedari polverosi in archivi polizieschi quando i data broker offrono profili comportamentali aggiornati in tempo reale con precisione al metro. La differenza tra uno stato autoritario del 1935 e uno del 2026 è che oggi l’infrastruttura di sorveglianza non va costruita da zero — esiste già, funziona già, è già stata pagata dagli inserzionisti pubblicitari e mantenuta operativa dai tecnici di Google e Meta. Basta firmare un contratto con il data broker giusto e la macchina del controllo si mette in moto, senza bisogno di leggi speciali, polizia segreta o campi di concentramento fisici. L’ad-tech ha reso il fascismo scalabile, efficiente e — questa è la parte più terrificante — invisibile.

La domanda che resta — l’unica che conta davvero — è se tutto questo sia ancora reversibile. La risposta onesta è: sì, ma il tempo stringe e le soluzioni individuali non bastano. Esistono strumenti concreti: ad-blocker come uBlock Origin, browser come Firefox e Brave che limitano il tracciamento, motori di ricerca come DuckDuckGo che non ti profilano, ecosistemi open source e decentralizzati che dimostrano quotidianamente che un altro modello è tecnicamente possibile e già funzionante. Ma le soluzioni individuali, da sole, non bastano quando il problema è strutturale. Serve una mobilitazione collettiva per il divieto della pubblicità di sorveglianza, non la sua regolamentazione — così come non regolamentiamo la quantità di amianto tollerabile negli edifici ma lo vietiamo, non dovremmo regolamentare il tracciamento pubblicitario ma abolirlo. La pubblicità contestuale — quella che mostra annunci basati sul contenuto che stai leggendo in quel momento, non sulla tua storia di navigazione degli ultimi cinque anni — funziona, genera profitto e non richiede di sorvegliare nessuno. Non è utopia: è il modello con cui Google stesso ha iniziato prima di decidere che sapere tutto di te era più redditizio.

Il modello attuale dell’ad-tech sopravvive perché è enormemente profittevole per pochissimi e perché la maggior parte delle persone non ha la più pallida idea di cosa succeda ai propri dati ogni volta che sblocca il telefono. Rompere questa asimmetria informativa è il primo passo — e stai leggendo questo articolo, quindi qualcosa si sta muovendo. Il secondo passo è rifiutarsi di accettare come inevitabile un sistema che è stato costruito da decisioni umane, in sale riunioni precise, con bilanci alla mano, e che da decisioni umane può essere smantellato. Doctorow, Zuboff, la EFF, Check My Ads — non sono voci nel deserto, sono l’avanguardia di un movimento che sta crescendo in Europa e nel mondo. L’ad-tech è fascista non perché lo decidiamo noi con un’etichetta provocatoria: è fascista perché fa esattamente quello che il fascismo ha sempre fatto — mettere la tecnologia al servizio del potere contro le persone. Ogni volta che il tuo telefono partecipa a un’asta RTB, stai finanziando inconsapevolmente l’infrastruttura che qualcun altro userà per controllare, escludere, deportare. La buona notizia è che ogni struttura di potere, nella storia, è stata abbattuta. La cattiva notizia è che non succede mai da sola.