Un operaio Amazon nel Massachusetts ha raccontato questa settimana — siamo a fine marzo 2026 — che il sistema Time Off Task registra ogni secondo trascorso lontano dalla postazione di lavoro. Trenta minuti accumulati in un giorno e scatta il richiamo scritto. Centoventi minuti e sei fuori, licenziato. Parliamo di andare in bagno, bere un bicchiere d’acqua, fermarsi trenta secondi perché ti fa male la schiena dopo ore in piedi a scannerizzare pacchi. Il tuo corpo non è più tuo: è un dataset, una colonna in un foglio di calcolo aziendale, un KPI da ottimizzare fino all’ultimo respiro.
Non succede solo nei magazzini Amazon. Succede nel tuo ufficio da remoto, dove un software scatta screenshot del tuo schermo ogni cinque minuti. Succede nella tua app di food delivery, dove un punteggio invisibile decide se lavorerai stasera o resterai a casa senza un euro. Succede nella tua assicurazione sanitaria, che vuole i dati del tuo smartwatch per calcolarti il premio. Succede nel punteggio che ti attribuisce la banca quando chiedi un prestito, basato su variabili che nessuno ti spiegherà mai. Gli algoritmi di sorveglianza e punteggio sociale stanno colonizzando ogni aspetto della tua esistenza fisica e lavorativa, e la cosa più inquietante è la velocità con cui tutto questo si normalizza — come se fosse sempre stato così, come se fosse inevitabile. Non parliamo di distopie cinesi, quella è la scusa comoda che l’Occidente usa per non guardare in casa propria. Parliamo di sistemi già operativi che misurano i tuoi battiti cardiaci, i tuoi spostamenti, il tuo umore, e li trasformano in numeri che decidono quanto vali sul mercato. Il tuo corpo come dato estrattivo, il tuo comportamento come risorsa da spremere. Il capitalismo di sorveglianza non si è fermato ai dati digitali: ora vuole la carne.
Il padrone dentro lo schermo: sorveglianza algoritmica al lavoro
Il sistema ADAPT di Amazon resta il caso da manuale — ma non chiamiamolo caso isolato, perché è il modello che l’intero settore logistico sta replicando con entusiasmo. Il Time Off Task funziona così: scanner a radiofrequenza tracciano ogni pacco che tocchi, ogni movimento lungo le corsie del magazzino, ogni pausa. Se smetti di scannerizzare per più di qualche minuto, il sistema ti segnala automaticamente al supervisore — un alert, un flag rosso sul tuo profilo, un passo più vicino al licenziamento. Un’indagine di The Register del 2025 documentava come Amazon stesse espandendo questo management algoritmico a nuove sedi in tutto il mondo, e a marzo 2026 un lavoratore del Massachusetts ha denunciato pubblicamente che nulla è cambiato: tempi cronometrati al secondo, quote di produttività che il corpo umano non può sostenere senza spezzarsi. Privacy International ha documentato come il tracciamento dei minuti in bagno sia prassi consolidata, non eccezione — e alcuni dipendenti hanno riferito di dover urinare in bottiglie pur di non accumulare secondi di Time Off Task. Ti rendi conto? Bottiglie di plastica nascoste tra gli scaffali di un’azienda che vale duemila miliardi di dollari. La conseguenza sulla salute mentale è stata misurata: un sondaggio di UNI Global Union condotto su lavoratori Amazon in otto paesi ha rivelato che il monitoraggio intrusivo sta letteralmente facendo ammalare le persone — ansia cronica, stress, insonnia, attacchi di panico. Non è un effetto collaterale sfortunato: è il meccanismo stesso del controllo, il suo prodotto naturale.
Se lavori da remoto — e nel 2026 sono milioni a farlo — il padrone è dentro il tuo schermo, letteralmente. Hubstaff dichiara con orgoglio di monitorare 140.000 lavoratori in 17.000 organizzazioni: traccia il cosiddetto “focus time”, le app che usi, gli URL che visiti, e adesso persino quanto tempo dedichi a strumenti di intelligenza artificiale — il 22,3% del tempo di lavoro profondo, secondo i loro stessi dati, come se anche l’uso di ChatGPT fosse un parametro da sorvegliare. Time Doctor fa screenshot del tuo schermo a intervalli regolari e ti manda notifiche se rileva “distrazioni” — dove per distrazione si intende qualsiasi cosa non sia direttamente produttiva per il tuo datore di lavoro, incluso leggere una notizia o rispondere a un messaggio personale. Il linguaggio è sempre quello della produttività, dell’efficienza, dell’ottimizzazione — mai quello della sorveglianza, mai quello del controllo. Eppure il meccanismo è identico a quello del caposquadra nella fabbrica ottocentesca, solo potenziato dalla tecnologia digitale: ti osservano ogni secondo, registrano ogni deviazione dalla norma prestabilita, e chiamano tutto questo “performance management”. La differenza è che oggi il caposquadra non ha bisogno di essere fisicamente presente — è un algoritmo che non si distrae mai, non si stanca mai, non prova empatia mai. E tu non puoi nemmeno guardarlo in faccia per dirgli che stai male.
I numeri raccontano una storia che dovrebbe far suonare ogni campanello d’allarme possibile. Un report di UNI Europa ha scoperto che un lavoratore su tre non sa nemmeno di essere sottoposto a gestione algoritmica — gioca una partita di cui non conosce le regole, né sa chi le ha scritte. Lo studio pubblicato nel 2025 su New Technology, Work and Employment conferma quello che i lavoratori sanno sulla propria pelle: il management algoritmico intensifica il lavoro fino allo stremo, dequalifica le mansioni riducendole a gesti ripetitivi, crea condizioni pericolose per la salute, e — dettaglio tutt’altro che secondario — sopprime attivamente il diritto di organizzarsi sindacalmente. Amazon lo ha dimostrato a Bessemer, Alabama, dove gli algoritmi sono stati usati come arma anti-sindacale secondo uno studio pubblicato sulla rivista accademica Socius — dalla sorveglianza dei tempi di pausa all’assegnazione strategica dei turni per frammentare la solidarietà tra colleghi. La resistenza esiste, per fortuna: il Minnesota ha approvato una legge pionieristica che punta a limitare il tracciamento dei lavoratori nei magazzini, e la Direttiva UE 2024/2831 sul lavoro tramite piattaforme digitali impone agli stati membri di recepire entro dicembre 2026 nuove tutele sulla trasparenza algoritmica. Il problema — e qui sta il nocciolo della questione — è che queste leggi arrivano sempre dopo, sempre in ritardo, sempre più deboli di quanto servirebbero. E nel frattempo i magazzini girano, i secondi vengono contati, e i corpi cedono.
Punteggi che decidono chi sei: dal rider score al credito sociale
Prendi il tuo telefono, apri l’app per ordinare cibo, e dall’altra parte dello schermo c’è qualcuno il cui destino lavorativo dipende da un punteggio che nemmeno capisce del tutto. I rider di Glovo e Deliveroo vivono intrappolati in un sistema dove un algoritmo decide quanti ordini ricevi, quali zone ti vengono assegnate, se lavorerai stasera o resterai a casa senza guadagnare un centesimo — e le regole di questo gioco cambiano senza preavviso. Ricercatori dell’ETUI, l’istituto di ricerca sindacale europeo, hanno scoperto che Glovo-Foodinho utilizzava un punteggio nascosto — non documentato, non comunicato ai lavoratori, invisibile nell’interfaccia dell’app — per valutare le prestazioni dei corrieri, diverso dall'”Excellence Score” ufficialmente mostrato. Un punteggio fantasma che decideva il tuo futuro senza che tu sapessi nemmeno della sua esistenza. AlgorithmWatch ha documentato come Glovo tracciasse la posizione privata dei rider anche fuori dall’orario di lavoro, violando ogni ragionevole confine tra vita professionale e personale. Un tribunale di Bologna ha stabilito che l’algoritmo di Deliveroo discriminava i corrieri assegnando ordini migliori a quelli che il sistema “preferiva” — una sentenza storica, la prima in Europa a riconoscere formalmente la discriminazione algoritmica nel rapporto di lavoro. La Spagna ha multato Glovo per 205 milioni di euro e l’ha costretta ad assumere i rider come dipendenti, ponendo fine — almeno sulla carta — a quella finzione giuridica del “collaboratore autonomo” che consentiva alle piattaforme di scaricare tutti i rischi sulle spalle di chi pedala sotto la pioggia per otto euro lordi a consegna.
Lo stesso principio opera quando chiedi un mutuo o una carta di credito. Un algoritmo analizza la tua storia finanziaria — ma anche il tuo codice postale, i tuoi pattern di consumo, il tuo comportamento online, e decine di variabili che non ti verranno mai spiegate — e produce un numero che decide se meriti fiducia economica o se sei un rischio da scartare. Ricercatori dell’Università di Bologna e della CRIF, la principale centrale rischi italiana, hanno sviluppato lo strumento BRIO proprio per misurare quanto questi sistemi siano distorti, e i risultati non lasciano tranquilli: gli algoritmi addestrati su dati storici perpetuano e amplificano le discriminazioni già esistenti contro donne, minoranze etniche, persone residenti in determinate aree geografiche considerate “a rischio”. Cathy O’Neil, matematica ed ex analista quantitativa di Wall Street diventata attivista, li ha chiamati “armi di distruzione matematica” nel suo libro Weapons of Math Destruction: sistemi opachi, non regolamentati, impossibili da contestare, e soprattutto scalabili — il che significa che un singolo bias incorporato nel modello si moltiplica per milioni di decisioni automatizzate ogni giorno. L’AI Act europeo classifica il credit scoring come sistema ad alto rischio, con regole che saranno pienamente operative da agosto 2026, e l’EBA (l’Autorità Bancaria Europea) ha stabilito che i modelli devono “assicurare la protezione dei gruppi contro la discriminazione diretta o indiretta”. Ma la domanda resta, fastidiosa e inevasa: chi controlla i controllori? Le stesse banche che beneficiano del sistema sono quelle che dovrebbero garantirne l’equità, e se la polizia predittiva ci ha insegnato qualcosa, è che l’autoregolamentazione nel campo degli algoritmi decisionali è una farsa.
E poi c’è il grande spauracchio: il sistema di credito sociale cinese. Ogni volta che si parla di sorveglianza algoritmica in Occidente, qualcuno lo tira fuori come esempio definitivo di distopia realizzata — guardate la Cina, noi non siamo così. La realtà, però, è più complicata della propaganda, e decisamente meno comoda per chi la agita. Il sistema cinese non è quel punteggio unico e centralizzato che misura ogni comportamento di ogni cittadino, come piace raccontare ai media occidentali con toni da romanzo orwelliano. È un insieme frammentato di sistemi locali e settoriali, per lo più focalizzati sulle imprese e sul commercio, non sul controllo capillare degli individui. A marzo 2026, le principali novità normative — le Credit Repair Management Measures del NDRC, in vigore dal primo aprile — riguardano la gestione e la riparazione dei record creditizi aziendali, non la sorveglianza dei cittadini nelle loro vite quotidiane. Anche il nuovo framework doganale, operativo sempre da aprile, si concentra sulla compliance commerciale delle imprese. Questo non significa che la sorveglianza cinese non sia un problema reale e gravissimo — lo è, eccome, dal riconoscimento facciale di massa alla repressione degli uiguri. Ma l’ossessione occidentale per il social credit cinese serve anche da distrazione colossale rispetto a quello che succede nelle nostre democrazie liberali. Tu hai il credit scoring che ti nega il mutuo in base al CAP, il rider score che decide se lavori stasera o resti a digiuno, il TOT di Amazon che cronometra le tue pause bagno, l’assicurazione che vuole i dati del tuo smartwatch per decidere quanto farti pagare — e chiami tutto questo “mercato” o “innovazione tecnologica”. Detto senza mezzi termini: il social credit con caratteristiche occidentali esiste già, si chiama capitalismo di sorveglianza, e non ha bisogno di un partito unico per funzionare perfettamente.
Il corpo come dato: biometria, wearable e il mercato della carne
Il tuo battito cardiaco vale soldi. La tua qualità del sonno vale soldi. I tuoi passi giornalieri, la saturazione di ossigeno nel sangue, la temperatura della pelle — tutto ha un prezzo, per qualcuno. I programmi di wellness aziendale basati su dispositivi indossabili come Fitbit sono esplosi negli ultimi anni, e i numeri che le aziende sbandierano sono irresistibili per qualsiasi direttore finanziario: uno studio McKinsey del 2024 stima che riducono l’assenteismo del 25% e fanno risparmiare 1.500 dollari per dipendente all’anno in costi sanitari. Un’analisi condotta su un grande datore di lavoro americano con oltre 20.000 dipendenti ha mostrato che chi aderiva al programma Fitbit aziendale generava il 24,5% in meno di spese mediche rispetto al gruppo di controllo. Cifre da sogno, presentate con grafici accattivanti nelle slide del board meeting. Ma il rovescio della medaglia non è secondario: i dati raccolti da questi dispositivi — frequenza cardiaca, cicli di sonno, livello di stress, attività fisica — sono informazioni biometriche, la categoria più sensibile di dati personali sotto il GDPR europeo. Una ricerca pubblicata da Harvard Business Review rivela che il 50% dei dipendenti rifiuta il tracciamento biometrico quando lo percepisce come coercitivo, e ha tutte le ragioni del mondo per farlo: il confine tra “programma benessere volontario” e “sorveglianza sanitaria di fatto” è sottile come un foglio di carta, e le aziende hanno tutti gli incentivi economici per spingerlo verso il secondo polo. Quando la tua assicurazione sanitaria aziendale inizia a calcolare i premi in base ai dati del tuo braccialetto, il “volontario” diventa una finzione giuridica — perché rifiutare significa pagare di più, e pagare di più per aver difeso la propria privacy è una punizione mascherata da scelta.
Il passo successivo è già qui, e non aspetta il futuro: la biometria sistematica nei luoghi di lavoro. Riconoscimento facciale per timbrare il cartellino, analisi delle microespressioni per valutare il “coinvolgimento emotivo” durante le riunioni, sensori ambientali che monitorano movimenti e postura nell’ufficio open space. La notizia positiva — una delle poche in questo panorama desolante — è che l’AI Act europeo ha messo un freno esplicito ad alcune di queste pratiche. Dal febbraio 2025 è vietato nell’Unione Europea l’uso di sistemi di intelligenza artificiale per inferire le emozioni dei lavoratori sul posto di lavoro, e la Commissione Europea ha chiarito che la nozione di “luogo di lavoro” va interpretata in senso ampio, includendo qualsiasi contesto in cui si svolga attività lavorativa — compresi i colloqui di selezione e i processi di assunzione, dove i software di analisi emotiva stavano proliferando indisturbati. Le sanzioni previste sono pesanti: fino a 35 milioni di euro o il 7% del fatturato globale annuo, a seconda di quale cifra sia maggiore. Ad agosto 2026 entrerà in vigore l’intero impianto dell’AI Act, comprese le norme sui sistemi ad alto rischio e il divieto esplicito di social scoring governativo in stile cinese. Sulla carta, è una vittoria importante per i diritti digitali. Nella pratica, il problema resta sempre lo stesso, il tallone d’Achille di ogni regolamentazione: l’enforcement. Chi controlla che le aziende rispettino davvero i divieti? Chi verifica che i dati biometrici raccolti per “motivi di sicurezza” non finiscano ad alimentare modelli predittivi di gestione del personale? Le leggi senza una polizia che le applichi sono suggerimenti gentili, e le big tech hanno dimostrato una e più volte di considerare le multe come semplici costi operativi da inserire a bilancio.
Tutto questo disastro in corso non è inevitabile, e pensarlo significherebbe fare il gioco di chi ci guadagna miliardi. La resistenza al management algoritmico e alla quantificazione totale del corpo sta crescendo, e viene dal basso — dagli stessi lavoratori che questi sistemi pretendono di gestire come ingranaggi sostituibili. I sindacati stanno finalmente imparando a negoziare sugli algoritmi: UNI Global Union ha pubblicato guide pratiche per la contrattazione collettiva sulla gestione algoritmica, e il caso Glovo in Spagna — con la multa da 205 milioni e l’obbligo di assunzione — dimostra che la pressione organizzata e sostenuta nel tempo produce risultati concreti. Il rapporto Baker McKenzie di gennaio 2026 sulla trasformazione della forza lavoro segnala che persino le imprese più orientate al profitto stanno ripensando l’approccio, non per generosità d’animo ma per puro calcolo economico: i lavoratori sorvegliati si ammalano di più, si licenziano prima, e alla fine costano più di quanto rendano. Ma le soluzioni istituzionali e aziendali da sole non bastano, e chi ha seguito il dibattito sull’automazione e il lavoro lo sa bene — le leggi proteggono fino a un certo punto, e quel punto lo decidono sempre i rapporti di forza. Servono alternative costruite dal basso: strumenti di time-tracking open source controllati dal lavoratore, non dal datore di lavoro; infrastrutture decentralizzate dove i tuoi dati sanitari restano di tua proprietà; una cultura del rifiuto collettivo, perché quando un singolo individuo dice no al Fitbit aziendale viene penalizzato ed emarginato, ma quando tutti dicono no insieme il rapporto di forza si ribalta. La tecnologia non è il nemico. Il nemico è chi la usa per trasformare il tuo corpo in un centro di profitto.
Il filo rosso che lega il TOT di Amazon, il rider score di Glovo, il credit scoring della tua banca e il Fitbit imposto dal tuo datore di lavoro è uno solo: la riduzione dell’essere umano a un insieme di metriche ottimizzabili. Il tuo corpo non è un KPI. I tuoi bisogni fisiologici non sono “tempo improduttivo”. La tua salute non è un dato da monetizzare. Eppure siamo arrivati a un punto in cui queste affermazioni suonano quasi ingenue, tanto è pervasiva e capillare la logica della quantificazione totale. Non si tratta di tornare indietro — non si può, e non servirebbe a niente. Si tratta di decidere chi controlla i numeri che ti definiscono come persona e come lavoratore. Se la risposta è un algoritmo proprietario, chiuso in una scatola nera, gestito da una corporation il cui unico obiettivo esistenziale è massimizzare il profitto per gli azionisti, allora non sei un lavoratore e non sei un cittadino: sei una risorsa estrattiva con una data di scadenza. La domanda non è se gli algoritmi debbano esistere. La domanda è: chi li scrive, chi li possiede, chi può contestarli, chi ha il diritto di spegnerli? Finché la risposta non saremo noi — tutti noi, organizzati dal basso, senza padroni e senza intermediari — ogni punteggio che ti viene assegnato è una catena.
