In un magazzino Amazon di Bessemer, Alabama, un lavoratore viene licenziato. Non da un essere umano — da un sistema automatizzato che ha calcolato i suoi time off task e ha deciso, senza appello, che non era abbastanza produttivo. Nessun colloquio, nessuna spiegazione, nessun volto dall’altra parte della scrivania. È il 2026 e il tuo capo non ha più una faccia: ha un’interfaccia. Se pensi che l’intelligenza artificiale e il controllo dei lavoratori siano un problema del futuro, stai guardando dalla parte sbagliata. È il presente, ed è già dappertutto — dai magazzini della logistica agli uffici con l’aria condizionata, dalle strade percorse dai rider fino ai quartieri pattugliati dalla polizia predittiva. Il denominatore comune? Un sistema di potere che usa la tecnologia per disciplinare chi sta in basso e arricchire chi sta in alto. Non è innovazione neutrale: è un’arma di classe, e finge di non esserlo.
Il mercato del cosiddetto “bossware” — i software di sorveglianza aziendale — vale già 587 milioni di dollari e corre verso 1,4 miliardi entro il 2031, secondo le stime di The Business Research Company. Il 78% delle aziende usa qualche forma di monitoraggio digitale dei dipendenti. Nel frattempo, il Pentagono firma contratti miliardari con OpenAI per l’AI militare, Palantir espande la sua rete di sorveglianza predittiva nei quartieri, e il DOGE di Elon Musk smantella i servizi sociali mentre i budget per la tecnologia di controllo crescono. Il quadro è cristallino, se hai il coraggio di guardarlo senza filtri: l’intelligenza artificiale nel 2026 non democratizza un bel niente. Concentra potere. E lo fa con una precisione che nessun padrone del Novecento avrebbe potuto sognare.
Dal magazzino alla scrivania: anatomia del controllo algoritmico
Amazon è il laboratorio perfetto per capire dove siamo già arrivati. Un milione di robot operativi nei centri di distribuzione, un’architettura integrata di sorveglianza che mette insieme scanner, telecamere, sistemi biometrici e algoritmi di performance capaci di monitorare la produttività in tempo reale. Ogni secondo di inattività viene registrato, catalogato, trasformato in un dato che può costarti il posto. I warning partono in automatico, i licenziamenti pure. Un’inchiesta di The American Prospect del marzo 2025 documenta come Amazon usi il suo arsenale di AI contro i lavoratori: dispositivi di lavoro che inviano messaggi anti-sindacali, algoritmi che misurano le “simpatie sindacali” dei dipendenti, riunioni obbligatorie rese più intimidatorie dalla sorveglianza digitale. Nel 2021 Amazon era responsabile del 49% di tutti gli infortuni nel settore logistico statunitense, pur impiegando solo il 33% della forza lavoro del comparto. Il 70% dei lavoratori intervistati ha dichiarato di dover prendere giorni non retribuiti per riprendersi dal dolore fisico o dall’esaurimento. E mentre ti stritola con l’algoritmo, l’azienda pianifica di automatizzare circa 500.000 posti di lavoro — quasi la metà della sua forza lavoro americana. Prima ti spremi, poi ti butti via. Il capitalismo di piattaforma non ha inventato lo sfruttamento, ma l’ha reso efficiente come mai prima.
Sarebbe comodo pensare che tutto questo riguardi solo i magazzinieri — gente che solleva pacchi, non gente come te che legge articoli online. Ma la sorveglianza algoritmica è salita di piano, ha preso l’ascensore e si è seduta alla tua scrivania. Microsoft ha lanciato il Productivity Score — 73 metriche che tracciano quante email mandi, quante riunioni Teams fai, quanti file modifichi, quanto tempo passi sui documenti. David Heinemeier Hansson, cofondatore di Basecamp, l’ha definito “moralmente corrotto nel suo nucleo”, e non aveva torto. Dopo le critiche del 2020, Microsoft ha rimosso i nomi individuali dalle dashboard. Peccato che nel 2025 sia tornata alla carica con i benchmark di utilizzo di Copilot e il tracciamento della posizione via Teams, riaccendendo le stesse identiche preoccupazioni. Il vecchio panopticon di Bentham oggi ha un abbonamento Microsoft 365, e il tuo manager non ha nemmeno bisogno di guardarti: l’AI lo fa per lui.
La professoressa Veena Dubal della UC Irvine ha coniato un’espressione che centra il punto con precisione chirurgica: “discriminazione salariale algoritmica”. Nel suo lavoro pubblicato sulla Columbia Law Review e poi aggiornato nel gennaio 2025 sullo Yale Law Journal, Dubal dimostra come i lavoratori delle piattaforme — rider di Deliveroo, autisti Uber, corrieri di ogni tipo — vengano assunti, valutati, pagati, disciplinati e licenziati da sistemi automatizzati con una supervisione umana che è, nel migliore dei casi, una finzione burocratica. L’opacità di questi sistemi non è un difetto di progettazione: è il design. Se non capisci come funziona l’algoritmo che decide quanto guadagni oggi — perché sì, il compenso cambia in tempo reale, persona per persona, consegna per consegna — non puoi negoziare, non puoi organizzarti, non puoi resistere. L’asimmetria informativa diventa strumento di dominio, e chi la progetta lo sa benissimo.
La “gamificazione” del lavoro — termine che Dubal usa con precisione devastante — è l’altro volto di questa medaglia. Le piattaforme trasformano il lavoro in un gioco d’azzardo: bonus variabili, incentivi che cambiano in tempo reale, classifiche tra lavoratori, penalizzazioni per chi rifiuta consegne scomode. È la stessa architettura psicologica delle slot machine, applicata al rapporto di lavoro subordinato. Il rider non sa quanto guadagnerà domani, e questa incertezza non è un effetto collaterale — è il meccanismo di controllo. Ti tiene agganciato, disponibile, docile. Uber e Deliveroo non hanno bisogno di un caposquadra che ti urla addosso: hanno un algoritmo che modula le tue emozioni attraverso le variazioni di compenso. I tribunali europei — in Italia, Spagna e Regno Unito — stanno iniziando a smontare la finzione dell'”autonomia” dei lavoratori di piattaforma, riconoscendo loro lo status di dipendenti. Ma la vittoria legale, pur importante, non risolve il problema strutturale: la gestione algoritmica è migrata ben oltre la gig economy, in settori come trasporti, ospitalità e — facciamo un passo indietro per capire quanto la cosa sia surreale — perfino la sanità. Il bossware è la norma, non l’eccezione. Secondo uno studio ExpressVPN del 2025, il 74% dei datori di lavoro americani usa strumenti di tracciamento online. Il 72% dei lavoratori monitorati dice che la sorveglianza non migliora la produttività. Ma il 42% progetta di lasciare il posto entro un anno. Il controllo algoritmico non serve a produrre di più — serve a disciplinare. E la disciplina, nel lessico del potere, non ha bisogno di essere efficiente: basta che faccia paura. intelligenza artificiale e lavoro
Il complesso militare-digitale e la guerra ai più deboli
Il 27 febbraio 2026, l’amministrazione Trump ha fatto qualcosa di senza precedenti nella storia americana: ha designato Anthropic — l’azienda che produce Claude, il modello AI concorrente di ChatGPT — come “rischio per la catena di approvvigionamento nazionale”. Mai successo prima con un’azienda statunitense. Il motivo? Anthropic si rifiutava di dare al Pentagono carta bianca sull’uso della sua tecnologia, insistendo su clausole contrattuali che vietassero esplicitamente la sorveglianza domestica di massa e il controllo di armi autonome letali. Il giorno dopo — il tempismo, va da sé, è tutto fuorché casuale — OpenAI annunciava di aver firmato un accordo con il Dipartimento della Guerra per l’uso dei propri modelli in contesti classificati. Sam Altman ha giustificato la differenza con una formula che meriterebbe di essere studiata nei corsi di retorica aziendale: “Noi ci siamo sentiti a nostro agio nel citare le leggi applicabili, piuttosto che insistere su proibizioni specifiche nel contratto”. Detto in parole povere: facciamo tutto ciò che la legge americana attuale non vieta esplicitamente. E la legge americana del 2026, su queste materie, è un colabrodo volontario.
Le cosiddette “linee rosse” del contratto OpenAI-Pentagono meritano una lettura attenta, perché sono un capolavoro di ambiguità calcolata. Niente sorveglianza domestica “di massa” e “intenzionale” dei “cittadini americani e nazionali”. Ogni singola parola è una scappatoia: la sorveglianza mirata va bene, quella “incidentale” va bene, e quella rivolta a chiunque non abbia la cittadinanza statunitense non è nemmeno menzionata. The Intercept ha sintetizzato il tutto con un titolo che dice più di mille analisi: “Sulla sorveglianza e le uccisioni autonome, OpenAI dice: dovrete fidarvi di noi”. No, grazie. La fiducia non è un meccanismo di accountability — è la sua assenza. Ma il pubblico ha reagito in modo interessante: dopo l’annuncio, le installazioni di Claude sono schizzate verso l’alto mentre ChatGPT ha visto un’ondata di disinstallazioni. Come dire che almeno una parte degli utenti sa distinguere tra chi vende AI al Pentagono e chi si rifiuta — anche se poi viene punito per questo.
Mentre le aziende AI negoziano i confini dell’etica con il Dipartimento della Difesa, Palantir — il vero braccio digitale dello stato di sicurezza americano — continua a espandersi senza che quasi nessuno ne parli fuori dai circoli specializzati. Nel febbraio 2026 il Department of Homeland Security ha firmato un contratto quadro fino a un miliardo di dollari che dà a ogni sua componente — ICE e CBP incluse — accesso diretto alle piattaforme Gotham e Foundry. La tecnologia Palantir incrocia dati provenienti da social media, targhe automobilistiche, registri pubblici, e genera quelle che l’azienda chiama con un eufemismo raccapricciante “analisi degli schemi di vita”: profili comportamentali con punteggi di probabilità assegnati a persone reali, in quartieri reali. Il risultato è un ciclo di feedback ricorsivo documentato dal Minnesota Journal of Law & Inequality nel gennaio 2026: l’algoritmo si addestra su dati storici di arresto già distorti dall’over-policing razziale, prevede “criminalità futura” negli stessi quartieri dove la polizia è già presente in eccesso, manda altra polizia, produce altri arresti, e conferma la previsione originale. Non è giustizia predittiva: è pregiudizio automatizzato con una vernice di oggettività matematica. Palantir, dal canto suo, nega di fare polizia predittiva. Certo, e io sono il Papa. cybersicurezza nel 2026
Il cerchio si chiude con una simmetria che dovrebbe toglierti il sonno. Il Pentagono trova miliardi per i contratti AI e per Palantir — denaro fresco, senza limiti apparenti. Dall’altra parte, il DOGE di Elon Musk — prima di implodere nella sua stessa irrilevanza, sciolto con otto mesi di anticipo rispetto alla scadenza prevista — ha tagliato il 9% della forza lavoro federale americana, con effetti devastanti sui tempi di elaborazione delle pensioni e dei sussidi della Social Security Administration. I servizi per i cittadini vengono smantellati pezzo dopo pezzo, ma i budget per la sorveglianza e l’AI militare crescono senza sosta. La spesa pubblica totale è addirittura aumentata del 6% durante l’era DOGE — non si risparmia, si ridistribuisce: dal welfare alla warfare-tech. Quando ti dicono che “non ci sono i soldi” per i servizi pubblici ma poi firmano contratti da un miliardo con Palantir, non stanno facendo efficienza governativa. Stanno facendo una scelta politica. E quella scelta, chiamala come vuoi — io la chiamo guerra di classe.
Chi possiede i modelli controlla la catena del valore
C’è un aspetto della questione che resta sistematicamente in ombra, forse perché è il più scomodo. I large language model non sono semplici strumenti che automatizzano compiti ripetitivi: sono infrastrutture di potere. Chi li possiede, chi li addestra, chi controlla i dati su cui funzionano, detiene una leva sulla catena del valore che non ha precedenti nella storia del capitalismo industriale. Non stiamo parlando di una fabbrica che produce bulloni — stiamo parlando di sistemi che mediano l’accesso alla conoscenza, alla produttività, alla creatività stessa del lavoro umano. E questa mediazione non è neutra: è proprietaria, brevettata, chiusa dietro API a pagamento e licenze che cambiano quando fa comodo a chi le scrive.
Shoshana Zuboff lo aveva capito prima di quasi tutti quando ha descritto il capitalismo della sorveglianza come un sistema che “rivendica unilateralmente l’esperienza umana come materia prima gratuita” per trasformarla in “prodotti predittivi” scambiati nei mercati dei futures comportamentali. Con l’AI generativa, quel processo si è intensificato fino a diventare qualcosa di qualitativamente diverso. L’intelligenza artificiale nel 2025, osserva Zuboff, non si limita più ad analizzare click e ricerche: anticipa i bisogni prima ancora che l’individuo ne sia pienamente consapevole. Chiamala evoluzione se vuoi — io la chiamo escalation. Chi controlla questa capacità predittiva — chi possiede il modello, chi detiene i dati di addestramento, chi gestisce l’infrastruttura di calcolo — controlla di fatto il rapporto tra il lavoratore e il suo lavoro, tra il consumatore e le sue scelte, tra il cittadino e la sua libertà. Non è un’esagerazione retorica: è la logica strutturale del sistema, e funziona esattamente come progettato.
Il report “Artificial Power” dell’AI Now Institute, pubblicato nel giugno 2025, mette nero su bianco quello che molti intuivano ma pochi osavano articolare con chiarezza: la spinta a integrare i prodotti AI ovunque concede alle aziende del settore — e agli oligarchi tech che le dirigono — un potere che trascende di gran lunga le loro ricchezze già oscene. Non è solo un problema di regolamentazione carente, anche se lo è. È un problema strutturale, di architettura del potere: chi controlla i modelli fondazionali controlla l’accesso all’intelligenza computazionale, e addestrare uno di questi modelli costa centinaia di milioni di dollari. Questa barriera d’ingresso rende la “democratizzazione dell’AI” — espressione che ti viene propinata ogni due giorni da qualche CEO in felpa grigia — una barzelletta raccontata da chi ha già stravinto la partita e ti invita a giocare con le sue regole. Lo studio del MIT pubblicato nel novembre 2025 stima che l’AI può già sostituire l’11,7% della forza lavoro statunitense, ma “sostituire” è un verbo troppo pulito per descrivere cosa accade davvero. Il meccanismo è più subdolo: i lavoratori nelle posizioni automatizzabili perdono potere negoziale anche prima di essere sostituiti, perché la minaccia basta. Chi resta lavora sotto il controllo degli stessi sistemi che hanno eliminato i colleghi — sorvegliato, misurato, disciplinato — e i profitti della produttività guadagnata fluiscono verso l’alto con una precisione gravitazionale.
Cory Doctorow l’ha detto con la consueta brutalità efficace: l’AI trasforma i programmatori di Amazon in lavoratori di magazzino Amazon. Non perché facciano lo stesso lavoro fisico, ma perché il rapporto di potere diventa identico — monitorati, misurabili, rimpiazzabili. Il nocciolo della questione è che l’intelligenza artificiale riproduce e amplifica le gerarchie esistenti, non le dissolve. Ma le alternative esistono, e non sono utopie da convegno accademico. I modelli linguistici open source — da Llama a Mistral, dai progetti comunitari su Hugging Face ai modelli che puoi far girare sul tuo hardware con un paio di GPU — rappresentano una via concreta verso la sovranità tecnologica dal basso. Non la sovranità degli stati (che tendono a usare la tecnologia per sorvegliare quanto le corporation), ma quella delle comunità, dei collettivi, dei singoli che si rifiutano di dipendere dall’infrastruttura di chi li controlla. Il self-hosting di LLM locali, le reti mesh decentralizzate, le cooperative di calcolo: non sono marginalia da nerd idealisti, sono pratiche in atto e in crescita. Il punto non è competere con OpenAI in termini di performance — non puoi, e forse non devi. Il punto è possedere i tuoi strumenti. La differenza tra un utensile e un’arma, come qualsiasi tradizione libertaria ti insegna, non sta nell’oggetto ma in chi lo impugna e contro chi viene puntato. alternative open source alle big tech
L’intelligenza artificiale non è il futuro del controllo di classe. È il suo presente. È il magazziniere di Bessemer licenziato da un algoritmo senza volto, il rider di Deliveroo pagato secondo un calcolo che non può vedere né contestare, l’impiegato misurato su 73 metriche di “produttività” mentre il suo capo non lo guarda nemmeno negli occhi. È Palantir nei quartieri, il Pentagono che finanzia OpenAI con una mano e smantella la Social Security con l’altra, il miliardario che parla di efficienza governativa mentre la spesa cresce del 6%. La domanda non è se l’AI cambierà il mondo del lavoro — l’ha già cambiato. La domanda è una sola, ed è vecchia come il potere stesso: da che parte stai? Perché l’algoritmo, di per sé, non ha una parte. Ma chi lo possiede sì.
