Lavoratore davanti a uno schermo con dati e codice in un ufficio moderno - intelligenza artificiale lavoro

Contenuto

A marzo 2026, Block — la fintech di Jack Dorsey — ha tagliato 4.000 dipendenti in un colpo solo, passando da 10.000 a meno di 6.000 persone. La motivazione ufficiale? I sistemi di intelligenza artificiale dell’azienda gestiscono tra il 70 e l’80% delle richieste dei clienti senza intervento umano. Quattromila vite ribaltate perché un chatbot fa il loro lavoro a costo quasi zero — e non è un caso isolato, non è nemmeno il peggiore. Amazon ha eliminato 30.000 posizioni corporate tra fine 2025 e inizio 2026, con il vicepresidente senior che ha candidamente spiegato come i progressi nell’AI permettano all’azienda di «operare in modo più efficiente con meno persone». Accenture ha tagliato 11.000 ruoli, Workday ha eliminato l’8,5% del personale — circa 1.750 persone — per «riallocare risorse verso l’AI», Baker McKenzie ha mandato a casa fino a mille dipendenti. Chegg ha cancellato il 45% della forza lavoro parlando di «nuove realtà dell’intelligenza artificiale». Intanto i CEO incassano bonus record e il Nasdaq sale.

Il World Economic Forum, nel suo Future of Jobs Report 2025, racconta però un’altra storia: 170 milioni di nuovi posti di lavoro entro il 2030, contro 92 milioni di ruoli eliminati. Saldo positivo di 78 milioni, sulla carta un’ottima notizia. Quei numeri però, letti senza contesto, sono una favola comoda soprattutto per chi dall’intelligenza artificiale e dal lavoro altrui incassa miliardi. La domanda vera — l’unica che conta quando si parla di intelligenza artificiale e lavoro — non è quanti posti crea l’AI, ma per chi li crea, dove, a che condizioni e a spese di chi. Il mercato del lavoro non è una media aritmetica: è un campo di battaglia dove chi ha il potere lo esercita e chi non ne ha lo subisce.

Il grande inganno dei numeri

Partiamo dalle cifre, e guardiamole senza il filtro delle slide aziendali. McKinsey stima che le tecnologie attuali — non quelle del futuro, quelle che esistono adesso — potrebbero automatizzare il 57% delle ore lavorative negli Stati Uniti. Non il 57% dei posti: il 57% delle ore. La distinzione è sottile ma cruciale, e i titoli dei giornali la ignorano sistematicamente perché «il 57% dei lavori a rischio» genera più clic di una spiegazione metodologica onesta. L’ILO e l’istituto polacco NASK, in uno studio congiunto del 2025, calcolano che un posto di lavoro su quattro a livello globale è potenzialmente esposto all’intelligenza artificiale generativa. La parola chiave è «esposto», non sostituito — la differenza tra prendere la pioggia e annegare è piuttosto evidente, ma chi vende ombrelli ha tutto l’interesse a confondere le due cose. I ruoli a più alto rischio di automazione rappresentano circa il 40% dell’occupazione statunitense, concentrati nei servizi amministrativi e legali, oltre ai lavori fisici come autisti e operatori di macchine. Il pattern è sempre lo stesso: chi era già precario rischia di più, chi stava bene continua a stare bene.

Il mantra ripetuto da consulenti, CEO e think tank finanziati dalla Silicon Valley suona sempre uguale: l’AI trasforma, non sostituisce. Una narrazione quasi terapeutica, progettata per calmare i mercati e addormentare l’opinione pubblica. I fatti però raccontano altro. Nel solo 2025, le imprese hanno attribuito direttamente all’intelligenza artificiale 55.000 licenziamenti — dodici volte il numero di appena due anni prima. Nei primi due mesi del 2026 i tagli nel settore tech hanno già superato quota 32.000, e le proiezioni parlano di quasi 265.000 posti persi nel comparto tecnologico entro dicembre. Questi numeri non tengono conto dell’indotto: i fornitori, i piccoli freelance che perdono contratti quando un’azienda decide che un LLM può scrivere copy, tradurre documenti o rispondere ai clienti per una frazione del costo. E non tengono nemmeno conto dei posti che semplicemente non vengono più creati — le assunzioni congelate, gli stage cancellati, i ruoli entry-level che evaporano prima ancora di essere pubblicati. L’intelligenza artificiale non distrugge solo posti esistenti: impedisce che ne nascano di nuovi.

C’è poi un fenomeno che la Harvard Business Review ha definito con un’espressione chirurgica: le aziende licenziano per il potenziale dell’AI, non per le sue prestazioni reali. Tradotto: molte imprese non hanno nemmeno implementato sistemi che funzionano davvero e stanno tagliando personale sulla base di una promessa, di una scommessa, di quello che i venture capitalist sussurrano durante i board meeting. Il 37% delle aziende prevede di sostituire lavoratori con l’intelligenza artificiale entro fine 2026, il 58% dei dirigenti considera probabili ulteriori licenziamenti. Ma in molti casi si tratta di puro «AI washing»: l’intelligenza artificiale usata come paravento per ristrutturazioni che sarebbero avvenute comunque, per comprimere i costi del lavoro, per eliminare il personale già nel mirino del management. L’AI è diventata l’alibi perfetto — la scusa high-tech per decisioni che hanno poco di innovativo e molto di brutalmente finanziario. Il titolo sale in borsa, il dirigente incassa il bonus, e il lavoratore fa la fila al centro per l’impiego.

E quei 170 milioni di nuovi posti promessi dal WEF? Meritano una lettura assai meno entusiastica di quella che ne fanno le agenzie di stampa. Quei lavori richiedono competenze che la stragrande maggioranza dei licenziati non possiede, nascono in settori e aree geografiche specifiche — non necessariamente quelle da cui scompaiono — e sono spesso meno pagati e più precari dei posti che rimpiazzano. Un operatore di call center mandato a casa a Bari non diventa ingegnere del prompt a Milano per decreto ministeriale. Il saldo netto positivo è una media che nasconde tragedie individuali e collettive, e soprattutto maschera un trasferimento massiccio di ricchezza: dai lavoratori che perdono il posto agli azionisti delle aziende che automatizzano. Come diceva Mark Twain, esistono le bugie, le grandi bugie e le statistiche. Il World Economic Forum le padroneggia tutte e tre.

I fantasmi dentro la macchina

Quando Sam Altman presenta il suo ultimo modello su un palco con luci soffuse e pubblico in estasi, c’è qualcosa che non si vede — e che non è previsto si veda. Dietro ogni modello di intelligenza artificiale, dietro ogni risposta cortese di un chatbot e ogni immagine generata, esiste un esercito invisibile di esseri umani. Li chiamano ghost worker, lavoratori fantasma, e il loro settore vale 13,7 miliardi di dollari con proiezioni al 2030. Sono le persone che etichettano dati, moderano contenuti violenti, correggono gli errori degli algoritmi, addestrano i modelli a distinguere un gatto da un’arma da fuoco, un volto sorridente da un’immagine di abuso su minori. Senza di loro l’intelligenza artificiale non funziona — punto, senza sfumature e senza eccezioni. Ma delle loro condizioni di lavoro, nella Silicon Valley come a Davos, non parla quasi nessuno. Sono il lato oscuro della luna tech, il costo umano che non compare nei bilanci trimestrali né nelle presentazioni agli investitori.

I numeri hanno il sapore amaro del colonialismo digitale. OpenAI ha pagato a Sama — azienda keniota di outsourcing — 12,50 dollari l’ora per lavoratore. Quei lavoratori ne hanno visti due. Due dollari l’ora per moderare contenuti che includono violenza sessuale, torture, decapitazioni, abusi sui minori — il peggio che l’umanità è capace di produrre, servito in loop per otto ore al giorno. Un’indagine condotta da Equidem nel 2025 su 76 lavoratori tra Colombia, Ghana e Kenya ha documentato 60 episodi indipendenti di danno psicologico: ansia, depressione, attacchi di panico, disturbo post-traumatico, dipendenza da sostanze. Parliamo di persone — spesso giovani, spesso laureate, quasi la metà con formazione STEM — costrette a fare i conti con l’orrore quotidiano, con pochi secondi per classificare ogni contenuto e penalità economiche se rallentano. I ricercatori non esitano a definirle «sweatshop digitali», e non è una metafora: è una descrizione tecnica di condizioni che in qualsiasi paese europeo violerebbero mezza dozzina di normative sulla salute e sicurezza sul lavoro.

La catena di sfruttamento replica la struttura del colonialismo estrattivo con precisione quasi satirica. L’azienda tech — OpenAI, Meta, Google — appalta a un’impresa di outsourcing (Sama, Scale AI, Appen), che subappalta ad agenzie regionali, che reclutano attraverso broker locali. A ogni passaggio si estrae profitto, a ogni livello si diluisce la responsabilità fino a farla evaporare del tutto. Quando i 185 moderatori kenioti che lavoravano per Meta tramite Sama hanno provato a sindacalizzarsi, la risposta è stata il licenziamento in blocco — tutti, senza eccezione, senza appello. Quando Scale AI ha chiuso la piattaforma Remotasks in Kenya, migliaia di giovani si sono ritrovati senza reddito da un giorno all’altro: nessun preavviso, nessuna buonuscita, nessuna spiegazione. Il modello è limpido nella sua brutalità: distanza geografica come schermo morale, catene di subappalto come firewall legale. La stessa identica logica delle fabbriche tessili in Bangladesh o delle miniere di coltan in Congo — solo che qui la materia prima sono dati e il prodotto finale è il chatbot che ti suggerisce cosa cucinare stasera.

Nel frattempo anche le aziende tech cinesi hanno scoperto il Kenya come serbatoio di manodopera a basso costo per addestrare i propri modelli di intelligenza artificiale, come documentato da Rest of World. Il pattern si ripete senza variazioni: promesse di lavoro nell’«economia del futuro» che si traducono in turni massacranti, paghe da fame e zero tutele contrattuali. La cosiddetta democratizzazione dell’AI — quella sbandierata nei comunicati stampa delle Big Tech e ripetuta a pappagallo dai media di settore — assomiglia parecchio alla «missione civilizzatrice» di chi costruiva ferrovie nelle colonie: il valore viene estratto, i profitti salgono verso nord, chi fa il lavoro sporco resta intrappolato in un’economia di sfruttamento travestita da opportunità. Tu non vedrai mai queste persone. Non compariranno nella tua timeline, non saranno invitate a Davos, non avranno un profilo LinkedIn con il titolo «AI Trainer at OpenAI». Ma senza il loro lavoro invisibile, il tuo assistente virtuale non saprebbe distinguere una domanda da un insulto.

Resistenze dal basso e il nodo del potere

Il nocciolo della questione non è se l’intelligenza artificiale elimini o crei posti di lavoro — è una falsa dicotomia, un trucco retorico che serve a mantenere il dibattito su un piano astratto e rassicurante, lontano dalle scelte concrete di potere che vengono prese ogni giorno nelle stanze dei consigli di amministrazione. La domanda vera è un’altra: chi controlla questa tecnologia e chi ne subisce le conseguenze? I profitti dell’automazione vanno a una manciata di aziende e ai loro azionisti, mentre i costi ricadono su milioni di lavoratori che non hanno voce in capitolo e non siedono a nessun tavolo decisionale. Non è una «transizione tecnologica» neutrale: è un trasferimento di potere dal lavoro al capitale, dai molti ai pochissimi, dal Sud al Nord del mondo. Questo schema non ha nulla di nuovo — è la storia del capitalismo industriale che si ripete con un’interfaccia grafica più elegante e un ufficio marketing decisamente più efficace.

L’AI washing merita un’analisi politica, non solo economica. Quando un’azienda annuncia licenziamenti «per l’intelligenza artificiale», compie un’operazione doppia: taglia costi reali e, simultaneamente, segnala al mercato finanziario di essere «innovativa», facendo salire il titolo in borsa. Il lavoratore licenziato finisce intrappolato in una narrazione dove il suo posto non è stato eliminato da un manager avido ma dalla «inevitabile marcia del progresso». È una depoliticizzazione del conflitto capitale-lavoro: un trucco che trasforma una scelta aziendale in fenomeno naturale, come il meteo, come le maree, come se fosse qualcosa a cui non si può resistere. Non c’è nulla di naturale però in un CEO che guadagna 300 volte lo stipendio medio dei suoi dipendenti e decide di mandarne a casa un terzo per far contento Wall Street. E non c’è nulla di inevitabile in un sistema dove cinque aziende controllano l’infrastruttura computazionale su cui si regge l’intera economia digitale mondiale.

C’è poi la gig economy, dove l’intelligenza artificiale non sostituisce i lavoratori ma li governa — ed è quasi peggio. Gli algoritmi delle piattaforme decidono chi lavora, quando, per quanto e a quale tariffa, senza trasparenza e senza possibilità di appello. Human Rights Watch nel 2025 ha pubblicato un rapporto intitolato «The Gig Trap» che documenta lo sfruttamento algoritmico sistematico: rider e freelance digitali senza contrattazione collettiva, senza tutele per malattia, disattivabili dalla piattaforma — licenziati, di fatto — senza spiegazione e senza ricorso legale. L’indice globale dei diritti dei lavoratori è peggiorato nel 2025 in tre regioni su cinque, con le Americhe e l’Europa che hanno toccato i loro minimi storici. In questo contesto l’intelligenza artificiale non è uno strumento neutro: è un’arma di gestione del lavoro che concentra il potere nelle mani di chi possiede la piattaforma e atomizza i lavoratori, li isola, li mette in competizione permanente tra loro, rende strutturalmente impossibile qualsiasi forma di solidarietà organizzata. [INTERNAL_LINK: alternative open source big tech]

Anche in Italia il dibattito sta prendendo forma, sebbene con il ritardo cronico che caratterizza la politica tecnologica del paese. Il Ministero del Lavoro ha avviato nel 2026 un Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro, pubblicando un primo documento preparatorio che raccoglie contributi da diverse prospettive — accademica, sindacale, imprenditoriale. L’iniziativa è un passo nella giusta direzione, ma rischia di restare un esercizio accademico se non si traduce in tutele concrete per chi perde il posto perché un algoritmo lo ha reso «inefficiente» e per chi lavora nelle piattaforme senza alcuna garanzia contrattuale. L’OCSE e la Commissione europea continuano a ripetere che l’AI «si integra nei processi» e «riqualifica le professioni», ma senza politiche redistributive radicali queste rimangono parole da documento ufficiale, buone per i convegni e perfettamente inutili per chi a fine mese non arriva.

La resistenza però esiste — e sarebbe intellettualmente disonesto non raccontarla. In Kenya la Data Labelers Association ha raccolto 339 iscritti nella prima settimana dalla fondazione: ghost worker che hanno deciso di pretendere un nome e dei diritti. Nel 2025, un summit internazionale ha riunito annotatori e moderatori dal Kenya, dalle Filippine, dall’India e dall’America Latina per costruire solidarietà transnazionale e formulare richieste concrete: assunzione diretta dalle aziende tech, salari dignitosi, supporto psicologico, diritto di organizzarsi. Alla conferenza ILO di Ginevra è stato avviato il processo per uno standard vincolante sui lavoratori delle piattaforme digitali, con l’adozione finale prevista nel 2026. Niente di tutto questo è arrivato per generosità aziendale — è arrivato perché le persone si sono organizzate, hanno parlato, hanno rifiutato di restare invisibili. Le alternative esistono e qualcuno le sta già costruendo: modelli open source, LLM locali gestiti da cooperative, infrastrutture comunitarie di calcolo, reti decentralizzate che non dipendono dai capricci di un miliardario californiano. Il problema non è mai stato la tecnologia in sé — è chi la possiede, chi decide come usarla, chi ne estrae valore.

L’intelligenza artificiale e il lavoro non sono una storia di progresso inevitabile che travolge tutto e tutti. Sono una storia di potere — chi ce l’ha, chi lo vuole, chi lo perde. I 78 milioni di posti netti promessi dal WEF non significano nulla se sono precari, sottopagati, governati da un algoritmo e privi di diritti fondamentali. I ghost worker del Kenya che fondano un’associazione sanno qualcosa che i miliardari della Silicon Valley preferirebbero restasse sepolto: che l’AI non funziona senza lavoro umano, e che quel lavoro merita dignità. La prossima volta che qualcuno ti dice che l’intelligenza artificiale «democratizza» qualcosa, fermati un momento e chiediti una cosa sola — chi ci sta facendo i soldi?