Panorama della Silicon Valley tra luci artificiali e grattacieli di vetro - hype intelligenza artificiale bolla psicosi Silicon Valley

Contenuto

A febbraio 2026, OpenAI ha chiuso un round da 110 miliardi di dollari. Valutazione pre-money: 730 miliardi. Un numero che lascia senza fiato — o che dovrebbe, almeno, se lo metti a confronto con un altro dato uscito nello stesso mese. Uno studio del National Bureau of Economic Research, condotto su migliaia di aziende, ha certificato che il 90% delle imprese non registra alcun impatto misurabile dell’intelligenza artificiale sulla propria produttività. Novanta per cento. Non un campione marginale, non startup alle prime armi: il grosso del tessuto economico che dovrebbe essere “trasformato” dall’AI non ha visto cambiare nulla. E intanto l’hype dell’intelligenza artificiale continua a muovere centinaia di miliardi come se questi numeri non esistessero.

Cory Doctorow, su Pluralistic, a marzo 2026 ha trovato le parole giuste: ha parlato di psicosi dell’AI. Non una, ma tre. La psicosi dell’investitore, che butta soldi in un pozzo senza fondo convinto che prima o poi ne uscirà petrolio. La psicosi del capo, che crede davvero di poter sostituire interi reparti con un chatbot perché qualcuno con una presentazione PowerPoint glielo ha promesso. E la psicosi del critico, che tratta l’intelligenza artificiale come un fenomeno così eccezionale — nel bene o nel male — da perdere di vista che è, alla fine, una tecnologia come tante. Il nocciolo della questione è un altro: queste psicosi non sono errori di valutazione. Sono funzionali al potere. Servono a chi investe per giustificare valutazioni assurde, a chi comanda per tagliare il costo del lavoro, a chi governa per alimentare la corsa agli armamenti tecnologici. E c’è una quarta dimensione che Doctorow sfiora senza approfondire — la psicosi geopolitica, il mantra del “se non lo fai tu lo farà la Cina” — che è forse la più tossica di tutte. La bolla dell’intelligenza artificiale non è un incidente di percorso: è un progetto.

La psicosi dell’investitore: “questo cambierà tutto”

Facciamo parlare i numeri, perché i numeri raccontano una storia che le conferenze stampa di Sam Altman preferiscono omettere. Le big tech — Amazon, Google, Meta, Microsoft — hanno pianificato investimenti in infrastruttura AI per il 2026 compresi tra 650 e 700 miliardi di dollari. Una cifra che, per dare un’idea, supera il PIL di paesi come la Svezia o la Polonia. Nel frattempo, i consumatori americani — il mercato più maturo per i servizi AI — spendono circa 12 miliardi l’anno in abbonamenti e prodotti legati all’intelligenza artificiale. La matematica non torna, e non serve una laurea in economia per accorgersene. Stiamo parlando di un rapporto di quasi 60 a 1 tra investimenti e ricavi da consumo, una sproporzione che farebbe ridere qualsiasi analista finanziario serio — se solo gli analisti finanziari seri non fossero anche loro ipnotizzati dalla psicosi.

La logica è sempre la stessa: si parte da una premessa — “l’AI cambierà tutto” — e da quella premessa si deduce che qualsiasi investimento è giustificato, qualsiasi valutazione è razionale, qualsiasi mancanza di profitto è temporanea. È la stessa logica che ha alimentato la bolla delle dot-com nel 2000, quando aziende senza un cliente pagante valevano miliardi in borsa perché “internet avrebbe cambiato il mondo”. E internet ha cambiato il mondo, nessuno lo nega. Ma non prima di aver bruciato tremila miliardi di dollari in valutazioni fantasma e aver distrutto i risparmi di milioni di piccoli investitori che ci avevano creduto. Oggi Morgan Stanley prova a sostenere che “questa volta è diverso”, che le aziende AI hanno “riserve di cassa triple” rispetto all’epoca. Può darsi. Anche le dot-com avevano i loro difensori nel 1999 — analisti, banche, fondi che giuravano che Pets.com e Webvan erano il futuro. La storia non si ripete mai uguale, ma ha un debole per le rime.

Il round di OpenAI è l’esempio perfetto di come funziona la psicosi nella pratica. Centodieci miliardi di dollari: 50 da Amazon — di cui 35 subordinati a “milestones” che nessuno ha definito pubblicamente — 30 da SoftBank, e 30 da Nvidia. Quest’ultimi in gran parte non in contanti ma in capacità di calcolo GPU, che tradotto significa: Nvidia si fa pagare vendendo le proprie schede grafiche e chiamandolo “investimento”. Il ricavo annuale di OpenAI? Circa 13 miliardi nel 2025, con proiezioni a 30 per il 2026. Per giustificare una valutazione di 730 miliardi dovresti credere che questa azienda — che brucia cassa a ritmi spaventosi e non ha mai prodotto un utile — crescerà del 500% in pochi anni mantenendo margini che nemmeno Apple ha raggiunto in quarant’anni di monopolio sull’hardware premium. Non è finanza, è astrologia con i fogli di calcolo.

E intanto le aziende hyperscaler hanno accumulato 121 miliardi di dollari di nuovo debito nell’ultimo anno — un aumento del 300% rispetto alla media storica del settore. Ricordi quando DeepSeek ha dimostrato che non servono miliardi per addestrare un modello competitivo? Per circa due settimane ha fatto notizia, poi il circo è ripartito come se niente fosse. Perché il punto non è mai stato l’efficienza tecnica: il punto è tenere la giostra in moto, far circolare il capitale, garantire che le valutazioni continuino a salire. Una ricerca del MIT, pubblicata nell’agosto 2025, ha piantato un altro chiodo nella bara del tecno-ottimismo: il 95% delle organizzazioni non ha ottenuto alcun ritorno dai propri investimenti in AI generativa. Non un ritorno basso — nessun ritorno. Ma prova a dirlo in una sala riunioni di Sand Hill Road e ti guarderanno come se fossi pazzo tu, non loro.

Chi beneficia davvero di questa corsa? Non tu, che magari usi ChatGPT per riassumere un documento o scrivere un’email — cose utili, nessuno lo nega, ma che non giustificano valutazioni da centinaia di miliardi. Beneficiano i soliti nomi: i fondi di venture capital che hanno bisogno di exit strategy miliardarie, i dirigenti con pacchetti azionari legati alla capitalizzazione, le aziende di semiconduttori che vendono pale e picconi nella corsa all’oro. Nvidia ha triplicato il fatturato in due anni vendendo GPU ai costruttori della bolla — è il fornitore di droga, non l’investitore visionario. E c’è un aspetto che pochi hanno voglia di affrontare: la concentrazione. Il denaro non si distribuisce nell’ecosistema — si concentra nelle mani di chi già possiede tutto. Amazon investe 50 miliardi in OpenAI e nel frattempo schiaccia i piccoli venditori con algoritmi opachi. Google spende decine di miliardi in data center e licenzia migliaia di dipendenti. La psicosi dell’investitore non è stupidità: è strategia. Serve a costruire barriere all’ingresso così alte che nessun concorrente, nessuna alternativa dal basso, nessun progetto open source possa competere. Se l’AI costa miliardi, solo chi ha miliardi può giocare.

Il pensiero magico del benchmark e del cane guarito

A metà marzo 2026, una storia ha fatto il giro del mondo: un imprenditore tech australiano avrebbe usato ChatGPT per creare un vaccino anticancro per il suo cane. La notizia è stata rilanciata da Greg Brockman, presidente di OpenAI, e da Elon Musk — perché ovviamente Musk non poteva lasciarsi sfuggire l’occasione. I titoli parlavano di “rivoluzione”, di “AI che cura il cancro”, di un uomo qualunque che con un chatbot aveva sconfitto la malattia. La realtà era più prosaica e molto meno instagrammabile. Paul Conyngham, l’imprenditore di Sydney, non ha alcuna formazione in biologia o medicina. Ha usato ChatGPT come assistente di ricerca — poco più di un Google sofisticato — per raccogliere informazioni sull’mRNA e sulle terapie oncologiche personalizzate. Il vaccino vero lo hanno sviluppato i ricercatori dell’Università del New South Wales, con mesi di lavoro specializzato e 3.000 dollari solo per il sequenziamento genomico del tumore. Il vaccino è stato somministrato insieme a un inibitore dei checkpoint immunitari — un farmaco antitumorale già esistente e ben documentato — rendendo impossibile stabilire quale dei due trattamenti abbia eventualmente funzionato. Nessuno di questi dettagli è apparso nei tweet virali. Nessuno.

Questa storia è il manifesto del pensiero magico che pervade l’intero discorso sull’intelligenza artificiale. Si prende un risultato ottenuto da esseri umani competenti con strumenti e finanziamenti reali, lo si attribuisce a un chatbot, si elimina ogni sfumatura e si confeziona una narrazione che alimenta la psicosi: l’AI può tutto, cambia tutto, cura tutto. Il meccanismo è identico a quello dei predicatori televisivi che attribuiscono guarigioni miracolose alla fede — solo che qui la fede è nel modello linguistico e il predicatore si chiama Sam Altman. Il fatto che il presidente di OpenAI e l’uomo più ricco del mondo abbiano rilanciato questa storia senza verificarla dice tutto su quanto la verifica dei fatti sia irrilevante quando la narrativa serve a sostenere una valutazione da 730 miliardi.

Lo stesso pensiero magico governa il mondo dei benchmark. A marzo 2026, Cursor ha lanciato Composer 2 con un annuncio che trasudava trionfalismo: “batte Claude Opus 4.6 nei benchmark di coding”. I numeri, se hai la pazienza di andarli a leggere: 61,7 su Terminal-Bench 2.0 contro 58,0 di Opus. Una differenza di 3,7 punti su una scala che nessuno al di fuori degli addetti ai lavori sa interpretare, misurata su un test — il CursorBench — che la stessa Cursor ha contribuito a definire. È come se un pugile si fosse scritto le regole dell’incontro, avesse scelto l’arbitro e poi si vantasse della vittoria. E intanto GPT-5.4 sta a 75,1 sullo stesso test, ma quel dettaglio finisce a pagina dodici del comunicato. Il punto non è se Composer 2 sia un buon strumento di coding — potrebbe anche esserlo. Il punto è che il sistema dei benchmark è diventato un apparato di marketing, non di misurazione. Chi sceglie cosa testare? Chi definisce i criteri di successo? Chi finanzia le piattaforme di valutazione? Scopri che gli stessi attori che costruiscono i modelli costruiscono anche i test per valutarli — una camera degli specchi dove ogni numero conferma la narrativa della crescita inarrestabile.

Doctorow la chiama la psicosi del capo: la convinzione, da parte dei dirigenti aziendali, che l’AI possa davvero sostituire il lavoro umano qualificato. Un dirigente che già crede di valere mille volte i propri dipendenti è la preda perfetta per un venditore di chatbot che gli promette di tagliare interi reparti. I benchmark servono esattamente a questo: forniscono numeri con cui giustificare decisioni già prese, coperture pseudoscientifiche per scelte che rispondono all’avidità, non alla razionalità. La promessa dell’automazione come liberazione si rivela, per l’ennesima volta, per quello che è davvero: una scusa per comprimere i salari e concentrare i profitti. Cursor, tra l’altro, vive un’ironia strutturale che vale la pena sottolineare: il suo prodotto dipende dai modelli di aziende — Anthropic, OpenAI — che stanno diventando sue concorrenti dirette. Anthropic ha lanciato Claude Code, OpenAI ha rilasciato Codex come app standalone. Cursor cerca disperatamente di costruire un modello proprietario per sopravvivere, e i benchmark gonfiati sono la sua arma di marketing nel frattempo. Pesci piccoli che cercano di nuotare in un acquario controllato da squali.

E il pensiero magico non si esaurisce nei benchmark. Pervade l’intero orizzonte temporale del discorso sull’AI. Quante volte hai sentito dire che “l’AGI è dietro l’angolo”? L’intelligenza artificiale generale — una macchina che pensa come un essere umano — è il Sacro Graal della Silicon Valley, la promessa escatologica che giustifica qualsiasi investimento presente in nome di un futuro radioso. Sam Altman dice che “potremmo avere l’AGI entro il 2027”. Lo diceva anche nel 2023, poi nel 2024, poi nel 2025. La data si sposta sempre di dodici mesi, come un miraggio nel deserto, e nessuno gli chiede conto delle promesse mancate perché il circo ha bisogno del numero finale per vendere i biglietti. I modelli linguistici attuali — per quanto impressionanti in certi compiti specifici — sono fondamentalmente autocomplete su steroidi: prevedono la parola successiva con una sofisticazione statistica notevole, ma non pensano, non capiscono, non ragionano nel senso in cui usiamo queste parole per gli esseri umani. Strumenti utili? Senza dubbio. La più grande rivoluzione della storia dell’umanità? Facciamo un passo indietro e proviamo a ragionare senza il materiale promozionale di mezzo.

La psicosi geopolitica: “se non lo fai tu, lo fa la Cina”

Se hai provato a criticare gli investimenti nell’AI in qualsiasi contesto — un consiglio d’amministrazione, un dibattito pubblico, persino una cena tra amici — ti sarai sentito rispondere con la frase magica: “e allora la Cina?”. È il jolly che chiude ogni discussione, la carta che azzera qualsiasi obiezione razionale. Non importa se i numeri non tornano, se la produttività non cresce, se le valutazioni sono deliranti: bisogna andare avanti perché altrimenti Pechino ci supera. È la terza psicosi, forse la più pericolosa delle tre, perché trasforma una questione tecnologica ed economica in una questione di sicurezza nazionale — e in quanto tale la sottrae a qualsiasi scrutinio democratico. Quando la competizione diventa “difesa della patria”, chi osa mettere in discussione la spesa è automaticamente un traditore o un ingenuo.

Un articolo di Foreign Affairs ha smontato questa narrativa pezzo per pezzo, definendola “il mito della corsa all’AI”. La premessa che Stati Uniti e Cina stiano convergendo sullo stesso percorso, competendo su una singola dimensione misurabile, è semplicemente falsa. Non è una gara dei cento metri — è, come l’ha definita un’analisi su Fortune, una “caccia al cervo” dove la cooperazione produrrebbe più benefici della competizione sfrenata. Washington blocca l’accesso cinese ai chip avanzati tramite sanzioni sempre più aggressive, Pechino controlla i minerali rari essenziali per la produzione dei semiconduttori che servono a fabbricare quei chip. Sono asimmetrie strutturali e interdipendenze complesse, non una corsa lineare verso un traguardo. Ma la narrativa semplificata della “gara” serve a chi ha bisogno di fondi governativi senza troppe domande, contratti militari senza troppe verifiche, deregolamentazione senza troppi ostacoli.

Ed è qui che il discorso si fa realmente tossico. La psicosi geopolitica è il ponte tra la Silicon Valley e il Pentagono — l’alleanza tra il capitalismo delle piattaforme e il complesso militare-industriale che rappresenta una delle concentrazioni di potere più pericolose del nostro tempo. L’argomento “la Cina ci supererà” giustifica contratti miliardari con il Dipartimento della Difesa, partnership sempre più strette tra OpenAI e agenzie governative, progetti di sorveglianza di massa presentati come “difesa della democrazia”. Se l’AI è un’arma, allora chi la costruisce è un patriota. Se è una corsa, chi rallenta è un traditore. Un ricatto retorico perfetto che funziona tanto a Washington quanto a Bruxelles, e che in Italia si declina in una versione più provinciale ma ugualmente insidiosa. Il governo Meloni ha la sua Strategia Italiana per l’Intelligenza Artificiale 2024-2026, integrata nel PNRR — quel piano da 194 miliardi di euro che a ottobre 2025 aveva visto spendere appena il 44% dei fondi ricevuti. I soldi per l’AI ci sono, sulla carta. Ma la domanda che nessuno pone è: per chi? I fondi pubblici che finiscono nelle casse di consulenti, system integrator e multinazionali del cloud non sono investimenti nel futuro del paese — sono trasferimenti di ricchezza dal pubblico al privato con un fiocco tricolore sopra.

La narrativa della corsa geopolitica produce un effetto collaterale che sembra quasi deliberato: silenzia ogni voce critica. Se dici che forse non serve investire 700 miliardi l’anno in data center, sei un luddista. Se suggerisci che i soldi pubblici potrebbero andare in sanità o istruzione, sei uno che “non capisce il futuro”. Se proponi che l’AI dovrebbe essere sviluppata come bene comune — modelli aperti, dati trasparenti, governance partecipata — sei un ingenuo, o peggio: un alleato inconsapevole della Cina. Il ricatto geopolitico è l’arma finale nel toolkit della bolla: quando i numeri dell’investitore non convincono e i benchmark del venditore non bastano, tira fuori la bandiera e chiudi la discussione. Eppure le alternative esistono e funzionano. I movimenti per il software libero, le comunità che sviluppano LLM open source, i collettivi che fanno self-hosting, le reti decentralizzate che sperimentano governance dal basso — tutto questo dimostra ogni giorno che un altro modello di sviluppo tecnologico è possibile, senza valutazioni da 730 miliardi e senza vendere l’anima al Pentagono.

Le tre psicosi dell’intelligenza artificiale — l’investitore che vede il futuro in ogni valutazione gonfiata, il capo che confonde un chatbot con un esercito di lavoratori, il geopolitico che agita lo spauracchio cinese per ottenere assegni in bianco — non sono aberrazioni del sistema. Sono il sistema. Funzionano perché servono a chi ha il potere di farle funzionare: i fondi di investimento che hanno bisogno di nuove bolle da cavalcare dopo le crypto, le corporation che vogliono comprimere il costo del lavoro senza resistenze, i governi che cercano una narrazione tecnologica per giustificare spese militari e sorveglianza di massa. Doctorow ha ragione su un punto fondamentale: l’AI è una tecnologia normale. Non è il messia e non è l’apocalisse. È uno strumento che, nelle mani di persone competenti, può automatizzare alcuni compiti — niente di più e niente di meno. Ma “normale” non genera rendimenti del 500%, non giustifica valutazioni da trilioni, non vince le elezioni. E così la normalità viene seppellita sotto strati di hype, benchmark autoreferenziali, storie di cani miracolosamente guariti e profezie sull’AGI che si spostano sempre di un anno. Il momento della resa dei conti arriverà — non per illuminazione morale, i mercati non funzionano così — ma perché a un certo punto i numeri non torneranno più nemmeno sulla carta. Quando succederà, i miliardari avranno già incassato, i venture capitalist avranno già spostato i soldi altrove, e a pagare il conto saremo noi. La prossima volta che qualcuno ti dice che l’intelligenza artificiale cambierà tutto, chiedigli una cosa sola: tutto per chi?