Hai presente quella sensazione? Chiedi qualcosa al tuo assistente AI — una domanda apparentemente banale — e quello se ne sta lì, immobile, a macinare per secondi che sembrano minuti. La risposta arriva lenta, a volte imprecisa, dopo un’attesa che ti fa venire il dubbio di aver sbagliato qualcosa tu. Il riflesso condizionato è dare la colpa al modello: troppo grosso, troppo stupido, troppo lontano dal server. Ma la verità è un’altra, e sta molto più in profondità di quanto le aziende che ti vendono intelligenza artificiale vogliano ammettere.
Il collo di bottiglia non è il modello linguistico. È l’infrastruttura sottostante — i database, le pipeline di dati, l’intera architettura su cui girano gli agenti AI. Sistemi costruiti nell’era dei report trimestrali e delle dashboard aggiornate una volta al giorno si ritrovano a dover gestire migliaia di query concorrenti, in tempo reale, con latenze sotto il secondo. Non ce la fanno, e non è una sorpresa per nessuno tranne che per chi vende quelle piattaforme. La cosa interessante — e scomoda — è che questa crisi infrastrutturale non è un incidente di percorso. È il risultato prevedibile di un’industria che ha costruito piattaforme dati per massimizzare i ricavi del cloud, non per servire chi le usa. Le Big Tech investiranno 690 miliardi di dollari in infrastrutture AI nel solo 2026. La domanda che nessuno pone: infrastrutture per chi?
Quando gli agenti AI fanno a pezzi i database tradizionali
Per capire il problema bisogna guardare come lavorano gli agenti AI sotto il cofano, e la differenza con il modo in cui interroghiamo i database noi umani è brutale. Quando una persona interagisce con un sistema dati — direttamente o attraverso una dashboard — genera una query ogni qualche secondo, forse ogni qualche minuto. Un flusso prevedibile, gestibile, quasi educato. Un agente AI no. Un agente che riceve una domanda in linguaggio naturale non produce una bella query SQL ordinata e se ne va: ne lancia decine in rapida successione, esplora lo schema del database, testa percorsi diversi, ragiona in parallelo su ipotesi multiple. Una singola richiesta dell’utente diventa una raffica di query concorrenti che colpiscono il sistema come una grandinata. Spencer Kimball, CEO di Cockroach Labs, la mette così: “Non stiamo parlando di un’azione ogni due secondi — stiamo parlando di 5.000 azioni in un secondo”. E proietta una crescita di 10x nei prossimi tre anni, 100x in cinque. Non è un’iperbole da conferenza: i numeri lo confermano già adesso.
PingCAP, l’azienda dietro il database TiDB, ha rivelato che oltre il 90% dei nuovi cluster creati quotidianamente sul suo cloud sono generati da agenti AI, non da esseri umani. Databricks ha ammesso che gli agenti creano ormai quattro volte più database degli utenti in carne e ossa, e che per la metà delle applicazioni agentiche il tempo di vita del computing è inferiore a dieci secondi — nascono, lavorano, muoiono, tutto in meno tempo di quanto tu impieghi a leggere questa frase. Il cambio di paradigma è già avvenuto: siamo passati da query pesanti e rare a migliaia di query leggere e simultanee che pretendono risposte istantanee. I data warehouse tradizionali — Snowflake, Redshift, BigQuery — sono stati progettati per l’esatto opposto: alto throughput su query massive e poco frequenti. Mettici sopra un carico di lavoro agentivo e finisci in uno di due posti, entrambi sgradevoli: latenza che rende l’assistente inutilizzabile, o costi che esplodono più velocemente del valore che ne ricavi. Un report di Cockroach Labs basato su 1.125 architetti cloud dice che l’83% si aspetta un collasso dell’infrastruttura dati entro 24 mesi senza interventi radicali. Il 34% fissa il punto di rottura entro undici mesi. Undici.
Un caso che dice tutto: un cliente enterprise di Snowflake Cortex Analyst — il sistema text-to-SQL del colosso del data warehousing — ha registrato latenze superiori ai 60 secondi sulla maggior parte delle query, con un sovracosto del 25% sul consumo di token. Sessanta secondi per una risposta che l’utente si aspetta in un paio. Ma il guaio non è solo la velocità. Quando un umano ottiene una query lenta, se ne accorge, riscrive, riprova — ci mette qualche minuto ma corregge il tiro. Un agente AI colpisce un piano di esecuzione inefficiente, non se ne accorge, restituisce risultati sbagliati o parziali, e quei risultati si propagano a cascata nei workflow successivi. Il tutto in millisecondi, moltiplicato per centinaia di query concorrenti. È un effetto domino che amplifica ogni singola inefficienza nascosta nel sistema, e Gartner stima che il 60% dei nuovi progetti AI verrà abbandonato proprio perché l’infrastruttura dati non regge. Non è un problema di intelligenza artificiale. È un problema di tubi.
Ora facciamoci la domanda scomoda. Questi database cloud — Snowflake, Databricks, BigQuery — non sono servizi pubblici. Sono prodotti commerciali venduti a consumo, dove ogni query, ogni gigabyte, ogni millisecondo di computing genera fatturato per qualcuno. Un sistema che risponde in 60 secondi anziché in uno non è solo un problema tecnico: è un modello di business che funziona esattamente come previsto. Più query servono per arrivare alla risposta, più computing si brucia, più il contatore gira. Detto in parole povere: la lentezza della tua AI non è un bug dell’infrastruttura. È, almeno in parte, una feature del modello economico che ci sta sotto. Quando ti dicono che il tuo assistente è lento, la prima domanda dovrebbe essere: e chi ci guadagna, dalla lentezza?
La corsa da 690 miliardi per controllare i tubi dell’AI
I numeri della corsa infrastrutturale tolgono il fiato, se li guardi dalla prospettiva giusta. Amazon investirà 200 miliardi di dollari nel 2026. Alphabet tra 175 e 185. Microsoft oltre 120. Meta tra 115 e 135. Oracle 50 — con un aumento del 136% rispetto all’anno scorso, finanziato a debito in un modo che fa discutere anche gli analisti più ottimisti. Totale: 690 miliardi di dollari in un solo anno, la più grande concentrazione di spesa in conto capitale nella storia della tecnologia. Gartner stima la spesa mondiale in AI a 2.520 miliardi per il 2026, in aumento del 44% anno su anno. Sono cifre che farebbero impallidire il bilancio di molti stati sovrani, e il punto è proprio questo: stiamo assistendo alla costruzione di un’infrastruttura globale che per scala e investimento rivaleggia con quella pubblica, ma è interamente in mani private. Cinque aziende stanno decidendo su quali fondamenta girerà l’intelligenza artificiale dei prossimi vent’anni. Nessuno le ha elette, nessuno le controlla, e solo l’85% delle imprese riesce a dedicare almeno il 10% del budget IT all’AI — il resto guarda il treno passare.
Il paradosso è che queste cifre colossali non corrispondono a ricavi proporzionali. I vendor AI “puri” — OpenAI con i suoi 20 miliardi di ricavi annuali, Anthropic con 9 — generano complessivamente meno di 35 miliardi di dollari a fronte di 690 miliardi investiti. La differenza la pagano gli utenti cloud, le aziende abbonate ai servizi, e in ultima analisi le bollette energetiche di interi paesi. Microsoft ha un arretrato di 80 miliardi in ordini Azure non evasi per vincoli di corrente elettrica. Alphabet ha un backlog cloud esploso del 55%, oltre 240 miliardi. Chi controlla l’infrastruttura detta le condizioni, e in questo momento le condizioni le dettano cinque aziende della costa ovest degli Stati Uniti — con buona pace della sovranità digitale europea, di cui si parla molto nei convegni e si fa pochissimo nei fatti.
Poi c’è NVIDIA, capitolo a sé che meriterebbe un libro intero. La Commissione Europea ha aperto un’indagine antitrust sul possibile bundling illegale tra GPU e software CUDA — quell’accoppiata così stretta da rendere, citando gli investigatori, “quasi impossibile per i clienti usare hardware concorrente senza significative perdite di prestazioni e costi di risviluppo”. Compri NVIDIA, resti con NVIDIA. Le sanzioni potenziali vanno dall’1 al 10% del fatturato mondiale, ma il danno strutturale è già fatto. Le alternative — i chip custom di Google, Microsoft, Amazon — restano interni ai rispettivi giardini recintati. Non è concorrenza di mercato: è una collezione di monopoli verticali che si contendono il diritto di chiuderti dentro il loro ecosistema. L’intera industria dell’intelligenza artificiale dipende da un singolo fornitore per la parte più critica del computing ad alte prestazioni. Provate a immaginare se un solo produttore controllasse tutta l’energia elettrica del pianeta — ecco, ci siamo vicini.
E poi c’è il conto ambientale, che nessuno vuole pagare. L’Agenzia Internazionale dell’Energia prevede che i data center globali consumeranno 1.100 TWh nel 2026, l’equivalente dell’intero fabbisogno elettrico del Giappone — e la stima è stata rivista al rialzo del 18% rispetto a soli quattro mesi prima. I data center AI hanno generato 105 milioni di tonnellate di CO2 in dodici mesi, il 2,18% delle emissioni nazionali statunitensi, superando l’aviazione. In Irlanda consumeranno il 32% dell’elettricità del paese. L’Italia non è da meno: i data center raggiungeranno 1 GW di consumo entro fine anno, con 37 miliardi di euro già investiti e Milano che da sola supererà i 300 MW di capacità IT. L’energia rappresenta tra il 50 e il 70% dei costi operativi, con un prezzo medio dell’elettricità italiana di 133,5 euro/MWh — più caro di Spagna, Germania e Francia. Stiamo costruendo cattedrali di silicio che divorano l’energia di città intere per far funzionare assistenti AI che rispondono in un minuto anziché in un secondo. L’UE ha almeno introdotto l’obbligo per i data center di dichiarare consumi energetici, idrici e la quota di rinnovabili usata — un primo passo, timidissimo, che non cambia la sostanza del problema. Qualcosa non torna in questa equazione, e non serve una laurea in economia per capirlo.
Le alternative esistono, ma il gioco è truccato
Non è tutto perduto, e sarebbe intellettualmente disonesto dipingere un quadro senza vie d’uscita. Le alternative ci sono — alcune già operative, altre embrionali — e vale la pena guardarle con attenzione, senza farsi prendere da entusiasmi prematuri. Sul fronte dei database, lo stack Postgres più motore OLAP colonnare sta emergendo come l’architettura di riferimento per chi vuole costruire applicazioni AI senza consegnarsi ai data warehouse proprietari. ClickHouse, con il suo core sotto licenza MIT, ha raccolto 400 milioni di dollari a gennaio raggiungendo una valutazione di 15 miliardi, e nel processo ha acquisito Langfuse — la piattaforma open source di osservabilità per modelli linguistici usata da 19 delle Fortune 50 — impegnandosi a mantenerla MIT. Apache Iceberg, il formato aperto per tabelle dati, permette di separare lo storage dal computing proprietario: Salesforce ci fa girare sopra 4 milioni di tabelle e 50 petabyte senza vincolarsi a un singolo vendor. StarRocks 4.0 ha migliorato le prestazioni del 60% anno su anno ed è il primo motore analitico a integrarsi nativamente con MCP, lo standard aperto per connettere agenti AI alle fonti dati. DeepSeek, dal canto suo, ha dimostrato che si può addestrare un modello competitivo con 5,6 milioni di dollari e il 95% di energia in meno rispetto ai colossi — una sberla ai budget miliardari di OpenAI e Google.
MCP — il Model Context Protocol lanciato da Anthropic alla fine del 2024 — è forse il segnale più interessante del momento. Da 2 milioni di download mensili al lancio è schizzato a 97 milioni nel marzo 2026, con l’adozione di tutti i grandi: OpenAI, Microsoft, AWS, Google Cloud. L’idea è potente nella sua semplicità: uno standard aperto che permette a qualsiasi agente AI di dialogare con qualsiasi fonte dati tramite un protocollo comune, eliminando le integrazioni custom per ogni combinazione modello-database e tagliando i costi di integrazione del 60-70%. In teoria, è il protocollo che democratizza l’accesso ai dati. In pratica, la sicurezza è un colabrodo: il 43% delle implementazioni MCP più diffuse contiene vulnerabilità di command injection, secondo i ricercatori di Equixly. Il server SQLite di riferimento dello stesso Anthropic aveva una falla di SQL injection. A metà 2025 l’agente Cursor di Supabase è stato compromesso tramite prompt injection per esfiltrare token sensibili. Aprire le porte dei database agli agenti AI senza un’architettura di sicurezza seria è come togliere la serratura dalla porta di casa e sperare che entrino solo gli amici.
Ed eccoci al nocciolo della questione, quello politico — che è poi l’unico che conta davvero. ClickHouse è MIT, d’accordo. Ma è anche un’azienda da 15 miliardi finanziata da venture capital che deve rendere conto ai suoi investitori. Apache Iceberg è open source, ma lo sviluppo è pilotato da Apple, Netflix, Salesforce. MCP è uno standard aperto, ma l’ha creato Anthropic, che ha raccolto miliardi da Google e Amazon. L’open source nell’infrastruttura AI del 2026 somiglia sempre di più a una strategia commerciale travestita da bene comune: rilasci il codice per creare dipendenza, costruisci l’ecosistema, poi monetizzi i servizi cloud che ci girano attorno. Non è un male assoluto — meglio del lock-in totale, su questo non si discute — ma non è nemmeno l’autogestione tecnologica che qualcuno vorrebbe farci credere. Le alternative genuinamente dal basso esistono: reti di calcolo cooperativo, federazioni di server comunitari, progetti come LibreChat che offrono interfacce AI senza intermediari corporate. Ma sono più piccole, più fragili, infinitamente meno finanziate. Il mercato dell’AI decentralizzata vale 12 miliardi di dollari contro i 12.000 miliardi di quella centralizzata. Non è competizione: è un rapporto di forza di mille a uno.
Quello che servirebbe — e che nessun governo sembra avere il coraggio di fare — è un investimento vero in infrastruttura digitale pubblica. Non sussidi ai data center di Amazon e Google, che è esattamente quello che sta succedendo con agevolazioni fiscali e tariffe energetiche di favore. Piattaforme dati di proprietà collettiva, gestite con standard aperti, accessibili a piccole imprese, ricercatori, comunità territoriali. Il modello esiste: si chiama infrastruttura pubblica, e lo applichiamo (sempre meno, per la verità) a strade, ferrovie, reti elettriche. Non c’è nessuna ragione tecnica per cui non si possa applicare anche ai dati e al computing. Ma c’è una ragione politica, ed è che chi ha i soldi per costruire data center grandi come quartieri non ha nessun interesse a condividere le chiavi. La lentezza del tuo assistente AI non si risolve comprando un database più veloce da un altro vendor. Si risolve ripensando chi possiede, chi gestisce e per chi funziona l’infrastruttura su cui tutta questa roba gira. Finché i tubi resteranno privati, l’acqua scorrerà dove decide chi li ha costruiti.
Domande frequenti
Perché gli agenti AI sono più lenti dei chatbot tradizionali?
Gli agenti AI non eseguono una singola query per richiesta: ne generano decine o centinaia in parallelo, esplorando lo schema del database e testando percorsi diversi. I database tradizionali, progettati per query rare e pesanti, non reggono questa concorrenza e rispondono con latenze elevate che possono superare i 60 secondi nei casi documentati.
Cosa sono i database OLAP colonnari e perché servono per l’AI?
I database OLAP colonnari — come ClickHouse, StarRocks o DuckDB — sono ottimizzati per query analitiche rapide su grandi volumi di dati. A differenza dei data warehouse batch, gestiscono alta concorrenza e bassa latenza, caratteristiche essenziali per i carichi di lavoro degli agenti AI che richiedono risposte in frazioni di secondo.
Cos’è il protocollo MCP e come cambia l’interazione tra AI e database?
MCP (Model Context Protocol) è uno standard aperto creato da Anthropic che consente agli agenti AI di interfacciarsi con database e fonti dati tramite un protocollo comune. Ha raggiunto 97 milioni di download mensili nel marzo 2026 ed è adottato da tutti i principali provider, ma presenta ancora gravi problemi di sicurezza: il 43% delle implementazioni contiene vulnerabilità di command injection.
Quanto consumano energeticamente i data center per l’intelligenza artificiale?
L’Agenzia Internazionale dell’Energia stima un consumo globale dei data center di 1.100 TWh nel 2026, equivalente all’intero fabbisogno elettrico del Giappone. In Italia il consumo raggiungerà 1 GW entro fine anno, con l’energia che rappresenta il 50-70% dei costi operativi e un prezzo dell’elettricità tra i più alti d’Europa a 133,5 euro per MWh.
Esistono alternative open source ai database proprietari per l’AI?
Lo stack Postgres più motore OLAP colonnare (ClickHouse sotto licenza MIT, StarRocks, DuckDB) è l’alternativa tecnica principale. Formati aperti come Apache Iceberg eliminano il vendor lock-in. Tuttavia, lo sviluppo resta guidato da grandi aziende finanziate da venture capital, e le alternative comunitarie e decentralizzate faticano a competere per scala e risorse: il mercato AI decentralizzato vale 12 miliardi contro 12.000 miliardi di quello centralizzato.
La lentezza del tuo assistente AI non è un mistero tecnico irrisolvibile. È il sintomo visibile di un’infrastruttura costruita per estrarre valore, non per servire chi la usa. I database tradizionali non reggono i carichi agentivi, le Big Tech investono 690 miliardi per controllare ogni collo di bottiglia, e l’energia per far girare il tutto supera il consumo di nazioni intere. Le alternative open source e decentralizzate esistono e funzionano, ma restano marginali finché il campo di gioco è inclinato a favore di chi ha il capitale per costruire data center grandi come quartieri e l’influenza politica per ottenere sussidi pubblici. La prossima volta che il tuo assistente AI se la prende comoda, ricordati: non è stupido e non è rotto. È intrappolato in un sistema progettato per fare soldi, non per essere veloce. E finché non cambieranno i rapporti di forza — finché l’infrastruttura resterà nelle mani di cinque aziende californiane — la tua AI continuerà a essere lenta esattamente quanto conviene a loro.
