Sala server con rack illuminati e cavi di rete - cloud AI open source alternativa agli hyperscaler

Contenuto

C’è un momento, nella storia di ogni monopolio, in cui qualcuno decide di alzare la testa. Alla KubeCon Europe 2026 di Londra, quel momento è arrivato sotto forma di un annuncio che — sulla carta — sembra l’ennesima partnership tra vendor: SUSE Rancher Prime e SUSE AI entrano nel marketplace di Vultr. Due nomi che a chi non mastica infrastruttura cloud dicono poco, ma che nel sottobosco del computing enterprise rappresentano una dichiarazione di guerra, o almeno di guerriglia aperta, contro il dominio incontrastato di AWS, Microsoft Azure e Google Cloud.

Il tempismo non è casuale. I costi del cloud per i carichi di lavoro legati all’intelligenza artificiale sono letteralmente esplosi, con gli hyperscaler che applicano tariffe per le GPU fino a sei volte superiori rispetto ai provider alternativi. Un’ora di NVIDIA H100 su AWS costa circa 6,88 dollari; su provider come Vultr il prezzo scende sotto i 3 dollari. Moltiplica per migliaia di ore di inferenza al mese e capisci perché le aziende stanno cercando disperatamente una via d’uscita. Ma il punto non è solo il prezzo — è il potere. Chi controlla l’infrastruttura su cui gira l’AI controlla, nei fatti, l’AI stessa. E oggi quel potere è concentrato nelle mani di tre colossi americani che detengono oltre il 65% del mercato cloud globale. La vera domanda, quella che nessun comunicato stampa avrà mai il coraggio di formulare, è un’altra: cambiare fornitore cloud significa davvero liberarsi, o è solo scegliere un padrone diverso?

Il racket del cloud: come tre aziende hanno costruito la gabbia dell’AI

Non serve un dottorato in economia per capire il modello di business degli hyperscaler. È un meccanismo vecchio quanto il capitalismo stesso, rivestito di terminologia cloud-native. Ti attirano con crediti gratuiti e prezzi di ingresso ragionevoli — a volte persino generosi — poi ti legano con servizi proprietari che rendono la migrazione un incubo tecnico, organizzativo e finanziario. Il vendor lock-in non è un effetto collaterale del cloud: è il prodotto principale. AWS ha costruito un ecosistema di oltre 200 servizi interconnessi, ciascuno progettato meticolosamente per rendere un po’ più costoso e un po’ più complicato andarsene. Azure replica la stessa logica con l’integrazione forzata di Microsoft 365, Active Directory e l’intero stack enterprise di Redmond. Google Cloud, con meno quote di mercato, compensa spingendo BigQuery e Vertex AI come dipendenze apparentemente irrinunciabili.

Con l’esplosione dell’intelligenza artificiale, questa dinamica si è fatta ancora più tossica. I carichi di lavoro di inferenza AI — quelli che alimentano chatbot, motori di raccomandazione, analisi predittive, agenti autonomi — richiedono GPU potenti e costosissime. E le GPU, nel cloud degli hyperscaler, hanno un prezzo che sfida qualsiasi logica di libero mercato. Le differenze sono abissali: un’istanza con GPU H100 su Azure può arrivare a 12,29 dollari l’ora, mentre provider alternativi offrono lo stesso identico hardware a 2-3 dollari. Il conto reale, però, è ancora più salato. I costi nascosti — trasferimento dati in uscita (il famigerato egress), storage, networking, monitoraggio, logging, governance — aggiungono dal 20 al 40% in più rispetto alle tariffe pubblicizzate. Gli hyperscaler applicano da 0,08 a 0,12 dollari per gigabyte di dati in uscita: una sorta di pedaggio digitale per chi ha l’ardire di voler spostare i propri dati altrove. Un riscatto, se vogliamo chiamare le cose con il loro nome.

Il mercato europeo del cloud, che vale oltre 100 miliardi di euro, è dominato per circa l’80% da operatori statunitensi. In Italia la situazione è ancora più critica: le richieste di allaccio alla rete elettrica per nuovi data center hanno toccato i 69 GW in un solo anno, ma la stragrande maggioranza di queste strutture servirà gli interessi di Amazon, Microsoft e Google — non quelli delle comunità locali, delle piccole imprese o degli enti pubblici italiani. È colonialismo digitale nella sua forma più concreta: infrastrutture costruite sul nostro territorio, alimentate dalla nostra energia, gestite da lavoratori italiani, per estrarre valore a esclusivo beneficio di azionisti della Bay Area. La questione è politica, prima ancora che tecnica. Quando un ospedale, un’università, un ente pubblico affida i propri dati e i propri modelli AI a un hyperscaler americano, sta cedendo sovranità — non in senso metaforico, ma in senso letterale e giuridico. Quei dati sono soggetti al CLOUD Act statunitense, che permette alle autorità americane di accedere ai dati conservati da aziende USA indipendentemente dalla localizzazione fisica dei server. Chi ha il potere in questo scenario? Non le aziende europee che pagano il servizio. Non i cittadini i cui dati alimentano modelli di AI. Il potere ce l’hanno tre aziende di Seattle, Redmond e Mountain View. Punto.

Lo stack aperto: Vultr, SUSE Rancher e l’infrastruttura che non ti incatena

L’accordo tra Vultr e SUSE merita attenzione perché non è la solita integrazione tra due vendor che vogliono vendersi a vicenda i clienti. È un tentativo — ambizioso, discutibile quanto si vuole, ma concreto — di costruire uno stack infrastrutturale basato su componenti open source per far girare carichi di lavoro AI su Kubernetes senza le catene degli hyperscaler. Vultr porta l’hardware: istanze con GPU NVIDIA B200, H100 e AMD MI300X distribuite su 32 regioni globali, con capacità di inferenza serverless. Il provider si autodefinisce “hyperscaler alternativo” — un’espressione che suona un po’ come “capitalismo dal volto umano”, ma che nella pratica significa prezzi significativamente più bassi e un’architettura meno infarcita di servizi proprietari. SUSE porta il software: Rancher Prime per la gestione dei cluster Kubernetes, SUSE AI per inferenza e addestramento dei modelli, e un framework di sicurezza zero-trust che copre l’intero stack. Il pacchetto è disponibile nel marketplace di Vultr, pronto da deployare senza dover attraversare i nove gironi dell’inferno burocratico che normalmente separano un’idea dal suo deploy in produzione.

Chi ha già letto il nostro approfondimento su perché la tua AI è così lenta sa che il collo di bottiglia dell’intelligenza artificiale in produzione non è quasi mai il modello in sé, ma l’infrastruttura sottostante. Ed è proprio su questo terreno che la combinazione SUSE-Vultr diventa interessante. Per un team di platform engineering, poter applicare gli stessi principi, le stesse policy e gli stessi workflow già usati per le applicazioni cloud-native anche ai carichi AI — senza imparare un ecosistema completamente nuovo e, soprattutto, senza firmare un contratto pluriennale con un hyperscaler — è un vantaggio reale e misurabile in termini di flessibilità operativa e riduzione del rischio.

C’è un dettaglio tecnico che merita di essere evidenziato. NVIDIA, alla stessa KubeCon, ha donato il suo driver DRA (Dynamic Resource Allocation) per GPU alla Cloud Native Computing Foundation, trasferendo la governance dalla singola azienda alla comunità open source. Anche il KAI Scheduler — lo scheduler ottimizzato per carichi AI ad alte prestazioni — è entrato come progetto sandbox nella CNCF. Prese singolarmente, queste mosse sembrano atti di generosità corporate. Prese insieme, raccontano una storia diversa: NVIDIA sa perfettamente che il futuro dell’infrastruttura AI è Kubernetes, e vuole assicurarsi che il suo hardware sia lo standard de facto ovunque — non solo nei giardini recintati degli hyperscaler. Interesse egoistico illuminato? Certamente. Ma il risultato netto è che gli strumenti per costruire infrastruttura AI open source diventano più maturi, più testati, più accessibili a chiunque voglia usarli.

SUSE stessa sta evolvendo rapidamente. L’ultima versione di Rancher Prime include Liz, un assistente basato su AI che orchestra agenti specializzati in storage, sicurezza, osservabilità e gestione della flotta di cluster. L’82% degli utenti di container oggi usa Kubernetes in produzione — un dato che rende Kubernetes non più una scelta ma lo standard di fatto — e SUSE si sta posizionando come la piattaforma che unifica gestione dei container, carichi AI e virtualizzazione. Non è l’unica: Red Hat con OpenShift gioca esattamente lo stesso gioco. Ma la differenza, almeno sulla carta, è che lo stack SUSE-Vultr punta sulla portabilità come valore fondante, non come slogan di marketing.

Kevin Cochrane, chief marketing officer di Vultr, ha lanciato un avvertimento durante la KubeCon che merita attenzione. Ha messo in guardia dal fenomeno dei “neo-cloud”: startup che hanno raccolto capitali enormi per offrire hardware AI specializzato ma che — dice Cochrane — mancano di tutto il resto.

“Le aziende enterprise alla fine non li toccano. Quando arriva il CISO, quando arriva il team di SecOps, quando arriva il team di rete con la loro checklist… non trovano molto.”

È una critica legittima ai tanti provider GPU-as-a-service spuntati come funghi negli ultimi due anni. Ma è anche — e non facciamo finta di non vederlo — un modo per Vultr di posizionarsi come il giusto compromesso tra hyperscaler costosi e neo-cloud immaturi, sfruttando i suoi 14 anni di storia come cloud pubblico. Il mercato dell’inferenza enterprise è il terreno su cui Vultr vuole combattere la sua battaglia: quelle aziende che hanno superato la fase sperimentale dell’AI e ora devono far girare modelli in produzione, su sistemi mission-critical, con tutti i vincoli di compliance e sicurezza che questo comporta.

Sovranità digitale europea: il grande bluff e le alternative che nessuno finanzia

Il dibattito sulla sovranità digitale in Europa è diventato un genere letterario a sé stante. Convegni, white paper, dichiarazioni d’intenti, strategie pluriennali — e intanto il divario con gli USA si allarga anno dopo anno. L’InvestAI, l’iniziativa europea da 200 miliardi di euro per l’intelligenza artificiale, è un numero impressionante sulla carta. Ma chi ha studiato come funzionano questi programmi di finanziamento europei sa che buona parte di quei fondi finirà nelle casse di aziende americane, semplicemente perché l’Europa non ha un’alternativa credibile su larga scala ai tre hyperscaler. OVHcloud, che ha appena annunciato investimenti significativi in Italia puntando proprio sulla carta della sovranità dei dati, è forse l’unico operatore europeo che può giocare una partita seria — ma la sua quota di mercato resta una frazione microscopica di quella di AWS.

Il paradosso europeo è tutto qui: si proclama la sovranità digitale e si costruisce l’infrastruttura AI sui binari di chi quella sovranità la minaccia quotidianamente. È come dichiarare l’indipendenza energetica mentre si importa il 95% del gas. L’European Edge Continuum — la rete federata di infrastrutture edge degli operatori telefonici europei — è un tentativo interessante ma embrionale. GAIA-X, il progetto per un cloud europeo federato, è diventato il simbolo perfetto della burocrazia che strangola l’innovazione: nato nel 2020 con grandi ambizioni, sei anni dopo è ancora una costellazione di gruppi di lavoro, documenti di governance e specifiche tecniche che nessuno implementa. Non è un caso che chi conosce le alternative open source alle big tech sappia perfettamente che gli strumenti per costruire infrastruttura indipendente esistono già — il problema non è mai stato tecnologico, ma politico ed economico.

Uno stack basato su Kubernetes open source, con Rancher come piano di controllo e un provider come Vultr, OVHcloud o Hetzner come fornitore di compute, offre un livello di portabilità che gli hyperscaler non possono e non vogliono offrire. Se domani il tuo provider cambia le condizioni, migrare un cluster Rancher su un altro è un’operazione fattibile in settimane. Fare lo stesso con un’architettura costruita su servizi proprietari di AWS — Lambda, DynamoDB, SageMaker, Step Functions, tutti intrecciati tra loro — richiede mesi di lavoro e spesso milioni di euro. La portabilità non è un dettaglio tecnico: è potere contrattuale. È la differenza tra un inquilino che può cambiare casa e uno che è incatenato al muro.

Per l’Italia, la partita è ancora più importante. Il boom dei data center nel nostro paese — con investimenti stimati in 37 miliardi di euro — rischia di trasformarsi nell’ennesima occasione sprecata se queste infrastrutture serviranno solo a ospitare i rack di multinazionali straniere. La vera sovranità digitale non si costruisce attirando investimenti esteri per data center che estraggono valore dal territorio. Si costruisce sviluppando competenze locali, formando ingegneri e tecnici, creando cooperative tecnologiche, finanziando infrastrutture controllate da comunità e istituzioni radicate nel territorio. Gli stack aperti come quello proposto da SUSE e Vultr sono strumenti necessari per questa costruzione dal basso. Ma gli strumenti, senza la volontà politica di usarli e senza un modello economico che li renda accessibili anche ai piccoli, restano scatole vuote.

Non basta cambiare padrone: i limiti della rivoluzione cloud

Sarebbe da ingenui presentare Vultr come il cavaliere bianco che libera le aziende dalla tirannia degli hyperscaler. Vultr è un’azienda privata, finanziata da venture capital, con le sue strategie di fidelizzazione — chiamiamolo pure lock-in soft — e i suoi interessi commerciali perfettamente legittimi ma perfettamente capitalisti. La differenza di prezzo è reale e significativa, ma una differenza di prezzo non è una differenza di paradigma. Pagare meno per lo stesso tipo di servizio centralizzato non cambia la struttura del potere: la rende solo più economica. E un padrone che costa meno resta pur sempre un padrone.

Il vero cambio di paradigma sarebbe un’infrastruttura AI controllata dalle comunità che la usano. Cooperative di calcolo distribuito, data center gestiti da enti pubblici o associazioni, reti federate di computing che rispondono a utenti e non ad azionisti. Non sono utopie da sognatori: esempi concreti esistono già, e funzionano. Guifi.net in Catalogna gestisce un’infrastruttura di rete comunitaria che serve oltre 70.000 nodi. Il progetto Petals permette di far girare modelli linguistici di grandi dimensioni distribuiti su hardware donato da volontari sparsi per il mondo. Cooperative europee di hosting come Webarchitects nel Regno Unito o Hostsharing in Germania gestiscono infrastruttura server con governance democratica — una macchina, un voto, non una quota azionaria. Sono esperimenti su piccola scala, certo. Ma dimostrano che il modello è tecnicamente praticabile e socialmente desiderabile.

C’è poi un elefante nella stanza di cui nessuno vuole parlare: NVIDIA. Lo stack “aperto” di SUSE e Vultr gira quasi interamente su GPU NVIDIA — e per quanto il software sia open source e la governance del driver DRA sia passata alla comunità, la dipendenza dall’hardware di un singolo produttore con margini del 70% e una posizione di quasi-monopolio resta una vulnerabilità strutturale enorme. AMD con le MI300X e Intel con i suoi acceleratori Gaudi stanno provando a erodere questo dominio, ma la strada è lunga e in salita. Fino a quando non ci sarà vera competizione nel mercato delle GPU per intelligenza artificiale, qualsiasi discorso sulla libertà infrastrutturale è inevitabilmente monco — stai scegliendo il cloud e il software, ma l’hardware te lo detta Jensen Huang.

E poi c’è la questione dell’accesso, che forse è la più importante di tutte e quella di cui si parla meno. Un’azienda enterprise con budget milionari e un team dedicato di platform engineering può sfruttare lo stack SUSE-Vultr per risparmiare e guadagnare flessibilità. Ottimo per loro. Ma una piccola cooperativa, un’organizzazione no-profit, un collettivo di ricercatori indipendenti, un’associazione di attivisti che vuole usare l’AI per le proprie campagne? Per loro, anche i prezzi “alternativi” di Vultr restano proibitivi. L’infrastruttura AI democratica — quella che servirebbe davvero per redistribuire il potere tecnologico dal basso — richiede modelli economici completamente diversi: hosting cooperativo, hardware condiviso e riutilizzato, modelli AI ottimizzati per girare su risorse limitate, reti federate di calcolo a cui chiunque possa contribuire. Il movimento open source ha dimostrato con Linux, con Firefox, con Signal che è possibile costruire alternative ai monopoli partendo dal basso e senza un centesimo di venture capital. La sfida dell’infrastruttura AI è di un ordine di grandezza superiore, perché richiede non solo codice libero ma anche hardware costoso e quantità enormi di energia. Ma impossibile e difficile sono due parole diverse.

La partnership SUSE-Vultr è un passo nella direzione giusta — più scelta, più portabilità, meno dipendenza dai soliti tre nomi. Chi lavora nell’infrastruttura cloud farebbe bene a valutarla seriamente. Ma non confondiamo un miglioramento incrementale con una rivoluzione. La vera rivoluzione nell’infrastruttura AI — se mai arriverà — partirà dal basso, dalle comunità, dai collettivi, dalle cooperative. Oppure, molto semplicemente, non sarà affatto.

Domande frequenti

Cos’è un hyperscaler e perché domina l’infrastruttura AI?

Un hyperscaler è un provider cloud che opera su scala globale massiva — i tre principali sono AWS (Amazon), Azure (Microsoft) e Google Cloud. Dominano l’infrastruttura AI perché hanno investito miliardi in GPU e data center prima di chiunque altro, creando un ecosistema di servizi proprietari che rende estremamente costoso e complesso migrare altrove. Il risultato è un oligopolio che controlla oltre il 65% del mercato cloud mondiale e applica tariffe per le GPU AI fino a sei volte superiori rispetto ai provider alternativi.

Quanto si risparmia davvero usando Vultr al posto di AWS o Azure per l’inferenza AI?

I numeri parlano chiaro: un’istanza con GPU NVIDIA H100 su AWS costa circa 6,88 dollari l’ora, su Azure fino a 12,29 dollari l’ora. Su Vultr e provider alternativi simili, lo stesso hardware parte da 2-3 dollari l’ora. A questo si aggiungono i costi nascosti degli hyperscaler — egress dei dati, storage, monitoraggio — che possono aumentare il conto del 20-40%. Su scala enterprise, parliamo di risparmi nell’ordine delle centinaia di migliaia di euro all’anno.

SUSE Rancher è davvero open source o è un prodotto commerciale mascherato?

Rancher nasce come progetto genuinamente open source, acquisito da SUSE nel 2020. Oggi esiste in due versioni: la community edition, completamente open source e gratuita, e Rancher Prime, la versione enterprise con supporto commerciale, funzionalità aggiuntive e certificazioni di sicurezza. Il codice core resta aperto e ispezionabile. È un modello open-core — non perfetto dal punto di vista purista del software libero, ma nettamente più trasparente dei servizi Kubernetes proprietari degli hyperscaler come EKS, AKS o GKE.

L’Europa ha alternative credibili agli hyperscaler americani per l’infrastruttura AI?

Poche, e nessuna alla stessa scala. OVHcloud è il player europeo più credibile, con data center in Europa e una politica esplicita di sovranità dei dati. Hetzner offre server dedicati e GPU a prezzi competitivi dalla Germania. Scaleway, parte del gruppo Iliad, opera dalla Francia. Ma nessuno di questi ha la capillarità globale o la gamma di servizi di AWS o Azure. L’iniziativa europea InvestAI da 200 miliardi potrebbe cambiare le cose, ma la storia di GAIA-X insegna che tra gli annunci e la realtà operativa c’è spesso un abisso.

Come posso ridurre la dipendenza dagli hyperscaler per i miei carichi AI?

Il primo passo è progettare per la portabilità: usa Kubernetes come orchestratore (non i servizi managed proprietari), containerizza tutto, evita di costruire su servizi specifici di un singolo provider. Stack come SUSE Rancher permettono di gestire cluster su qualsiasi infrastruttura — cloud, on-premise, edge — con lo stesso piano di controllo. Valuta provider alternativi come Vultr, OVHcloud o Hetzner per i carichi GPU. Per chi ha competenze tecniche, la colocation con hardware proprio resta l’opzione con il massimo controllo e, sul lungo periodo, i costi più bassi.