Server self-hosted con interfaccia AI locale per modelli linguistici - Open WebUI alternativa ChatGPT

Contenuto

Centotrentamila stelle su GitHub, 282 milioni di download e un’idea semplice quanto sovversiva: i tuoi dati restano tuoi. Open WebUI è il progetto che ha trasformato il self-hosting di modelli linguistici da esercizio per smanettoni a esperienza d’uso che rivaleggia con ChatGPT — e per certi versi la supera. Nessun dato esce dalla tua rete. Zero telemetria, zero profilazione, zero dipendenza dai server di OpenAI o di chiunque altro. In un’epoca in cui ogni conversazione con un chatbot commerciale diventa materia prima per l’addestramento del modello successivo — combustibile per la macchina pubblicitaria, materiale potenzialmente accessibile a governi e agenzie di intelligence — la proposta di questa alternativa self-hosted a ChatGPT suona quasi radicale nella sua semplicità: lo installi, lo usi, fine.

ChatGPT è comodo, nessuno lo nega. Ma la comodità ha un prezzo che non trovi scritto in nessun listino: la cessione sistematica dei tuoi pensieri, delle tue domande, delle tue vulnerabilità a un’azienda che risponde ai propri azionisti e non a te. OpenAI conserva le tue conversazioni, le usa per addestrare i modelli successivi — a meno che tu non disattivi esplicitamente l’opzione, sepolta tre menù sotto — e opera sotto la giurisdizione statunitense, il che significa CLOUD Act, richieste governative senza preavviso, zero garanzie reali per chi vive in Europa. Open WebUI ribalta l’equazione. Lo installi sul tuo hardware, scegli i modelli che preferisci — da Llama a Mistral, da Qwen a DeepSeek — e tutto gira in locale, offline se vuoi. La versione 0.8.12, rilasciata il 27 marzo 2026, ha portato miglioramenti alla sicurezza del terminale integrato e nuove ottimizzazioni delle prestazioni, confermando un ritmo di sviluppo che pochi progetti comunitari riescono a sostenere. Questa guida ti accompagna dall’installazione alle funzionalità avanzate, passando per una questione che il tecno-ottimismo preferisce ignorare: la licenza di Open WebUI non è più quella di una volta, e questo cambia le cose più di quanto sembri.

Cos’è Open WebUI e perché 130.000 sviluppatori l’hanno scelto

Open WebUI — nato come Ollama WebUI e poi rinominato nel 2024 — è un’interfaccia web per modelli linguistici di grandi dimensioni che puoi installare ovunque: sul portatile, su un server aziendale, su un NAS casalingo, persino su un Raspberry Pi se hai pazienza e aspettative realistiche. Il progetto è compatibile con Ollama per i modelli locali e con qualsiasi API nel formato OpenAI, il che significa che puoi collegare decine di provider diversi — o nessuno, se vuoi restare completamente scollegato dalla rete. L’interfaccia è pulita, reattiva, e chi ha usato ChatGPT si troverà a casa in pochi secondi: sidebar con le conversazioni a sinistra, campo di input in basso, selezione del modello in alto. Ma sotto il cofano c’è molto di più di un clone estetico, e la differenza si sente appena inizi a usarlo per lavoro vero, non per chiedere ricette di torte.

Il dato che colpisce è la velocità di adozione. Partito come progetto personale di Timothy Baek, Open WebUI ha raggiunto 130.000 stelle su GitHub e 282 milioni di download in poco più di un anno e mezzo — numeri che lo piazzano tra i repository AI più popolari al mondo, sopra progetti sostenuti da miliardi di dollari di venture capital. Questo successo non è casuale e non è hype passeggero: risponde a un bisogno reale e crescente che chiunque segua il settore poteva prevedere. Le aziende iniziano a capire i rischi di affidare dati sensibili a chatbot cloud — bastava leggere la nostra analisi sulla guerra tra LLM open source e modelli chiusi per intuire dove saremmo arrivati — e i governi europei stringono le maglie della regolamentazione sull’AI con normative che rendono l’uso di servizi cloud americani un campo minato legale. Avere un’alternativa self-hosted che funziona davvero, con un’interfaccia che non sembra uscita dal 2005, non è più un lusso da nerd paranoico con il cappello di stagnola. È una necessità operativa per chiunque prenda sul serio la propria privacy e quella dei propri clienti.

Le funzionalità che hanno conquistato la community sono concrete, non slide di una presentazione per investitori. Open WebUI supporta il RAG (Retrieval-Augmented Generation): carichi documenti — PDF, Word, codice sorgente, qualsiasi cosa — e il sistema li indicizza creando una knowledge base che il modello consulta prima di rispondere, producendo risultati ancorati ai tuoi dati specifici e non le solite allucinazioni confident. C’è un sistema di controllo accessi basato sui ruoli (RBAC) che permette di separare amministratori, utenti e accesso ai modelli — fondamentale per deployment aziendali dove non vuoi che il nuovo assunto giochi con il modello da 70 miliardi collegato all’API a pagamento. L’OCR integrato digerisce documenti scansionati, il terminale (Open Terminal) ti permette di navigare file ed eseguire notebook Jupyter direttamente dalla chat, e il supporto multi-modello ti lascia passare da un LLM all’altro con un click, senza cambiare piattaforma. Tutto gira su una singola istanza Docker che consuma meno risorse di Gmail aperto in un tab di Chrome. La versione 0.8.11, rilasciata il 25 marzo 2026, ha introdotto un miglioramento del 25% nelle prestazioni di rendering del markdown e sessioni stateful sperimentali nell’API Responses — non è un progetto che dorme, è un progetto che corre.

Come installare Open WebUI in cinque minuti

Basta con la teoria, mettiamo le mani in pasta. La strada più veloce è Docker, e se non lo hai installato è il momento giusto — su Linux bastano un paio di comandi dal gestore pacchetti della tua distribuzione, su macOS e Windows c’è Docker Desktop con tanto di interfaccia grafica. Il requisito hardware per l’interfaccia è modesto: qualsiasi macchina con 4 GB di RAM ci riesce senza problemi. I modelli linguistici sono un’altra storia — un LLM da 7 miliardi di parametri vuole almeno 8 GB di RAM, uno da 13 miliardi ne chiede 16, per i mostri da 70 miliardi servono 64 GB o più — ma Open WebUI in sé è leggero come un foglio di calcolo vuoto. Ti serve anche Ollama, il server che gestisce download ed esecuzione dei modelli: installalo dal sito ufficiale, scarica un modello con ollama pull llama3 e sei pronto a partire. Se hai già letto la nostra guida a Ollama e LLM in locale sai esattamente di cosa stiamo parlando.

Il comando Docker per avviare Open WebUI è uno solo:

docker run -d -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui --restart always \
  ghcr.io/open-webui/open-webui:main

Apri il browser su http://localhost:3000 e il gioco è fatto. Il primo account che crei diventa automaticamente amministratore — dettaglio da tenere a mente se stai configurando un’istanza per più persone, perché chi arriva primo controlla tutto. Se hai una GPU Nvidia e vuoi sfruttarla per un’inferenza più rapida, usa l’immagine :cuda al posto di :main e aggiungi --gpus all al comando. Per chi vuole tutto in un unico container — Ollama e interfaccia impacchettati insieme — esiste l’immagine :ollama, comoda per testare rapidamente ma meno flessibile quando vorrai aggiornare i componenti separatamente.

Per un uso serio, Docker Compose è la scelta giusta — orchestrazione pulita, aggiornamenti senza drammi, tutto dichiarato in un file. Ecco un docker-compose.yml minimale ma funzionale:

services:
  ollama:
    image: ollama/ollama
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    ports:
      - "3000:8080"
    volumes:
      - open-webui:/app/backend/data
    depends_on:
      - ollama
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
volumes:
  ollama_data:
  open-webui:

Un docker compose up -d e hai sia Ollama che Open WebUI pronti e collegati, senza dover configurare manualmente indirizzi e porte. I volumi Docker mantengono i tuoi dati persistenti tra un aggiornamento e l’altro — conversazioni, configurazioni, knowledge base, tutto sopravvive a un docker pull seguito da un restart del container. Per aggiornare basta fermare i container, tirare le nuove immagini e riavviare. Nessun dato perso, nessuna riconfigurazione, nessun abbonamento da rinnovare il primo del mese.

Se Docker non fa per te — e ci sono ragioni legittime, dai server condivisi dove non puoi installarlo ai puristi che preferiscono evitare la containerizzazione — Open WebUI si installa anche con Python: pip install open-webui && open-webui serve, accessibile su http://localhost:8080. Funziona con Python 3.11, e se usi ambienti virtuali (cosa che dovresti fare, sempre) assicurati di attivare il venv prima di lanciare il comando. Ci sono anche opzioni per Podman — container rootless, scelta decisamente più sicura per chi è attento alla superficie d’attacco —, Kubernetes via Helm chart per deployment enterprise su cluster, e un’app desktop scaricabile da GitHub per chi vuole un’esperienza nativa senza passare dal browser. La flessibilità di deployment è un punto di forza reale: dal portatile dello studente al cluster aziendale, la stessa interfaccia scala senza cambiare una riga di configurazione.

Una volta avviato, il primo passo è collegare un provider di modelli. Se hai Ollama in esecuzione sullo stesso host, Open WebUI lo rileva automaticamente grazie al parametro --add-host nel comando Docker — non serve toccare nulla. Vai nelle impostazioni, scarica un modello — llama3, mistral, qwen2.5, deepseek-r1, ce ne sono centinaia con dimensioni che vanno da 1 a 400 miliardi di parametri — e inizia a chattare. Se preferisci collegare API cloud — Claude di Anthropic, GPT-4 di OpenAI, Gemini di Google — inserisci la chiave API e il gioco è fatto. Il bello è che puoi avere modelli locali e cloud nella stessa interfaccia, passando dall’uno all’altro con un menu a tendina. Privacy per le conversazioni sensibili? Modello locale. Capacità di ragionamento avanzate su un problema complesso? Modello cloud. Nessun vendor lock-in, nessun contratto firmato, nessun Terms of Service da quaranta pagine accettato con gli occhi chiusi.

La questione della licenza che nessuno vuole affrontare

Fin qui tutto bello. Troppo bello, forse, per chi ha imparato a diffidare delle favole tech. Ed infatti c’è un nodo da affrontare senza sconti, perché riguarda la credibilità stessa del progetto come strumento di sovranità digitale. Nell’aprile 2025, Open WebUI ha abbandonato la licenza BSD-3 — una delle più permissive nell’ecosistema open source, quella che ti permette di fare praticamente qualsiasi cosa col codice — per passare a una licenza proprietaria personalizzata, la “Open WebUI License”. Il cambiamento ha scatenato un dibattito furioso su Hacker News e Lobsters, con accuse pesanti e qualche fork annunciato ma mai materializzato, perché forkare un progetto da 130.000 stelle con una codebase enorme non è esattamente un weekend project.

I fatti, nudi e crudi. La nuova licenza vieta di rimuovere, modificare o oscurare il branding “Open WebUI” in qualsiasi deployment o distribuzione. L’eccezione riguarda i deployment con meno di 50 utenti in un periodo di trenta giorni — sotto quella soglia, fai quello che vuoi. Sopra, o compri una licenza enterprise o tieni il logo ben visibile. In parallelo, il progetto ha introdotto un Contributor License Agreement (CLA) che richiede ai contributori di cedere diritti aggiuntivi sul proprio codice — in pratica, firmi una cessione che permette al progetto di rilicenziare il tuo lavoro come preferisce. La giustificazione ufficiale parla di “bad actors” che prendevano il codice, strippavano il branding e lo rivendevano come proprio senza dare nulla in cambio. Una giustificazione che ha una sua logica — il free-riding nei progetti open source è un problema reale e chi ha scritto il codice merita di essere riconosciuto — ma che non cambia la sostanza del problema: chi ha contribuito sotto BSD-3 si ritrova il proprio lavoro sotto una licenza mai accettata, e il CLA garantisce al progetto carta bianca per cambiare ancora le regole quando e come vuole.

Su Hacker News qualcuno l’ha definita “una potenziale mina terrestre di trademark”, e non è un’esagerazione retorica. La licenza non è approvata dall’OSI (Open Source Initiative), il che significa che — tecnicamente — Open WebUI non è più software open source secondo la definizione canonica. È source-available, che è una cosa diversa, come abbiamo spiegato parlando di copyleft e sovranità tecnologica. Per uso personale, per piccoli team, per chi non supera i 50 utenti, la differenza pratica è minima: il codice c’è, lo puoi leggere, modificare, eseguire. Il problema è di principio, e per chi crede nel software libero come strumento di emancipazione collettiva — non come strategia di go-to-market per startup californiane — è un problema serio. La sovranità tecnologica non si costruisce su licenze che possono cambiare domani mattina a discrezione di un singolo maintainer con sede a San Francisco e 40.000 dollari di finanziamento da Mozilla. Esistono alternative genuinamente libere come LibreChat (licenza MIT) che, pur con meno funzionalità e una community più piccola, non pongono questo tipo di rischi esistenziali. Il consiglio? Usa Open WebUI, sfruttalo per quello che vale — che è molto, oggettivamente — ma tieni gli occhi aperti sull’evoluzione della licenza. E se contribuisci codice, leggi il CLA riga per riga prima di firmare qualsiasi cosa.

Oltre la chat: knowledge base, terminale e pipeline personalizzabili

Dove Open WebUI si distingue davvero dalla massa di interfacce per LLM è nelle funzionalità che vanno oltre il semplice botta-e-risposta con il chatbot. Il sistema RAG — ne abbiamo accennato, ma merita un approfondimento serio — è quello che trasforma l’interfaccia da giocattolo a strumento di lavoro quotidiano. Il funzionamento è lineare: carichi i tuoi documenti (PDF, Word, file di testo, codice sorgente, qualsiasi cosa), Open WebUI li processa con OCR se serve, li spezza in chunk, li trasforma in embedding vettoriali e li indicizza in un database locale. Quando fai una domanda, il sistema cerca prima nei tuoi documenti i passaggi più rilevanti, li passa al modello linguistico come contesto aggiuntivo, e ottieni risposte ancorate ai tuoi dati reali — non le solite allucinazioni confident che ti sparano cifre inventate con la sicurezza di un professore universitario. Per un avvocato che interroga la propria giurisprudenza, un ricercatore che lavora su una nicchia iperspecifica, un’azienda con documentazione interna sterminata e dispersa tra mille cartelle, è la funzionalità che da sola giustifica l’installazione. E il fatto che tutto avvenga in locale, senza che i tuoi documenti — contratti, brevetti, dati medici, codice proprietario — finiscano su server altrui, non ha prezzo.

L’Open Terminal, introdotto nelle versioni recenti, è la sorpresa che non ti aspetti da un’interfaccia di chat. Non è un terminale nel senso classico del termine: è un ambiente integrato che ti permette di navigare il filesystem, visualizzare anteprime di immagini e PDF, rinominare file con doppio click, trascinare cartelle con drag-and-drop, eseguire notebook Jupyter cella per cella con controllo completo del kernel, e modificare file HTML con preview in tempo reale. La versione 0.8.8 ha aggiunto il supporto WebSocket per sessioni interattive e un toggle per disabilitare l’intera funzionalità se non ne hai bisogno — scelta intelligente, perché non tutti vogliono un IDE nel proprio chatbot. Il concetto di fondo è semplice ma potente: l’AI non serve solo per conversare, serve per lavorare. E lavorare significa manipolare file, eseguire codice, analizzare dataset, generare report. Avere tutto nella stessa interfaccia, senza saltare tra terminale, IDE, file manager e browser, è un guadagno di produttività che si misura in ore settimanali risparmiate, non in minuti.

Le pipeline personalizzabili chiudono il cerchio per chi vuole spingere l’automazione oltre la chat. Open WebUI permette di creare filtri middleware che processano le richieste prima e dopo il modello linguistico — moderazione dei contenuti generati, arricchimento automatico del contesto con dati da fonti esterne, logging strutturato per audit e compliance, trasformazione del formato di output per integrazione con altri sistemi. Tutto senza toccare il codice sorgente del progetto, attraverso un sistema di plugin che il marketplace della community alimenta con centinaia di tool pronti all’uso, scaricabili con un click dall’interfaccia. E il multi-modello è la ciliegina: nella stessa sessione passi da un LLM locale da 7 miliardi di parametri — veloce, privato, perfetto per task semplici e conversazioni sensibili — a un modello cloud da centinaia di miliardi quando ti serve potenza di fuoco su problemi complessi. Tu scegli quale modello usa quale conversazione, con piena consapevolezza di dove finiscono i tuoi dati in ogni momento. In un’industria che fa di tutto per chiuderti in un ecosistema proprietario dove paghi l’abbonamento e non fai domande, questa libertà di scelta è un piccolo atto di resistenza quotidiana che vale la pena di praticare.

Domande frequenti

Open WebUI è davvero gratuito?
Sì, Open WebUI è gratuito per uso personale e per deployment fino a 50 utenti. Sopra questa soglia, la licenza Open WebUI License richiede di mantenere il branding visibile oppure acquistare una licenza enterprise. Il codice sorgente è disponibile su GitHub, ma attenzione: la licenza attuale non è approvata dall’OSI, quindi tecnicamente non è più open source nella definizione canonica del termine — è source-available, una distinzione che conta.

Quali modelli posso usare con Open WebUI?
Praticamente tutti quelli che esistono. Open WebUI è compatibile con Ollama per i modelli locali — Llama 3, Mistral, Qwen, DeepSeek, Gemma e centinaia di altri — e con qualsiasi API nel formato OpenAI, inclusi Claude di Anthropic, GPT-4 di OpenAI e Gemini di Google. Puoi usare modelli locali e cloud contemporaneamente nella stessa interfaccia, passando da uno all’altro con un click senza riavviare nulla.

Di quale hardware ho bisogno per far girare Open WebUI?
L’interfaccia Open WebUI richiede pochissimo: 4 GB di RAM sono più che sufficienti. La vera domanda riguarda i modelli linguistici che vuoi eseguire in locale con Ollama: un modello da 7 miliardi di parametri vuole almeno 8 GB di RAM, uno da 13 miliardi ne chiede 16, e per i colossi da 70 miliardi servono almeno 64 GB. Una GPU Nvidia con supporto CUDA accelera enormemente l’inferenza — parliamo di 5-10 volte più veloce — ma non è obbligatoria: i modelli girano anche su CPU, semplicemente più lentamente.

Open WebUI funziona completamente offline?
Sì, al 100%. Una volta installato il software e scaricati i modelli tramite Ollama, Open WebUI funziona senza alcuna connessione internet. Nessun dato viene inviato a server esterni, nessuna telemetria nascosta, nessun phone home. È la caratteristica più apprezzata da chi lavora con dati sensibili, in ambienti air-gapped, o semplicemente da chi non vuole regalare le proprie conversazioni a una corporation della Silicon Valley.

Come si aggiorna Open WebUI?
Con Docker bastano due comandi: docker pull ghcr.io/open-webui/open-webui:main per scaricare l’ultima versione e poi un restart del container. I dati sono nel volume Docker, quindi conversazioni, configurazioni e knowledge base sopravvivono all’aggiornamento senza problemi. Con pip, un semplice pip install --upgrade open-webui fa tutto. Il progetto rilascia aggiornamenti ogni una-due settimane — la versione 0.8.12 è uscita il 27 marzo 2026.

Open WebUI dimostra che l’alternativa ai servizi centralizzati non è solo possibile — funziona, ed è già usata da milioni di persone in tutto il mondo. Con 130.000 stelle su GitHub e un ecosistema che cresce a vista d’occhio, non siamo davanti a un esperimento accademico: è l’infrastruttura AI self-hosted più adottata del pianeta. La questione della licenza resta un’ombra, un promemoria scomodo che anche i progetti nati dal basso possono imboccare strade discutibili quando entrano in gioco modelli di business e la tentazione di monetizzare. Ma qui e ora, per chiunque voglia riprendersi il controllo delle proprie conversazioni con l’intelligenza artificiale — senza abbonamenti mensili, senza profilazione, senza dipendere dalla buona volontà di una corporation californiana — Open WebUI è lo strumento più maturo e completo disponibile. Installalo, provalo, sporcati le mani con Docker e Ollama. E poi decidi tu cosa fare dei tuoi dati. Non Sam Altman.