C’è un paradosso che nessuno nel mondo tech ha voglia di affrontare seriamente. L’intelligenza artificiale — quella che ci vendono come rivoluzione democratica, come strumento per «dare potere a tutti» — è nella stragrande maggioranza dei casi uno strumento di controllo. ChatGPT registra ogni tua conversazione. Claude, Gemini, Copilot: tutto passa per server di aziende che rispondono ad azionisti, governi e agenzie di intelligence. Ogni prompt che invii è un dato che alimenta macchine progettate per il profitto, non per la liberazione.
Ma qui la storia si fa interessante, perché esiste un’altra AI. Un’AI che gira sul tuo computer, che non telefona a nessun server, che non censura le tue domande e non segnala le tue ricerche. Nel marzo 2026, Ollama ha superato i 52 milioni di download mensili — un numero che tre anni fa era centomila. Su HuggingFace ci sono oltre 135.000 modelli in formato GGUF ottimizzati per l’inferenza locale. Il progetto llama.cpp, il motore che fa funzionare buona parte di questa infrastruttura, ha superato le 73.000 stelle su GitHub. E i modelli disponibili non sono giocattoli: Llama 4, Qwen 3.5, Mistral, DeepSeek-R1 — siamo ben oltre la fase delle demo scadenti. L’inferenza locale raggiunge ormai il 70-85% della qualità dei modelli proprietari di frontiera, a costo marginale zero per ogni richiesta. Non sono numeri da nicchia: è un ecosistema maturo che funziona su hardware consumer e che — questo è il punto — nessuno controlla dall’alto.
La domanda vera, quella che i movimenti sociali e gli attivisti dovrebbero porsi adesso, non è se l’AI sia buona o cattiva. È un’altra: chi la controlla? E soprattutto — possiamo controllarla noi? Strumenti come Ollama, LM Studio e LocalAI hanno abbassato la soglia tecnica al punto che far girare un modello da miliardi di parametri sul proprio portatile non richiede più competenze da ingegnere. È diventata routine quotidiana per centinaia di migliaia di persone. Ma tra poter far girare un modello e saperlo usare come strumento di lotta, c’è una distanza enorme — ed è quella distanza che vale la pena esplorare.
Cosa ci fai davvero con un LLM che gira sul tuo computer
Facciamo un passo indietro dal tecno-entusiasmo e parliamo di cose concrete, perché la domanda non è se i modelli open source siano tecnicamente impressionanti — lo sono — ma cosa possono fare per chi lotta. E qui il discorso diventa radicalmente diverso da quello che leggi sui blog delle startup.
Prendiamo la traduzione. In Italia ci sono centinaia di sportelli legali, associazioni, collettivi che lavorano con migranti e richiedenti asilo. Queste persone hanno bisogno di tradurre documenti, comprendere lettere delle questure, capire il burocratese di un decreto di espulsione. Oggi molti usano Google Translate — che funziona, certo, ma significa che ogni frase, ogni nome, ogni dettaglio di una pratica d’asilo passa per i server di Mountain View. Con un LLM locale — un Mistral 7B che gira su un portatile con 16 GB di RAM, per dire — la traduzione resta sul tuo computer. Nessun log, nessun tracciamento, nessun dato che finisce in un dataset per addestrare il prossimo modello di Google. Per persone che rischiano l’espulsione, questa non è una sottigliezza tecnica: è una questione di sicurezza. Non è un dettaglio secondario, considerando che dal 2026 il Regolamento europeo sull’AI classifica come «ad alto rischio» i sistemi di intelligenza artificiale utilizzati nelle procedure di asilo e migrazione — il che significa che ogni dato processato attraverso piattaforme cloud è potenzialmente soggetto a requisiti di conformità e audit che i collettivi non possono permettersi di gestire.
Lo stesso ragionamento vale per l’analisi di documenti giuridici. I movimenti per il diritto all’abitare, i comitati che contestano grandi opere, i gruppi che monitorano gli appalti pubblici — tutti si trovano davanti montagne di carta legale. Delibere comunali, contratti, varianti urbanistiche, bilanci. Un LLM locale può sintetizzare documenti di cinquanta pagine, estrarre clausole critiche, confrontare versioni diverse di un testo. Non sostituisce un avvocato (e chi dice il contrario mente), ma moltiplica la capacità di analisi di un gruppo che ha zero budget e tanto tempo da perdere nelle maglie della burocrazia. Modelli open source addestrati specificamente su corpus legali esistono già e raggiungono prestazioni comparabili ai servizi cloud commerciali — con la differenza che i tuoi documenti non escono mai dalla tua macchina.
Poi c’è la generazione di materiale. Volantini, comunicati stampa, post per i social, traduzioni di materiale organizzativo in più lingue. Chi ha fatto attivismo lo sa: la comunicazione mangia tempo, energie, competenze che spesso i movimenti non hanno. Un LLM locale può fare da assistente editoriale — non per sostituire la voce politica del gruppo, ma per accelerare il lavoro sporco. Bozze da rivedere, versioni in lingue diverse, adattamenti di un testo lungo per diversi canali. Tutto senza abbonamenti a servizi cloud, senza limiti di utilizzo, senza il rischio che il provider decida che il tuo contenuto «viola le linee guida della community» — una formula che, detto senza mezzi termini, è censura privatizzata. Perché quando un’azienda decide cosa puoi o non puoi generare con il suo modello, sta esercitando un potere editoriale che nessuno le ha delegato democraticamente.
Il monitoraggio delle forze dell’ordine è un altro campo dove l’AI locale potrebbe fare la differenza. Analisi di dati pubblici sugli interventi di polizia, incrocio di informazioni da fonti aperte, identificazione di pattern nelle pratiche di fermo e controllo — ne abbiamo parlato anche a proposito della polizia predittiva e dei suoi limiti. Negli Stati Uniti, organizzazioni come la Electronic Frontier Foundation e diversi copwatch locali stanno esplorando queste possibilità. In Italia siamo indietro, ma gli strumenti esistono, e il punto è che un’analisi fatta con un LLM cloud lascia tracce digitali su chi la sta facendo e perché. Un’analisi fatta in locale, no. Il punto che tiene insieme tutto questo non è tecnico. È politico. L’AI che gira sul tuo hardware non traccia, non censura, non segnala. Non ha un «team di sicurezza» che decide cosa puoi e cosa non puoi chiedere — quella moderazione che le big tech spacciano per responsabilità e che in realtà è controllo sulla conoscenza. Quando OpenAI decide che il suo modello non risponde a certe domande, sta facendo una scelta politica mascherata da scelta tecnica. Un LLM locale ti restituisce quel potere.
Il muro delle GPU e il divario digitale dell’AI dal basso
Fin qui tutto bello, ma sarebbe disonesto non parlare dell’elefante nella stanza. Far girare un LLM in locale richiede hardware, e l’hardware costa. Un modello piccolo come Mistral 7B gira ragionevolmente su un portatile recente con 16 GB di RAM. Ma i modelli più capaci — quelli da 70 miliardi di parametri, che sono poi quelli che davvero fanno la differenza nell’analisi di documenti complessi o nella traduzione di qualità — hanno bisogno di GPU dedicate. Una NVIDIA RTX 4090 costa intorno ai 1.800 euro. Per far girare Llama 3 70B in modo fluido ne servono due, o una A100 che ne costa diecimila. Queste cifre, per un collettivo autogestito o un’associazione che vive di donazioni, sono semplicemente proibitive. Il mercato delle GPU usate offre qualche spiraglio — le vecchie RTX 3090 si trovano a prezzi più accessibili — ma resta il fatto che l’hardware per l’AI seria non è economico, e chi lo nega sta vendendo fumo.
C’è poi la questione delle competenze. Ollama ha semplificato enormemente il processo — installi, scarichi il modello, lanci un comando — ma resta una distanza enorme tra «funziona sul mio portatile» e «è integrato nel flusso di lavoro del nostro sportello legale». Servono persone che capiscano come quantizzare un modello, come scegliere tra Q4_K_M e Q5_K_S in base alla RAM disponibile, come configurare un’interfaccia web che chiunque nel gruppo possa usare senza aprire un terminale. Non è roba da ingegneri NASA, ma non è nemmeno alla portata di tutti — e pretendere il contrario è quella forma di paternalismo tech che nasconde i problemi sotto il tappeto dell’ottimismo.
Il divario digitale nell’AI locale riproduce, con precisione quasi chirurgica, le disuguaglianze che già conosciamo. Chi ha un portatile nuovo con un processore Apple Silicon o una GPU NVIDIA recente può far girare modelli impressionanti. Chi ha un computer vecchio di cinque anni — cioè la maggior parte delle persone nei contesti di base, nei centri sociali, negli sportelli di periferia — si ritrova con un modello che impiega trenta secondi a generare una frase. La promessa dell’AI per tutti si schianta contro la realtà materiale: l’hardware è distribuito in modo ineguale tanto quanto la ricchezza, perché è ricchezza. Come abbiamo visto parlando del confronto tra LLM open source e modelli chiusi, la partita non si gioca solo sui pesi del modello — si gioca sull’infrastruttura, sulle risorse materiali, sul potere economico che sta dietro ogni singolo token generato.
Non è un caso che il discorso sull’AI locale venga quasi sempre da sviluppatori con MacBook Pro da 4.000 euro. C’è un privilegio materiale nascosto dentro l’entusiasmo per l’inferenza locale che nessuno vuole ammettere, e che però determina chi può davvero usare questi strumenti e chi resta tagliato fuori. Per un centro antiviolenza che lavora con donne in situazioni di pericolo — e che avrebbe bisogno disperato di strumenti di comunicazione sicuri e non tracciabili — la barriera non è la mancanza di volontà o di consapevolezza. È il costo di una scheda grafica. Meredith Whittaker, presidente di Signal e co-fondatrice dell’AI Now Institute, lo dice con una chiarezza brutale: l’open source nell’AI non è la stessa cosa dell’open source nel software. Nel software, «open source» significava protocolli tecnici precisi e processi genuinamente decentralizzanti. Nell’AI, dice Whittaker, è tutta un’altra faccenda — più «vibes-based» che tecnica, per usare le sue parole. Puoi avere il codice del modello, i pesi, la licenza MIT. Ma servono comunque enormi quantità di dati, lavoro e infrastruttura per fare qualcosa di utile. E queste risorse ce le hanno sempre gli stessi.
Cooperative di calcolo e infrastrutture autonome
Se il problema è l’accesso alle risorse di calcolo, la soluzione non può essere individuale. «Comprati una GPU migliore» non è una risposta — è il riflesso condizionato di chi pensa in termini di mercato anche quando il problema è collettivo. La risposta, semmai, è nella condivisione delle risorse e nella costruzione di infrastrutture comuni. E qui qualcosa si muove davvero.
Il concetto di cooperativa di calcolo non è nuovo — i cluster distribuiti esistono dagli anni ’90, da SETI@home in poi — ma nell’era dei LLM assume un significato radicalmente diverso. L’idea è semplice: mettere in rete le GPU disponibili in una comunità per creare un’infrastruttura condivisa su cui far girare modelli più grandi e performanti di quelli che ogni singola macchina potrebbe gestire. Progetti come GPUStack, un gestore di cluster GPU open source che orchestra motori di inferenza come vLLM e SGLang, rendono tecnicamente possibile quello che una volta richiedeva un datacenter. OpenGPU sta costruendo una rete decentralizzata con oltre 260 provider e costi inferiori del 70% rispetto ai servizi cloud tradizionali. A marzo 2026, NVIDIA ha donato alla Cloud Native Computing Foundation il suo driver DRA per GPU — uno strumento che gestisce l’allocazione dinamica delle risorse di calcolo nei cluster Kubernetes. Paradossalmente, è un regalo anche per chi vuole costruire infrastrutture dal basso, perché rende accessibili strumenti che prima esistevano solo nei datacenter delle big tech.
Ma la tecnologia da sola non basta, e qui torniamo al discorso politico. Una cooperativa di calcolo per movimenti sociali non è un progetto tecnico: è un progetto organizzativo. Significa trovare dieci, venti, cinquanta persone disposte a mettere in rete le proprie macchine. Significa stabilire regole di governance — chi decide quali modelli far girare, chi ha accesso, come si gestiscono i costi energetici, perché le GPU consumano e l’elettricità la paga qualcuno. Significa costruire fiducia, che è la risorsa più scarsa e più preziosa in qualsiasi progetto collettivo. I mesh network comunitari — reti wireless autogestite come quelle di Freifunk in Germania o Guifi.net in Catalogna — hanno dimostrato che queste cose si possono fare. Ma ci vogliono anni, non mesi, e servono persone con competenze tecniche disposte a mettere il loro sapere al servizio della comunità senza aspettarsi un ritorno economico. Il parallelo con il movimento del software libero e la sovranità tecnologica è evidente: gli strumenti ci sono, quello che manca è l’organizzazione.
Un modello concreto potrebbe funzionare così: un hackerspace o un centro sociale acquista collettivamente due o tre GPU di fascia media — non le A100 da diecimila euro, ma delle RTX 4060 o 4070 da quattro-cinquecento euro l’una — le monta in un server, ci installa GPUStack o una configurazione LocalAI con backend vLLM, e offre il servizio di inferenza agli sportelli legali, alle associazioni per migranti, ai collettivi del territorio. Il costo? Forse duemila euro per l’hardware iniziale, più l’elettricità. Meno di quanto molte associazioni spendono in un anno di abbonamenti software. L’idea non è fantasia: nei Paesi Bassi, in Germania, in Spagna esistono già esperienze simili legate al movimento dei server autogestiti e delle reti comunitarie. In Italia, con la tradizione dei centri sociali e degli spazi autogestiti, il terreno sarebbe fertile — se qualcuno decidesse di piantare il seme.
Le università potrebbero giocare un ruolo cruciale in questo scenario. La ricerca accademica mostra che nei campus l’utilizzo delle GPU è fortemente sbilanciato — ci sono momenti di picco e lunghi periodi di inattività in cui risorse di calcolo enormi restano ferme. Un progetto di GPU sharing tra università e comunità locali non richiederebbe investimenti enormi, ma una volontà politica che oggi manca quasi completamente. L’accademia italiana, salvo rare eccezioni, continua a trattare l’AI come una questione puramente tecnica, ignorando sistematicamente la dimensione politica e sociale del calcolo — quella dimensione che invece è il cuore della questione.
L’open source non basta: serve un progetto politico
Sarebbe comodo chiudere questo discorso con un tono trionfale — l’open source ci salverà, basta installare Ollama e la rivoluzione è fatta. Ma non è così, e fingere che lo sia significherebbe cadere nella stessa trappola del tecno-ottimismo che critichiamo nelle big tech. L’AI Now Institute, nel suo report «Artificial Power» del 2025, smonta con precisione chirurgica la narrazione dell’open source come antidoto alla concentrazione di potere. Il concetto chiave è quello di «arbitraggio narrativo»: le aziende che rilasciano modelli open source — Meta con Llama, Mistral AI con i suoi modelli, Alibaba con Qwen — lo fanno perché l’aura di democratizzazione migliora la loro immagine e costruisce ecosistemi dipendenti dalle loro piattaforme. Ma i modelli aperti non sfidano il potere concentrato. Non toccano le reti di distribuzione, le economie di scala, la capacità di definire standard e tooling. Non mettono in discussione il fatto che addestrare un modello di frontiera costa centinaia di milioni di dollari — soldi che hanno solo le stesse aziende che vogliamo contestare. Rilasciano il prodotto finito, certo, ma il processo produttivo resta nelle loro mani.
Il nocciolo della questione è che la tecnologia è una condizione necessaria ma non sufficiente. Avere un LLM open source che gira sul tuo computer è un inizio, non una conclusione. La vera domanda — quella che la maggior parte della community tech evita accuratamente — è: quali strutture sociali, organizzative, economiche servono perché questi strumenti diventino realmente accessibili per chi ne ha più bisogno? La risposta non è tecnica. È politica, organizzativa, comunitaria. Servono cooperative, non startup. Servono reti di mutuo aiuto, non marketplace. Servono formatori disposti ad andare nei centri sociali a fare workshop su Ollama, non webinar per sviluppatori già convinti. Serve una cultura del sapere condiviso che la logica del profitto corrode ogni giorno di più. La Human Rights Foundation, con il suo programma «AI for Individual Rights», sta esplorando come l’intelligenza artificiale possa servire i diritti individuali anziché schiacciarli. Ma queste iniziative, per quanto meritorie, restano gocce in un oceano dominato da chi l’AI la costruisce per sorvegliare, vendere e fare la guerra.
L’AI locale e open source non è né la salvezza né una moda passeggera. È uno strumento — e come tutti gli strumenti, il suo valore dipende da chi lo usa, come e per cosa. Un Llama che gira su un server autogestito in un centro sociale è una cosa radicalmente diversa da un Llama deployato su AWS per una startup di marketing. Stesse tecnologie, progetti opposti. Il gap da colmare non è solo tecnico — è organizzativo, culturale, politico. Servono meno articoli entusiasti su quanto sia facile far girare un modello in locale e più persone disposte a portare quella competenza dove serve davvero: nei quartieri, negli sportelli, nelle lotte quotidiane di chi non ha voce. Perché alla fine la tecnologia che non si organizza dal basso viene sempre organizzata dall’alto — e sappiamo bene nell’interesse di chi.
