A metà marzo 2026, il Comitato Nazionale Repubblicano per il Senato ha pubblicato un video di 85 secondi in cui James Talarico — candidato democratico al Senato in Texas — sembra leggere con orgoglio i propri tweet più controversi, commentandoli con frasi che non ha mai pronunciato. Il video è un deepfake, generato interamente con intelligenza artificiale, e per quasi tutta la sua durata compare la scritta “AI GENERATED” sullo schermo. Il punto non è che fosse dichiarato: il punto è che funziona lo stesso. Quando vedi un volto realistico che muove le labbra e pronuncia parole con la voce giusta, il tuo cervello registra l’immagine prima di leggere il disclaimer in corpo otto nell’angolo. Questo è solo l’ultimo capitolo di una storia che va avanti da anni, ma che nel 2026 ha raggiunto una scala industriale che dovrebbe toglierti il sonno.
La disinformazione alimentata dall’intelligenza artificiale non è più un problema del futuro: è il presente, ed è il rischio globale numero uno secondo il World Economic Forum. Troll farm potenziate da modelli linguistici, deepfake audio e video indistinguibili dall’originale, sciami di bot autonomi capaci di simulare il consenso popolare — tutto questo non è fantascienza, è la cassetta degli attrezzi di chiunque voglia manipolare l’opinione pubblica. Che si tratti del Cremlino, di un partito politico o di un miliardario con un’agenda, poco cambia. E la domanda che dovresti farti non è se ti hanno mai ingannato con un contenuto generato dall’AI. La domanda è: quante volte è successo senza che te ne accorgessi?
Dalle troll farm agli sciami autonomi: la fabbrica delle bugie si è automatizzata
Ti ricordi dell’Internet Research Agency? La fabbrica di troll di San Pietroburgo, finanziata dall’oligarca Evgenij Prigožin, che durante le elezioni americane del 2016 gestiva centinaia di account falsi con operatori umani pagati per seminare discordia sui social network. Quella roba oggi sembra artigianato. Il salto è avvenuto nel 2024, quando il Dipartimento di Giustizia americano ha smascherato Meliorator, un software sviluppato da affiliati di Russia Today capace di creare automaticamente profili social credibili — con foto, biografie, storie personali coerenti — e farli postare contenuti di disinformazione calibrati per nazionalità, lingua e contesto politico del paese bersaglio. Meliorator non è un bot che ripete sempre la stessa frase: è un sistema che genera contenuti unici, imita i pattern di comunicazione umana, elude l’autenticazione a due fattori e cambia user agent per evitare il rilevamento. Prima della sua scoperta, quasi mille account collegati all’operazione erano attivi e indisturbati su X.
Ma Meliorator è già roba vecchia — nel senso che rappresenta una generazione tecnologica superata da quello che sta emergendo adesso. A gennaio 2026, un team internazionale guidato da Daniel Thilo Schroeder del SINTEF e Jonas R. Kunst della BI Norwegian Business School — con la partecipazione della premio Nobel per la pace Maria Ressa e altri 17 accademici da otto paesi — ha pubblicato su Science uno studio che descrive la prossima frontiera: gli sciami malevoli di AI. Il concetto è tanto semplice quanto terrificante. Un singolo operatore, con accesso ai modelli linguistici di ultima generazione, può comandare migliaia di account social che mantengono identità persistenti e memoria delle conversazioni precedenti, coordinandosi tra loro verso obiettivi condivisi — il tutto variando tono, contenuto e stile per sembrare persone reali. Non sono bot che ripetono lo stesso hashtag: sono agenti autonomi che simulano comunità intere, con opinioni diverse ma convergenti verso una narrativa prestabilita.
Il punto cruciale — e qui la cosa diventa sinistra — è che questi sciami non hanno bisogno di supervisione umana costante. Si adattano in tempo reale alle risposte degli utenti, ai segnali della piattaforma, al contesto. Se un thread si scalda su un argomento, lo sciame interviene con commenti calibrati. Se una notizia esplode, genera reazioni istantanee in lingue diverse. Il rischio, scrivono i ricercatori, non è tanto il singolo contenuto falso — quello c’è sempre stato — ma il “consenso sintetico”: l’illusione che “tutti la pensano così”, capace di influenzare credenze e norme sociali anche quando le singole affermazioni sono contestate. Lo studio dell’USC pubblicato a marzo 2026 ha poi dimostrato che questi agenti AI sono già in grado di coordinare autonomamente campagne di propaganda senza alcuna direzione umana — il che significa che la scala delle operazioni di influenza non dipende più dal numero di operatori disponibili, ma solo dalla potenza di calcolo.
Ben Nimmo, che prima di lavorare come Principal Investigator a OpenAI ha co-fondato il Digital Forensic Research Lab dell’Atlantic Council, lo conferma dalle trincee: le operazioni russe e cinesi usano già ChatGPT per perfezionare la grammatica inglese dei propri messaggi — quell’errore sintattico che una volta tradiva l’origine di un commento non esiste più. Nel 2024, OpenAI ha smantellato un’operazione chiamata “Bad Grammar” che usava il proprio modello per generare inglese dialettale credibile per account falsi. Il World Economic Forum, nel Global Risks Report 2026, ha messo la disinformazione tra i rischi globali a breve termine più gravi, prevedendo una crescita del 750% nel volume delle campagne di disinformazione AI entro fine anno. Non è allarmismo: è una proiezione basata su dati. E quando il WEF — un’organizzazione che non ha mai brillato per radicalismo — ti dice che la situazione è grave, puoi star certo che è peggio di come la descrivono.
Deepfake elettorali: dalla propaganda di guerra al sabotaggio del voto
Il primo deepfake politico che ha fatto il giro del mondo era grezzo, quasi ridicolo. Marzo 2022, tre settimane dall’inizio dell’invasione russa dell’Ucraina: un video mostra Volodymyr Zelens’kyj che ordina ai propri soldati di deporre le armi e arrendersi. La qualità era penosa — il volto pixelato, i movimenti del collo innaturali, la voce che non corrispondeva al labiale. Zelens’kyj l’ha liquidato come una “provocazione infantile” e le piattaforme l’hanno rimosso in poche ore. Ma quel deepfake primitivo ha stabilito un precedente inquietante: per la prima volta nella storia, un capo di stato veniva clonato digitalmente nel mezzo di un conflitto armato per diffondere ordini falsi al proprio esercito. La reazione collettiva è stata una scrollata di spalle — troppo brutto per essere pericoloso. Quattro anni dopo, non ride più nessuno.
Prendiamo il caso Biden. Gennaio 2024, primarie del New Hampshire: migliaia di elettori democratici ricevono una telefonata in cui la voce del presidente — perfettamente clonata — li invita a non andare a votare. “I vostri voti sono importanti a novembre, non a gennaio”, dice il falso Biden, riciclando una delle sue frasi tipiche. Un deepfake audio così convincente che molti non l’hanno nemmeno messo in dubbio — hanno semplicemente dato retta al presidente e sono rimasti a casa. La fonte? Un consulente politico che ha pagato un prestigiatore per generare l’audio con un software commerciale. Costo dell’operazione: un dollaro. Tempo di produzione: venti minuti. Venti minuti e un dollaro per interferire con le primarie presidenziali della più grande democrazia del mondo — se questo dato non ti spaventa, probabilmente non hai capito le implicazioni.
L’India ha fatto da laboratorio a cielo aperto durante le elezioni generali del 2024 — il più grande esercizio democratico della storia, con quasi un miliardo di aventi diritto. Più del 75% degli indiani è stato esposto a deepfake politici durante la campagna, e quasi uno su quattro ha creduto che il contenuto generato dall’AI fosse reale. I partiti hanno usato l’intelligenza artificiale per far “parlare” i candidati in lingue che non conoscono — in un paese con oltre 120 lingue principali, i cloni vocali sono diventati lo strumento definitivo di propaganda personalizzata. Cinquanta milioni di chiamate generate dall’AI nei due mesi prima del voto, video deepfake di celebrità di Bollywood che endorsano candidati senza averlo mai fatto, un politico morto nel 2018 che “torna” digitalmente per appoggiare la campagna di un amico. L’India ha mostrato al mondo il futuro della manipolazione elettorale, e quel futuro ha costi irrisori e scala industriale.
Non serve guardare lontano per trovare casi recenti. In Romania, durante le presidenziali del 2024, una campagna di disinformazione collegata alla Russia ha gonfiato artificialmente il consenso per un candidato di estrema destra attraverso deepfake, bot potenziati dall’AI e pagamenti a influencer — un’operazione di guerra ibrida in piena regola contro un paese membro dell’UE e della NATO. A febbraio 2026, quando Stati Uniti e Israele hanno riaperto le operazioni militari contro l’Iran, i social media si sono riempiti di contenuti falsi generati dall’AI: video di attacchi mai avvenuti, immagini di distruzione fabbricate, dichiarazioni inventate attribuite a leader politici. La cascata di fake sulla guerra con l’Iran è stata talmente rapida e massiccia che per ore è stato impossibile distinguere cosa stesse realmente accadendo sul campo — il che, in un contesto di escalation militare, non è solo disinformazione ma è potenzialmente un innesco per decisioni catastrofiche basate su dati falsi.
E arriviamo a marzo 2026 — qui e adesso. Il deepfake di James Talarico non è un esperimento accademico: è un annuncio ufficiale del Partito Repubblicano americano, distribuito come spot elettorale per le midterm. Un video di 85 secondi in cui un Talarico sintetico legge tweet reali del candidato aggiungendoci commenti mai pronunciati, con un realismo che il Zelens’kyj del 2022 nemmeno si sognava. Lo spot porta la dicitura “AI GENERATED” per tutta la durata — il che, in teoria, dovrebbe rassicurarci. In pratica, dimostra che siamo già nel punto in cui i deepfake sono strumenti legittimi di campagna elettorale, alla luce del sole, con il bollino di garanzia. Da novembre, almeno 15 spot con contenuti generati dall’AI sono stati trasmessi solo negli Stati Uniti. Il 58% degli americani si aspetta che le bugie sintetiche aumenteranno prima del voto di metà mandato. Il Texas — lo stato di Talarico — ha una delle leggi più severe del paese sui deepfake politici, ma si applica solo nei 30 giorni prima del voto. Tempismo perfetto per chi vuole avvelenare il pozzo con mesi di anticipo.
Il pompiere piromane: chi crea il problema vende la soluzione
Ecco il paradosso che nessuno vuole affrontare davvero. Le stesse aziende che hanno reso possibile tutto questo — OpenAI, Google, Microsoft, Meta — ora firmano impegni volontari per sviluppare strumenti di rilevamento dei contenuti generati dall’AI. OpenAI ha persino costruito un detector di deepfake che riconosce le immagini prodotte dal proprio DALL-E 3 con una precisione del 98,8%. Sembra impressionante, finché non scopri che lo stesso strumento individua solo il 5-10% delle immagini generate da altri modelli. Tradotto: OpenAI è bravissima a riconoscere la propria produzione, ma del resto del mercato se ne lava le mani. Il detector, dopo anni di sviluppo, non è ancora pubblico — lo usano solo alcuni “ricercatori selezionati”. Beneficenza per pochi eletti, per tutti gli altri arrangiati.
Il caso più grottesco è quello di Clearview AI — sì, la stessa azienda che ha costruito il più grande database di riconoscimento facciale del pianeta raccogliendo miliardi di foto senza consenso, quella che i garanti della privacy di mezza Europa hanno multato e bandito — che ora sviluppa un tool di rilevamento deepfake. Il pompiere piromane nella sua forma più pura: prima ti schedano la faccia senza chiederti niente, poi ti vendono la protezione contro chi usa la tua faccia per creare falsi. È il modello di business perfetto del capitalismo di sorveglianza: crea il problema, poi vendi la soluzione. Come abbiamo già analizzato parlando del rapporto tra Pentagono e big tech, chi controlla l’infrastruttura tecnologica controlla il gioco — e il gioco della “sicurezza” è il più redditizio di tutti.
Nina Jankowicz lo sa bene quanto costa provare a combattere la disinformazione dall’interno delle istituzioni. L’ex direttrice del Disinformation Governance Board del Dipartimento di Sicurezza Interna americano — durata tre settimane prima di essere distrutta da una campagna di disinformazione contro la responsabile anti-disinformazione, con un’ironia che si scrive da sola — ha fondato l’American Sunlight Project per monitorare le operazioni di manipolazione. Ma il suo caso è emblematico di un cortocircuito più profondo: qualsiasi tentativo istituzionale di contrastare la disinformazione viene immediatamente attaccato come “censura governativa”. E non sempre a torto, perché affidare allo Stato il compito di decidere cosa è vero e cosa è falso è un precedente che dovrebbe far paura a chiunque abbia letto mezzo libro di storia.
L’Unione Europea ci prova con l’Articolo 50 dell’AI Act, che dal prossimo agosto obbligherà a etichettare i contenuti generati dall’AI e a dichiarare le interazioni con sistemi sintetici, pena multe fino al 6% del fatturato globale. Sulla carta suona bene. Nella realtà, chi genera deepfake per destabilizzare le elezioni di un paese non si preoccupa della compliance normativa europea — le troll farm di San Pietroburgo non presenteranno domanda di esenzione. Le leggi servono a mettere in riga le aziende che operano alla luce del sole, non gli attori statali che operano nell’ombra. E anche quando funzionano, come la legge texana sui deepfake politici, lasciano buchi temporali enormi in cui la manipolazione può agire indisturbata.
Il nodo strutturale è un altro, e né i governi né le big tech vogliono toccarlo. Viviamo in un ecosistema informativo costruito su piattaforme centralizzate il cui modello di business si fonda sull’engagement — e l’engagement premia il contenuto che provoca reazioni emotive, vero o falso che sia. L’algoritmo non distingue tra un’analisi approfondita e un deepfake incendiario: vede solo click, commenti, condivisioni. I deepfake, per loro natura, generano engagement a tonnellate. La disinformazione non è un bug del sistema: è una feature, un sottoprodotto inevitabile di un’architettura progettata per massimizzare il tempo che passi davanti a uno schermo. E chi possiede quelle piattaforme — una manciata di miliardari della Silicon Valley — non ha nessun incentivo reale a cambiare le regole di un gioco che li arricchisce.
Il “dividendo del bugiardo” è forse la conseguenza più devastante e meno discussa di questa escalation. Funziona così: quando tutti sanno che i deepfake esistono e che qualsiasi contenuto potrebbe essere falso, si smette di credere a tutto — anche a quello che è vero. Un politico beccato in flagrante può alzare le spalle e dire “è un deepfake”, piantando il seme del dubbio. Una testimonianza autentica viene screditata perché “potrebbe essere generata dall’AI”. Il paradosso finale è che la mera esistenza della tecnologia deepfake — indipendentemente dal suo uso effettivo — erode la fiducia nell’informazione. Non serve ingannare tutti: basta che nessuno si fidi più di niente. E in una democrazia, la fiducia condivisa nell’informazione è l’ossigeno — senza, tutto il resto crolla.
Le alternative non verranno né dallo Stato — che ha interesse al controllo dell’informazione almeno quanto i propagandisti — né dalle corporation che hanno creato il problema e ci lucrano sopra. Verranno, se verranno, dal basso. Strumenti di verifica open source, reti decentralizzate di fact-checking, infrastrutture di autenticazione dei contenuti che non dipendano da un’azienda o da un governo. Community che costruiscono anticorpi informativi attraverso l’educazione critica e la condivisione diretta, persona a persona, fuori dai recinti algoritmici delle piattaforme. Non è un’utopia ingenua: è l’unica strategia che non richiede di fidarsi di chi ha tutto l’interesse a mantenere lo status quo. La sovranità tecnologica delle comunità — self-hosting, strumenti di comunicazione decentralizzati, media indipendenti finanziati da chi li legge — resta la risposta più concreta a un sistema che ha trasformato l’informazione in un’arma e la verità in un prodotto di lusso.
Il punto è brutalmente semplice. Quando un singolo operatore può comandare migliaia di bot autonomi che simulano il consenso popolare, quando un deepfake elettorale costa un dollaro e venti minuti, quando le stesse aziende vendono il veleno e l’antidoto — la democrazia non ha un problema tecnologico. Ha un problema di potere. E il potere, oggi come sempre, va a chi controlla l’infrastruttura. La domanda non è come rilevare il prossimo deepfake. La domanda è: chi possiede i server su cui gira il tuo mondo?
