Artista al lavoro su un'illustrazione nel proprio studio - diritto autore artisti intelligenza artificiale

Contenuto

Il 2 marzo 2026 la Corte suprema degli Stati Uniti ha rifiutato di esaminare il ricorso nel caso Thaler v. Perlmutter, confermando che le opere generate interamente dall’intelligenza artificiale non possono essere protette dal diritto d’autore. La notizia è rimbalzata ovunque come una grande vittoria per gli artisti — e su un piano simbolico lo è, nessuno lo nega. Ma se guardi la cosa da vicino, ti accorgi che il campo di battaglia è già devastato.

Cory Doctorow, su Pluralistic, ha commentato la sentenza con un titolo che dice tutto: «Supreme Court saves artists from AI». Il principio giuridico ribadito dalla Corte sembra banale ma non lo è affatto: il diritto d’autore esiste solo per gli esseri umani. Nessun algoritmo, nessun modello generativo può rivendicare la paternità di un’opera. Il copyright — scrive Doctorow — «inheres at the moment of fixation of a work of human creativity», nasce nell’istante in cui una persona fissa un atto creativo in una forma tangibile. Un prompt digitato in una casella di testo non ci rientra. Questo principio è ora cementato nel sistema legale americano: nessuno può inondare il mercato di contenuti generati dall’intelligenza artificiale e proteggerli con il copyright, facendo concorrenza sleale a chi crea con le proprie mani e la propria testa. In un momento in cui le aziende tech vorrebbero produrre immagini, testi e musica a costo zero, ribadire che quei prodotti non hanno copertura giuridica è un freno reale — almeno sulla carta.

Il problema vero — quello che nessun tribunale ha ancora affrontato fino in fondo — è un altro. Stability AI, Midjourney e OpenAI continuano a operare su modelli costruiti saccheggiando miliardi di opere umane senza consenso, senza compenso, senza nemmeno una notifica. La sentenza stabilisce chi non può essere autore. Non dice nulla su chi ha rubato cosa per addestrare le macchine. E qui si apre un abisso che nessuna celebrazione dovrebbe farti ignorare: il diritto d’autore, lo stesso strumento che oggi sembra proteggere i creativi, è storicamente anche l’arma preferita delle corporation per chiudere il sapere e trasformare la cultura in proprietà privata. Il paradosso è che gli stessi artisti che oggi invocano il copyright per difendersi da Midjourney domani potrebbero trovarsi quella stessa arma puntata addosso da un editore o da una major. La domanda non è mai stata «chi è l’autore». La domanda è sempre stata: chi accumula potere, e chi lo subisce?

Il saccheggio è già avvenuto, i tribunali arrancano

Il caso Thaler era facile — quasi una trappola. Un informatico che chiede di registrare come autore il suo sistema AI, DABUS, senza rivendicare alcun contributo creativo personale: un caso estremo, provocatorio, che la Corte suprema ha respinto senza nemmeno esaminarlo nel merito. Stephen Thaler ha perso al Copyright Office, in primo grado, in appello al circuito DC, e infine alla Corte suprema con un rifiuto secco di certiorari. Era il ricorso più debole possibile, e paradossalmente il suo fallimento ha cementato il principio dell’autorialità umana nel diritto americano in modo quasi inattaccabile. Le cause davvero importanti — quelle che decideranno se le Big Tech possono legalmente aspirare l’intero patrimonio creativo dell’umanità per monetizzarlo — sono ancora in alto mare. E procedono con una lentezza che è essa stessa una forma di ingiustizia.

Il caso più significativo è Andersen v. Stability AI, la class action che raggruppa artiste e artisti come Sarah Andersen, Kelly McKernan, Karla Ortiz, Grzegorz Rutkowski e molti altri contro Stability AI, Midjourney e DeviantArt. Al centro c’è il dataset LAION-5B: 5,85 miliardi di coppie immagine-testo raschiate dal web senza il consenso di nessuno, usate per addestrare Stable Diffusion e gli altri generatori di immagini. Non qualche foto rubata da un portfolio — l’intero patrimonio visivo di internet, trasformato in materia prima per un prodotto a pagamento. Il processo è fissato per l’8 settembre 2026, più di tre anni dopo l’inizio della causa. Nel frattempo quei modelli hanno generato miliardi di immagini, le aziende hanno incassato profitti enormi, e migliaia di illustratori hanno visto evaporare commissioni e contratti. Come ho già scritto parlando di chi è padrone della conoscenza collettiva, il pattern è sempre lo stesso: estrazione massiva prima, negoziazione dopo — se va bene.

Il danno economico non è astratto, non è una proiezione accademica. Il mercato dell’illustrazione commerciale ha subito un crollo stimato tra il 30% e il 50% dal 2023, con commissioni per copertine di libri, concept art per videogiochi e illustrazioni editoriali affidate sempre più spesso a generatori AI che costano dieci dollari al mese. Midjourney ha circa 16 milioni di utenti, ognuno dei quali paga per accedere a un generatore costruito sulle opere rubate a quegli stessi artisti che ora perdono il lavoro. Il modello di business è di una brutalità cristallina: rubi il lavoro creativo, lo comprimi in un modello statistico, poi vendi il modello a chi sostituirà i derubati. Ogni immagine generata è un centesimo sottratto a qualcuno — un illustratore che non riceverà quella commissione, un fotografo il cui stile è stato digerito e rigurgitato gratis. Come i rider di DoorDash pagati per addestrare l’AI che li rimpiazzerà, gli artisti hanno contribuito involontariamente alla costruzione della macchina che li sta eliminando dal mercato.

Non è l’unica causa aperta. Il New York Times ha citato OpenAI e Microsoft nel dicembre 2023, accusandoli di aver usato milioni di articoli per addestrare ChatGPT senza permesso né compenso. Editori musicali come Concord Music Group hanno fatto causa ad Anthropic per l’uso non autorizzato di oltre 500 brani protetti. Nel caso Thomson Reuters v. Ross Intelligence, un tribunale ha stabilito che usare contenuti protetti per addestrare un’AI legale non è fair use — sentenza ora in appello al Terzo Circuito, e se confermata potrebbe creare un precedente devastante per tutta l’industria dell’AI generativa. Ma il dato che dovrebbe farti rabbrividire è questo: la class action degli autori contro Anthropic si è chiusa con un patteggiamento da 1,5 miliardi di dollari. Sembra tanto? Sono circa 3.000 dollari per opera. Tremila dollari per un libro che ha richiesto mesi o anni di lavoro. Non è giustizia — è il prezzo di una cena aziendale per un’azienda che vale decine di miliardi.

La difesa delle Big Tech si regge su un unico pilastro: il fair use, la dottrina americana che consente l’uso di materiale protetto se il risultato è «trasformativo». OpenAI sostiene che i suoi modelli trasformano i dati di addestramento in qualcosa di completamente nuovo. È un argomento astuto — e velenoso. Se viene accettato, stabilisce che qualsiasi opera creativa può diventare materia prima industriale, purché il prodotto finale sia sufficientemente diverso dall’originale. Detto senza mezzi termini: puoi rubare tutto, basta che il furto sia abbastanza sofisticato da non sembrare tale. Il nocciolo della questione è temporale, ed è qui che il sistema legale mostra tutti i suoi limiti: anche se domani tutti i tribunali del mondo stabilissero che il training su opere protette è illegale, il danno sarebbe irreversibile. I modelli sono già addestrati, i pesi neurali contengono già — compressa e rielaborata — l’intera produzione creativa dell’umanità digitale. Non puoi «dis-addestrare» un modello. Non puoi restituire il valore estratto. Le Big Tech lo sanno, e per questo corrono più veloce dei tribunali — la strategia di sempre del capitalismo tecnologico: muoversi veloce, rompere tutto, negoziare dopo.

L’Europa e l’Italia: protezioni scritte sulla sabbia

Se pensi che il vecchio continente offra garanzie migliori, preparati a una delusione. L’Unione Europea ha un framework normativo sulla carta più avanzato degli Stati Uniti — l’AI Act, la Direttiva sul Mercato Unico Digitale, regolamenti su trasparenza e compliance — ma la realtà è che queste protezioni sono piene di falle strutturali. Partiamo dall’articolo 4 della Direttiva DSM (2019/790), il cuore del problema europeo. Questa norma consente il text and data mining — l’estrazione massiva di testi, immagini e dati, esattamente quello che fanno le aziende AI per l’addestramento — a condizione che i titolari dei diritti non abbiano esplicitamente fatto opt-out. Sembra ragionevole? Non lo è. L’onere è invertito: non è l’azienda che deve chiedere il permesso, ma l’artista che deve scoprire di essere stato saccheggiato e dichiarare di non volerlo essere. È come se qualcuno potesse entrare in casa tua e portarsi via i mobili, a meno che tu non abbia messo un cartello specifico sulla porta — un cartello che peraltro nessuno è obbligato a cercare o a rispettare.

L’opt-out è inapplicabile per la stragrande maggioranza dei creatori: richiede competenze tecniche, risorse legali, e soprattutto la conoscenza di quali aziende stiano usando le tue opere — un’informazione che le stesse aziende si guardano bene dal rendere disponibile. Un tribunale tedesco, nel caso Kneschke v. LAION, ha già mostrato quanto siano fragili le tutele europee: ha stabilito che il dataset LAION-5B — con quasi sei miliardi di immagini raschiate — è legale sotto l’eccezione per la ricerca scientifica non commerciale prevista dalla legge tedesca sul copyright. Non importa che Stability AI abbia poi usato quel dataset per fini commercialissimi: LAION è classificata come organizzazione di ricerca, e tanto basta al tribunale. Il risultato è grottesco: un ente «no-profit» raccoglie miliardi di immagini protette, le impacchetta in un dataset, e un’azienda privata le usa per costruire un generatore che fa concorrenza diretta agli artisti derubati. Tutto perfettamente legale — almeno in Germania. Un precedente che dovrebbe togliere il sonno a chiunque creda che le leggi europee siano più protettive di quelle americane.

L’AI Act europeo, che entra progressivamente in vigore, impone ai fornitori di modelli generali (GPAI) di rispettare le riserve di diritto espresse dai titolari (articolo 53) e di pubblicare un «sommario sufficientemente dettagliato» dei contenuti usati per l’addestramento. Le sanzioni — fino al 3% del fatturato mondiale o 15 milioni di euro — scatteranno dal 2 agosto 2026. Sulla carta, impressionante. Nei fatti, una beffa: i modelli più grandi sono già addestrati con dati raccolti prima dell’entrata in vigore, e la trasparenza ex post è una foglia di fico. Sapere che il tuo lavoro è stato usato dopo che è stato usato non ti restituisce nulla — non ti paga l’affitto, non ti ridà la commissione persa. E il «sommario dettagliato» è un concetto talmente vago che le aziende potranno interpretarlo come vogliono fino a quando ci sarà giurisprudenza consolidata, il che richiederà altri anni di cause, altri anni di ritardo, altri anni in cui il saccheggio continua indisturbato. La Commissione Europea ha avviato consultazioni pubbliche sulle disposizioni copyright dell’AI Act, ma se conosci la macchina burocratica di Bruxelles sai già come andrà a finire: documenti, audizioni, raccomandazioni non vincolanti, e intanto le Big Tech fanno quello che vogliono.

L’Italia si è mossa in anticipo con la Legge 132/2025, la prima legge nazionale sull’AI in Europa, entrata in vigore il 10 ottobre 2025. Il testo chiarisce che solo le persone fisiche possono essere autori, e che chi usa l’AI come strumento deve dimostrare un «ruolo attivo e creativo» nel processo. Il nuovo articolo 70-septies disciplina l’uso di opere protette per il machine learning, rimandando alle eccezioni già previste dalla legge sul diritto d’autore. Sulla carta, un passo avanti. Nei fatti, i decreti attuativi non sono ancora pronti — i tempi della burocrazia italiana garantiscono che le regole arriveranno quando il problema si sarà già trasformato in qualcos’altro — e senza di essi la legge resta una cornice decorativa. Intanto il braccio di ferro tra SIAE e Meta, che si trascina dal 2023, è stato esteso con un accordo provvisorio fino a giugno 2026. Meta continua a usare i contenuti degli artisti italiani alle proprie condizioni, offrendo briciole come compenso, e la SIAE non ha la forza contrattuale per imporre termini diversi a un colosso da 1.500 miliardi di capitalizzazione. Il quadro europeo è quello di un continente che scrive leggi eleganti e poi guarda le Big Tech aggirarle in tempo reale — regole per i piccoli, scappatoie per i grandi.

Il copyright è un’arma, e colpisce in entrambe le direzioni

Ed eccoci al nodo che pochi vogliono affrontare. Il diritto d’autore è davvero lo strumento giusto per difendere gli artisti? Se guardi la questione non dal punto di vista della legge ma da quello del potere — chi lo ha, chi lo subisce, chi ne trae vantaggio — la risposta è molto più complicata di quanto sembri. Il copyright nasce storicamente come privilegio concesso dallo Stato agli editori, non agli autori: il Licensing of the Press Act del 1662 in Inghilterra non proteggeva i poeti, proteggeva gli stampatori dalla concorrenza. Da allora, il diritto d’autore ha sempre servito due padroni. Da un lato tutela il lavoro creativo delle persone, dall’altro funziona come strumento di concentrazione e controllo della cultura nelle mani di chi ha i capitali per sfruttarlo. Disney ha costruito il suo impero rielaborando fiabe di dominio pubblico — Cenerentola, La bella addormentata, Il libro della giungla — per poi blindare le proprie versioni con copyright che durano oltre un secolo. Le major discografiche usano il diritto d’autore non per proteggere i musicisti, ma per controllare i cataloghi e estrarre rendite dal lavoro altrui. Le case editrici accademiche chiudono dietro paywall la ricerca finanziata con soldi pubblici. Il copyright è un’arma — e come tutte le armi, colpisce dove la punta chi la tiene in mano.

Quando le Big Tech sostengono che il copyright è un ostacolo all’innovazione, mentono — ma non del tutto. Il copyright è un ostacolo quando viene usato dalle corporation per impedire la circolazione del sapere, per chiudere il codice sorgente, per criminalizzare chi condivide un paper scientifico o un e-book. Ma è anche l’unico strumento legale che un’illustratrice freelance ha per impedire che il suo lavoro venga aspirato da un’azienda da cento miliardi e trasformato in un prodotto che la sostituisce. Il punto non è il copyright in sé — è chi ha il potere di usarlo e chi no. Un singolo artista contro Stability AI è come un contadino con una fionda contro un esercito corazzato: l’arma è la stessa solo in teoria. E qui entra la questione politica che nessun tribunale potrà mai risolvere. Il vero problema non è se Stability AI abbia violato il diritto d’autore di Sarah Andersen. Il vero problema è un sistema in cui tre o quattro aziende possono accumulare la totalità della produzione creativa umana, comprimerla in un modello matematico, e rivenderla come servizio — appropriandosi del valore collettivo per trasformarlo in profitto privato. Non è una novità: è il capitalismo che fa quello che ha sempre fatto, solo con strumenti più sofisticati.

Non è molto diverso da quello che le enclosures hanno fatto con le terre comuni nel Settecento: quello che era di tutti diventa di pochi, e ai molti resta il diritto di fare causa — un processo alla volta, tremila dollari per opera. L’alternativa non è abolire il diritto d’autore, che sarebbe un regalo alle corporation: mano libera totale, saccheggio senza freni. L’alternativa è riconoscere che il copyright è un cerotto su una ferita strutturale, e che servono strumenti collettivi per affrontare un problema collettivo. Licenze copyleft che proteggono la condivisione impedendo l’appropriazione privata. Cooperative di artisti che negoziano con le piattaforme da una posizione di forza. Infrastrutture pubbliche per la creazione e la distribuzione culturale che non dipendano dai capricci di un miliardario della Silicon Valley. La differenza tra il copyright e il copyleft è semplice: il primo protegge il proprietario, il secondo protegge la comunità. Il movimento open source ha dimostrato che si può creare e condividere senza che qualcuno si appropri di tutto — la GPL garantisce che il codice resti libero e impedisce a chiunque di chiuderlo. Strumenti analoghi per l’arte esistono già: Creative Commons, Art Libre, licenze che proteggono non la proprietà individuale ma l’ecosistema. Come ho scritto parlando dell’AI locale come strumento di lotta, le alternative dal basso ci sono — il problema è che non hanno i miliardi di venture capital delle Big Tech per imporsi.

La sentenza della Corte suprema è un passo nella direzione giusta, su questo non si discute. Stabilisce un principio — l’autorialità umana — che ha un valore reale e concreto. Ma se ti fermi a celebrarla, hai già perso la partita. Il potere non si limita con le sentenze: si limita con l’organizzazione collettiva, con la costruzione di alternative concrete, con il rifiuto quotidiano di accettare che il lavoro di milioni di persone possa essere aspirato e monetizzato da una manciata di corporation. Nessun tribunale ti restituirà quello che è già stato preso. Nessuna legge fermerà chi ha i mezzi per aggirarla prima ancora che entri in vigore. L’unica protezione reale è collettiva — e politica, non giuridica. La prossima volta che qualcuno ti dice che la giustizia ha trionfato, chiedigli quanto ha pagato Anthropic per opera. Tremila dollari. Ricordatelo.