Fossile conservato come pellicola di carbonio analizzato in laboratorio - intelligenza artificiale paleontologia

Contenuto

Settecento fossili estratti da rocce vecchie di 550 milioni di anni, conservati come sottili pellicole di carbonio in un affioramento a sud di Kunming, nella provincia cinese dello Yunnan. La scoperta della biota di Jiangchuan, pubblicata il 3 aprile 2026 su Science da un team congiunto della Yunnan University e dell’Università di Oxford, riscrive la cronologia dell’evoluzione animale complessa e la spinge indietro di almeno quattro milioni di anni rispetto all’esplosione del Cambriano. Dentro quelle rocce ci sono i più antichi deuterostomi mai identificati — i progenitori lontanissimi dei vertebrati, noi compresi — fianco a fianco con creature ediacareane che secondo i modelli precedenti avrebbero dovuto sparire milioni di anni prima. Fanno tremare i manuali di biologia, questi fossili. Ma il nocciolo della questione non è solo cosa hanno trovato. È come lo hanno trovato, chi ci ha lavorato, e chi avrà il controllo su quei dati nei prossimi vent’anni.

Perché dietro ogni grande scoperta paleontologica del 2026 c’è un’infrastruttura tecnologica che resta invisibile nei comunicati stampa: algoritmi di classificazione addestrati su migliaia di immagini, scanner a sincrotrone capaci di ricostruire fossili in tre dimensioni senza toccarli, reti neurali convoluzionali che distinguono un dente di squalo pliocenico dall’altro meglio dei migliori esperti umani. L’intelligenza artificiale sta trasformando la paleontologia più di quanto qualsiasi colpo di martello geologico potrebbe fare da solo — e questa non è retorica giornalistica ma un dato di fatto quantificabile. Il problema è che questa rivoluzione tecnologica non è neutra. Non è democratica. E se non cambia rotta, rischia di replicare in formato digitale le stesse dinamiche coloniali che hanno dominato la scienza dei fossili per due secoli. Il 97% dei dati paleontologici mondiali è prodotto da ricercatori del Nord globale. Il codice degli algoritmi resta chiuso in due casi su tre. I database pubblici hanno un’aspettativa di vita media inferiore ai quindici anni. Facciamo un passo indietro — anzi, mezzo miliardo di anni indietro — e partiamo da quei fossili cinesi per capire dove stiamo andando.

La biota di Jiangchuan: quando il tipo di conservazione cambia tutto

La storia comincia con Gaorong Li, allora dottorando alla Yunnan University, che nella primavera del 2023 si trovava a scavare in un affioramento della Formazione Dengying vicino al lago Fuxian. Il suo supervisore, il professor Peiyun Cong, cercava fossili ediacareani diversificati in quella zona da quasi dieci anni — un’impresa che molti colleghi consideravano una causa persa, perché l’Ediacareano (il periodo geologico tra 635 e 540 milioni di anni fa) era noto per conservare creature sotto forma di impronte grossolane in arenaria, sagome appena accennate di organismi molli schiacciate nella sabbia compressa. È come cercare di ricostruire l’anatomia di un polpo guardando la traccia che ha lasciato su una spiaggia bagnata: puoi intuire la forma generale, ma i dettagli — gli organi interni, le strutture di alimentazione, l’apparato locomotore — sono perduti. O almeno così si pensava. Li si è imbattuto in qualcosa di radicalmente diverso: fossili conservati come pellicole di carbonio, film sottilissimi intrappolati in sedimenti a grana finissima, un tipo di preservazione che fino a quel momento era associato quasi esclusivamente ai celebri depositi cambriani come la Burgess Shale canadese. La differenza tra i due modi di conservazione non è un tecnicismo per conferenze accademiche — è la differenza tra vedere l’ombra di un animale e vederne il tubo digerente.

I risultati, pubblicati con il titolo The dawn of the Phanerozoic: A transitional fauna from the late Ediacaran of Southwest China, descrivono oltre 700 esemplari fossili che nessuno si aspettava di trovare in rocce così antiche. Ci sono i più antichi deuterostomi conosciuti — ambulacrari basali, parenti alla lontana delle stelle marine e dei vermi ghianda, organismi che in termini evolutivi stanno dalla nostra stessa parte dell’albero della vita. Risalgono a un periodo tra 554 e 539 milioni di anni fa, ben sette milioni di anni prima dei primi depositi inequivocabilmente cambriani. Il sito ha restituito anche vermi bilateri con adattamenti alimentari già sorprendentemente sofisticati, prime ctenofore (le meduse a pettine dei mari attuali), creature con tentacoli estroflettibili e dischi di ancoraggio, e — cosa cruciale — alcune forme tipicamente ediacareane che convivevano con queste faune di aspetto cambriano nello stesso strato geologico. «Le faune di tipo cambriano non sono apparse dal nulla», ha scritto Li nel paper, «ma avevano fondamenta chiare e morfologie di transizione già alla fine dell’Ediacareano». Non un’esplosione improvvisa della complessità, quindi, ma una lunga transizione graduale — una miccia lentissima accesa mezzo miliardo di anni fa che smonta decenni di narrazione evoluzionistica troppo semplicistica.

L’implicazione più importante per il discorso tecnologico è un’osservazione di Ross Anderson, coautore dello studio e ricercatore a Oxford: «L’apparente assenza di questi gruppi animali complessi da altri siti ediacareani potrebbe riflettere differenze nella conservazione piuttosto che una vera assenza biologica». Tradotto in parole povere: quegli animali c’erano sempre stati, ma li cercavamo nei posti sbagliati con gli strumenti sbagliati. Il problema non era biologico ma tafonomico — un filtro imposto dal tipo di sedimento, dal tipo di roccia e, in ultima analisi, dal tipo di tecnologia con cui leggiamo le rocce. Riconoscere una pellicola di carbonio larga pochi centimetri come il resto di un ambulacrario basale di 550 milioni di anni fa richiede strumenti di analisi — microscopici, chimici, computazionali — che un decennio fa non esistevano o non erano accessibili alla maggior parte dei laboratori del mondo. La biota di Jiangchuan è tanto una scoperta geologica quanto un prodotto dell’evoluzione tecnologica, e questa doppia natura ci porta dritti al cuore di una trasformazione che sta ridisegnando l’intera disciplina.

Quando l’algoritmo classifica i fossili: l’AI entra in laboratorio

I fossili di Jiangchuan sono stati analizzati con metodi ancora relativamente tradizionali — microscopia ottica, stratigrafia, confronto morfologico diretto — ma rappresentano un’eccezione in un panorama dove l’intelligenza artificiale è ormai lo strumento principale di lavoro paleontologico. Il caso più emblematico del 2026 è DinoTracker, l’applicazione sviluppata da Gregor Hartmann dello Helmholtz-Zentrum di Berlino insieme al paleontologo Stephen Brusatte dell’Università di Edimburgo, pubblicata su PNAS nei primi mesi dell’anno. Si tratta di un autoencoder variazionale disentangled — per chi mastica deep learning — addestrato su quasi 2.000 impronte fossili reali più milioni di variazioni generate sinteticamente. Risultato: l’app identifica quale specie di dinosauro ha lasciato un’impronta con una precisione del 90%, analizzando otto parametri biomeccanici tra cui apertura delle dita, posizione del tallone, area di contatto e distribuzione del peso. Una delle scoperte più sorprendenti è che impronte di oltre 200 milioni di anni fa somigliano in modo inquietante a quelle degli uccelli moderni, il che potrebbe costringere a ripensare l’intera cronologia delle origini aviarie. Ma il dettaglio che cambia davvero le carte in tavola è un altro: tutto il codice di DinoTracker è open source e disponibile su GitHub. Chiunque nel mondo può scaricarlo, verificarlo, migliorarlo, adattarlo alle proprie ricerche senza chiedere il permesso a nessuno. Non è un prodotto di Google o Microsoft: è scienza pubblica che funziona come la scienza dovrebbe funzionare.

Ma il caso più interessante dal punto di vista italiano — e da un punto di vista schiettamente politico — è SharkNet-X. Sviluppato dal CNR-IFAC di Firenze, l’Istituto di Fisica Applicata intitolato a Nello Carrara, SharkNet-X è una rete neurale convoluzionale costruita per classificare denti fossili di squalo del Pliocene rinvenuti nei campi della campagna toscana, tra Firenze e Volterra. Il ricercatore Andrea Barucci ha guidato il progetto in collaborazione con il museo GAMPS, l’Università di Pisa e quella di Cambridge, addestrando l’algoritmo su migliaia di immagini standardizzate che coprono dieci generi e specie diverse di squali preistorici. L’architettura combina una CNN personalizzata con il transfer learning basato su VGG16, un modello pre-addestrato su ImageNet che viene riadattato al dominio paleontologico — una tecnica che fino a pochi anni fa era fantascienza per un paleontologo medio. I risultati, pubblicati sul Bollettino della Società Paleontologica Italiana, dimostrano qualcosa di fondamentale: non servono i budget miliardari dei laboratori americani né i finanziamenti del complesso militare-industriale per fare scienza computazionale seria. Basta un buon dataset, competenze solide e la volontà di condividere quello che si trova. SharkNet-X è la dimostrazione vivente che l’alternativa dal basso esiste anche nella scienza dei fossili — denti di squalo preistorico trovati letteralmente tra gli ulivi toscani, classificati da un’intelligenza artificiale italiana e pubblicati senza paywall.

Il terzo fronte tecnologico che sta ridisegnando la paleontologia è la tomografia computerizzata accoppiata ai sincrotroni e al deep learning. Nel marzo 2026, il Diamond Light Source — il grande sincrotrone britannico nell’Oxfordshire — ha prodotto scansioni tridimensionali ad altissima risoluzione del cranio di Little Foot, un Australopithecus di 3,67 milioni di anni, permettendo di riassemblare digitalmente ossa distorte da eoni di pressione geologica e di rivelare dettagli anatomici altrimenti impossibili da osservare senza distruggere il reperto. Nello stesso periodo, al Paul Scherrer Institute in Svizzera, centinaia di embrioni fossili provenienti dalla Cina meridionale sono stati passati al sincrotrone per rivelarne le strutture interne con un livello di dettaglio impensabile un decennio fa. Il salto qualitativo vero, però, arriva dall’automazione della segmentazione: quel lavoro massacrante che consisteva nel tracciare a mano, strato dopo strato, i confini tra osso fossile e matrice rocciosa su centinaia di sezioni CT — settimane di lavoro certosino per un singolo esemplare — viene oggi completato in ore da reti neurali di segmentazione addestrate su dataset annotati. Uno studio pubblicato su Paleobiology ha inoltre stabilito che bastano circa 250 esemplari per specie per raggiungere una precisione superiore al 90% nella classificazione automatica mediante computer vision — una soglia molto più bassa di quanto la comunità scientifica si aspettasse, e che abbassa drasticamente la barriera d’ingresso per i laboratori meno finanziati. L’intelligenza artificiale applicata alla paleontologia non è più un esperimento di nicchia: è l’infrastruttura portante della disciplina. E proprio per questo la domanda su chi la controlla diventa urgente.

Colonialismo dei dati fossili: chi possiede il passato digitale

E qui arriviamo al punto — quello che nessun comunicato stampa universitario racconta volentieri e che i grandi paper su Science e Nature liquidano in una riga nei ringraziamenti. Il 97% dei dati fossili digitalizzati del pianeta è prodotto da ricercatori basati in paesi ad alto e medio-alto reddito. Il termine è parachute science, scienza col paracadute: team di università nordamericane ed europee che atterrano in Cina, in Kenya, in Argentina, in Marocco, estraggono campioni e dati, li portano nei propri laboratori dotati di sincrotroni e GPU, pubblicano su riviste anglofone con impact factor stellare e se ne tornano a casa. Le competenze locali — i paleontologi cinesi, i tecnici di scavo argentini, i curatori dei musei africani — vengono ignorate o al massimo relegate a un ringraziamento in fondo al paper. Uno studio su Communications Biology ha quantificato il fenomeno in modo brutale: i ricercatori del Global North pubblicano più articoli sui fossili dell’America Latina di quanto facciano i ricercatori latinoamericani stessi. Non è un dettaglio per convegni accademici: è il meccanismo strutturale attraverso cui il controllo sulla narrazione dell’evoluzione — chi eravamo, da dove veniamo, come si è sviluppata la vita — resta nelle mani degli stessi centri di potere da due secoli.

La biota di Jiangchuan, bisogna riconoscerlo, rappresenta un caso parzialmente diverso: la scoperta è stata guidata da ricercatori della Yunnan University, con la collaborazione di Oxford che si è aggiunta dopo. La Cina ha investito massicciamente nella ricerca paleontologica domestica e i risultati si vedono. Ma il quadro complessivo non cambia per questo singolo caso virtuoso. I dati digitali generati dalla scoperta — scansioni ad alta risoluzione, modelli tridimensionali, matrici di classificazione — entrano comunque in circuiti di disseminazione controllati da istituzioni occidentali, archiviati in database gestiti con fondi occidentali, consultabili secondo protocolli scritti in inglese da e per il mondo accademico anglosassone. E quei database hanno un problema che nessuno vuole affrontare seriamente: crepano. Un paper del 2026 su Nature Ecology & Evolution ha messo i numeri sul tavolo: l’85% dei database paleontologici curati dalla comunità scientifica ha un’aspettativa di vita inferiore ai quindici anni. Un singolo database — tra i più utilizzati al mondo — costerebbe oltre 1,5 miliardi di dollari per essere ricreato da zero se andasse perso. Fino al 65% del lavoro di arricchimento dati (annotazioni, classificazioni, metadati) svanisce nei primi cinque anni dalla pubblicazione. Non è un rischio astratto: un attacco informatico al Museo di Storia Naturale di Berlino ha distrutto l’accesso comunitario al Neptune Sandbox Berlin, cancellando anni di lavoro collaborativo in un colpo solo.

La riproducibilità è un altro capitolo nero. Una revisione sistematica su Ecological Informatics ha passato al setaccio gli studi di machine learning applicati alla paleontologia e il quadro fa venire i brividi: solo il 34,3% presenta ricerca riproducibile, appena il 37% rende disponibile il codice sorgente e il 56,5% offre accesso pubblico ai dati usati. Nella pratica, questo significa che la maggior parte della scienza che usa l’intelligenza artificiale per decifrare la storia della vita non può essere verificata da nessuno al di fuori del gruppo che l’ha prodotta. Non puoi ripetere l’esperimento. Non puoi ispezionare il codice. Non puoi sapere se quel deuterostomo basale è stato classificato correttamente o se è un artefatto del modello di addestramento. DinoTracker, con il suo repository GitHub aperto e documentato, è l’eccezione virtuosa — e il fatto che sia un’eccezione, e non la norma, racconta tutto quello che c’è da sapere sullo stato dell’arte.

C’è poi una dimensione schiettamente politica che va nominata senza giri di parole. Nel 2026, la rivista Capitalism Nature Socialism ha pubblicato un saggio dal titolo che non lascia margini di ambiguità — Digital Colonialism, Fossil Capitalism, and Indigenous Dispossession — tracciando un filo rosso tra l’industria estrattiva dei combustibili fossili, la digitalizzazione proprietaria dei dati paleontologici e l’espropriazione delle comunità indigene dai territori dove quei fossili giacciono. Sono manifestazioni dello stesso fenomeno: il capitalismo estrattivo applicato al passato del pianeta. I fossili oggi non sono più soltanto oggetti di studio — sono risorse digitali, asset informativi, dati che alimentano modelli AI e che valgono miliardi in termini di infrastruttura. Chi controlla quei dati controlla il racconto dell’evoluzione della vita, esattamente come chi controlla i modelli linguistici proprietari controlla il modo in cui l’AI elabora la conoscenza umana. Pochi attori concentrati nel Nord globale che decidono per tutti — nella scienza come nell’industria tecnologica.

La biota di Jiangchuan ci dice qualcosa di potente sulla vita — che la complessità animale non è esplosa dal nulla in un singolo periodo geologico ma si è costruita lentamente, in un lungo Ediacareano che per secoli abbiamo trascurato perché guardavamo i fossili sbagliati nei depositi sbagliati. Gli strumenti che usiamo per osservare determinano cosa siamo capaci di vedere. L’intelligenza artificiale in paleontologia ha il potenziale per spalancare finestre su un passato che la scienza tradizionale non poteva raggiungere — classificare migliaia di esemplari in automatico, ricostruire anatomie da pellicole di carbonio invisibili a occhio nudo, datare rocce con una precisione impensabile vent’anni fa.

Il problema è che questo potenziale è in larga parte sequestrato. Sequestrato da istituzioni che non condividono i dati, da algoritmi il cui codice sorgente resta chiuso, da database che crollano ogni quindici anni portandosi dietro anni di lavoro collettivo, da una logica estrattiva che preleva fossili e dati dal Sud del mondo per trasformarli in pubblicazioni firmate al Nord. È lo schema del capitalismo tecnologico che denunciamo sempre — concentrazione, chiusura, estrazione di valore dalle periferie verso i centri — applicato a qualcosa di ancora più fondamentale dei nostri dati personali: la storia dell’evoluzione della vita su questo pianeta.

Le alternative, però, esistono. Vengono da un ricercatore a Berlino che mette il codice di DinoTracker su GitHub perché crede che la scienza appartenga a chi la usa. Da un team del CNR fiorentino che addestra SharkNet-X sui denti di squalo della campagna toscana e pubblica tutto. Da ogni paleontologo, programmatore e attivista della scienza aperta che rifiuta l’idea che mezzo miliardo di anni di evoluzione possa essere chiuso dentro il server di qualcun altro. La conoscenza del passato della Terra non è proprietà di nessuno — non dei dipartimenti di Oxford, non dei finanziatori della NSF americana, non dei data center di Amazon Web Services. È di chiunque abbia la curiosità di cercarla e la decenza di condividerla.