Braccialetto fitness e strumenti digitali creativi su sfondo tecnologico - dati personali salute arte intelligenza artificiale privacy

Contenuto

Google vuole le tue cartelle cliniche. Adobe ha già preso la tua arte. Non è paranoia, non è un esercizio di futurologia da conferenza TED — è quello che sta succedendo adesso, a marzo 2026, mentre il dibattito pubblico si perde dietro l’ennesimo chatbot che scrive poesie. Il meccanismo è sempre lo stesso, e a questo punto dovresti averlo capito: prima ti offrono uno strumento gratuito o quasi, qualcosa di cui non puoi fare a meno. Un tracker per il polso. Un software per ritoccare le foto. Poi, quando sei dentro fino al collo — i tuoi file sul loro cloud, i tuoi dati nei loro server, le tue abitudini nei loro database — cambiano le regole del gioco. I tuoi referti medici, le tue radiografie, i tuoi livelli di glucosio diventano carburante per un modello AI. Le fotografie che hai scattato con anni di lavoro finiscono nel tritacarne di un generatore di immagini. Il tutto perfettamente legale, nascosto tra clausole che nessuno legge e che cambiano quando fa comodo a loro.

Il punto è semplice, e non ci si gira intorno: la Big Tech ha un problema strutturale che nessuna campagna di marketing può mascherare. I dati pubblici sono finiti. Internet è stata raschiata fino all’osso — ogni pagina web, ogni forum, ogni commento sotto un video di YouTube, ogni paper accademico, ogni archivio digitalizzato è già stato inghiottito dai modelli di linguaggio. Le aziende che hanno costruito imperi miliardari sull’estrazione di dati gratuiti hanno sbattuto contro un muro: il web non ha più niente da dare. E allora dove si va a cercare la prossima miniera? Nei posti più intimi che esistono: il tuo corpo e la tua creatività. Due territori che fino a ieri sembravano inviolabili e che oggi vengono colonizzati con la stessa logica estrattiva con cui le compagnie minerarie hanno devastato interi ecosistemi. Solo che qui l’ecosistema sei tu.

Google e le tue cartelle cliniche: quando il braccialetto diventa una spia

A metà marzo 2026 Google ha annunciato un aggiornamento del Fitbit che cambia radicalmente la posta in gioco. Il nuovo Personal Health Coach, costruito sul modello Gemini, non si limita più a contare i tuoi passi o a dirti che hai dormito male. Adesso può accedere alle tue cartelle cliniche — referti di laboratorio, lista dei farmaci, storia delle visite mediche — e combinare il tutto con i dati biometrici che il braccialetto raccoglie dal tuo polso ventiquattr’ore su ventiquattro. Per farlo, Google collabora con partner come b.well e CLEAR: il primo collega i portali sanitari dei provider americani all’app, il secondo verifica la tua identità e cerca le tue cartelle mediche al posto tuo. Da aprile sarà possibile collegare anche un monitor glicemico continuo tramite Health Connect, così da chiedere al coach AI come un pasto o un allenamento influenzano i tuoi livelli di glucosio. La promessa è quella di sempre — un quadro completo della tua salute, tutto in un unico posto, tutto sotto il tuo controllo. Peccato che la parola “controllo” in bocca a Google abbia lo stesso peso di “temporaneo” in bocca a un governo che introduce una tassa.

Google giura che i dati sanitari non verranno usati per la pubblicità. Benissimo. Ma il problema non è mai stato solo la pubblicità, e chi si ferma lì non ha capito come funziona il capitalismo di sorveglianza. Quando un’azienda che fattura centinaia di miliardi con la profilazione degli utenti ti chiede di consegnarle anche i risultati delle analisi del sangue, la domanda vera è un’altra: a cosa servono quei dati nel lungo periodo? Un paper del CEPR (Centre for Economic Policy Research) pubblicato dopo l’acquisizione di Fitbit lo ha scritto senza mezzi termini: Google monetizzerà i dati sanitari e questo danneggerà i consumatori. I dati di salute combinati con tutto quello che Google già sa di te — dove vai, cosa cerchi, cosa compri, con chi parli — creano profili di una granularità mai vista. Profili che possono finire in mano a compagnie assicurative per negare coperture o gonfiare i premi, o a datori di lavoro per screening mascherati da programmi di benessere aziendale. Negli Stati Uniti la legge federale protegge molto meno i dati raccolti via app rispetto a quelli raccolti in ambito ospedaliero — una zona grigia che le big tech sfruttano sistematicamente. Non serve condividere il dato grezzo: basta un punteggio di rischio, un flag in un database, e la tua vita cambia senza che tu sappia perché.

C’è un dettaglio che racconta tutto meglio di qualsiasi analisi. Entro il 19 maggio 2026, ogni utente Fitbit deve migrare il proprio account a Google. Chi non lo fa perde l’accesso ai propri dati — anni di registrazioni sul sonno, battito cardiaco, attività fisica, tutto cancellato se non accetti di entrare nell’ecosistema. Non è una scelta, è un ultimatum digitale con il sorriso del customer service. La Mozilla Foundation, nella sua analisi del Fitbit Charge 6, ha assegnato al dispositivo un pessimo punteggio per la privacy, evidenziando che Fitbit condivide dati con partner terzi — inclusi employer e assicurazioni — nell’ambito del programma Fitbit Care. Tradotto senza giri di parole: il tuo datore di lavoro può accedere ai tuoi dati di salute attraverso un programma che ti viene presentato come benefit aziendale. Ti regalano il braccialetto e tu gli regali i tuoi parametri vitali. Se non ti fa venire i brividi, dovrebbe.

Chi pensa che Google abbia imparato dai propri errori non conosce la storia — o sceglie di ignorarla. Nel 2015 DeepMind, sussidiaria di Google, ha ottenuto accesso ai dati di 1,6 milioni di pazienti del National Health Service britannico, ufficialmente per sviluppare un’app di monitoraggio renale chiamata Streams. Nessun paziente ha dato il consenso. Nessuno è stato informato. I dati comprendevano persone che non avevano mai avuto problemi ai reni, persone che avevano cambiato zona di residenza, persino persone decedute — un rastrellamento indiscriminato di informazioni mediche dietro la foglia di fico di un progetto clinico. L’Information Commissioner’s Office britannico ha stabilito nel 2017 che l’intero accordo violava la legge sulla protezione dei dati. Le parole del regolatore meritano di essere citate:

“I pazienti non avrebbero ragionevolmente potuto aspettarsi che le loro informazioni venissero utilizzate in questo modo.”

Non le parole di un attivista, ma di un’autorità di garanzia. La class action contro Google e DeepMind è tuttora in corso. Il pattern è identico a quello che vediamo oggi con Fitbit: si entra dalla porta della salute con una promessa di cura e si esce con un database che vale miliardi. Solo che nel 2015 almeno c’è stato uno scandalo. Oggi Google fa la stessa cosa alla luce del sole e la chiama innovazione.

Adobe e la tua arte: l’esproprio creativo col sorriso

L’11 marzo 2026, PetaPixel ha raccontato una storia che chiunque usi software Adobe dovrebbe leggere con attenzione — possibilmente seduto. Gerald Carter ha fondato Diversity Photos nel 2016 con un obiettivo preciso: creare un archivio fotografico che rappresentasse le comunità minoritarie, storicamente invisibili nella fotografia stock. Ha costruito l’archivio per anni, immagine dopo immagine, collaborazione dopo collaborazione, lottando contro la sottorappresentazione in un’industria dominata da canoni estetici bianchi e occidentali. Nel 2018 ha firmato un accordo con Adobe Stock per la distribuzione delle sue fotografie. Poi è arrivato Firefly, il generatore di immagini AI di Adobe, e Carter ha scoperto che l’intero archivio era finito nel set di addestramento del modello. Ogni singola foto, ogni volto, ogni storia raccontata attraverso l’obiettivo — tutto macinato per produrre immagini sintetiche a comando. Quando ha protestato, Adobe gli ha offerto 1.173,93 dollari per l’intera libreria. Millecentosettantatré dollari e novantatré centesimi: il prezzo che una delle aziende più ricche del settore creativo ha messo sul lavoro di anni di un fotografo che rappresenta comunità marginalizzate. Carter ha rifiutato l’insulto e ha avviato un arbitrato nel giugno 2024. Ha perso. Adobe aveva le clausole giuste nel contratto del 2018 — un contratto firmato quando Firefly non esisteva nemmeno come idea nei laboratori di ricerca dell’azienda.

Il caso Carter non è un’eccezione. È il modello di business, e va capito fino in fondo. Adobe ha sempre presentato Firefly come lo strumento AI “commercially safe”, l’alternativa etica addestrata solo su contenuti con licenza e materiale di dominio pubblico. Un’immagine rassicurante, perfetta per il marketing aziendale e le slide dei dirigenti. Peccato che un’inchiesta di Bloomberg abbia rivelato che circa il cinque per cento delle immagini nel set di addestramento erano a loro volta generate da AI — comprese opere prodotte da sistemi rivali come Midjourney. Adobe Stock aveva accettato immagini sintetiche dai contributor e le aveva gettate nel calderone di Firefly senza battere ciglio. L’AI etica di Adobe si addestra sull’AI non etica dei competitor: se la cosa ti sembra una barzelletta, è perché lo è — solo che a ridere sono gli azionisti, non i fotografi. A dicembre 2025 è arrivata anche una class action per l’uso non autorizzato di libri protetti da copyright nell’addestramento di Firefly, un tema che abbiamo analizzato parlando di chi è davvero padrone della conoscenza collettiva. L’elenco dei saccheggi si allunga, e Adobe continua a parlare di etica.

Il 19 marzo, mentre la storia di Carter faceva il giro della rete, Adobe ha lanciato in beta pubblica i Firefly Custom Models: la possibilità per artisti e brand di addestrare il generatore AI sulla propria arte, volontariamente questa volta. Suona quasi ironico, se non fosse tragico — prima ti prendono l’arte senza chiedere, poi ti offrono la possibilità di darla tu stesso. Adobe richiede che gli utenti certifichino di possedere i diritti sul materiale caricato e utilizza i Content Credentials per lo screening. Sulla carta è tutto pulito, trasparente, rispettoso. Ma il meccanismo di fondo non cambia di una virgola: l’artista diventa il fornitore di materia prima per una macchina che renderà il suo stesso lavoro progressivamente superfluo. È come chiedere a un operaio di programmare il robot che lo licenzierà — e non è un’iperbole, perché DoorDash ha letteralmente pagato i rider per addestrare l’AI progettata per sostituirli. Il capitale ha bisogno del lavoro umano solo finché non riesce ad automatizzarlo. Poi i saluti sono brevi, quando ci sono.

Quello che Adobe ha fatto con l’arte è lo specchio perfetto di quello che Google fa con la salute. Il meccanismo è identico, ed è il cuore di tutta la faccenda: prima costruisci uno strumento di cui le persone non possono fare a meno — Photoshop, Lightroom, Creative Cloud. Crei un ecosistema chiuso, un recinto dorato dove il tuo lavoro, i tuoi file, i tuoi progetti vivono solo dentro la piattaforma. Renderti dipendente è il primo passo, non un effetto collaterale: è la strategia industriale. Poi cambi i termini di servizio e ti prendi ciò che vuoi. È espropriazione digitale nel senso più letterale del termine: prendere qualcosa che appartiene a qualcun altro sfruttando un rapporto di potere radicalmente asimmetrico. L’artista non può lasciare Adobe senza perdere anni di lavoro, competenze software-specifiche, integrazione con i clienti. L’utente Fitbit non può uscire da Google senza perdere lo storico dei dati della propria salute. La dipendenza dallo strumento è il prerequisito dell’estrazione di valore. Non è un bug del sistema — è il sistema stesso.

L’Italia nel mirino: dati sanitari digitali e sovranità perduta

In Italia la questione è tutt’altro che astratta, e il tempismo ha qualcosa di grottesco. Proprio oggi, 31 marzo 2026, il Fascicolo Sanitario Elettronico 2.0 diventa obbligatorio anche per le strutture sanitarie private, secondo il cronoprogramma del PNRR. L’obiettivo dichiarato è la piena operatività su scala nazionale entro giugno. Il Garante Privacy ha dato parere favorevole al decreto sul Portale Nazionale dell’FSE a novembre 2025, ma le criticità sono tutt’altro che risolte: diverse regioni non garantiscono ancora diritti fondamentali come l’oscuramento dei dati personali, e le misure di sicurezza variano in modo preoccupante da un territorio all’altro. Lo stesso Garante ha parlato di “eccessivo utilizzo dei dati sensibili” nel sistema. Facciamo un passo indietro e guardiamo il quadro d’insieme: stiamo costruendo un’infrastruttura sanitaria digitale nazionale — centralizzata, interconnessa, piena di dati sensibilissimi — proprio nel momento storico in cui Google dimostra senza pudore cosa succede quando un colosso tech mette le mani sulle informazioni mediche delle persone. Il FSE non è Fitbit, certo, ha protezioni giuridiche diverse e una governance pubblica. Ma la storia insegna che le infrastrutture digitali centralizzate attraggono interessi privati come il miele attira le mosche — e nel caso italiano, dove le esternalizzazioni IT al privato sono la norma, il confine tra pubblico e privato è molto più sottile di quanto si voglia ammettere.

L’Italia ha dimostrato di poter agire quando vuole: nel marzo 2023 il Garante è stato il primo regolatore al mondo a bloccare ChatGPT, imponendo a OpenAI condizioni specifiche sul trattamento dei dati degli utenti italiani. È stato un segnale forte, per quanto temporaneo — OpenAI si è adeguata, ha riaperto il servizio, e il mondo è andato avanti come se niente fosse. Ma i singoli interventi non bastano quando il problema è strutturale. L’EU AI Act, in piena fase di implementazione nel 2026, classifica i sistemi che trattano dati sanitari come ad alto rischio e impone requisiti di trasparenza e governance. La domanda però è se il quadro normativo europeo sia abbastanza veloce da tenere il passo con aziende che riscrivono i termini di servizio ogni tre mesi e spostano le operazioni nelle giurisdizioni più convenienti. Perché qui c’è un buco enorme, e nessuno ne parla abbastanza: il GDPR protegge i dati raccolti in ambito sanitario tradizionale, ma i dati che consegni volontariamente a un’app di fitness — battito cardiaco, qualità del sonno, livelli di stress, ciclo mestruale — cadono in una zona grigia dove le tutele sono drammaticamente più deboli. Le big tech scelgono deliberatamente i canali meno regolamentati per arrivare allo stesso risultato. Il Fascicolo Sanitario Elettronico ha le sue protezioni. Il tuo braccialetto Fitbit, molto meno.

Chi ci guadagna davvero da questa massa di dati sanitari digitalizzati? Le assicurazioni, che possono profilare il rischio con una precisione senza precedenti — e in un sistema dove la sanità pubblica viene progressivamente smantellata a colpi di tagli e liste d’attesa infinite, l’assicurazione privata diventa l’unica opzione per molti. I datori di lavoro, che mascherano la sorveglianza biometrica da programmi di welfare aziendale: ti regalano il Fitbit, tu gli regali i tuoi parametri vitali — una dinamica che abbiamo analizzato parlando di come gli algoritmi assegnano punteggi sociali basati sul tuo corpo. Le aziende farmaceutiche, che acquistano dati aggregati per il targeting commerciale — sapere che in una certa area aumentano i disturbi del sonno vale oro per chi vende sonniferi. E naturalmente Google stessa, che ha bisogno di dati medici reali per addestrare i propri modelli di AI sanitaria: non per generosità, non per il bene dell’umanità, ma perché il mercato della salute digitale varrà centinaia di miliardi nei prossimi anni e chi ha i dati migliori vince. I dati che metti nel Fitbit non restano nel Fitbit. Vanno dove c’è il profitto. E il profitto, detto senza mezzi termini, non è mai dalla tua parte.

La questione di fondo è sempre la stessa, e non cambierà finché non cambia il sistema: chi controlla la tecnologia, controlla le persone. Google e Adobe non sono eccezioni — sono la regola in un modello economico dove i tuoi dati più intimi sono materia prima da estrarre, raffinare, rivendere. Il tuo corpo, la tua arte, la tua creatività: tutto diventa input per modelli che generano profitto per altri. Dopo aver privatizzato internet, il cloud e i social — con tre aziende che controllano tutta la memoria digitale del pianeta — la frontiera dell’estrazione si è spostata dentro di te. Le alternative esistono, ma richiedono uno sforzo consapevole e una buona dose di ostinazione. Tracker di fitness open source come Gadgetbridge, che funziona senza cloud e senza account Google. Software di editing come GIMP, Krita, Inkscape — imperfetti, meno lucidi delle alternative corporate, ma che non ti chiedono la tua arte in cambio di una licenza mensile. Self-hosting dei propri dati sanitari. Reti decentralizzate. Comunità che costruiscono infrastrutture autonome, fuori dalla presa delle piattaforme. Sono scelte scomode, imperfette, a volte frustranti. Ma c’è una differenza fondamentale tra uno strumento che usi e uno strumento che ti usa. Il giorno in cui il tuo braccialetto fitness sa più cose di te della tua famiglia — e le vende a chi non hai mai incontrato — forse è il momento di toglierselo dal polso.