L’Europa è pronta per l’AI in sanità?

Il report 2025 dell’OMS Europa fotografa un continente in transizione: strategie nazionali presenti ma spesso generiche, governance frammentata, responsabilità giuridica ancora incerta e data governance disomogenea. Per la filiera farmaceutica il vero collo di bottiglia non è tecnologico, ma regolatorio, organizzativo e di competenze.

0
14

L’intelligenza artificiale è già operativa nei sistemi sanitari europei: supporta la diagnostica per immagini, alimenta modelli predittivi, ottimizza la gestione dei dati clinici e rafforza la pianificazione sanitaria. Tuttavia, il nuovo report 2025 dell’OMS Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region (basato su survey 2024–2025 su 50 Paesi su 53) restituisce un’immagine meno celebrativa di quanto la narrativa tecnologica suggerisca: l’adozione esiste, ma la maturità regolatoria e sistemica è disomogenea.

Scarica il report completo WHO

Strategie nazionali, tra ambizione e genericità

Il dato più emblematico riguarda le strategie nazionali.

Soltanto l’8% dei Paesi ha pubblicato una strategia AI specifica per la salute. Il 66% dispone invece di una strategia cross-settoriale che include la sanità tra gli ambiti di applicazione. La maggioranza ha dunque inserito l’AI in un quadro trasversale, ma senza un impianto sanitario dedicato.

Per la filiera farmaceutica questo aspetto è tutt’altro che marginale. Senza una cornice health-specific chiara, il rischio è una regolazione frammentata, con interpretazioni divergenti su validazione dei modelli, responsabilità (liability), monitoraggio post-market e requisiti di trasparenza/explainability.

In Europa meridionale (Italia inclusa), il 38% dei Paesi non ha alcuna strategia dedicata al settore salute, accentuando la disomogeneità regionale.

Leggi anche: Intelligenza artificiale e industria farmaceutica: perché il ruolo del farmacista industriale è centrale

Il vero collo di bottiglia: la responsabilità giuridica

Se l’AI è ormai parte dell’agenda sanitaria europea, la liability non lo è altrettanto. Solo l’8% dei Paesi ha sviluppato standard chiari di responsabilità per l’uso dell’intelligenza artificiale in sanità. Ancora più significativo: appena il 6% ha introdotto requisiti legali specifici per i sistemi di generative AI applicati al contesto sanitario.

L’86% degli Stati membri indica l’incertezza normativa come principale barriera all’adozione, seguita dai vincoli finanziari (78%). Il problema non è l’accesso alla tecnologia, ma la mancanza di regole certe su chi risponde quando un algoritmo produce un errore, un bias clinicamente rilevante o un output non validato.

Per le aziende farmaceutiche e per i fornitori di soluzioni digital health questo scenario significa esposizione a rischi regolatori e reputazionali in un contesto in cui AI Act (Regolamento UE 2024/1689), European Health Data Space (EHDS) e normative nazionali stanno ancora cercando un equilibrio operativo.

In un settore fondato su tracciabilità e auditabilità (GMP, GCP, pharmacovigilanza), l’assenza di chiarezza su liability rallenta partnership, validazione di modelli AI per RWE e integrazione in processi regolatori.

Approfondisci la prospettiva legale su rischi e responsabilità AI in pharma nell’articolo a firma di Deloitte Legal: AI nella filiera farmaceutica: una prospettiva legale sulla gestione dei rischi e della responsabilità

Data governance, il fondamento fragile dell’AI sanitaria

Il report dedica ampio spazio alla maturità della governance dei dati. Il 66% dei Paesi dispone di una strategia nazionale per i dati sanitari, ma solo il 30% ha emanato linee guida chiare per l’uso secondario dei dati a fini di ricerca pubblica e per la condivisione transfrontaliera.

Per il settore pharma la questione è strutturale. L’AI applicata alla ricerca clinica, alla farmacovigilanza, al drug repurposing e alla real-world evidence richiede ecosistemi interoperabili e standardizzati. Senza armonizzazione reale (anche in vista dell’EHDS), la scalabilità dei modelli resta confinata a singoli contesti nazionali, limitando la competitività europea complessiva.

Il rischio è un’Europa digitale a velocità differenziate, dove alcuni Paesi diventano hub di sperimentazione (e attrazione investimenti) e altri restano osservatori.

Dalla strategia al finanziamento, il gap operativo

Un ulteriore elemento critico riguarda il passaggio dalla pianificazione all’investimento. Solo poco più della metà dei Paesi che hanno identificato priorità nazionali per l’AI sanitaria ha effettivamente allocato fondi dedicati.

La distanza tra strategia dichiarata e finanziamento operativo solleva una questione industriale rilevante. Senza investimenti strutturali, l’AI rischia di rimanere confinata a progetti pilota, incapaci di trasformarsi in infrastruttura sistemica.

Per la filiera farmaceutica, abituata a operare in ambienti regolati e capital intensive, prevedibilità normativa e stabilità degli investimenti pubblici sono condizioni essenziali per pianificare partnership pubblico-privato, integrare strumenti AI nei processi regolatori e sviluppare modelli di innovazione sostenibili.

Explainability, competenze e responsabilità organizzativa

Il 92% dei Paesi intervistati indica la necessità di regole chiare sulla responsabilità come prerequisito per l’adozione diffusa dell’AI. Il 90% sottolinea l’importanza di trasparenza, verificabilità ed explainability.

Nel settore farmaceutico, fondato su validazione scientifica e tracciabilità, l’intelligenza artificiale non può essere una black box. L’adozione industriale richiede modelli auditabili, documentazione strutturata e monitoraggio lungo l’intero ciclo di vita (dal training al deployment e post-market surveillance).

Ma esiste un ulteriore livello, spesso sottovalutato: la competenza interna. Il report OMS evidenzia come solo una minoranza dei Paesi abbia integrato l’AI nei percorsi formativi sanitari e meno della metà abbia creato ruoli specialistici dedicati.

Con l’entrata in vigore dell’AI Act europeo, le organizzazioni che sviluppano o utilizzano sistemi di intelligenza artificiale sono chiamate a garantire un adeguato livello di AI literacy al proprio personale. Non si tratta di un adempimento formale, ma di una responsabilità organizzativa. Senza competenze diffuse su rischi, limiti, requisiti regolatori e implicazioni etiche, nessuna governance può dirsi realmente efficace.

Per le imprese della filiera farmaceutica questo significa investire in formazione strutturata, capace di integrare aspetti regolatori, tecnici e di controllo qualità. In questa prospettiva, percorsi specialistici come AI in Control, dedicato alla gestione compliant dell’intelligenza artificiale nei processi di qualità, validazione e governance pharma, rappresentano strumenti concreti per trasformare la compliance in leva strategica.

Iscriviti al percorso “AI in Control”

I numeri chiave del report OMS 2025

  • Strategia AI health-specific: 8%
  • Strategia cross-settoriale (include salute): 66%
  • Principale barriera: incertezza legale (86%)
  • Vincoli finanziari come barriera: 78%
  • Necessità di regole chiare di liability: 92%
  • Necessità di explainability e trasparenza: 90%
  • Uso secondario dati con linee guida chiare: 30%
  • Formazione pre-service sull’AI: 20%

L’AI sanitaria europea tra ambizione e realismo

Il report OMS non descrive un continente impreparato, ma un ecosistema in evoluzione. Le strategie esistono, la consapevolezza è diffusa, l’interesse industriale è crescente. Tuttavia, la maturità normativa resta disomogenea e la responsabilità giuridica ancora parziale.
Per l’industria farmaceutica europea la domanda non è se l’intelligenza artificiale entrerà nei processi regolatori, clinici e produttivi. La domanda è a quale velocità e con quali garanzie.

Chi saprà integrare innovazione, compliance rigorosa e sviluppo delle competenze interne costruirà un vantaggio competitivo sostenibile. Chi attenderà una piena armonizzazione normativa rischia di inseguire.

L’Europa è pronta per l’AI in sanità? I numeri OMS indicano che la direzione è tracciata. Ma la solidità del percorso dipenderà dalla capacità di trasformare le strategie in regole chiare, interoperabili e sostenibili — e le competenze in cultura organizzativa diffusa.

Nota di aggiornamento

Il report OMS si basa su una survey condotta nel 2024–2025, prima di significative evoluzioni normative nazionali in alcuni Paesi.
In Italia, la Legge n. 132 del 23 settembre 2025 (pubblicata in Gazzetta Ufficiale il 25 settembre 2025 ed entrata in vigore il 10 ottobre 2025) rappresenta la prima normativa organica nazionale sull’intelligenza artificiale, che integra l’AI Act UE con disposizioni specifiche per la sanità.

Tra le novità principali:

  • centralità del professionista sanitario (l’IA supporta ma non sostituisce la decisione clinica);
  • obbligo di informativa al paziente sull’uso di sistemi AI;
  • istituzione di una piattaforma nazionale di intelligenza artificiale per l’assistenza territoriale, gestita da AGENAS (Agenzia nazionale per i servizi sanitari regionali) come Agenzia nazionale per la sanità digitale;
  • facilitazioni per l’uso secondario di dati sanitari (anche sensibili) a fini di ricerca e sviluppo AI, considerato di rilevante interesse pubblico (con notifica al Garante Privacy).

Queste misure rappresentano un avanzamento significativo per l’Italia rispetto al quadro descritto nel report OMS, pur dipendendo per l’attuazione piena dai decreti delegati e dall’armonizzazione con l’European Health Data Space (EHDS). Il report resta tuttavia uno strumento prezioso per comprendere i gap sistemici europei al momento della rilevazione.