Il Parlamento Europeo ha dato il via libera, con 569 voti favorevoli, 45 contrari e 23 astensioni, alle proposte di semplificazione contenute nel pacchetto “Digital Omnibus” che modificano significativamente l’applicazione dell’EU Artificial Intelligence Act (Regolamento UE 2024/1689). La decisione, presa il 26 marzo 2026 in plenaria dopo il via libera delle commissioni IMCO e LIBE, risponde alle richieste dell’industria tecnologica e farmaceutica di maggiore certezza giuridica e di tempi realistici per prepararsi alla compliance.
L’obiettivo dichiarato è evitare un’applicazione prematura delle regole in assenza di standard armonizzati, linee guida chiare della Commissione e strumenti tecnici sufficientemente maturi. Un rinvio che concede alle imprese europee un margine di manovra importante senza rinunciare alla direzione strategica verso un’intelligenza artificiale affidabile, trasparente e rispettosa dei diritti fondamentali.
Le nuove scadenze per i sistemi ad alto rischio
Le modifiche più rilevanti riguardano i sistemi classificati come high-risk, categoria nella quale rientra la stragrande maggioranza delle applicazioni di intelligenza artificiale utilizzate in ambito sanitario e farmaceutico.
Secondo la posizione approvata dal Parlamento:
- 2 dicembre 2027: data di applicazione per i sistemi high-risk elencati nell’Allegato III del regolamento. Si tratta di applicazioni autonome o standalone che includono, tra le altre, supporto decisionale clinico, stratificazione del rischio paziente, sistemi di monitoraggio remoto, diagnostica assistita da AI, biometria e tool utilizzati in servizi essenziali come sanità, occupazione e giustizia.
- 2 agosto 2028: data di applicazione per i sistemi AI integrati in prodotti già regolati da altre normative UE sulla sicurezza dei prodotti (Allegato I). Questa categoria è particolarmente rilevante per il settore life sciences, perché comprende la maggior parte dei dispositivi medici e degli strumenti diagnostici in vitro che incorporano componenti di intelligenza artificiale.
Queste date rappresentano un’estensione di circa 16-24 mesi rispetto alle scadenze originali (2 agosto 2026 per molti sistemi high-risk e 2 agosto 2027 per quelli embedded). Il rinvio non è indefinito: si tratta di date certe (“backstop”) che garantiscono prevedibilità alle imprese, superando il meccanismo più flessibile ma incerto inizialmente proposto dalla Commissione.
Meno sovrapposizioni con MDR e IVDR
Per l’industria farmaceutica, le aziende di dispositivi medici e le realtà di digital health questa dilazione è particolarmente significativa. Molte soluzioni AI sviluppate per ottimizzare percorsi terapeutici, migliorare l’aderenza al trattamento, supportare la diagnosi per immagini, personalizzare terapie o monitorare pazienti a distanza rientrano nella categoria high-risk e devono rispettare obblighi stringenti: risk management system, dataset di alta qualità e privi di bias, trasparenza, spiegabilità delle decisioni, supervisione umana e conformità incrociata con il Medical Device Regulation (MDR) e l’In Vitro Diagnostic Regulation (IVDR).
Il rinvio permette di integrare meglio i requisiti dell’AI Act all’interno dei processi di certificazione CE già esistenti, evitando duplicazioni burocratiche, costi elevati e ritardi nell’immissione sul mercato. Le aziende avranno più tempo per:
- Condurre audit approfonditi sui dataset di training;
- Implementare sistemi di governance AI a livello enterprise;
- Sviluppare meccanismi robusti di post-market surveillance;
- Allineare le soluzioni con i requisiti di cybersecurity e protezione dei dati (GDPR).
Divieto di nudificazione e watermarking
Il pacchetto introduce anche un nuovo divieto esplicito sui sistemi di “nudificazione” (nudifier apps): applicazioni AI in grado di generare o manipolare immagini sessualmente esplicite o intime che raffigurano una persona reale identificabile senza il suo consenso. Si tratta di una risposta concreta agli abusi legati ai deepfake sessuali, fenomeno in forte crescita che colpisce soprattutto donne e minori.
Il divieto non riguarda sistemi dotati di efficaci misure di sicurezza che impediscano tali utilizzi. Parallelamente, viene confermato l’obbligo di filigrana (watermarking) sui contenuti generati da AI (testi, audio, immagini e video), con scadenza fissata al 2 novembre 2026.
Sebbene il tema nudificazione sia più distante dal core business farmaceutico, rafforza il quadro etico complessivo dell’AI Act e sottolinea l’importanza di una governance responsabile anche nelle applicazioni di imaging medico e generazione di contenuti.
Implicazioni strategiche per il settore pharma italiano ed europeo
Nel contesto descritto dal 2026 Global Health Care Outlook di Deloitte – dove i sistemi sanitari puntano su efficienza, prevenzione, territorialità e modelli value-based – l’intelligenza artificiale rappresenta una leva fondamentale (ne avevamo parlato nell’articolo La sanità globale nel 2026 tra sostenibilità, lavoro e AI). Le aziende farmaceutiche non sono più chiamate solo a sviluppare molecole innovative, ma a offrire soluzioni integrate che combinino farmaco, dati real-world, monitoraggio remoto e supporto decisionale personalizzato.
Il rinvio al 2027-2028 diventa quindi una finestra strategica per:
- Investire in progetti di AI “regulation-ready” senza il rischio di sanzioni immediate;
- Costruire partnership più solide con i sistemi sanitari, gli Organismi Notificati e le autorità regolatorie nazionali (in Italia AIFA e Ministero della Salute);
- Dimostrare concretamente il ritorno sull’investimento (ROI) clinico ed economico delle soluzioni AI;
- Anticipare standard globali, rafforzando la competitività europea rispetto a Stati Uniti e Cina.
Le imprese che utilizzeranno questo periodo per rafforzare la qualità dei dati, mitigare i bias algoritmici e sviluppare processi di explainability saranno quelle meglio posizionate quando le regole diventeranno pienamente operative. Al contrario, chi interpreterà il rinvio come un semplice “stop” rischia di trovarsi indietro nella corsa all’innovazione regolata.
Farmindustria e le associazioni di settore hanno più volte sottolineato la necessità di un quadro normativo prevedibile che non penalizzi l’innovazione europea. Questo rinvio va in quella direzione, purché sia accompagnato da linee guida chiare e da un dialogo costante tra istituzioni, industria e sistemi sanitari.
Prepararsi oggi per competere domani
Il messaggio per le aziende del settore life sciences è chiaro: il rinvio non deve tradursi in un rallentamento dei progetti, bensì in una preparazione più profonda e strutturata.
Le priorità operative nei prossimi mesi dovrebbero includere:
- Mappatura completa di tutti i sistemi AI utilizzati o in sviluppo e relativa classificazione di rischio;
- Implementazione di un framework di governance AI enterprise-wide;
- Investimenti in data quality e diversity dei dataset;
- Formazione interna su risk management e supervisione umana;
- Avvio di dialoghi proattivi con Notified Bodies e autorità competenti per anticipare le valutazioni di conformità.
In un ecosistema sanitario sotto pressione per sostenibilità economica, carenza di personale e cybersecurity, le soluzioni AI compliant diventeranno un fattore competitivo decisivo. Le aziende farmaceutiche che sapranno integrare l’intelligenza artificiale nei percorsi di cura in modo sicuro, trasparente e misurabile potranno giocare un ruolo da protagonista nella transizione verso modelli preventivi, territoriali e whole-health.
L’Unione Europea ha scelto la strada del pragmatismo: rallenta dove necessario per favorire competitività e innovazione responsabile, ma mantiene ferma l’ambizione di un’AI che metta al centro la persona, la sicurezza e i diritti fondamentali.
Per il pharma italiano ed europeo il biennio 2026-2028 rappresenta quindi un’opportunità concreta: trasformare un vincolo regolatorio in vantaggio competitivo, co-progettando il futuro della sanità insieme ai sistemi sanitari e ai pazienti.


