La nuova qualità dell’AI nel pharma tra regolazione e audit

L’intelligenza artificiale sta entrando nei processi regolati con una complessità che supera le categorie tradizionali della qualità. L’AI Act, la Legge italiana 132/2025, il Reflection Paper EMA e il nuovo GAMP AI stanno imponendo un cambio di paradigma: non si tratta più di adottare una tecnologia, ma di costruire un modello di controllo capace di governare sistemi non deterministici, dinamici e opachi. È l’inizio di una nuova fase per il settore farmaceutico.

0
166
Ai in Pharma

Per anni l’industria farmaceutica ha integrato sistemi digitali basati su principi chiari: logiche deterministiche, output riproducibili, comportamenti verificabili.
L’intelligenza artificiale rompe questo schema.

Non siamo di fronte a un software più potente, ma a sistemi che evolvono, che possono cambiare comportamento nel tempo, che generano risultati diversi da input simili e che non sempre permettono di ricostruire il percorso logico seguito.

Questa variabilità non è un dettaglio tecnico: è un nuovo problema di qualità.

Un modello classificativo che supporta il controllo qualità visivo può degradare lentamente senza essere rilevato. Un LLM, impiegato nella redazione o revisione documentale, può produrre un’informazione errata ma plausibile, difficile da intercettare senza una supervisione rigorosa.

Per la prima volta nella storia della qualità farmaceutica, la tecnologia introduce variabilità invece di eliminarla.
Ed è proprio per questo che gli organismi regolatori stanno accelerando.

Il nuovo ecosistema normativo

Quattro riferimenti stanno ridefinendo le regole del gioco:

AI Act europeo

Classifica molte soluzioni AI usate nella filiera del farmaco come sistemi ad alto rischio. Richiede trasparenza, supervisione umana, controlli sui bias, monitoraggio continuo delle prestazioni e tracciabilità end-to-end.

Legge italiana 132/2025

Introduce tre elementi dirompenti:

  • documentazione delle logiche decisionali, anche per modelli complessi;
  • audit trail obbligatorio quando l’output AI influisce su processi sensibili, GxP e non GxP;
  • responsabilità dell’utilizzatore finale, che rimane sempre il decisore.

Reflection Paper EMA

Riconosce l’impatto crescente dei modelli adattivi e richiede governance, explainability e monitoraggio continuo lungo il ciclo di vita.

GAMP AI Guidance

Spinge verso una validazione evolutiva, basata su metriche dinamiche, drift detection e supervisione documentata.

Il messaggio è chiaro: l’AI nel pharma non può essere adottata senza una strategia di controllo continuo.

Il vero nodo: validare qualcosa che non si comporta sempre allo stesso modo

L’AI introduce un problema inedito: la non ripetibilità intrinseca.
Questo trasforma la validazione tradizionale in un processo insufficiente.

Le domande che le aziende devono iniziare a porsi sono nuove:

  • cosa succede se il modello degrada nel tempo?
  • come documentare una logica non interamente trasparente?
  • come distinguere un miglioramento da una deviazione?
  • come gestire versioni, dataset, retraining e metriche critiche?

La qualità, di fronte all’AI, diventa un processo dinamico, più vicino alla quality-by-monitoring che alla validation-by-design.

Supervisione umana: da buona pratica a requisito

La Legge 132/2025 e l’AI Act introducono un principio fondamentale: la responsabilità dell’output è sempre dell’umano qualificato.

La supervisione non è più facoltativa, né può essere implicita.
Richiede:

  • ruoli e responsabilità definiti,
  • momenti obbligatori di revisione,
  • audit trail delle decisioni,
  • documentazione della supervisione stessa.

Un modello AI non deve sostituire il giudizio umano: deve aumentarlo, rimanendo sotto controllo.

Governance: il confine tra sperimentazione e conformità

L’AI non può essere gestita come un progetto isolato.
Richiede una governance che coinvolge simultaneamente QA, RA, IT, Data Science e Process Owner.

Significa:

  • integrare l’AI nel QMS,
  • aggiornare SOP e flussi documentali,
  • gestire change control e incident AI-specifici,
  • introdurre inventari dei sistemi AI,
  • applicare CAPA dedicate ai modelli.

La differenza tra un’adozione tecnologica e un’adozione conforme sarà il primo elemento sotto esame durante audit e ispezioni.

Un passaggio cruciale per tutta la filiera

Il pharma sta attraversando un momento di transizione in cui:

  • la tecnologia corre velocissima,
  • i processi qualità evolvono troppo lentamente,
  • la normativa sta accelerando rapidamente.

In questo scenario non basta essere innovatori: bisogna essere governati, tracciabili, audit-proof.

Per approfondire in modo strutturato

Per chi desidera affrontare classificazione, validazione e governance dell’AI in contesti regolati attraverso un metodo operativo, è disponibile il percorso formativo integrato AI in Control | Learn it. Apply it. Prove it.

Il percorso combina:

  • guida operativa,
  • moduli video on-demand,
  • annex pratici,
  • strumenti per audit e supervisione umana,
  • framework allineati a AI Act, EMA, GAMP 5 Second Edition, GAMP AI e Legge italiana 132/2025.

Informazioni e iscrizioni:

AI IN CONTROL