Il rischio non è l’AI, ma dipendere dall’AI

L’adozione dell’intelligenza artificiale nel pharma accelera, ma il nodo strategico non è la tecnologia in sé. È la dipendenza che può nascere da modelli, cloud e infrastrutture esterne che governano funzioni sempre più critiche. La vera questione non è se usare l’AI, ma come evitare che diventi un nuovo punto di vulnerabilità industriale.

0
17

Il rischio più serio dell’intelligenza artificiale nel pharma potrebbe non essere l’errore dell’algoritmo.
Potrebbe essere la dipendenza che si crea quando funzioni critiche cominciano a poggiare su modelli, piattaforme e infrastrutture che l’impresa non controlla.

Finché si discute di bias, hallucination o validazione, il problema sembra tecnico.

Ma quando l’AI entra nei processi che sostengono sviluppo, qualità, decisioni e operatività, il tema cambia natura.

Non riguarda più soltanto affidabilità, riguarda controllo. E, in ultima istanza, riguarda potere industriale.

Perché quando una capacità critica si sposta fuori dal perimetro di governo dell’impresa, non si sta semplicemente adottando una tecnologia.

Si sta ridefinendo una dipendenza.

È qui che il tema AI smette di essere una questione digitale e comincia a diventare una questione strategica.

Quando l’AI smette di essere software

Finché l’intelligenza artificiale supporta attività isolate (ricerca documentale, classificazione, automazione di task ripetitivi) resta, in fondo, uno strumento. Ma il perimetro si sta spostando: l’AI entra oggi nei sistemi di supporto allo sviluppo, nei modelli predittivi per il controllo di processo, nell’analisi delle deviazioni, nella gestione documentale, nel monitoraggio avanzato degli impianti, nei sistemi agentici che orchestrano workflow complessi.

A questo livello, non parliamo più di semplice software, parliamo di infrastruttura. E ogni infrastruttura crea, inevitabilmente, relazioni di dipendenza.

La questione, dunque, non è se usare o non usare l’AI, ma capire su quali fondamenta si sta costruendo questa nuova dipendenza.


Dove nasce la dipendenza

  • Dipendenza tecnologica
    Funzioni critiche costruite su modelli proprietari non governabili.
  • Dipendenza operativa
    Workflow essenziali che si interrompono se viene meno il provider.
  • Dipendenza cognitiva
    Decisioni sempre più orientate dalla logica del sistema.
  • Dipendenza strategica
    Parte del vantaggio competitivo che migra verso chi controlla l’infrastruttura.

Il vero rischio ha un nome preciso: lock-in

Nel mondo digitale il termine è noto. Vendor lock-in. Ma nel pharma assume una dimensione diversa, perché qui il lock-in non riguarda solo costi di uscita o interoperabilità; può riguardare controllo.

Se dataset, modelli, automazioni e decision support vengono progressivamente costruiti su architetture esterne, il problema non è solo tecnico. È industriale.

  • Quanto è sostituibile quella capacità?
  • Quanto è portabile?
  • Quanto è auditabile?
  • Quanto resta sotto il controllo dell’azienda?

Sono domande tutt’altro che teoriche, soprattutto in un settore che vive di validazione, data integrity, change control e responsabilità regolatoria. Perché una dipendenza poco visibile può diventare criticità proprio quando il sistema è sotto stress. Ed è quasi sempre sotto stress che si scopre dove risiede davvero il controllo.


Quattro segnali che il rischio è già reale

  1. Quando un vendor si ferma, si ferma il sistema
    L’attacco a Change Healthcare (2024) ha dimostrato come la dipendenza da un unico fornitore critico possa trasformare un incidente cyber in una paralisi sistemica del sistema sanitario, con impatti diretti su farmacie e flussi di medicinali. La vera lezione non è stata solo di cybersecurity, ma di dipendenza strutturale.
  2. Il lock-in si può ridurre
    GSK ha progressivamente spostato fino al 100% delle proprie analisi statistiche su strumenti open source (soprattutto R), riducendo drasticamente la dipendenza da vendor tradizionali. Un caso concreto che dimostra come sia possibile riconquistare autonomia e controllo interno.
  3. Le partnership AI possono creare nuovi vincoli
    Le profonde collaborazioni tra big pharma (Sanofi, Novo Nordisk, Eli Lilly e altre) e provider come OpenAI o Microsoft stanno accelerando innovazione e capacità predittiva. Tuttavia sollevano una domanda cruciale: quanto saranno realmente portabili, validabili e sostituibili i processi e i workflow costruiti su queste piattaforme proprietarie?
  4. Anche i regolatori stanno guardando il tema
    I principi FDA-EMA sul Good AI Practice e le prime indicazioni europee sottolineano con forza human oversight, controllo del lifecycle, trasparenza e modelli governabili. Segnale chiaro che il focus regolatorio si sta spostando dalla sola performance dell’AI alla sovranità e al controllo dell’infrastruttura sottostante.La lezione
    Il lock-in raramente arriva con un blackout drammatico.
    Si manifesta più spesso attraverso:
    • costi di uscita proibitivi
    • perdita di auditabilità
    • dipendenza operativa
    • ridotta capacità di reazione sotto stress.
    Ed è esattamente in questi momenti che si misura la vera resilienza industriale di un’azienda pharma. Il punto critico non è il modello ma chi governa il modello

Molto del dibattito sull’AI insiste sui rischi intrinseci del modello: bias, hallucination, black box, explainability.

Sono tutti temi reali, ma non esauriscono il problema, perché questioni altrettanto rilevanti sono:

  • Chi governa l’infrastruttura che ospita il modello?
  • Chi controlla il compute?
  • Chi definisce le condizioni di accesso?
  • Chi decide evoluzioni, discontinuità, pricing, disponibilità?

Se funzioni critiche dipendono da layer esterni che l’impresa non controlla, il tema non è più solo affidabilità. È sovranità operativa. E questa parola, nel pharma, pesa.

Dalla compliance alla sovranità digitale

Qui avviene il salto concettuale. L’AI smette di essere solo materia da IT governance per diventare questione di architettura industriale.

Molte aziende stanno affrontando il tema con strumenti tradizionali: vendor qualification, risk assessment, computerized systems validation, controlli di cybersecurity.

Tutto corretto, ma potrebbe non bastare. Perché la domanda che emerge è più radicale: stiamo adottando strumenti o stiamo delegando capacità critiche? Sono due cose molto diverse. Nel primo caso digitalizzi, nel secondo ridisegni i confini del controllo.

E questo non è un tema operativo. È un tema da board.

Il parallelismo con l’energia non è casuale

Per anni l’industria ha considerato l’energia una commodity. Finché dipendenze geopolitiche e vulnerabilità sistemiche non l’hanno trasformata in questione strategica. Con l’intelligenza artificiale potrebbe accadere qualcosa di simile: finché appare come tecnologia abilitante, prevale la logica dell’adozione, ma quando diventa infrastruttura critica, emerge la logica della resilienza.

E a quel punto cambiano le domande. Non più: come implementarla più velocemente?

Ma:

  • come evitare dipendenze eccessive?
  • come mantenere controllo?
  • come progettare ridondanza?
  • come preservare autonomia?

Sono domande che appartengono alla gestione del rischio industriale, non alla retorica dell’innovazione.

Il tema non è rallentare l’AI

Qui è importante essere chiari.

Questo non è un argomento contro l’intelligenza artificiale. Al contrario. L’AI sarà parte crescente del futuro del pharma, probabilmente inevitabile. Ma proprio per questo il tema non può essere trattato solo come accelerazione tecnologica.

Ogni tecnologia che aumenta capacità può anche aumentare dipendenze e ignorarlo sarebbe un errore. Governarlo è una scelta.

La vera sfida è usare l’AI senza consegnarle il controllo

Forse è questo il punto essenziale: l’obiettivo non è evitare l’intelligenza artificiale, ma evitare che la sua adozione produca una nuova vulnerabilità invisibile.

Perché il rischio non nasce quando un algoritmo entra in azienda, nasce quando capacità critiche si spostano fuori dal perimetro di governo dell’impresa. Ed è una differenza enorme, perché nel primo caso introduci una tecnologia, nel secondo ridefinisci, spesso senza accorgertene, la struttura del tuo potere industriale.

Ed è qui che il tema AI smette di essere una questione digitale e diventa una questione strategica.