AI nei sistemi sanitari: realtà, promesse e contraddizioni di un’adozione (ancora) imperfetta

A partire dal rapporto PHTI, un’analisi critica sul reale impatto dell’AI nella sanità statunitense – tra hype, evidenze e futuro industriale.

0
158

L’intelligenza artificiale non ha ancora salvato nessuno. Eppure ne parliamo come se lo avesse già fatto. Nei convegni, nei bilanci, nei comunicati stampa, l’AI è ovunque: promessa di efficienza, giustizia, personalizzazione. Ma nelle corsie, nelle agende cliniche, nelle decisioni che salvano (o non salvano) una vita, la sua presenza è più discreta. A volte utile, a volte “cosmetica”, spesso difficile da valutare.

Quanto quindi di questa narrazione è sostenuto da dati? E soprattutto, al netto delle promesse e degli slogan, quale AI sta davvero penetrando nei sistemi di cura, con quali esiti e su quali premesse?

A provare a rispondere è il nuovo rapporto pubblicato dal Peterson Health Technology Institute (PHTI), uno dei think tank più autorevoli sul tema dell’health innovation negli Stati Uniti. Il titolo del documento è tanto sobrio quanto ambizioso: Adoption of AI in Healthcare Delivery Systems. Il contenuto, invece, è un’analisi lucida e ben strutturata che smonta diversi luoghi comuni sulla maturità tecnologica dell’AI clinica e invita il settore – pubblico e privato – a una riflessione strategica, più che celebrativa.

SCARICA IL REPORT

Il perimetro dell’indagine: dalla speranza al dato

Il rapporto PHTI non si limita a tracciare una panoramica dell’intelligenza artificiale in sanità: lo fa con una metodologia rigorosa. Sono state analizzate AI “clinicamente attive”, ovvero già adottate nei flussi di lavoro reali – ben lontane, quindi, dalle suggestioni accademiche o dai casi pilota in ambienti controllati. L’indagine si concentra su tre ambiti fondamentali:

  1. AI per il supporto decisionale clinico (Clinical Decision Support – CDS);
  2. AI per la stratificazione del rischio e la gestione della popolazione;
  3. AI per la pianificazione e l’ottimizzazione delle risorse.

Una scelta che mostra come la riflessione si sposti, finalmente, dall’innovazione promessa all’innovazione attuata.

Adoption sì, ma selettiva: chi adotta, cosa, perché

Il primo dato interessante riguarda la diffusione dell’AI: sì, è in aumento, ma con ritmi e motivazioni molto variabili. Il documento rivela che le tecnologie AI sono principalmente adottate da grandi sistemi ospedalieri integrati, con capacità finanziarie, digitali e organizzative elevate. Perché? Perché sono le uniche realtà in grado di integrare e mantenere soluzioni complesse, capaci di interagire con flussi di dati disomogenei, normativi stringenti e workflow clinici frammentati.

Tuttavia, anche in questi contesti virtuosi, l’adozione è guidata più da logiche di incentivo finanziario e conformità normativa che da una chiara evidenza di efficacia clinica. Un paradosso sottile ma profondo: la spinta all’innovazione non deriva necessariamente da una superiorità terapeutica o gestionale, quanto da dinamiche esterne – inclusa la pressione competitiva o le esigenze di rendicontazione value-based.

Efficacia: un elefante nella stanza

Il cuore critico del rapporto è rappresentato dall’analisi delle evidenze di efficacia clinica e operativa delle soluzioni AI già adottate. Qui il PHTI parla con voce chiara: solo una minoranza delle soluzioni ha dimostrato benefici clinici concreti e misurabili. La maggior parte dei tool valutati si limita a miglioramenti operativi (es. riduzione del tempo di triage o ottimizzazione della pianificazione), ma senza impatto statisticamente significativo sugli outcome di salute.

Il punto, dunque, non è se l’AI possa essere utile, ma quale AI e con quale robustezza metodologica. Molte soluzioni si fondano su dataset ristretti, poco rappresentativi, o su modelli opachi, scarsamente interpretabili da parte dei clinici. E laddove si documentano miglioramenti, essi spesso non superano la prova della replicabilità in ambienti diversi da quello di sviluppo.

Bias, equità e rischi di sistema

Un altro nodo rilevante, affrontato senza ambiguità dal rapporto, riguarda l’equità nell’accesso e nell’efficacia delle AI sanitarie. Alcuni modelli, per esempio, hanno mostrato bias sistemici nei confronti di gruppi etnici o socioeconomici minoritari, semplicemente perché sono stati addestrati su dati non rappresentativi. Il rischio non è solo etico, ma anche operativo: sistemi predittivi inaffidabili generano sovra o sottotrattamento, con conseguenze potenzialmente gravi per la salute pubblica e la fiducia nelle tecnologie emergenti.

In parallelo, il PHTI denuncia la mancanza di trasparenza nella valutazione dei prodotti AI. L’assenza di standard condivisi per la validazione, il monitoraggio e l’aggiornamento dei modelli espone i sistemi sanitari a rischi tecnologici e clinici significativi. Di fatto, si sta procedendo per tentativi, senza una governance forte.

Quali implicazioni per l’industria (e per l’Italia)?

Sebbene il rapporto del PHTI sia focalizzato sull’adozione dell’AI da parte dei sistemi sanitari, le sue conclusioni pongono interrogativi rilevanti anche per l’industria della salute – dalle aziende farmaceutiche ai produttori di tecnologie digitali. Se molte soluzioni oggi implementate faticano a dimostrare benefici clinici concreti, la responsabilità non può ricadere solo sui provider: anche chi progetta, sviluppa e immette sul mercato queste tecnologie è chiamato a garantire robustezza metodologica, trasparenza algoritmica e adattabilità reale ai contesti d’uso.

Per l’Italia, che si trova ancora in una fase iniziale di adozione sistemica dell’AI clinica, il quadro statunitense può fungere da cartina al tornasole. Da esso emergono almeno due raccomandazioni implicite:

  1. Evitare l’adozione per imitazione, scegliendo soluzioni costruite su esigenze locali, compatibili con i modelli organizzativi nazionali e con l’architettura digitale frammentata del nostro sistema sanitario.
  2. Richiedere rigore, trasparenza e interoperabilità ai fornitori, promuovendo una cultura della rendicontazione dell’efficacia e del controllo continuo delle prestazioni algoritmiche, anche in fase post-adozione.

In questa prospettiva, l’industria non è solo parte dell’ecosistema AI in sanità: è corresponsabile della sua qualità futura. Investire su accountability e adattabilità non è più un’opzione reputazionale, ma una condizione di sostenibilità di lungo termine.

Verso un nuovo patto tra sanità, tecnologia e responsabilità condivisa

Il documento del Peterson Health Technology Institute non intende smorzare l’entusiasmo verso l’intelligenza artificiale in ambito sanitario. Piuttosto, lo riorienta. Mette in guardia da una narrativa eccessivamente ottimista e propone un approccio più sobrio, fondato sull’evidenza, sulla trasparenza e sulla valutazione continua. Non si tratta di negare il potenziale trasformativo dell’AI, ma di spostare il baricentro: dalle promesse agli esiti misurabili, dai prototipi all’implementazione sistemica.

In questo scenario, la responsabilità è distribuita. I sistemi sanitari devono attrezzarsi per una governance più strutturata dell’innovazione digitale, ma anche chi sviluppa, commercializza o promuove soluzioni AI è chiamato a dimostrare solidità clinica, attenzione all’equità e capacità di integrazione reale nei flussi di lavoro. Il futuro dell’AI in sanità non sarà deciso dalla quantità di soluzioni disponibili, ma dalla qualità di quelle che sapranno resistere alla prova del tempo, della pratica e della replicabilità.

Il PHTI non fornisce risposte semplici, ma offre un quadro prezioso per orientare scelte complesse. Ed è proprio da questo quadro che può nascere un nuovo patto tra tecnologia, sanità e responsabilità collettiva – l’unico in grado di rendere l’intelligenza artificiale uno strumento clinico e sistemico, non solo un’icona del progresso.