La potenza è nulla senza controllo

Le capacità di calcolo dei sistemi informatici sono aumentate enormemente, liberando opportunità importanti per i trial in silico. Ma per trarne il massimo vantaggio sarà necessario imparare a far dialogare sistemi molto diversi tra loro

0
66

Partiamo da un dato numerico: stando a quanto pubblica DiMasi nello studio “New estimates of R&D costs” pubblicato su Journal Healt Economy, la messa a punto di nuovi farmaci basandosi su modelli tradizionali (cioè quelli che comprendono test in vitro, su animali e le varie fasi di sperimentazione umana) è un processo lungo e di scarsa efficienza, con un rapporto tra spese di investimento e percentuale di successo che è fortemente penalizzante per tutti gli attori del sistema sanitario. I dati parlano chiaro: il processo di R&D può arrivare fino a 15 anni, prima di vedere l’approvazione da parte degli enti regolatori. E il costo medio si assesta attorno ai 2,5 miliardi di dollari per ogni singola molecola. Se prendiamo il campo oncologico come riferimento, solo il 13,8% dei composti efficaci in vitro supera la fase dei test sugli animali. E la percentuale conclusiva di molecole che finalmente vengono approvate – e quindi messe a disposizione dei clinici – scende ulteriormente raggiungendo 3,4%. Peraltro, una percentuale simile vale anche per tutti gli altri campi di ricerca definiti “ad alto bisogno terapeutico”.

Questa situazione si inserisce in uno scenario complesso, determinato da diverse variabili. In primo luogo stiamo assistendo a un aumento numerico della popolazione mondiale, a cui corrisponde anche un aumento della vita media globale (entro il 2050 il 25% degli abitanti della Terra sarà over 60). A ciò, però, corrispondono anche altri fenomeni, in stretta osservazione (almeno in Occidente) quali l’abbassamento dell’età media di insorgenza di alcune patologie, sia acute che croniche o destinate a cronicizzare attraverso i trattamenti. Tra queste parliamo di patologie metaboliche, tumorali e autoimmuni, che necessitano quindi di trattamenti costosi. Basti pensare ai problemi autoimmuni: il ricorso a farmaci ad alto costo come gli anticorpi monoclonali è oggi il golden standard, anche perché spesso garantisce un ottimo controllo di malattia, con remissione dei sintomi e conservazione dei tessuti, consentendo così una qualità di vita straordinariamente migliore al paziente e un risparmio in termini di acuzie, ospedalizzazioni e terapie di supporto.

Da medicina difensiva a medicina di precisione

Dopo molti anni in cui il ricorso indiscriminato alla diagnostica aveva determinato un’esplosione delle spese per la presa in carico dei pazienti, il modello difensivo sta ormai mostrando la corda. I PDTA con i loro algoritmi hanno rappresentato una svolta significativa perché permettono di ottimizzare i percorsi di diagnosi e cura, ma ancora molto può e deve essere fatto e la via non può che essere digitale. I processi di digitalizzazione possono rappresentare un’opportunità di fondamentale importanza, a patto di saperli governare nel modo corretto. In che senso? Nel senso che di per sé digitale significa nulla. Come recitava un noto claim degli anni ’90, “la potenza è nulla senza controllo” e ciò vale anche per la potenza di calcolo. E allora ecco che per trarre il meglio dalla trasformazione digitale dobbiamo imparare a mettere a sistema dati estremamente eterogenei tra loro. Innanzi tutto va considerato il fatto che pubblico e privato devono dialogare, assicurare standard di sicurezza e anonimizzazione del dato. È altresì necessario accedere ai database più diversi, che possono andare dal sequenziamento genomico ai fascicoli sanitari ai data dei device indossabili, senza dimenticare i dati bibliografici opportunamente digitalizzati. Si tratta di babele di linguaggi differenti che dovranno per forza di cose essere gestiti attraverso l’intelligenza artificiale, anche per eliminare quel “rumore di fondo” che impedisce di comprendere quali siano i dati realmente utili ai fini dl progresso medico scientifico. Quanto appena riassunto rappresenta una condizione necessaria per poter pensare a una sperimentazione in silico che dia i risultati sperati. Intendiamoci, non si tratta di una novità: Merck già nel 1981 utilizzava modelli computazionali per il drug design o comunque ne intravedeva le potenzialità. Ciò che mancava era la potenza di calcolo, che è cresciuta in maniera esponenziale. Possiamo quindi affermare che, adesso, anche in medicina è avvenuto ciò che è successo in altri ambiti industriali: l’avvento dell’informatica ha contribuito a trasformare profondamente i processi produttivi. Le trasformazioni in essere stanno rivoluzionando anche la linearità dell’azione così come la conoscevamo. Fino all’inizio degli anni duemila avevamo ancora in mente un modello fisiopatologico unifattoriale e non multifattoriale. E si riteneva che, anche attraverso il Progetto Genoma, si sarebbe giunti in maniera precisa e deterministica a individuare le cause (genetiche, si riteneva) per ogni singola malattia non trasmissibile. Le cose non sono andate come sperato ma egualmente non possiamo certo dire che sia stato uno sforzo vano: oggi infatti sappiamo che una patologia risulta essere la probabile combinazione tra genetica, ambiente, alterazioni neurovegetative, stato di infiammazione subclinica. Tale consapevolezza sta peraltro cambiando completamente l’approccio al drug design, perché mano a mano cambia il riferimento: non si cerca più di intervenire sul sintomo ma si prova a raggiungere una sostanziale normalizzazione cellulare, pensando alla diminuzione del sintomo come a una fisiologica conseguenza. Questa consapevolezza, conseguenza diretta del progresso delle conoscenze, ha portato e porta all’individuazione di target biologici, lavorando (di fatto) a farmaci che sono potenzialmente in grado di agire su più patologie, laddove il target può essere comune. Peraltro l’incrocio dei dati di cui abbiamo parlato in precedenza potrà aprire la porta a terapie basate sul profilo genetico, sapendo in anticipo quali potranno essere i farmaci più efficaci non solo in relazione alla malattia, ma anche in relazione al “funzionamento della macchina umana del paziente”. 

Solo così può funzionare

Solo creando un ecosistema di questo genere possiamo pensare che la sperimentazione in silico abbia successo e possa diventare il paradigma di riferimento, consentendoci di raggiungere i risultati macroscopici che tutti vorremmo poter avere già sottomano e che hanno decretato tanto entusiasmo in alcuni ambienti. Ci riferiamo essenzialmente alla questione animalista sull’opportunità o meno di continuare a effettuare test in vivo. L’UE ha implementato fin dal 2010 una direttiva basata sulle 3R (replacement, reduction, refinement) che mira alla progressiva sostituzione proprio dei test in vivo a patto che le alternative garantiscano quantomeno gli stessi risultati, auspicando comunque la massima riduzione nell’utilizzo di cavie. FDA, grazie al Modernization act – FDAMA 2.0 del settembre 2022, a sua volta spinge verso l’adozione di metodi alternativi alla sperimentazione animale (e i test in silico sono ovviamente tra questi) per venire incontro alle istanze animaliste, semplificare la regolamentazione dei farmaci e portarli più rapidamente sul mercato, senza lesinare in sicurezza.

Il caso di InSilicoTrials

All’interno dell’ecosistema che abbiamo descritto, un esempio paradigmatico di come può muoversi il mercato è quello di InSilicoTrials, realtà triestina (ma internazionale in quanto a personale coinvolto), che ha avuto la lungimiranza di mettere a punto una piattaforma “pay per use” a disposizione – potenzialmente – delle 52mila aziende medicali e 3.200 farmaceutiche esistenti al mondo. Il tutto guardando a un mercato che è in continua espansione. Se nel 2018 il mercato globale della biosimulazione era di 1,65 miliardi di dollari, la previsione per il 2025 è che possa toccare quasi 5 miliardi. La crescita del mercato è stata quasi del 16% annuo e la previsione (non necessariamente ottimistica: è quello che è accaduto quando l’informatica è entrata con decisione nei processi industriali) è comunque di continua crescita. A corroborare questa convinzione, ecco le esperienze in altri campi industriali ad alto valore aggiunto o alta tecnologia (aerospaziale, automotive). In questi casi la simulazione in silico è la norma sia per il design, sia per le scelte ingegneristiche, sia per le simulazioni in termini di sicurezza. Stranamente, complice lo scenario di cui abbiamo dato prima ampia descrizione, il settore Healthcare & Life Sciences è ancora indietro, per ciò che attiene alle logiche della digitalizzazione. Tuttavia dobbiamo prendere atto del fatto che è sostanzialmente impossibile che questa trasformazione non accada, andando a ridisegnare in maniera sostanziale il rapporto che ognuno di noi avrò con le medicine di un futuro non troppo lontano. C’è solo da augurarsi che questa rivoluzione sia di per sé sufficiente a far fronte a un bisogno di salute che è sempre più esteso in termini numerici e che è parte integrante di quel complesso processo di democratizzazione di accesso alle cure che, se è spesso difficile in un’unica realtà geografica, figuriamoci che cosa comporta su scala mondiale.