L’intelligenza artificiale (AI) sta ridefinendo le modalità con cui la ricerca farmaceutica affronta la scoperta e lo sviluppo di nuovi farmaci. Secondo l’ultimo rapporto di Mordor Intelligence, il mercato globale dell’intelligenza artificiale nella scoperta di farmaci è stimato a 2,58 miliardi di dollari nel 2025, con una crescita prevista a 8,18 miliardi di dollari entro il 2030, corrispondente a un tasso di crescita annuale composto (Cagr) che sfiora il 26%. Questo sviluppo è sostenuto dalla crescente disponibilità di dati biologici e chimici di alta qualità e dalla maggiore potenza computazionale disponibile, grazie anche alla diffusione delle architetture “transformer” introdotte nel 2017, che hanno radicalmente migliorato le capacità predittive degli algoritmi di machine learning.
Un caso emblematico dell’impatto dell’AI è rappresentato dal progetto AlphaFold di DeepMind, che ha permesso di prevedere la struttura di oltre 230 milioni di proteine, fornendo una base dati senza precedenti per la modellazione e la scoperta di farmaci, come documentato dalla rivista Nature nel 2022. Questo risultato ha avuto un impatto tale da contribuire all’assegnazione del Premio Nobel per la Chimica 2024 per l’avanzamento nella comprensione delle strutture proteiche.
Nonostante i progressi, l’integrazione dell’AI nel processo di drug discovery presenta ancora molte criticità: la disponibilità di dati sperimentali omogenei e di alta qualità, la frequente impossibilità di ricostruire il processo decisionale dell’AI e, soprattutto, la gestione delle aspettative, come racconta Alfonso Pozzan, VP Head of Molecular Architects di Evotec, in questa intervista.
Come viene utilizzata l’intelligenza artificiale per accelerare la scoperta di nuovi farmaci?
Benché nell’immaginario collettivo l’intelligenza artificiale venga spesso associata ai recenti strumenti disponibili a tutti tramite uno smartphone, nell’ambito della ricerca farmaceutica l’artificial intelligence (AI) e il machine learning (ML), che ne è uno dei maggiori sottoinsiemi, sono presente da moltissimo tempo in tutti gli ambiti di ricerca. Nel settore di cui mi occupo principalmente, ovvero il “drug design”, utilizziamo l’intelligenza artificiale, ad esempio, per generare nuove idee di molecole da sintetizzare dopo aver appreso, tramite l’analisi di milioni di molecole già sintetizzate, le regole base della chimica organica. Un altro esempio, che tra l’altro ha contribuito all’attribuzione del premio Nobel per la chimica nel 2024, è la predizione della struttura di proteine non ancora risolte per via sperimentale. Come ultimo esempio, vorrei sottolineare anche l’utilizzo che facciamo dell’AI/ML per predire i dati di tossicità da misure sperimentali ottenute da dati in vitro. Questo approccio, oltre a velocizzare il processo di drug discovery, permette anche di ridurre al minimo la sperimentazione su modelli animali.
Ci può fare un esempio di un progetto in cui l’AI ha fatto la differenza?
Quello che stiamo osservando è una trasformazione generale dei metodi e dei modelli predittivi. In alcuni casi, abbiamo osservato una riduzione dei tempi di progressione di un progetto. Teniamo presente che più ci si avvicina al laboratorio e alla parte sperimentale, più si capisce come sia fondamentale il contributo umano. Forse potrei dire che stiamo osservando una serie di “marginal gain” che, però, tutti assieme possono creare un concreto avanzamento nei settori della ricerca farmaceutica. Quindi, più che un esempio di un progetto dove l’AI ha fatto la differenza, direi che in quasi tutti i progetti l’AI sta dando un contributo.
Quali sono i vantaggi più evidenti (e magari anche i limiti attuali) dell’intelligenza artificiale nel drug discovery?
Uno dei vantaggi che osservo è la semplificazione dell’accesso alla “macchina”, intesa come il complesso di algoritmi e computer che in passato richiedeva molte più operazioni e una preparazione specifica. Questo, in generale, penso sia uno dei vantaggi evidenti a tutti. Se pensiamo al settore del “large language model” (LLM), si può immaginare come in futuro molte analisi ed elaborazioni di informazioni, oggi ancora complesse da svolgere, potranno essere controllate utilizzando un linguaggio comune. Uno dei limiti che vedo è la gestione delle aspettative. C’è la tendenza a trasferire i successi ottenuti in alcuni campi, come ad esempio l’elaborazione delle immagini o la comprensione linguistica avanzata, nel campo delle life science. Quello che forse l’opinione comune non ha ancora metabolizzato è che non esistono metodi diretti per descrivere i fenomeni biologici che stanno alla base del funzionamento di un organismo umano e di come noi, dall’esterno, possiamo intervenire con un farmaco. Abbiamo sì moltissimi metodi sperimentali che misurano moltissimi parametri sia in vivo che in vitro, ma la complessità è così elevata che, come dicevo prima, siamo nel campo dei “marginal gain” e, in ogni caso, l’avanzamento dell’AI dovrà andare di pari passo con l’avanzamento delle scienze sperimentali.
Quanto conta la disponibilità di dati di alta qualità per il successo dell’AI in ambito farmaceutico?
Nel nostro settore è sempre stata la cosa più importante. Ora lo è ancora di più da quando abbiamo la possibilità di gestire grossi volumi di dati. C’è sempre il rischio che l’errore sperimentale o la disomogeneità creino rumore di fondo.
Come si gestisce la collaborazione tra biologi, chimici computazionali e data scientist per massimizzare il potenziale dell’AI?
In generale, direi che si tratta di un aspetto culturale. C’è la tendenza a polarizzare molto l’opinione tra chi ritiene che siamo di fronte a una rivoluzione dei ruoli e chi è molto scettico. Penso che ci voglia molto equilibrio in questa fase, però dal mio punto di vista metto sempre il ricercatore al centro. Sfruttiamo questo momento per creare quante più interconnessioni possibili tra le discipline e i dati/conoscenze che esse generano. Sfruttiamo questi strumenti per aumentare le probabilità di successo.
Come si sta evolvendo l’AI in questo settore?
Teniamo presente che nel nostro settore la produzione di metodi e algoritmi è vastissima e molti di questi sono di dominio pubblico. Vorrei sottolineare che l’AI non è solo quello che colpisce l’opinione pubblica, le notizie un po’ sensazionalistiche; molto più spesso è l’evoluzione di strumenti già presenti da decenni. È chiaro che dopo l’avvento delle cosiddette “architetture transformer” attorno al 2016-2017 c’è stato un grandissimo cambiamento in alcuni settori della ricerca. Ma, in termini più generali, si tratta di un’evoluzione continua.
L’uso dell’IA in ambito farmaceutico solleva anche questioni etiche. Come affrontare il tema della trasparenza degli algoritmi e della loro validazione?
Non farei una differenza tra il prima e l’oggi. Le questioni etiche, la trasparenza e la privacy sono tematiche che ci sono da sempre. La scienza, quella seria, si avvale di strumenti per validare, confrontare, ri-validare e ri-confrontare. Esiste un ecosistema fatto di conferenze, riviste scientifiche e anche semplici forum online dove i ricercatori possono discutere e confrontarsi. Se la questione è del tipo: “La decisione è stata presa dall’AI e non dall’uomo”, forse dobbiamo chiederci cosa stiamo facendo. Nel mio campo posso valutare il suggerimento di sintetizzare una molecola suggerita da un algoritmo generativo; un medico potrebbe considerare una diagnosi fornita da un large language model, ma in entrambi i casi l’AI suggerisce mentre l’uomo valuta, comprende, contestualizza e decide. Questo non vuol dire che in alcuni campi, dove è appropriato, non si possa lasciare che gli algoritmi prendano delle decisioni (chiamiamoli per il momento automatismi) senza un intervento diretto dell’uomo, se siamo coscienti di come funziona il sistema.
Come vede l’evoluzione del quadro regolatorio attorno all’uso dell’AI nella ricerca clinica e preclinica?
In generale, nei settori della ricerca farmaceutica regolamentati, vedo una spinta alla tracciabilità delle decisioni “prese da algoritmi”, una validazione rigorosa per uscire dal rischio della “sovrastima” indotta dal fatto che “stiamo usando l’AI”, e nuove linee guida etiche per integrare questi sistemi senza compromettere la sicurezza dei pazienti, la qualità scientifica e la responsabilità. Quello della quantità di regolamenti rispetto alla libertà di ricerca è un tema non nuovo nel settore. Auspico che ci siano dei momenti di confronto tra ricercatori ed enti regolatori in modo tale da cogliere al meglio tutte le sfaccettature che ruotano attorno all’uso dell’intelligenza artificiale.
Secondo lei, in che direzione si sta muovendo l’industria farmaceutica grazie all’AI? Ci stiamo avvicinando a un vero cambio di paradigma?
Non penso che vedremo un incremento esponenziale del numero di nuovi farmaci per quelle che al momento sono patologie dove non esiste ancora un trattamento e per le quali c’è poca conoscenza di base o dati a supporto. Ma se penso a quanto l’Fda ha recentemente pubblicato (10 aprile 2025) riguardo all’intenzione di ridurre i test sugli animali usando, assieme a modelli in vitro e organoidi, anche modelli di AI per predire la tossicità, ritengo che una forma di cambiamento importante sia in atto. Vedremo nei prossimi anni se si tratterà di un salto epocale o di una crescita progressiva; quello che conta è che la ricerca continua.