AI, tra liberi tutti e limiti invalicabili

Dal 2 agosto 2025, entrano in vigore le prime misure attuative dell’AI Act, con obblighi di trasparenza per i modelli di IA generali e l’avvio di un codice volontario di buone pratiche. Gli USA, invece, puntano sull’innovazione rapida con il nuovo AI Action Plan. Due visioni a confronto, con ricadute concrete per il mondo farmaceutico

0
76

Il 2 agosto 2025 segna un momento cruciale per l’intelligenza artificiale (IA) in Europa, con l’entrata in vigore di alcune norme chiave dell’AI Act (Regolamento UE 2024/1689), il primo quadro giuridico globale sull’IA. Contemporaneamente, l’America’s AI Action Plan, pubblicato dalla Casa Bianca a luglio 2025, delinea una strategia ambiziosa per consolidare la leadership USA nell’IA attraverso deregulation, investimenti in infrastrutture e competizione globale, in particolare con la Cina.

Questi due approcci rappresentano visioni opposte: l’Europa punta su sicurezza, trasparenza e protezione dei diritti, mentre gli USA privilegiano innovazione rapida e leadership tecnologica. Per l’industria farmaceutica, che utilizza l’IA per scoperta di farmaci, gestione di trial clinici e ottimizzazione produttiva, queste differenze avranno un impatto significativo.

L’AI secondo Bruxelles: l’Europa sceglie la via del rischio calcolato

L’AI Act classifica i sistemi di IA in quattro livelli di rischio: inaccettabile, alto, limitato e minimo. I sistemi a rischio inaccettabile, come il punteggio sociale o il riconoscimento delle emozioni sul lavoro, sono vietati (dal 2 febbraio 2025). I sistemi ad alto rischio, tra cui rientrano molte soluzioni IA impiegate in ambito farmaceutico e clinico, dovranno invece conformarsi a obblighi stringenti entro il 2 agosto 2026. Tra questi:

  • Valutazione e mitigazione dei rischi: i fornitori devono identificare e ridurre i rischi prima dell’immissione sul mercato.
  • Qualità dei dati: i dataset devono essere privi di bias per evitare esiti discriminatori.
  • Tracciabilità: registrazione delle attività per garantire trasparenza alle autorità.
  • Sorveglianza umana: controllo umano obbligatorio per garantire sicurezza e accuratezza.
  • Documentazione dettagliata a supporto della conformità: informazioni complete sul sistema e sul suo scopo.

Questi requisiti mirano a costruire fiducia pubblica, ma comportano costi significativi per le aziende, soprattutto nel settore farmaceutico, dove l’IA gestisce dati sensibili. L’AI Act promuove anche l’alfabetizzazione IA, richiedendo formazione per operatori e cittadini.

📌 In vigore dal 2 agosto: cosa cambia con l’AI Act

Il 2 agosto 2025 entrano in vigore le prime norme operative dell’AI Act, con particolare attenzione ai modelli generali di IA (GPAI), ampiamente usati anche in ambito farmaceutico.

I quattro punti chiave:

  • Trasparenza sui dati: obbligo di dichiarare le fonti dei dataset di addestramento (es. database scientifici, siti web), per rispettare copyright e accountability.
  • Gestione dei rischi sistemici: i modelli ad alto impatto devono essere valutati e messi in sicurezza contro usi impropri o output fuorvianti.
  • Formazione e alfabetizzazione: obbligo di formare cittadini e professionisti sul corretto utilizzo dell’IA.
  • Codice di buone pratiche (volontario): linee guida per favorire l’autoregolazione, redatte dall’Ufficio per l’IA.

Il 2 agosto è più che una data simbolica: è il primo test di maturità per le aziende che sviluppano e impiegano IA in ambiti regolati. Il pharma è in prima fila.

L’approccio USA: supremazia tecnologica e deregulation

Today, a new frontier of scientific discovery lies before us, defined by transformative technologies such as artificial intelligence… Breakthroughs in these fields have the potential to reshape the global balance of power, spark entirely new industries, and revolutionize the way we live and work. As our global competitors race to exploit these technologies, it is a national security imperative for the United States to achieve and maintain unquestioned and unchallenged global technological dominance. To secure our future, we must harness the full power of American innovation.

Donald J. Trump, 45° e 47° Presidente degli Stati Uniti
(Prefazione all’America’s AI Action Plan, luglio 2025)

Con queste parole, Trump apre il nuovo piano d’azione sull’intelligenza artificiale, segnando un netto cambio di paradigma rispetto all’impostazione regolatoria dell’era Biden. L’intelligenza artificiale non è solo vista come leva economica, ma come strumento di supremazia geopolitica, da difendere e accelerare, senza vincoli normativi che possano frenarla. L’obiettivo è chiaro: trasformare l’IA nella spina dorsale della leadership globale americana.

L’America’s AI Action Plan si basa su tre pilastri: innovazione, infrastrutture e diplomazia internazionale. L’approccio è volutamente pro-business, con un focus su velocità, competitività e libertà di iniziativa. Tra le azioni principali:

  • Deregulation normativa: l’ordine esecutivo 14179, firmato da Trump, ha smantellato molte delle restrizioni imposte sotto la presidenza Biden, creando un ambiente normativo più flessibile per aziende e sviluppatori.
  • Open-source e accesso alle risorse computazionali: il piano incentiva lo sviluppo e la diffusione di modelli IA open-source, offrendo sostegno a startup, università e PMI che vogliano partecipare all’ecosistema nazionale.
  • Infrastrutture strategiche: sono previsti investimenti massicci nella rete elettrica, nella costruzione di data center ad alta sicurezza e nel rilancio della produzione di semiconduttori, considerati asset strategici.
  • Geopolitica e sicurezza: gli Stati Uniti rafforzano i controlli sulle esportazioni di tecnologie IA verso Paesi considerati rivali (in primis la Cina), promuovendo standard tecnici americani a livello globale e misure contro i deepfake.

Per l’industria farmaceutica, questo approccio rappresenta un terreno fertile per la sperimentazione e l’adozione rapida dell’IA: dagli algoritmi per la scoperta di farmaci all’ottimizzazione della produzione, fino ai sistemi predittivi per la gestione dei trial clinici. Tuttavia, la mancanza di barriere regolatorie robuste solleva preoccupazioni etiche, soprattutto per quanto riguarda l’utilizzo e la protezione dei dati sanitari sensibili. Il piano americano affronta questi rischi soprattutto attraverso misure di cybersecurity e collaborazione con l’industria, più che con regole cogenti.

Visioni culturali e strategiche divergenti

Il contrasto tra UE e USA è anche culturale. L’Europa promuove un’IA antropocentrica, fondata su diritti e precauzione. Gli USA privilegiano la libertà di espressione e l’efficienza del mercato, evitando interferenze “ideologiche” nello sviluppo tecnologico.

Un nodo centrale è la regolamentazione dei GPAI:

  • L’UE impone obblighi di trasparenza sui dati di training e gestione dei rischi.
  • Gli USA li promuovono come open source, con minimi vincoli.

In sintesi: l’Europa costruisce la fiducia pubblica con le regole, gli Stati Uniti con il mercato.

Confronto sintetico tra le principali dimensioni normative e operative dei due framework

Dimensione UE: AI Act USA: AI Action Plan
Approccio normativo Basato sul rischio (“risk-based”), con forti vincoli e sanzioni Deregolamentazione spinta, logica “innovation-first”, assenza di barriere ex ante
Tempistiche di applicazione Graduale (2025–2027), prime scadenze effettive dal 2 agosto 2025 Piano esecutivo immediato, strategico ma non vincolante
Ambito extraterritoriale Valido anche per operatori extra-UE che offrono servizi nell’Unione ([Skadden][1]) Centrato sulla filiera industriale USA, senza estensione esterna
Governance e trasparenza Obbligo di registrazione, audit, documentazione, sorveglianza umana Trasparenza volontaria; requisiti minimi solo per modelli dichiarati ad alto rischio
Sanzioni e enforcement Fino al 7% del fatturato globale per violazioni gravi Nessuna sanzione diretta prevista dal piano; enforcement affidato a future linee guida
Energia e ambiente Nessun obbligo specifico su sostenibilità e consumi Snellimento ambientale per accelerare data center e supply chain digitali

 

Pharma e AI: innovazione sotto osservazione

Per le aziende farmaceutiche, il 2 agosto 2025 segna l’inizio di una nuova era. Da un lato, l’Europa impone con l’AI Act responsabilità crescenti: tracciabilità, sorveglianza umana, gestione dei rischi. Un sistema AI per identificare nuove molecole, ad esempio, dovrà dimostrare la correttezza dei dati e la mitigazione di eventuali bias. Più costi e più lentezza, certo, ma anche maggiore fiducia da parte di autorità regolatorie, investitori e cittadini.

Dall’altro, gli Stati Uniti aprono la via alla rapidità. La libertà normativa consente test e iterazioni agili. Un vantaggio sul time-to-market, ma un rischio se emergono problemi di sicurezza, etica o qualità dei dati. La cybersicurezza resta una priorità, ma non sempre basta a compensare l’assenza di un quadro regolatorio formale.

Tra regole e libertà, l’equilibrio si chiama fiducia

Le imprese globali si muovono oggi tra due modelli:

  • Europa: normativa chiara, standard elevati, iter più lenti ma prevedibili.
  • USA: libertà di sperimentazione, iter veloci, ma rischi reputazionali maggiori.

Entrambi i sistemi puntano sull’infrastruttura e sulle competenze: l’UE rafforza lo standard europeo dell’AI; gli USA investono in data center, semiconduttori e formazione specialistica. Intanto, la Cina osserva, investe e rilancia.

Nel mezzo, l’industria farmaceutica può giocare un ruolo chiave. Ha tutto da guadagnare nel posizionarsi come ambasciatore di un’IA responsabile, capace di coniugare rigore scientifico, innovazione e trasparenza. Ma per farlo, dovrà imparare ad adattarsi a normative diverse, senza perdere di vista i valori fondanti della salute pubblica.

Governare la velocità con la responsabilità

AI Act e America’s AI Action Plan incarnano due visioni opposte dell’intelligenza artificiale: da un lato la sicurezza attraverso la regolazione, dall’altro la leadership attraverso l’innovazione.

Il 2 agosto 2025 non è solo una scadenza normativa: è una cartina tornasole per le imprese che vogliono essere credibili, competitive e trasparenti. Non sarà (solo) una questione di compliance, ma di reputazione, accesso ai mercati e capacità di guidare la sanità del futuro con strumenti potenti e responsabili.