
L’AI Act, approvato dal Parlamento Europeo il 13 marzo 2024 e pubblicato nella Gazzetta Ufficiale dell’UE come Regolamento (UE) 2024/1689, rappresenta il primo quadro giuridico completo a livello globale sulla regolamentazione dell’intelligenza artificiale. Ne avevamo parlato in questo articolo, ma ora, con l’entrata in vigore il 2 febbraio 2025 di alcune delle misure previste dall’AI Act è giunto il momento di fare il punto della situazione.
Di che cosa parliamo:
AI Act, un cambiamento epocale
Classificazione dei sistemi IA e obblighi
Prime disposizioni operative
I sistemi a rischio inaccettabile
Obbligo di formazione
Le altre scadenze
Linee guida della Commissione europea
Sanzioni severe per i trasgressori
Che cosa cambia nel Pharma
Opportunità strategiche
AI Act, un cambiamento epocale
L’AI Act segna un cambiamento epocale per tutte le imprese che utilizzano o sviluppano tecnologie di intelligenza artificiale. L’obiettivo principale della normativa è garantire la sicurezza dei cittadini europei, proteggere i diritti fondamentali e promuovere lo sviluppo responsabile di queste tecnologie, senza ostacolare il progresso tecnologico e l’innovazione.
Il regolamento riguarda tutte le aziende che sviluppano, distribuiscono, importano o utilizzano sistemi di intelligenza artificiale all’interno del mercato europeo. Ciò include:
- Fornitori di sistemi IA
- Distributori e importatori
- Utilizzatori di sistemi IA ad alto rischio
- Fornitori di modelli di IA a uso generale (es. GPT)
- Integratori di sistemi IA, che combinano diversi moduli IA per creare nuovi sistemi.
Classificazione dei sistemi IA e obblighi
Per aiutare le aziende a comprendere come orientarsi in questo nuovo panorama normativo, l’AI Act suddivide i sistemi di intelligenza artificiale in quattro categorie di rischio:
- Rischio inaccettabile: Rientrano in questa categoria quei sistemi considerati pericolosi per i diritti e le libertà delle persone. Sono vietati, ad esempio, i sistemi che manipolano il comportamento delle persone in modo subliminale, il social scoring basato sui comportamenti individuali e i sistemi di identificazione biometrica remota in tempo reale negli spazi pubblici, salvo specifiche eccezioni legate alla sicurezza.
- Alto rischio: Qui troviamo i sistemi utilizzati in settori critici, come la sanità, i trasporti, le risorse umane e le infrastrutture sensibili. Questi sistemi possono essere impiegati, ma solo rispettando regole molto rigorose: le aziende devono effettuare valutazioni preventive d’impatto sui diritti fondamentali, adottare sistemi di gestione della qualità e prevedere controlli costanti.
- Rischio limitato: In questa categoria rientrano sistemi come i chatbot e gli strumenti di generazione di testi o immagini basati sull’IA. Per questi è richiesto un obbligo di trasparenza: l’utente deve essere sempre informato che sta interagendo con un’intelligenza artificiale.
- Rischio minimo: Comprende i sistemi di IA che non presentano rischi significativi per i cittadini. Non ci sono obblighi specifici, ma le aziende sono incoraggiate a seguire comunque principi di sicurezza ed etica.
Prime disposizioni operative
Dal 2 febbraio 2025, sono entrate in vigore alcune delle misure previste dall’AI Act:
- È entrato in vigore il divieto assoluto di utilizzo dei sistemi IA classificati come a rischio inaccettabile.
- Le aziende hanno l’obbligo di formare adeguatamente i dipendenti coinvolti nei processi decisionali e nell’utilizzo di sistemi IA, affinché siano pienamente consapevoli dei rischi e delle modalità di utilizzo responsabile di queste tecnologie.
I sistemi a rischio inaccettabile
Dal 2 febbraio è vietato l’uso di sistemi di intelligenza artificiale considerati a “rischio inaccettabile“. Questi includono pratiche come:
- Sistemi che manipolano il comportamento umano attraverso tecniche subliminali o ingannevoli.
- Sistemi che sfruttano vulnerabilità specifiche di individui o gruppi, ad esempio basate su età, disabilità o condizione socio-economica.
- Sistemi che classificano le persone in base al comportamento sociale o alle caratteristiche personali, portando a trattamenti sfavorevoli.
- Sistemi che valutano o prevedono il rischio di comportamenti criminali basandosi su tratti della personalità.
- Sistemi che creano o ampliano database di riconoscimento facciale attraverso la raccolta non mirata di immagini dal web o da filmati di sorveglianza.
- Sistemi che inferiscono emozioni nei luoghi di lavoro o negli ambienti educativi, salvo necessità mediche o di sicurezza.
- Sistemi che categorizzano individui basandosi su dati biometrici per dedurre informazioni sensibili come razza, opinioni politiche, appartenenza sindacale, credenze religiose o filosofiche, vita sessuale o orientamento sessuale.
- Sistemi che raccolgono informazioni biometriche in tempo reale in spazi pubblici accessibili per scopi di applicazione della legge, eccetto in circostanze limitate.
Obbligo di formazione
Dal 2 febbraio, le aziende devono garantire che il proprio personale coinvolto nell’uso o nell’operatività di sistemi di IA possieda un livello sufficiente di “alfabetizzazione sull’IA“. Ciò implica fornire formazione adeguata affinché i dipendenti comprendano le opportunità e i rischi associati all’IA, nonché i potenziali danni che tali sistemi possono causare.
L’articolo 4 del regolamento stabilisce che il requisito si applica sia ai fornitori che agli utilizzatori di sistemi IA, indipendentemente dal livello di rischio. Anche le imprese extra-UE che operano nel mercato europeo sono coinvolte.
L’alfabetizzazione AI comprende competenze specifiche:
- Conoscenza delle tecnologie AI (machine learning, reti neurali, LLM).
- Comprensione applicativa nei diversi settori aziendali.
- Pensiero critico sui rischi e i bias algoritmici.
- Consapevolezza degli obblighi legali in materia di IA.
La formazione deve essere personalizzata:
- Base per tutti i dipendenti sui principi generali.
- Avanzata per manager e responsabili IT, focalizzata su compliance e gestione dei rischi.
- Specializzata per team specifici (es. HR per bias nei sistemi di selezione).
Le altre scadenze
- 2 maggio 2025: adozione dei codici di condotta volontari per facilitare la conformità.
- 2 agosto 2025: applicazione delle regole per i sistemi di IA a uso generale.
- 2 agosto 2026: applicazione completa delle norme per i sistemi di IA ad alto rischio.
- 2 agosto 2027: conformità per i sistemi IA integrati in prodotti regolamentati (es. dispositivi medici e farmaceutici).
Linee guida della Commissione europea
Per supportare le aziende nell’applicazione delle nuove regole, la Commissione Europea ha pubblicato, il 4 febbraio 2025, delle linee guida pratiche.
Questi documenti offrono chiarimenti e casi concreti per aiutare le imprese a comprendere quali pratiche sono vietate e come garantire la conformità.
Scarica le linee guida ufficiali
Sanzioni severe per i trasgressori
Le imprese che non si adeguano rischiano sanzioni molto pesanti: si parla di multe che possono arrivare fino a 35 milioni di euro o al 7% del fatturato globale annuo, a seconda di quale cifra risulti più elevata.
I controlli saranno effettuati dalle autorità nazionali, sotto il coordinamento dell’European AI Office, per assicurare il rispetto delle regole in modo uniforme in tutta l’Unione Europea.
Che cosa cambia nel Pharma
Il comparto farmaceutico è senza dubbio uno dei più esposti alle prescrizioni dell’AI Act. Questo settore, infatti, da tempo si avvale dell’intelligenza artificiale in diverse fasi del ciclo produttivo: dalla ricerca e sviluppo di nuove molecole fino alla distribuzione dei farmaci.
Un primo ambito critico è quello dei dispositivi medici e della diagnostica. L’utilizzo di strumenti IA per supportare i medici nella diagnosi, nel monitoraggio dei pazienti o nell’elaborazione di decisioni cliniche è sempre più diffuso. Tuttavia, questi sistemi saranno classificati come ad alto rischio, e pertanto le aziende dovranno affrontare iter rigorosi di certificazione, implementare valutazioni d’impatto sui diritti fondamentali, gestire in modo strutturato i rischi e predisporre un sistema di sorveglianza anche nella fase successiva all’immissione sul mercato.
Anche la produzione farmaceutica sta vivendo una profonda trasformazione grazie alle soluzioni di automazione avanzata basate su IA. I sistemi che supervisionano le linee produttive dovranno assicurare tracciabilità e standard elevati di sicurezza, per garantire che i farmaci siano conformi ai protocolli GMP (Good Manufacturing Practices), evitando così blocchi produttivi e non conformità.
Sul fronte della gestione dei dati clinici e genomici, l’intelligenza artificiale consente oggi di analizzare grandi moli di dati provenienti da trial clinici e studi genetici. Questo comporta però l’obbligo di garantire la protezione dei dati sensibili, di assicurare la trasparenza nella gestione delle informazioni e di adottare strumenti che scongiurino discriminazioni e pregiudizi algoritmici.
Infine, non meno rilevante è l’impatto sulla distribuzione e supply chain. Le aziende farmaceutiche già utilizzano sistemi predittivi basati su IA per ottimizzare la logistica e prevedere eventuali carenze di scorte. Questi strumenti dovranno essere progettati per garantire affidabilità e completa tracciabilità, così da evitare il rischio di interruzioni nell’approvvigionamento di farmaci vitali.
Per le aziende farmaceutiche, l’adeguamento all’AI Act non rappresenta solo un obbligo normativo, ma anche un’opportunità per rafforzare la fiducia di medici, pazienti e autorità regolatorie, consolidando il proprio posizionamento competitivo sul mercato.
Opportunità strategiche
L’AI Act inaugura una nuova stagione normativa per le imprese europee, imponendo regole stringenti sull’uso dell’intelligenza artificiale.
Le aziende devono muoversi per tempo, adottando sistemi di controllo e formazione per garantire la conformità, trasformando così un obbligo in un’opportunità strategica. Integrare nella propria attività principi di trasparenza, sicurezza e affidabilità può tradursi infatti in un vantaggio competitivo: la fiducia dei clienti e dei partner commerciali ne uscirà rafforzata. Inoltre, ottenere la certificazione di conformità alle norme europee potrebbe diventare un requisito fondamentale per accedere a nuovi mercati e attrarre investitori.