In un’epoca dominata dall’avanzamento tecnologico, il Parlamento europeo ha compiuto un passo decisivo per modellare il futuro dell’intelligenza artificiale (IA) all’interno dei suoi confini. Con una maggioranza di 523 voti favorevoli, contrastati da 46 contrari e 49 astensioni, i deputati hanno ratificato un regolamento che promette di bilanciare i rischi e le opportunità presentati dall’IA, stabilendo regole armonizzate a livello continentale. Questo sviluppo segue un’intensa fase negoziale conclusasi a dicembre 2023, culminata in un accordo con gli Stati membri dell’UE.
Obiettivi e ambizioni del nuovo quadro normativo
Il cuore del regolamento è la protezione dei diritti fondamentali dei cittadini europei, insieme alla salvaguardia della democrazia, dello stato di diritto e della sostenibilità ambientale dalle potenziali minacce rappresentate dai sistemi di IA ad alto rischio. Allo stesso tempo, l’ambizione è di spingere l’innovazione e consolidare la posizione dell’Europa come leader globale nel campo dell’IA responsabile e eticamente guidata.
Proteggere i cittadini dai rischi dell’IA
Una delle caratteristiche salienti del regolamento è l’introduzione di divieti specifici per alcune applicazioni di IA, considerate particolarmente pericolose per i diritti e le libertà individuali. Tra queste, vi sono i sistemi di categorizzazione biometrica basati su caratteristiche sensibili, l’estrapolazione indiscriminata di immagini facciali da Internet o da registrazioni di telecamere a circuito chiuso, e l’utilizzo di IA per il riconoscimento delle emozioni in ambienti lavorativi e scolastici. Sono inoltre proibiti i sistemi di credito sociale, la polizia predittiva basata esclusivamente sulla profilazione individuale e qualsiasi sistema che manipoli il comportamento umano o sfrutti le vulnerabilità delle persone.
Nonostante i rigidi divieti, il regolamento prevede alcune eccezioni per l’uso di sistemi di identificazione biometrica da parte delle forze dell’ordine, purché in circostanze ben definite e con l’applicazione di garanzie rigorose (per esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa). Queste eccezioni sono pensate per situazioni critiche, come la ricerca di persone scomparse o la prevenzione di attacchi terroristici, sempre nel rispetto di specifiche condizioni procedurali e autorizzative.
Compromessi e responsabilità per sistemi ad alto rischio
Il regolamento stabilisce obblighi dettagliati per i sistemi di IA classificati come ad alto rischio, che potrebbero cagionare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo stato di diritto. Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (ad esempio assistenza sanitaria, banche ecc.), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici (come nel caso di sistemi usati per influenzare le elezioni). Questi sistemi dovranno essere sottoposti a valutazioni dei rischi, mantenere registri accurati del loro uso, garantire trasparenza e precisione nelle loro operazioni e assicurare una supervisione umana adeguata.
Obblighi di trasparenza
Tutti i sistemi di IA destinati a un uso generale, insieme ai modelli che li alimentano, dovranno conformarsi a precisi requisiti, inclusa l’adesione alle normative UE sul diritto d’autore durante le fasi di addestramento.
Particolare attenzione è rivolta ai modelli di IA più potenti, potenziali portatori di rischi sistemici. Per essi, si prevedono obblighi supplementari quali valutazioni approfondite, l’identificazione e mitigazione dei rischi, e l’obbligo di segnalare eventuali incidenti. Queste misure mirano a prevenire danni su vasta scala, garantendo al contempo che i progressi tecnologici non compromettano la sicurezza dei cittadini.
In un’era in cui i contenuti artificiali possono essere indistinguibili dalla realtà, il regolamento richiede un’etichettatura chiara e inequivocabile per immagini, audio e video generati artificialmente o manipolati, meglio noti come “deepfake”. Questa trasparenza obbligatoria assicura che i consumatori siano pienamente consapevoli della natura artificiale dei contenuti che consumano.
Promuovere l’innovazione e sostenere le PMI
L’UE si impegna a nutrire l’ecosistema innovativo attraverso la creazione di spazi di sperimentazione normativa e meccanismi di prova “sandbox”, accessibili a livello nazionale. Questa iniziativa intende offrire alle PMI e alle start-up la possibilità di sviluppare e testare sistemi di IA innovativi in un ambiente controllato, facilitando così il loro ingresso sul mercato in condizioni di sicurezza.
Echi dal Parlamento: un futuro guidato da un’intelligenza artificiale etica
Il dibattito conclusivo ha visto protagonisti Brando Benifei (S&D, Italia) e Dragos Tudorache (Renew, Romania), rispettivamente correlatori per il mercato interno e per le libertà civili, che hanno espresso la loro visione sull’impatto del nuovo regolamento.
Benifei ha evidenziato il ruolo chiave del regolamento nell’incrementare le opportunità, combattere la discriminazione e garantire trasparenza, mentre Tudorache ha sottolineato il legame indissolubile tra IA e i valori fondamentali europei, prospettando un futuro in cui l’IA contribuirà a ridisegnare il tessuto sociale.
Verso l’attuazione: prossime tappe e contesto
Il regolamento attende ora l’approvazione finale del Consiglio e la verifica dei giuristi-linguisti. Dovrebbe essere adottato definitivamente prima della fine della legislatura ed entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE. L’applicazione delle diverse disposizioni sarà graduale e inizierà 24 mesi dopo l’entrata in vigore, salvo per quanto riguarda le pratiche vietate, che si applicheranno a partire da sei mesi dopo l’entrata in vigore; i codici di buone pratiche (nove mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
La legge sull’IA nasce in risposta diretta alle esigenze espresse dai cittadini europei durante la Conferenza sul futuro dell’Europa (COFE), riflettendo un impegno collettivo verso un approccio all’innovazione digitale che sia sicuro, affidabile e in linea con i valori democratici dell’UE.
Per approfondire
Del regolamento varato a garanzia di uno sviluppo umano-centrico ed etico dell’intelligenza artificiale e dei motivi per i quali si era resa necessaria la sua introduzione, ne aveva parlato Cristiana Bernini nell’editoriale “Quando l’AI guiderà l’infodemia”. Ecco il link per leggerlo: