Se, soprattutto durante il periodo di picco pandemico di Covid-19, abbiamo tremato per le conseguenze dell’infodemia, pensiamo a quale potrebbe essere lo scenario se la situazione ci sfuggisse definitivamente di mano e se la gestione delle informazioni passasse tout court ai sistemi di intelligenza artificiale.
Da brividi!
Una minaccia senza precedenti per la salute pubblica
Data fine aprile 2023 la pubblicazione su “Frontiers in Public Health” dell’articolo “ChatGPT and the rise of large language models: the new AI-driven infodemic threat in public health”
a firma di un gruppo di ricercatori italiani che analizza l’enorme impatto di ChatGPT sul pubblico in generale e sulla comunità di ricerca in particolare. Gli autori evidenziano allarmati sfide etiche e pratiche: la capacità dei Large Language Model (LLM) di produrre rapidamente grandi quantità di testo potrebbe diffondere la disinformazione su una scala senza precedenti, in una sorta di “infodemia guidata dall’intelligenza artificiale”, una nuova minaccia per la salute pubblica, dal momento che è difficile garantire che un LLM si comporti in modo allineato con i valori umani e che rimane una questione irrisolta la possibilità di rilevare con precisione il testo prodotto dall’intelligenza artificiale.
If this technology goes wrong, it can go quite wrong
D’altro canto, è lo stesso Ceo di OpenAI – la società madre di ChatGPT – a esprimere la sua preoccupazione: a metà maggio, davanti a una commissione del Senato degli Stati Uniti, Sam Altman ha lanciato l’ennesimo allarme: «I think if this technology goes wrong, it can go quite wrong… we want to be vocal about that», aggiungendo la volontà di lavorare con il governo per evitare che ciò accada, ma non nascondendo le insidie che l’inesorabile avanzare della tecnologia porta con sé.
Tra le aree di maggior apprensione del manager vi sono le elezioni statunitensi del prossimo anno e il timore per il potenziale impatto che l’intelligenza artificiale potrebbe avere sulla democrazia: ChatGPT e altri analoghi programmi che si stanno diffondendo in maniera dirompente possono creare risposte incredibilmente simili a quelle umane e potrebbero essere utilizzati per disinformare e persuadere gli elettori, influenzando, per esempio, l’esito delle elezioni.
Sam Altman, pur affermando di essere tutto sommato ottimista sul fatto che l’innovazione andrà a vantaggio della popolazione su larga scala, ha suggerito l’istituzione di una nuova agenzia per regolamentare il settore ed evitare di causare “danni significativi al mondo”. Altman ha inoltre fornito ai senatori diverse indicazioni, incluse la necessità che l’agenzia conceda – e nel caso revochi – licenze per creare modelli di intelligenza artificiale al di sopra di una certa soglia di capacità; la creazione di test di funzionalità specifici, come la capacità di produrre informazione accurate e di generare contenuti non pericolosi che i modelli dovrebbero superare e, infine, l’opportunità di richiedere audit indipendenti da parte di esperti non affiliati agli sviluppatori o al governo per garantire che gli strumenti di intelligenza artificiale operino nel rispetto delle linee guida legislative.
Dell’avviso di creare un’agenzia di supervisione sulla falsariga della Food and Drug Administration, in modo che i creatori debbano dimostrare la sicurezza della loro intelligenza artificiale e mostrare perché i benefici siano superiori a potenziali danni, anche il professore di psicologia e scienze neurali alla New York University Gary Marcus, presente insieme ad Altman davanti alla commissione, che afferma «Abbiamo costruito macchine che sono come elefanti in una gioielleria: potenti, spericolare e difficili da controllare». Elefanti che il senatore Richard Blumenthal, presidente della sottocommissione del gruppo per la privacy, la tecnologia e la legge, paragona a vere e proprie bombe atomiche.
D’altra parte risale a fine marzo, appena due settimane dopo il rilascio pubblico del GPT-4 di OpenAI, la lettera aperta firmata da oltre mille tra i più importanti nomi della tecnologia – tra cui Elon Musk, il co-fondatore di Apple Steve Wozniak, l’autore di Sapiens Yuval Noah Harari e alcuni dei più illustri accademici dell’IA responsabili di importanti scoperte nel machine learning – che esortava i principali laboratori di intelligenza artificiale del mondo a «prendersi una pausa di riflessione, sospendendo per sei mesi l’addestramento di nuovi sistemi super potenti, nel timore che i recenti progressi dell’intelligenza artificiale presentino profondi rischi per la società e per l’umanità». Identico messaggio quello sotteso alle dimissioni da Google di Geoffrey Hinton: il “padrino dell’intelligenza artificiale” ha lasciato il colosso a inizio di maggio dicendosi in parte rammaricato per aver contribuito a realizzare sistemi che teme possano provocare la proliferazione della disinformazione e la perdita di posti di lavoro e avvertendo che la tecnologia potrebbe sconvolgere la vita così come la conosciamo.
Un regolamento europeo a garanzia di uno sviluppo etico dell’IA
A livello legislativo, l’Europa è un passo avanti rispetto agli Stati Uniti. Lo scorso 11 maggio la commissione per il mercato interno e la commissione per le libertà civili del Parlamento europeo hanno licenziato il testo finale dell’Artificial Intelligence Act, il primo regolamento al mondo sull’IA a garanzia di uno sviluppo umano-centrico ed etico dell’intelligenza artificiale.
Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio che l’IA può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone sarebbero severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, sfruttano le vulnerabilità delle persone o sono utilizzati per definire il punteggio sociale (classificazione delle persone in base al loro comportamento sociale, stato socioeconomico, caratteristiche). I deputati hanno ampliato la classificazione delle aree ad alto rischio per includere i danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. All’elenco ad alto rischio hanno anche aggiunto i sistemi di intelligenza artificiale per influenzare gli elettori nelle campagne politiche e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti ai sensi del Digital Services Act).
Per la definitiva entrata in vigore dell’AI Act devono essere compiuti ulteriori passaggi istituzionali, ma in Europa le basi per regolamentare l’intelligenza artificiale relativamente al suo danno potenziale sono state poste, nell’intento di tutelare i diritti fondamentali della persona senza soffocare lo sviluppo di sistemi basati sull’IA.
Sempre al fine di tutelare il cittadino, anche l’European union agency for cybersecurity (Enisa) ha pubblicato a marzo un documento che ribadisce la necessità di standard comuni per garantire la sicurezza di sistemi a IA e dei dati da essi elaborati.
Tutti sforzi lodevoli, ma agenzie governative, norme e regolamenti saranno poi in grado di tenere il passo con un’evoluzione sempre più rapida della tecnologia o saremo travolti, come in molti paventano, dal suo incontrollabile sviluppo?