Durante la sessione del mercoledì, i legislatori hanno ratificato il regolamento, risultato di un accordo intercorso con gli Stati membri nel dicembre 2023, con una netta maggioranza di 523 voti a favore, contrastati da 46 voti contrari e 49 astensioni.
L'obiettivo principale è garantire la salvaguardia dei diritti fondamentali, la promozione della democrazia e dello Stato di diritto, nonché la tutela dell'ambiente, attraverso il controllo dei sistemi ad alto rischio di IA, mentre si incoraggia il progresso tecnologico, consentendo all'Europa di assumere un ruolo guida in questo ambito. Il regolamento si basa su una valutazione dei rischi potenziali e dell'impatto delle tecnologie dell'IA, imponendo obblighi corrispondenti.
Applicazioni vietate
Le disposizioni della nuova legge bandiscono l'uso di specifiche applicazioni di IA che minacciano i diritti dei cittadini. Queste includono i sistemi di categorizzazione biometrica basati su dati sensibili e l'acquisizione indiscriminata di immagini facciali per la creazione di banche dati di riconoscimento facciale. Vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro o nelle istituzioni scolastiche, così come quelli legati al credito sociale e alla polizia predittiva che si basa esclusivamente sulla profilazione individuale.
Eccezioni per le forze dell’ordine
Le forze dell'ordine potranno utilizzare sistemi di identificazione biometrica solo in circostanze eccezionali, come la ricerca di persone scomparse o la prevenzione di attacchi terroristici, con rigorose garanzie e sotto l'autorizzazione giudiziaria o amministrativa. Tuttavia, l'utilizzo di tali sistemi dopo il fatto viene considerato ad alto rischio e richiede un'autorizzazione legale legata a specifici reati.
Obblighi per i sistemi ad alto rischio
I sistemi di IA ad alto rischio saranno soggetti a normative rigide per valutare e mitigare i rischi, mantenere registri di utilizzo, garantire trasparenza e supervisione umana. I cittadini avranno il diritto di presentare reclami riguardanti l'uso di tali sistemi e di ricevere spiegazioni sulle decisioni che li riguardano.
Obblighi di trasparenza
I sistemi di IA dovranno rispettare requisiti di trasparenza durante l'addestramento e i modelli più potenti, soggetti a rischi sistemici, saranno obbligati a sottostare a ulteriori valutazioni e a riportare sugli incidenti.
Innovazione e supporto alle PMI
Gli Stati membri dell'UE dovranno istituire spazi di sperimentazione normativa per consentire a PMI e start-up di sviluppare e testare innovativi sistemi di IA prima di metterli sul mercato.