L’Ue regolamenta l’AI e divide gli osservatori tra garantisti e liberisti
Il 13 marzo scorso il Parlamento Europeo ha approvato la prima regolamentazione internazionale relativa all’utilizzo dell’Intelligenza Artificiale (d’ora in poi AI).
Con 523 voti favorevoli, 46 contrari e 49 astensioni i rappresentanti dell’emiciclo di Bruxelles hanno dato il via libera al regolamento, frutto dell’accordo raggiunto tra gli Stati membri nel dicembre 2023, che si pone come obiettivo quello di proteggere i diritti fondamentali dei cittadini europei, “la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio”, cercando di garantire al tempo stesso innovazione e avanguardia tecnologica.
“Le nuove norme – si legge sul sito del parlamento Europeo -, mettono fuori legge alcune applicazioni di AI che minacciano i diritti dei cittadini.
Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.
Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (…) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone”.
L’accordo, approvato a febbraio dagli ambasciatori dell’Unione, ora come ultimo passaggio formale dovrà essere adottato dal Consiglio dell’Ue prima di acquisire forza di legge.
Tra le eccezioni alla regolamentazione europea, si sottolinea quella di cui potranno usufruire le forze dell’ordine che, sebbene non potranno fare ricorso ai sistemi di identificazione biometrica come strumento ordinario, potranno utilizzare l’AI per l’identificazione “in tempo reale” in alcuni contesti specifici ed espressamente previsti dalla legge. Tra queste eccezioni, che dovranno essere espressamente autorizzate dall’autorità giudiziaria o amministrativa, rientrano i casi di prevenzione di attacchi terroristici o la ricerca di persone scomparse.
“Sono previsti obblighi chiari anche per altri sistemi di AI ad alto rischio (…) – continua la nota informativa di Bruxelles -. Rientrano in questa categoria gli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base (…), alcuni sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici”.
Fin qui una breve cronaca di quanto approvato a Bruxelles e un altrettanto breve cenno ai campi d’intervento di tale regolamentazione.
L’AI Act è stato accolto con umori differenti sia dai componenti della comunità tecnologica, siano essi rappresentanti del mondo industriale o scientifico, sia della comunità politica. La domanda più frequente può essere così sintetizzata: è giusto regolamentare (e quindi per alcuni bloccare) lo sviluppo di una tecnologia destinata a cambiare il nostro futuro?
I critici più accesi evidenziano come l’esistenza di limiti possa essere controproducente sia sul piano dello sviluppo tecnologico e sia su quello della competitività con le altre potenze (in primis Usa e Cina). Tale posizione, tuttavia, sembra essere dimentica dell’immenso potere derivante dall’AI che essendo sviluppata da soggetti privati, quindi guidati dalle logiche del profitto, sono sempre pronti a subordinare ai propri interessi specifici la necessità di tutelare i più deboli, sia economicamente che socialmente.
Veronica Cirillo