L’intelligenza artificiale, volente o nolente, è ormai entrata a far parte della nostra quotidianità. A testimoniarlo, non sono solamente gli innumerevoli post pubblicati dagli utenti più disparati, e nemmeno la grande risonanza mediatica proveniente dalle testate giornalistiche di tutto il mondo. A dettare il ritmo incalzante di questa ascesa sono soprattutto i crescenti sforzi delle autorità per disciplinarne gli usi e le applicazioni. L’AI Act per la regolamentazione dell’intelligenza artificiale nell’Unione europea ne è un chiaro esempio.
L’UE, dal canto suo, ha iniziato a discutere delle implicazioni legate all’IA ben prima che ChatGPT e i deep fake facessero parlare di sé.
La prima proposta presentata alla Commissione europea per un Regolamento sull’Intelligenza artificiale risale all’aprile del 2021, nel secondo anno di pandemia da Covid-19. A fine aprile di quest’anno è stato invece raggiunto l’accordo provvisorio su un atto tanto rilevante quanto, per certi versi, storico.
Da molti accomunato al Gdpr (il regolamento europeo per la protezione dei dati) il carattere sovranazionale dell’AI Act lo renderebbe applicabile in tutti gli stati membri dell’Unione.
AI Act e intelligenza artificiale
“L’AI Act è una proposta di legge europea sull’intelligenza artificiale (AI), la prima legge sull’AI da parte di un importante organismo internazionale”
AI Act.eu
All’interno del sito web dedicato all’AI Act, dal quale proviene la citazione precedente, sono riassunte le principali informazioni relative all’atto sull’intelligenza artificiale.
In sintesi, il regolamento vedrebbe l’assegnazione di tre diverse categorie di rischio alle possibili applicazioni dell’IA. In ordine di rilevanza via via minore, si parte dalle applicazioni e dai sistemi che creano o potrebbero creare un “rischio inaccettabile”. Volendo fare un esempio, proposto peraltro dalla stessa UE, rientrerebbe in questa categoria il sistema di credito sociale adottato in Cina.
In secondo piano, troviamo le applicazioni dell’IA considerate “ad alto rischio”, come la scansione dei curricula e di altri contenuti sensibili, che saranno soggette a requisiti legali specifici.
Infine, non sono previste regolamentazioni particolari per tutte le forme di intelligenza artificiale non rientranti nelle due categorie sopraelencate,
In conclusione, come riportato dal Sole24Ore, “lo spirito dell’Ai Act made in Europe, rispetto a Cina e Stati Uniti, si caratterizza per un approccio umano-centrico, che vuole mantenere al centro della protezione normativa la tutela dell’integrità e dei diritti dell’individuo. Detto altrimenti, la Commissione vuole fornire regole comuni per lanciare nuovi prodotti e servizi sul mercato europeo in un contesto di fiducia da parte dei cittadini dell’Unione. Come avviene per il Gdpr non ci sarà un ente terzo che autorizzerà l’AI ma dovranno essere le aziende a dimostrare che i loro sistemi sono stati progettati per non ledere i diritti fondamentali e non costituire un rischio per le persone”.
Esisterà tuttavia un organo di vigilanza composto da un rappresentante di ogni autorità nazionale preposta, dal Garante europeo per la privacy e dalla Commissione.
Per approfondimenti consigliamo di visitare il sito dedicato – AI Act.
foto di Jonas Photography da Pexels