Il 21 maggio scorso il Consiglio Ue ha approvato l’AI Act: si tratta della prima legge al mondo che va a regolamentare l’uso dell’intelligenza artificiale (IA). La norma è ora in attesa della pubblicazione sulla Gazzetta Ufficiale: a partire da tale momento dovranno trascorrere 20 giorni per la sua entrata in vigore, mentre l’applicazione delle regole da essa previste avverrà in maniera graduale nell’arco di 24 mesi.
L’intelligenza artificiale (AI) sta assumendo un ruolo sempre crescente nel nostro mondo e potrà portare grandi vantaggi in termini di benessere e di crescita economica se saremo in grado di sfruttarne al meglio le potenzialità. D’altra parte, però, proprio per le sue caratteristiche, e soprattutto per la sua capacità di auto apprendimento e di assumere decisioni autonomamente, l’IA potrebbe costituire un serio pericolo. Da qui nasce la necessità di creare delle regole che consentano a cittadini ed organizzazioni di sfruttare i vantaggi di una trasformazione tecnologica senza precedenti, cercando al tempo stesso di tenere sotto controllo i possibili rischi connessi.
L’AI Act fissa una serie di regole che mirano ad un uso sicuro dell’intelligenza artificiale, etico, rispettoso dei diritti fondamentali e dei valori europei.
AI Act: cos’è e come si è giunti alla sua approvazione?
L’AI Act (Artificial Intelligence Act) o EU AI Act, è una legge che va a regolamentare lo sviluppo e l’uso dell’IA nell’Unione europea. A dire il vero si tratta di un regolamento. Questa scelta non è casuale in quanto i regolamenti, a differenza delle direttive, non devono essere recepiti negli Stati membri mediante una legge nazionale: in questo modo si garantisce un’applicazione omogenea in tutti i Paesi dell’Ue delle regole fissate.
Il processo che ha portato all’approvazione dell’AI Act parte nell’aprile del 2021, quando viene presentata dalla Commissione Europea una proposta di regolamento con lo scopo di creare un quadro normativo armonizzato per l’intelligenza artificiale nell’Ue.
Nel giugno 2023 il Parlamento europeo ha adottato la propria posizione negoziale sul regolamento e nel dicembre dello stesso anno è stato raggiunto un accordo provvisorio, da parte del Parlamento europeo, del Consiglio dell’Unione europea e della Commissione europea, sul testo dell’AI Act. Infine, come si è già detto, a maggio 2024 il Consiglio Ue ha dato il via libera al regolamento definitivo sull’intelligenza artificiale.
AI Act: quali sono i suoi obiettivi?
Come abbiamo già accennato l’AI Act ha due obiettivi principali: far sì che l’uomo possa sfruttare i grandi vantaggi che derivano dall’Intelligenza Artificiale e, al tempo stesso, ridurre ogni possibile rischio nel suo impiego. In altre parole, l’EU AI Act fissa una serie di regole il cui scopo è quello di incoraggiare un uso e uno sviluppo responsabile dell’intelligenza artificiale.
Proprio per questo, il regolamento europeo prevede una distinzione delle applicazioni di intelligenza artificiale basata sula loro potenziale pericolosità e stabilisce quattro livelli di rischio in base ai quali classificare tali applicazioni, tenendo conto delle minacce che esse rappresentano per la salute, la sicurezza e i diritti umani: a ciascun livello corrisponde un diverso grado di monitoraggio.
Livelli di rischio delle applicazioni IA
Sono considerati sistemi IA a rischio inaccettabile quei sistemi che violano i valori europei e che, di conseguenza, sono vietati nei confini dell’Ue. Rientrano in questo contesto i sistemi di social scoring, ovvero quei sistemi di valutazione degli individui che portano ad assegnare loro un punteggio in base al comportamento, come pure gli strumenti di polizia predittiva che utilizzano i dati per capire in anticipo la pericolosità di un soggetto, e ancora i sistemi di targhettizzazione degli utenti che mirano a sfruttarne alcune caratteristiche vulnerabili come l’età, una disabilità, o una condizione sociale o economica. Sono vietati anche i sistemi di riconoscimento delle emozioni, soprattutto se usati nei luoghi di lavoro o nelle scuole e i sistemi di riconoscimento biometrico, salvo casi particolari.
A seguire vi sono le applicazioni IA a rischio alto che possono causare gravi danni alla salute, alla sicurezza e ai diritti fondamentali dei cittadini. In questa categoria rientrano sia i sistemi di IA che riguardano infrastrutture e prodotti specifici già coperti dalla legislazione europea, sia applicazioni usate in settori sensibili come l’istruzione, il lavoro, l’applicazione delle leggi, la migrazione e il processo democratico. Tutte queste applicazioni dovranno essere registrate in un apposito database consultabile da parte degli utenti. Inoltre, i fornitori di tali applicazioni dovranno attenersi ad una serie di adempimenti, tra i quali la progettazione di sistemi per supportare e permettere la supervisione umana.
Le applicazioni che non implicano rischi considerevoli sono considerate a rischio limitato e devono garantire un minor numero di requisiti, tra i quali soprattutto la trasparenza: in altre parole gli utenti devono essere informati sul fatto che stanno interagendo con un sistema di IA.
Infine vi sono le applicazioni con rischio minimo per le quali non sono previsti particolari adempimenti derivanti dall’AI Act.
AI Act: le novità per le imprese
Per le imprese e per tutte le organizzazioni pubbliche e private, l’entrata in vigore dell’EU AI Act comporterà una serie di novità alle quali è bene prepararsi per tempo.
Di fondamentale importanza sarà l’effettuazione di una valutazione dei rischi che consentirà di comprendere quali sistemi di intelligenza artificiale sono prodotti o utilizzati, qual è il grado di rischio ad essi associato, quali misure vanno adottate per il loro contenimento. A seconda del grado di rischio associato ai loro sistemi di intelligenza artificiale, le organizzazioni dovranno adottare delle misure adeguate al fine di garantire sicurezza, trasparenza ed affidabilità.
Applicazioni IA a rischio inaccettabile non potranno più essere prodotte o utilizzate, mentre per le altre applicazioni di intelligenza artificiale sarà necessario effettuare una valutazione della conformità alle norme dell’AI Act, nonché documentare tale conformità.
Le organizzazioni, inoltre, dovranno adottare una serie di procedure di governance che consentano di gestire i rischi connessi all’uso dell’intelligenza artificiale: ad esempio, potrebbe rendersi necessario adottare un comitato di etica dell’IA e lo sviluppo di una strategia di IA.
AI Act: le sanzioni previste
L’AI Act prevede un sistema sanzionatorio, nei confronti di chi commette delle violazioni, basato su una percentuale del fatturato annuo globale relativo all’esercizio finanziario precedente o, se superiore, su un importo fisso. Tali misure sono:
- 35 milioni di euro o il 7% nel caso di violazioni relative ad applicazioni di IA vietate;
- 15 milioni di euro o il 3% nel caso di violazioni degli obblighi del regolamento sull’IA;
- 7,5 milioni di euro o l’1,5% nel caso in cui vengano fornite informazioni inesatte.
Ai Act testo
Il testo definitivo dell’AI Act approvato dal Consiglio Ue è disponibile al seguente link.