La trasformazione digitale non può più prescindere dall’Intelligenza Artificiale (IA). Le tecnologie ad essa associate sono ormai un cardine dello sviluppo di vari prodotti e servizi in ambito finanza, formazione, sanità e agricoltura.

Non altrettanto velocemente procede l’organizzazione di un corpo normativo che vada a regolamentare l’uso di AI (Artificial Intelligence). Per porre rimedio, l’UE sta lavorando all’Artificial Intelligence Act: il primo insieme di norme sull’intelligenza artificiale a livello globale.

Con il via libera del 14 giugno 2023, da parte del Parlamento europeo, l’iter entra nella fase cruciale. L’approvazione finale è attesa entro fine anno e il Regolamento europeo sull’Intelligenza Artificiale dovrebbe entrare in vigore nel 2024.

A cosa serve l’Artificial Intelligence Act?

Lo scopo del Regolamento UE su IA è quello di gestire opportunità e rischi collegati all’uso e allo sviluppo dell’Intelligenza Artificiale. Affinché tale obiettivo prioritario si realizzi i sistemi di IA devono essere:

  • Sicuri;
  • Trasparenti;
  • Tracciabili;
  • Non discriminatori;
  • Rispettosi dell’ambiente;
  • Supervisionati da persone e non da automazione.

Nell’art. 1 della proposta di legge si sintetizza così la finalità dell’Artificial Intelligence Act: “Lo scopo del presente regolamento è promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto, nonché dell’ambiente, dagli effetti nocivi dei sistemi di intelligenza artificiale nell’Unione, sostenendo nel contempo l’innovazione e migliorando il funzionamento del mercato interno”.

La classificazione dei livelli di rischio dell’European AI Act

L’AI Act basa il sistema di regolamentazione dell’Intelligenza Artificiale sui diversi livelli di rischio per fornitori e utenti ad essa associati.

Rischio inaccettabile

Saranno messi al bando in modo definitivo quei software di IA che rappresentano una minaccia inaccettabile per la libertà, la salute e la sicurezza. Saranno pertanto vietati sistemi che comportano:

  • manipolazione comportamentale/cognitiva;
  • classificazione delle persone in base al comportamento, al livello socioeconomico e alle caratteristiche personali;
  • identificazione biometrica in tempo reale e a distanza (p.e. riconoscimento facciale).

In merito all’ultimo punto potrebbero sussistere alcune eccezioni relative ai sistemi di identificazione biometrica a distanza, in cui l’identificazione avviene dopo un lasso di tempo, consentiti in caso di indagini per reati gravi e previa autorizzazione dell’autorità giudiziaria.

Alto rischio

I software di IA classificati ad alto rischio per la sicurezza e lesivi dei diritti fondamentali saranno valutati prima di essere messi sul mercato e monitorati durante l’intero ciclo di vita. Sono suddivisi in 2 categorie:

  • AI usata in prodotti soggetti alla direttiva dell’UE sulla sicurezza come giocattoli, dispositivi medici, automobili e simili.
  • Sistemi di IA afferenti ad aree specifiche (ad esempio: istruzione e formazione professionale; gestione e funzionamento di infrastrutture critiche; accesso e fruizione di servizi privati essenziali e di servizi pubblici) che dovranno essere registrati in un database dell’Unione Europea.

Rischio limitato

I sistemi di IA con rischio limitato saranno sottoposti a vincoli sulla trasparenza per far sì che gli utenti prendano decisioni consapevoli e informate. Ciò significa che l’utente deve sapere quando interagisce con un software, come nel caso delle interazioni con Intelligenza Artificiale generativa (GenAI), capace di generare un’ampia varietà di contenuti (immagini, video, audio e testo) personalizzati in base alle esigenze degli utenti.

ChatGPT è un esempio di IA generativa e come tale dovrà rispettare alcuni paletti finalizzati a una totale trasparenza, quali:

  • rendere pubblico che il contenuto è stato generato da un software di AI;
  • progettare il sistema in modo tale da impedire la creazione di contenuti illegali;
  • pubblicare gli elenchi dei dati, con relativi diritti d’autore, usati per l’addestramento.

Rischio minimo o nullo

Infine, in caso il rischio collegato all’uso di AI sia classificato minimo, o meglio ancora nullo, l’utilizzo del sistema resta libero.

Regolamento europeo Intelligenza Artificiale: la prima pietra miliare

Il varo dell’AI Act è stato comunicato con entusiasmo dai rappresentanti europei: “Stiamo facendo la storia!” ha twittato Roberta Metsola, presidente del Parlamento europeo.

L’Unione europea, fedele al suo ruolo di vigilanza sul percorso di innovazione digitale, è il primo legislatore al mondo ad aver approvato una normativa per regolamentare i sistemi di AI. Negli Stati Uniti, con l’amministrazione Biden, si sta lavorando all’Algorithm Accountability Act, finalizzato alla trasparenza e alla responsabilità dei providers, ma il documento è ancora in fase di proposta.

Il prossimo passo auspicato è quello di armonizzare le pratiche legate ai sistemi di Intelligenza Artificiale, colmando il vuoto legislativo tra Europa e USA. L’approvazione definitiva dell’European AI Act segna un passo decisivo in tale direzione.

Per raggiungere un obiettivo tanto sfidante è allo studio un codice di condotta volontario sull’IA: una proposta transatlantica congiunta da presentare ai leader del G7 e che fungerà da riferimento per le aziende.

Prospettive di compliance su IA

Il Regolamento europeo IA apre nuovi scenari anche per l’applicazione del medesimo a livello nazionale e per la ricezione pratica da parte delle aziende.

Queste ultime, una volta approvato in via definitiva il testo normativo, godranno del cosiddetto grace period: un biennio che servirà per implementare i processi di compliance al regolamento.

Un passaggio cruciale che permetterà di far fruttare in modo etico il valore di questa tecnologia: la sola IA generativa può portare da 2,6 a 4,4 miliardi di dollari all’economia globale (fonte: rapporto McKinsey), mentre in Italia il 61% delle grandi aziende ha avviato progetti di IA e il 34% li ha già resi operativi (fonte: Osservatorio Artificial Intelligence del Politecnico di Milano).

Un processo di trust, di fiducia, da mettere al centro del modello di business esattamente come si sta facendo per la ricezione dei testi normativi sulla privacy (GDPR) e sull’identificazione elettronica (eIDAS).