L’Italia è il primo Paese dell’Unione Europea ad aver adottato un quadro normativo pienamente allineato con l’Artificial Intelligence Act, grazie all’approvazione della prima legge nazionale sull’Intelligenza Artificiale, entrata in vigore il 10 ottobre. Deliberata in via definitiva dal Senato a settembre, la legge – pubblicata in Gazzetta Ufficiale con il titolo “Disposizioni e deleghe al Governo in materia di intelligenza artificiale” – rappresenta un passo decisivo nella definizione di regole chiare per l’uso di questa tecnologia in rapida evoluzione.

Il nuovo quadro normativo stabilisce limiti, responsabilità e sanzioni per prevenire abusi, recependo a livello nazionale le disposizioni dell’Unione Europea già estese a tutti gli Stati membri.

​Artificial Intelligence Act all’italiana: una questione di sovranità nazionale

La Legge italiana sull’IA rappresenta pertanto in UE un “precedente”, che recepisce l’AI Act EU all’interno di un quadro legislativo nazionale in cui sono stabiliti vigilanza, sanzioni e tutela penale. In sostanza, l’Italia punta a gettare il cuore oltre l’ostacolo, stabilendo per utenti privati e aziende una governance specifica sui modelli di intelligenza artificiale con l’obiettivo di vigilare l’uso e certificare questa nuova tecnologia. A farlo se ne occuperanno direttamente l’AgID come autorità notificante e l’ACN come autorità di sorveglianza del mercato: a quest’ultima spetterà il compito di sanzionare eventuali attività non lecite.

Legge italiana sull’IA: le novità introdotte

Mentre l’Artificial Intelligence Act europeo definisce chiaramente un memorandum per fornitori, operatori e distributori di questa tecnologia, la legge italiana si concentra soprattutto sugli aspetti penali e di governance legati all’uso illecito dell’IA, aggiungendo regole specifiche per settori chiave come lavoro, sanità, ricerca scientifica, protezione dei minori e diritto d’autore.

Due, in sintesi, sono le novità introdotte ex novo nel quadro legislativo nazionale:

  1. pugno duro contro i possibili reati sull’uso di immagini, video o vocali falsificati (deepfake) o alterati mediante generazione artificiale e non autorizzati;
  2. tutela effettiva del diritto d’autore: è perseguito l’uso dei modelli di IA volti a rigenerare i contenuti frutto di libera creazione artistica.

Nell’introduzione dell’art. 612-quater del codice penale – in riferimento all’illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale – si legge:

Chiunque cagiona un danno ingiusto a una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa”.

Per il secondo genere di reato invece, si fa riferimento all’art. 171 della Legge sulla protezione del diritto d’autore,aggiungendo che è proibita “la riproduzione o estrazione di testo o dati da opere o altri materiali disponibili in rete o in banche dati anche attraverso sistemi di intelligenza artificiale”.

Approvate le ‘circostanze aggravanti speciali’: guai in vista anche per le aziende

Il legislatore individua almeno altri tre casi specifici in cui l’utilizzo dell’IA si configura come aggravante. Le aziende, in primis, sono quelle che rischiano di più: esposte alle turbolenze dei mercati, potrebbero voler trarre vantaggi economici dall’utilizzo fraudolento dell’IA, manipolando operazioni finanziarie e commerciali con algoritmi generati ad hoc. Ecco allora che a usare l’IA per creare “squilibri indotti” nello scenario economico si rischia una pena ancor più severa, specie per i seguenti reati:

  1. Attentati contro i diritti politici del cittadino (art. 294 c.p.): in questo caso l’aggravante porta alla reclusione da due a sei anni se l’inganno è perpetrato mediante l’impiego di sistemi di intelligenza artificiale.
  2. Aggiotaggio (art. 2637 c.c.): ovvero la manipolazione fraudolenta dei prezzi di mercato, ad esempio la diffusione di notizie false per provocare un rialzo o un ribasso dei prezzi.
  3. Manipolazione del mercato: l’articolo 185, comma 1, del Testo Unico della Finanza punisce chi diffonde notizie false o simula operazioni al fine di provocare un’alterazione dei prezzi. Anche in questo caso le sanzioni prevedono pene esemplari, come la reclusione da uno a sei anni e una multa da 20.000 a 5 milioni di euro.

Artificial Intelligence Act e Legge italiana sull’IA: quali conseguenze per le imprese

Le conseguenze per le imprese operanti in Italia non si fermano a questo rigido quadro normativo. A esso si associa una sorta di statuto di compliance che ha l’obiettivo di garantire un uso etico, sicuro e trasparente dell’intelligenza artificiale, il tutto all’interno dell’Artificial Intelligence Act europeo. Si tratta di una doppia sfida per le imprese attive in Italia: rispettare la normativa europea e quella nazionale.

Recepire lo scopo dell’AI act europeo significa in primis “promuovere la diffusione di un’intelligenza artificiale antropocentrica e affidabile e garantire un livello elevato di protezione della salute, della sicurezza, dei diritti fondamentali, della democrazia e dello Stato di diritto…”. Per fare ciò è necessario prima di tutto individuare con chiarezza il perimetro d’uso e i rischi ad esso associati. Motivo per cui l’Europa, con l’Artificial Intelligence Act, ha puntato molto sulla differenziazione tra i livelli di rischio, specificando le circostanze in cui questo si configura “inaccettabile, alto, limitato e minimo”.

Oltre a definire i livelli di rischio, in Italia è obbligatorio garantire alte performance in tema di governance e di compliance, una sorta di rafforzamento locale dei principi e degli obblighi previsti già dall’AI Act europeo attraverso:

  1. controlli specifici sull’uso dei modelli di AI;
  2. procedure di due diligence sui fornitori di tecnologia;
  3. definizione delle responsabilità interne;
  4. l’attivazione di audit tecnici periodici per prevenire abusi o incidenti.

Un esempio pratico

L’IA trova oggi un impiego estensivo nella pubblica amministrazione per ridurre la complessità e processare grandi quantità di dati. Prendiamo ad esempio un ospedale che utilizza un modello di IA per l’analisi delle immagini radiologiche. Per rispettare i requisiti italiani di governance e compliance, la struttura sanitaria dovrà garantire controlli a cadenza specifica sull’uso del modello IA. Questo implica in prima istanza l’istituzione di un comitato interno per monitorare l’accuratezza, l’affidabilità e i bias del sistema attraverso report periodici.

Non solo: sui fornitori di tecnologia dovrà applicare valutazioni accurate al fine di verificare qualità, sicurezza e conformità GDPR del software fornito dai produttori di IA. Per farlo sarà necessario richiedere certificazioni e audit indipendenti in modo da evitare conflitti di interesse. Tale processo di governance deve essere corredato dalla definizione delle responsabilità interne, in modo che sia ben chiaro chi sovrintende l’uso corretto

della tecnologia. Queste rigorose procedure fanno sì che, rispetto all’Artificial Intelligence Act europeo, la legge italiana si posizioni oltre la semplice classificazione del rischio, per tradursi in un sistema di responsabilità e controllo continuo al fine di prevenire abusi o incidenti legati all’uso dell’intelligenza artificiale.

FAQ – Legge italiana sull’IA e Artificiale Intelligence Act

  1. Cos’è la legge italiana sull’IA?
  2. È il primo quadro nazionale italiano che recepisce l’AI Act europeo, regolando uso, responsabilità e sanzioni dell’Intelligenza Artificiale.
  3. Quali novità introduce?
  4. Punisce deepfake, violazioni del diritto d’autore e abusi di IA nei settori chiave come lavoro, sanità e ricerca.
  5. Chi vigila sull’applicazione della legge?
  6. L’AgID è l’autorità notificante mentre l’ACN è l’autorità di sorveglianza del mercato che applica le sanzioni in caso di violazioni.
  7. Quali rischi corrono le imprese?
  8. Manipolazioni di mercato, aggiotaggio finanziario e uso illecito di IA possono comportare pene fino a sei anni e multe fino a 5 milioni di euro.
  9. Come la legge italiana sull’IA integra l’AI Act europeo?
  10. Rafforza la governance, la compliance e i controlli sui modelli di IA, con audit, due diligence sui fornitori e definizione chiara delle responsabilità interne.