Il fenomeno del deepfake si sta diffondendo con grande rapidità grazie alla facilità con la quale è possibile accedere alle tecnologie di Intelligenza Artificiale e all’ampia disponibilità online di dati ed immagini. 

La diffusione di contenuti falsi crea seri problemi riguardanti il diritto di ogni soggetto di conservare il controllo sulla propria immagine digitale e sulla propria identità. A tal fine il governo italiano, muovendosi sulla scia dell’Europa e della recente approvazione dell’AI Act, ha dato il via libera ad un disegno di legge sull’Intelligenza Artificiale (IA) che va anche a regolamentare l’uso dei deepfake.

Cos’è il deepfake?

Il termine deepfake nasce dall’unione delle espressioni deep learning (apprendimento profondo) e fake (falsificare) e sta ad indicare una tecnica di Intelligenza Artificiale che, proprio grazie all’apprendimento profondo, è in grado di creare dei contenuti audiovisivi falsi partendo da foto, video ed audio reali. I contenuti realizzati sono estremamente realistici e credibili, pertanto questa tecnica risulta essere molto pericolosa in quanto può essere usata per scopi malevoli ritraendo un soggetto in situazioni compromettenti o diffamatorie, ma del tutto immaginarie.

L’uso di video falsi creati dall’Intelligenza Artificiale può generare fenomeni di cyberbullismo​ con lo scopo di diffamare, offendere e ferire il malcapitato.

In alcuni casi il deepfake si spinge fino a forme di deepnude, ritraendo il soggetto nudo o in pose esplicitamente sessuali, e a volte arriva anche al deepfake porn, con la creazione di falsi video porno. E’ evidente come tutto questo, oltre ad accrescere la produzione di materiale pedo-pornografico, crea gravissimi danni di immagine al soggetto colpito, ai quali si aggiungono danni economici e problemi psicologici. I deepfake, inoltre, sono spesso utilizzati per intimidire e ricattare le persone.

video deepfake, quando colpiscono i politici, possono essere impiegati per screditarli in modo da influenzare l’opinione pubblica e il voto degli elettori a dimostrazione di come l’uso di tali tecnologie, se non adeguatamente regolamentate, può consentire impieghi molto pericolosi.

D’altra parte tutelarsi dai deepfake non è facile dato che i sistemi di Intelligenza Artificiale sono in grado di realizzare dei “falsi” molto simili all’originale.

La normativa attuale in materia di deepfake

Il Garante della privacy, di fronte alla crescita di questo fenomeno, ha messo a punto una scheda informativa con l’obiettivo di sensibilizzare gli utenti sui rischi connessi agli usi malevoli del deepfake.

Tuttavia, dal punto di vista normativo, allo stato attuale, non esistono norme specifiche che vanno a regolamentare il fenomeno che, a seconda dei casi, può configurare il reato di diffamazione aggravata, sostituzione di persona, truffa, frode informatica, estorsione, minaccia, atti persecutori, diffusione illecita di immagini o video sessualmente espliciti.

Inoltre, poiché la creazione di un falso contenuto digitale comporta, in genere, anche il trattamento di dati personali, sono applicabili anche le norme del GDPR (Regolamento UE 679/2016).

Il nuovo reato deepfake

Il disegno di legge approvato dal Governo il 23 aprile 2024 interviene sulla materia introducendo, all’interno del Codice penale, l’art. 612-quater che disciplina il nuovo reato di deepfake, ovvero l’illecita diffusione di contenuti generati o manipolati artificialmente.

Tale reato, che viene punito con la reclusione da uno a cinque anni, si configura quando:

  • vengano inviate, consegnate, cedute, pubblicate o comunque diffuse immagini o video di persone o di cose ovvero di voci o suoni falsi;
  • la falsità si può riferire all’intero documento o solamente ad una parte;
  • le immagini, i video o gli audio sono stati generati o manipolati mediante l’impiego di sistemi di Intelligenza Artificiale;
  • esse sono tali da indurre in inganno sulla loro genuinità o provenienza;
  • ed arrecano ad altri un danno ingiusto.

Il delitto, in linea generale, è punibile (salvo eventuali cambiamenti nell’iter di approvazione) a querela della persona offesa. Tuttavia sono previste tre ipotesi nelle quali si può procedere d’ufficio. Esse sono:

  • qualora il fatto è connesso con un altro delitto per il quale si deve procedere d’ufficio;
  • nel caso in cui il reato è commesso nei confronti di persona incapace, per età o per infermità;
  • nel caso il cui il reato è commesso nei confronti di una pubblica autorità a causa delle funzioni esercitate.

Segno identificativo per i contenuti prodotti dall’IA

Affinché le immagini, i video o gli audio prodotti mediante Intelligenza Artificiale non vengano scambiati per veri, il disegno di legge prevede che siano appositamente identificati con un segno o un elemento che permetta di riconoscerli. Questa norma, secondo il testo attuale, va applicata sia nel caso di contenuti interamente generati dall’IA che in caso di contenuti solo parzialmente generati da essa, ma anche nel caso in cui l’IA sia impiegata solamente per modificare o alterare contenuti reali. A tal fine si potrebbe procedere con l’inserimento, nel video o nell’immagine, di una filigrana o di una marcatura con l’acronimo IA o, nel caso dei files audio, con l’aggiunta di un annuncio audio.

Tale marcatura non è prevista in caso di opere o programmi manifestamente creativi, satirici, artistici o fittizi, fatte salve le tutele per i diritti e le libertà di terzi.

Le misure attuative di tali norme saranno definite con uno specifico regolamento dell’AGCOM.

Inoltre, i fornitori di piattaforme di condivisione dovranno munire tali piattaforme digitali di funzionalità che consentano agli utenti, che caricano contenuti video generati dall’Intelligenza Artificiale, di dichiarare se essi sono generati, modificati o alterati mediante l’uso di sistemi di IA.