Il nuovo reato di Deepfake (Legge 132/2025)

Scritto da: Luana Giangregorio - Pubblicato su IUSTLAB




Pubblicazione legale:

Il 10 ottobre 2025 è entrata in vigore la Legge n. 132/2025, introducendo nel nostro ordinamento il reato di "illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale" (art. 612 quater c.p.). Questa normativa risponde alla crescente diffusione di contenuti manipolati digitalmente, noti come deepfake, che pongono gravi rischi per la dignità, la reputazione e la sicurezza delle persone.

1. La nuova disciplina: ambito penale e aggravanti

Con la Legge 132/2025, l'Italia ha introdotto nel codice penale l’art. 612 quater c.p. che punisce con la reclusione da 1 a 5 anni chiunque, senza il consenso dell’interessato, diffonda immagini, video o audio "falsificati o alterati" tramite intelligenza artificiale e idonei a trarre in inganno sulla loro genuinità, arrecando un danno ingiusto alla vittima. Il reato è generalmente perseguibile solo a querela, salvo vittime vulnerabili o altri aggravanti (ad esempio, se commesso contro pubbliche autorità).

In parallelo, la legge ha introdotto un'aggravante generale per qualunque reato commesso tramite IA, quando costituisce un mezzo insidioso o potenzia le conseguenze del crimine, un'innovazione che riconosce la specifica pericolosità sociale dell’AI nel commettere crimini.

2. Non sempre è reato: eccezioni

Non tutti i deepfake sono penalmente rilevanti. L’impiego è lecito:

  • Se avviene con consenso esplicito (ad esempio, cameo artistico su richiesta dell’interessato, scopi satirici o ludici, documentari dichiarati).
  • Se è destinato ad ambiti artistici, culturali o didattici, purché non vi sia intento ingannatorio o lesivo (ad esempio, ricostruzioni storiche digitali).
  • Se resta in ambito privato e non arreca danno a terzi, in assenza di violazione della reputazione o della dignità.

3. Profili civili: tutela urgente e responsabilità piattaforme

Il diritto civile dovrà garantire azioni rapide "take - down" dei deepfake lesivi, anche tramite provvedimenti d’urgenza. Uno dei nodi critici è la responsabilità delle piattaforme che ospitano questi contenuti: la legge italiana, al momento, rinvia alle regole europee (DSA e AI Act), che impongono obblighi di trasparenza, risposta tempestiva alle segnalazioni e watermark digitale, ma non prevedono sanzioni automatiche e immediate a carico dei social o dei server esteri. A livello pratico, la vittima dovrà agire sia penalmente che civilmente per la rimozione e il risarcimento.

4. Impatto con la normativa europea

Le nuove regole italiane sono coordinate con l’AI Act che vieta i sistemi di intelligenza artificiale manipolativi e impone l'etichettatura dei contenuti sintetici. Il Digital Services Act (DSA) impone nuove procedure di "notice & take down", imponendo alle piattaforme l'obbligo di rimuovere tempestivamente contenuti illegali e di gestire i rischi di disinformazione sistemica. Ciò vale a maggior ragione per i deepfake a sfondo politico (es. manipolazione di elezioni, campagne diffamatorie), dove le pene sono aggravate e sono previste forme di etichettature obbligatorie.

5. Criticità pratiche

  • Il reato è di danno, non di pericolo: occorre dimostrare il danno ingiusto, non basta la semplice produzione o pubblicazione, limitando la rapidità delle azioni repressive e la protezione preventiva della vittima.
  • La responsabilità delle piattaforme non è chiaramente definita; spesso la rimozione deve passare da strumenti europei o da azioni civili separate.
  • L'efficacia dell’etichettatura "watermark" e delle regole europee resta un'incognita, vista la facilità di aggiramento tecnico e la diffusione tramite canali non controllati.
  • La tutela effettiva delle vittime dipende dalla loro capacità di reagire tempestivamente e di avviare la querela; spesso chi subisce un deepfake è colto alla sprovvista, con danni reputazionali che si manifestano prima che le indagini siano avviate e la rimozione sia accordata.

6. Aspetti positivi e valori di sistema

  • L’Italia è la prima in Europa a criminalizzare in modo specifico la diffusione illecita di deepfake, offrendo una difesa innovativa e moderna contro la manipolazione digitale della realtà.
  • Viene finalmente colmato il vuoto lasciato da altre fattispecie (diffamazione, revenge porn), che non coprivano le narrazioni artificiali.
  • Si tutela la dignità, la reputazione, l’identità e la sicurezza delle persone, non solo in casi di vita privata, ma anche per la protezione del dibattito pubblico e democratico (elezioni, disinformazione politica).
  • La legge prevede un regime "dinamico": il legislatore ha inserito deleghe per aggiornare la disciplina, integrandola in base all’evoluzione tecnologica.

7. Esempi pratici e casi recenti

Un esempio emblematico è il caso “deep nude”, in cui il Garante Privacy italiano ha bloccato una app che generava immagini di donne “spogliate digitalmente” da foto comuni. Il provvedimento ha sottolineato la necessità di agire a tutela della dignità e della privacy dei soggetti, con particolare riguardo ai minorenni e ai soggetti vulnerabili.

Conclusione

La nuova normativa rappresenta un modello di riferimento, con effetti deterrenti importanti e un primo baluardo contro la manipolazione della realtà digitale. Resta però necessario un sistema integrato (penale, civile, europeo e amministrativo) affinché la tutela sia tempestiva, efficace e coordinata, anche in funzione delle evoluzioni dell’intelligenza artificiale e delle nuove minacce digitali.



Pubblicato da:


Luana Giangregorio

Avvocato




IUSTLAB

Il portale giuridico al servizio del cittadino ed in linea con il codice deontologico forense.
© Copyright IUSTLAB - Tutti i diritti riservati


Privacy e cookie policy