Pubblicazione legale:
Il 10 ottobre 2025 è entrata in vigore la Legge n. 132/2025, introducendo nel nostro ordinamento il reato di "illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale" (art. 612 quater c.p.). Questa normativa risponde alla crescente diffusione di contenuti manipolati digitalmente, noti come deepfake, che pongono gravi rischi per la dignità, la reputazione e la sicurezza delle persone.
Con la Legge 132/2025, l'Italia ha introdotto nel codice penale l’art. 612 quater c.p. che punisce con la reclusione da 1 a 5 anni chiunque, senza il consenso dell’interessato, diffonda immagini, video o audio "falsificati o alterati" tramite intelligenza artificiale e idonei a trarre in inganno sulla loro genuinità, arrecando un danno ingiusto alla vittima. Il reato è generalmente perseguibile solo a querela, salvo vittime vulnerabili o altri aggravanti (ad esempio, se commesso contro pubbliche autorità).
In parallelo, la legge ha introdotto un'aggravante generale per qualunque reato commesso tramite IA, quando costituisce un mezzo insidioso o potenzia le conseguenze del crimine, un'innovazione che riconosce la specifica pericolosità sociale dell’AI nel commettere crimini.
Non tutti i deepfake sono penalmente rilevanti. L’impiego è lecito:
Il diritto civile dovrà garantire azioni rapide "take - down" dei deepfake lesivi, anche tramite provvedimenti d’urgenza. Uno dei nodi critici è la responsabilità delle piattaforme che ospitano questi contenuti: la legge italiana, al momento, rinvia alle regole europee (DSA e AI Act), che impongono obblighi di trasparenza, risposta tempestiva alle segnalazioni e watermark digitale, ma non prevedono sanzioni automatiche e immediate a carico dei social o dei server esteri. A livello pratico, la vittima dovrà agire sia penalmente che civilmente per la rimozione e il risarcimento.
Le nuove regole italiane sono coordinate con l’AI Act che vieta i sistemi di intelligenza artificiale manipolativi e impone l'etichettatura dei contenuti sintetici. Il Digital Services Act (DSA) impone nuove procedure di "notice & take down", imponendo alle piattaforme l'obbligo di rimuovere tempestivamente contenuti illegali e di gestire i rischi di disinformazione sistemica. Ciò vale a maggior ragione per i deepfake a sfondo politico (es. manipolazione di elezioni, campagne diffamatorie), dove le pene sono aggravate e sono previste forme di etichettature obbligatorie.
Un esempio emblematico è il caso “deep nude”, in cui il Garante Privacy italiano ha bloccato una app che generava immagini di donne “spogliate digitalmente” da foto comuni. Il provvedimento ha sottolineato la necessità di agire a tutela della dignità e della privacy dei soggetti, con particolare riguardo ai minorenni e ai soggetti vulnerabili.
La nuova normativa rappresenta un modello di riferimento, con effetti deterrenti importanti e un primo baluardo contro la manipolazione della realtà digitale. Resta però necessario un sistema integrato (penale, civile, europeo e amministrativo) affinché la tutela sia tempestiva, efficace e coordinata, anche in funzione delle evoluzioni dell’intelligenza artificiale e delle nuove minacce digitali.
