Chi crea o diffonde deepfake di persone reali rischia responsabilità penale per diffamazione aggravata ex art. 595 c.p. e per il reato di sostituzione di persona ex art. 494 c.p., oltre a rispondere civilmente per i danni all’immagine. La legge n. 70/2024 ha introdotto l’art. 612-ter c.p. che punisce specificamente la diffusione non consensuale di immagini generate con IA a contenuto sessuale, con pene fino a 3 anni. Per le vittime, è possibile agire in via d’urgenza ex art. 700 c.p.c. per ottenere la rimozione immediata dei contenuti dalle piattaforme.
Punti chiave
- Punto 1 — L’art. 612-ter c.p. punisce la diffusione di deepfake a contenuto sessuale con pene fino a 3 anni.
- Punto 2 — La diffamazione a mezzo social tramite deepfake integra l’aggravante del mezzo di pubblicità ex art. 595 co. 3 c.p.
- Punto 3 — Il ricorso d’urgenza ex art. 700 c.p.c. è lo strumento più rapido per ottenere la rimozione dei contenuti falsi.
Se un tuo cliente scopre che circola online un suo deepfake — un video falso, una foto manipolata, una citazione mai pronunciata — hai strumenti normativi concreti per agire sia in sede penale sia in via cautelare civile. La questione non riguarda solo i personaggi pubblici: chiunque può essere bersaglio di questi contenuti, e la casistica sta crescendo anche a livello professionale e imprenditoriale.
Da gennaio 2026 circolano su X, TikTok, Instagram e LinkedIn immagini false, video sintetici e dichiarazioni fabricate che ritraggono Giorgia Meloni. Il fenomeno è stato documentato da NewsGuard nel suo ultimo report e segnalato da Agenda Digitale. I contenuti sfruttano l’intelligenza artificiale per alimentare polarizzazione e sfiducia istituzionale, ma sul piano giuridico aprono scenari di responsabilità ben definiti.
Il contesto normativo
Il quadro penale si è rafforzato con la legge n. 70/2024 (c.d. “Codice rosso rafforzato”), che ha inserito l’art. 612-ter c.p.: punisce con la reclusione da 1 a 3 anni chiunque diffonda senza consenso immagini o video a contenuto sessualmente esplicito realizzati con strumenti di intelligenza artificiale, aumentando la pena a 2-4 anni se la vittima è un pubblico ufficiale o la diffusione avviene tramite piattaforme digitali con larga audience. Per i deepfake non sessuali ma lesivi dell’onore, si applica la diffamazione aggravata ex art. 595 co. 3 c.p. (mezzo di pubblicità), con pena fino a 3 anni, e la sostituzione di persona ex art. 494 c.p. quando il contenuto attribuisce falsamente dichiarazioni o comportamenti. Sul piano civile, la giurisprudenza di legittimità — Cass. Civ. n. 12564/2021 — ha confermato che la lesione dell’identità digitale costituisce danno non patrimoniale risarcibile ex art. 2059 c.c., senza necessità di provare il danno biologico in senso stretto.
Cosa cambia per lo studio
- Mappare subito i contenuti: prima di qualsiasi azione, acquisisci i deepfake con strumenti di conservazione della prova digitale (screenshot con hash, Wayback Machine, perizia informatica). Il materiale perso nelle prime ore è spesso irrecuperabile.
- Ricorso d’urgenza ex art. 700 c.p.c.: è la via più rapida per ottenere la rimozione dalle piattaforme. I tribunali di Milano e Roma hanno già accolto istanze simili in materia di contenuti diffamatori digitali entro 48-72 ore dalla presentazione.
- Querela e denuncia penale: per i deepfake a contenuto sessuale, la procedibilità è d’ufficio ex art. 612-ter co. 4 c.p. — la querela della vittima non è necessaria, il che accelera i tempi investigativi. Per la diffamazione, resta la procedibilità a querela entro 3 mesi dalla conoscenza del fatto.
- Segnalazione al Garante Privacy: il deepfake tratta dati biometrici e immagini personali. Presenta reclamo al Garante ex art. 77 GDPR parallelamente all’azione giudiziale: può portare a ingiunzioni di rimozione con effetti anche extragiudiziali sulle piattaforme.
- Responsabilità delle piattaforme: dopo il Digital Services Act (Reg. UE 2022/2065, applicabile dal 17 febbraio 2024), le piattaforme very large come TikTok e X hanno obblighi di rimozione rapida di contenuti illegali. Una diffida formale alla piattaforma, con riferimento esplicito all’art. 16 DSA, attiva il meccanismo di notice-and-action e può valere come prova dell’inerzia in un successivo contenzioso.
Attenzione a
Non confondere la condivisione con la creazione: chi ri-condivide un deepfake su un proprio profilo professionale risponde anch’esso di diffamazione se era consapevole della falsità del contenuto. La giurisprudenza di merito ha già applicato questo principio ai post rilanciati su LinkedIn da professionisti. Verifica sempre la posizione del cliente prima di escludere responsabilità soggettive.
Attenzione ai termini di prescrizione brevi: per la diffamazione a mezzo stampa online il termine di prescrizione penale è 6 anni, ma l’azione civile per danno all’immagine si prescrive in 5 anni dal giorno in cui la vittima ha avuto conoscenza del danno ex art. 2947 c.c. In scenari virali, la diffusione può essere ricostruita molto dopo la creazione: documenta sempre la data del primo rilevamento.
Domande frequenti
Il deepfake a contenuto sessuale di un privato è reato in Italia?
Sì. L’art. 612-ter c.p., introdotto dalla legge n. 70/2024, punisce con la reclusione da 1 a 3 anni chiunque diffonda immagini o video sessualmente espliciti generati con IA senza il consenso della persona ritratta. La procedibilità è d’ufficio, quindi non serve la querela della vittima per avviare le indagini.
Come faccio rimuovere un deepfake diffamatorio dai social in tempi rapidi?
Il percorso più veloce è il ricorso d’urgenza ex art. 700 c.p.c. davanti al tribunale competente, accompagnato da una diffida formale alla piattaforma ai sensi dell’art. 16 del Digital Services Act (Reg. UE 2022/2065). In parallelo, un reclamo al Garante Privacy ex art. 77 GDPR può produrre ordini di rimozione con effetti immediati sulle piattaforme aderenti al meccanismo di cooperazione europeo.
Chi condivide un deepfake altrui sui social risponde di diffamazione?
Risponde penalmente ex art. 595 co. 3 c.p. se era consapevole della falsità del contenuto al momento della condivisione. La giurisprudenza di merito ha già applicato questo principio a professionisti che hanno ri-pubblicato su LinkedIn contenuti poi rivelatisi falsi. L’elemento soggettivo del dolo è centrale: occorre provare la consapevolezza della falsità.
Fonte di riferimento: AgendaDigitale