3 Novembre 2025

Immagini nude generate con intelligenza artificiale: vittime giornaliste e donne dello spettacolo

| di
Immagini nude generate con intelligenza artificiale: vittime giornaliste e donne dello spettacolo

La Procura della Repubblica di Roma (in collaborazione con la Polizia Postale) ha aperto un’inchiesta penale riguardante un sito per adulti che avrebbe pubblicato immagini generate con intelligenza artificiale (IA) in cui compaiono giornaliste, donne del mondo dello spettacolo e personaggi noti, ritratte nude o in pose sessualmente esplicite senza il loro consenso. 

L’indagine è partita dopo la denuncia della giornalista e scrittrice Francesca Barra, che ha scoperto sul sito denominato SocialMediaGirls immagini “nude” digitali che la ritraevano, create artificialmente a partire da sue fotografie. Barra ha definito il gesto “un atto di violenza e un abuso che lascia cicatrici sulla dignità, la reputazione e la fiducia” in un post Instagram. 

Secondo le indagini, il sito offrirebbe un servizio denominato “Undress AI”: caricamento di fotografie reali – spesso reperite sui social network – seguiti dalla generazione di versioni nude generate con algoritmi. Le immagini sono poi messe a disposizione, spesso a pagamento, in sezioni dedicate come “Italian Nude VIPs”, ed includono decine di volti appartenenti a giornaliste, influencer o conduttrici televisive italiane. Tra i nomi citati nei report compaiono Chiara Ferragni, Diletta Leotta, Selvaggia Lucarelli, Francesca Fagnani e altri volti molto noti. 

L’inchiesta della Procura romana – coordinata dal sostituto procuratore Giuseppe Cascini – è collegata anche a indagini parallele su gruppi Facebook come “Mia Moglie” e siti come Phica. In questi spazi erano già emerse immagini e video caricati senza consenso, con commenti offensivi e richieste di denaro per la rimozione del materiale. 

Le implicazioni tecniche e normative

Il caso solleva questioni complesse sia di natura tecnica che giuridica. Dal punto di vista tecnologico, l’utilizzo dell’IA per generare immagini pornografiche senza consenso rientra nella categoria delle cosiddette NCII (Non-Consensual Intimate Images): immagini intime prodotte o diffuse senza l’assenso della persona raffigurata. Studi recenti mostrano che tali pratiche, facilitate dagli algoritmi di deepfake, stanno assumendo dimensioni allarmanti. 

Sul piano giuridico italiano, l’attività in esame può configurare diversi reati: pornografia non consensuale, violazione della privacy, diffamazione, estorsione e – specificamente per i contenuti generati con IA e diffusi online – possibile integrazione nella disciplina del deepfake pornografico. La legge 22 maggio 2023, n. 57 ha introdotto nel Codice penale l’articolo 600-ter relativo alla produzione, diffusione e detenzione a fini di distribuzione di immagini o video pornografici realizzati senza consenso, anche mediante modalità digitali. Inoltre, la normativa del Codice della privacy (D.lgs. 196/2003 e successive modifiche) e quella sul trattamento dei dati personali (Regolamento UE 2016/679) possono intervenire.

La componente “generativa” dell’IA però aggiunge uno strato ulteriore: l’identificazione dei gestori dei servizi, la tracciabilità dei pagamenti, la cooperazione internazionale, e la modalità di produzione delle immagini implicano un ulteriore sforzo investigativo. Fonti europee sottolineano che tali sistemi amplificano il rischio di violenza digitale contro le donne, poiché permettono la generazione di immagini realistiche senza presenza fisica della vittima. 

Fonte: ANSA

Consigliati per te

©Riproduzione riservata