Deepfake porno, centinaia di siti impossibili da chiudere: “Il problema è culturale, la vera malattia è l’assenza di stigma sociale”
- Postato il 29 ottobre 2025
- Diritti
- Di Il Fatto Quotidiano
- 1 Visualizzazioni
Ne chiudi uno, ma ne spuntano a migliaia. Non c’è solo il forum con le immagini di star e personaggi noti, “spogliate” virtualmente dall’intelligenza artificiale e ordinate, catalogate certosinamente, per consentire all’utente di navigare agevolmente le categorie del porno. Ieri la denuncia è partita dall’attrice Francesca Barra. Ad aprile la testata Wired già aveva denunciato un archivio con decine di migliaia di immagini taroccate, incluse quelle di Ariana Grande, le sorelle Kardashian e Beyoncé. Quando spunta il nome delle celebrities, si accendono i riflettori. Poi torna il buio.
Ma da anni gli adolescenti di tutto il mondo usano i servizi di nudify: vai sul sito internet, carichi una foto e l’algoritmo la riconsegna in versione hard. Non solo immagini di false nudità, ma anche pose sessualmente esplicite. I siti web ammiccano chiaramente al pubblico maschile, mostrando per lo più corpi di giovani donne. Ma all’orrore non c’è fine e alcune pagine sono dedicate agli infanti. Online ne esistono a centinaia, di pagine simili, e nessuno riesce a fermarle. Riforniscono di contenuti pornografici decine di migliaia di archivi on line.
Guido Scorza, componente del Garante della privacy, già a novembre 2023 lanciò l’allarme sulla minaccia per gli adolescenti dalle colonne dell’Huffington Post. Scriveva il giurista due anni fa: “le proporzioni del fenomeno sono letteralmente devastanti e, soprattutto, il trend registra una crescita esponenziale”. Al Garante della privacy centinaia di persone – non solo adolescenti – chiedono ogni anno di fermare la diffusione di immagini “pericolose”. “Possono essere foto intime reali, oppure generate dall’Intelligenza artificiale”, dice Scorza a ilfattoquotidiano.it. In ogni caso, il Garante interviene sempre con un ordine di blocco: alle piattaforme è vietato consentire la diffusione dell’immagine, con l’obbligo di fermare ogni upload e condivisione via social o messaggio. Un intervento a valle, solo per limitare i danni della pubblicazione. Il rimedio a monte, bloccando i siti di nudify per generare immagini false, è quasi impossibile. Anche per questo, avvisa Scorza, “il fenomeno è molto radicato tra gli adolescenti, con il rischio di vite rovinate”. Talvolta i ragazzi spogliano le ragazze come per gioco, senza consapevolezza delle conseguenze. “Il problema non è tecnologico ma culturale”, dice Matteo Flora, presidente dell’associazione PermessoNegato.it. La missione del gruppo è assistere le vittime di pubblicazioni pornografiche non-consensuali. “Fino a quando, come società, non condanneremo chi crea, condivide e guarda questo materiale con la stessa fermezza con cui condanniamo una violenza fisica, il problema si ripresenterà con tecnologie sempre nuove”, sostiene Flora. Secondo lui, “la vera malattia è la quasi totale assenza di stigma sociale”. La tecnologia può aiutare a tamponare l’emorragia, arginando la diffusione dei nudi. Ma fino a un certo punto.
Di certo il Garante può inviare ordini di blocco a società con sede legale e indirizzi ip all’estero. Problema: come far rispettare l’ingiunzione? Il lungo braccio del Garante non arriva fino alle isole Vergini. Secondo Scorza, “bisogna inibire gli indirizzi ip con l’aiuto delle società di telecomunicazioni e bloccare le app sugli store digitali di Apple e Android”. Ma anche così, ci sarebbero le Virtual private network (Vpn) per raggiungere un sito vietato nei confini nazionali. Soprattutto, se chiudi un sito ne nascono altri perché il codice sorgente è open source, di dominio pubblico: come svuotare l’oceano con un cucchiaino. Eppure, il Regolamento europeo sulla protezione dei dati (Gdpr) vieta di utilizzare immagini altrui senza consenso, figuriamoci in versione erotica. Diffondere deepfake (immagini virtuali indistinguibili da quelle reali) è reato in Italia in virtù della legge sull’intelligenza artificiale, approvata il 10 ottobre 2025.
Milioni di utenti accedono mensilmente ai servizi per spogliare abusivamente gli altri: anche i guadagni sono a sei zeri. Lo hanno rivelato Alessio Mantzarlis e Santiago Lakatos sul sito Indicator, una community dedicata alle tecnologia, prendendo in esame i primi 85 siti di nudify. I risultati della loro indagine sono stati certificati dalla testata Wired a luglio: l’economia dei “nudisti virtuali” potrebbe valere fino a 36 milioni di dollari all’anno, grazie agli abbonamenti e alla vendita di crediti per generare immagini. Ma è una stima al ribasso, perché esclude le compravendite sulla piattaforma Telegram. In media i visitatori globali dei primi 85 siti sono 18,5 milioni al mese. Le pagine non sono nel dark web e si appoggiano anche ad Amazon e Google per consentire l’accesso agli internauti, ad esempio per i servizi di hosting. Ma non solo: secondo Indicator, 54 degli 85 siti web analizzati sono accessibili dagli account di Big G, senza l’obbligo di registrarsi con una nuova password. I siti di nudify sono così popolari – scrive la testata indipendente 404 Media – da far gola ai criminali informatici che li creano come specchietti per le allodole: carichi la foto, la scarichi e il malware sul computer prova a rubare le credenziali.
I siti web per “spogliare” le persone sono esplosi nel 2019. Quell’anno vide la luce l’app capostipite, DeepNude, subito ritirata dal web: spogliava corpi maschili e femminili, ma le false nudità erano solo di donna. “Abbiamo creato questa app per far divertire gli utenti – scrisse su Twitter l’inventore – Non immaginavamo che sarebbe diventata virale e che non saremmo stati capaci di controllare il traffico”. L’autore di DeepNude è tutt’ora sconosciuto. Alla giornalista di Vice Samantha Cole confessò di aver sviluppato l’app nella Silicon Valley, all’università di Berkley, in California. Non mostrò rimorsi, perché “le cose che si possono fare con DeepNude, si possano fare anche con Photoshop, e se non lo faccio io, lo farà qualcun altro tra un anno”. DeepNude durò poche settimane. Ma il codice sorgente open source è sempre disponibile alimentando nuovi servizi, senza sosta.
“Non parliamo di un semplice imbarazzo, ma di una violenza psicologica devastante”, dice Matto Flora. L’esperto ricorda “i dati più allarmanti: il 51% delle vittime di diffusione non consensuale, come prima reazione, pensa al suicidio“. Basta postare una foto pubblica per diventare “un potenziale bersaglio – conclude Flora -con la consapevolezza che queste immagini false esistono e possono riemergere in ogni momento crea quello che definiamo un ‘ciclo di trauma perpetuo’, del tutto assimilabile a un disturbo da stress post-traumatico”.
L'articolo Deepfake porno, centinaia di siti impossibili da chiudere: “Il problema è culturale, la vera malattia è l’assenza di stigma sociale” proviene da Il Fatto Quotidiano.