News
Il Garante blocca Clothoff: l'app che “spoglia” le persone con l’IA
L’Autorità per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati da parte della società che gestisce Clothoff, software di nudificazione tramite intelligenza artificiale

Clothoff bloccata dal Garante: l’app che crea deepfake porno finisce sotto indagine
È stata stabilita dal Garante per la protezione dei dati personali, in via d'urgenza e con effetto immediato, la limitazione provvisoria del trattamento dei dati personali degli utenti italiani nei confronti di una società, con sede nelle Isole Vergini Britanniche, che amministra Clothoff, l'applicazione che spoglia le persone. 'Clothoff offre un servizio di AI generativa che rende possibile gratuitamente e a pagamento la generazione di immagini di deep nude, foto e video falsi che ritraggono persone reali in pose nude, sessualmente esplicite o addirittura pornografiche', afferma il garante.
''L'applicazione consente a chiunque - inclusi i minorenni - di creare fotografie e realizzare video partendo da immagini, anche ritraenti minori, in assenza di qualsiasi accorgimento che permetta di verificare il consenso della persona ritratta e senza apporre alcuna segnalazione circa il carattere artificiale di foto e video'', continua il garante.
Il provvedimento del Garante, che nel frattempo ha avviato un’istruttoria volta a contrastare l’uso delle applicazioni di nudificazione, si è reso indispensabile a causa degli elevati pericoli che tali strumenti possono rappresentare per i diritti e le libertà fondamentali, con particolare attenzione alla salvaguardia della dignità umana, alla tutela della privacy e alla protezione dei dati personali delle persone coinvolte in questi tipi di trattamenti, soprattutto nel caso in cui riguardino minori.
A confermarlo sono i numerosi e recenti episodi riportati dalla cronaca nazionale, che evidenziano come l’utilizzo improprio di immagini manipolate in questo modo stia dando origine a un vero e proprio allarme sociale.
Un giovane su otto, tra i 13 e i 20 anni, e un adolescente su dieci, nella fascia tra i 13 e i 17 anni, ha riferito di “conoscere personalmente qualcuno” che è stato bersaglio di immagini deepfake di nudo, mentre uno su diciassette ha dichiarato di essere stato direttamente vittima di questo tipo di contenuti. Sono alcuni dei dati raccolti da Thorn, un’organizzazione non profit statunitense impegnata nella tutela dei minori online, che sta portando alla luce la crescente diffusione dei cosiddetti deepfake nude.
Tra le vittime di questi abusi figurano anche celebrità, come nel caso di Taylor Swift, la cui immagine pornografica (finta) fu vista da milioni di utenti sui social nel 2014. Tuttavia, il fenomeno può colpire chiunque. Secondo Graphika, un'azienda specializzata nell’analisi delle dinamiche sui social media, ogni mese milioni di persone accedono a oltre cento siti web dedicati al 'nudify', ovvero alla creazione di immagini di nudo generate artificialmente.
Un’indagine condotta nel Regno Unito dalla società di cybersicurezza Eset rivela che una donna su dieci ha subito abusi sotto forma di pornografia deepfake.Oltre a Clothoff, anche altre applicazioni come BikiniOff e DeepNude permettono la manipolazione di fotografie di persone reali, trasformandole in contenuti falsi a sfondo pornografico.
Già nel 2020, il Garante Privacy si era interessato a questo fenomeno, avviando un procedimento nei confronti di Telegram, piattaforma attraverso la quale venivano diffusi questi bot. In seguito, l’Autorità aveva diffuso un'informativa per evidenziare i potenziali pericoli connessi all’uso di queste tecnologie e promuovere una maggiore consapevolezza tra gli utenti. Anche in Italia si sono verificati episodi di cronaca legati a questo fenomeno: nel 2023, due studenti di una scuola media di Roma sono stati denunciati per aver condiviso sui social le immagini manipolate di alcune compagne di classe, realizzate tramite l’applicazione BikiniOff.