L’EDITOREEL: Il Garante della Privacy blocca l’app della vergogna

Il Garante della Privacy ha bloccato Clothoff, un’app che permette di spogliare digitalmente le persone. In Italia il deepfake è considerato reato dal nuovo disegno di legge sull’intelligenza artificiale. Ma questo riuscirà a fermare il fenomeno?

Abbiamo spesso parlato di cosa è possibile fare con l’intelligenza artificiale oggi, anche con una semplice foto presa dai social.
E non mi riferisco a filtri o fotoritocco… ma a qualcosa di molto più inquietante.

Ecco perché nei giorni scorsi il Garante della Privacy ha bloccato Clothoff, un’app che permette di spogliare digitalmente le persone.
Eh sì. Basta caricare una foto e l’AI genera immagini false in cui il soggetto appare nudo o in pose sessualmente esplicite.
Il problema vero è che l’utilizzo è talmente semplice e alla portata di tutti che chiunque può farlo — anche minorenni — senza alcun consenso, senza limiti, e senza che venga segnalato che si tratta di un contenuto artificiale.

Il Garante parla di “allarme sociale”, perché queste immagini finiscono spesso in chat, gruppi privati o social network, diventando strumenti di umiliazione, bullismo e violenza digitale.
Non è la prima volta: era già accaduto con un’altra app, Bikinioff, ricordate? Ne ho già parlato in un altro Editoreel. L’app era usata da alcuni studenti per creare e diffondere immagini false delle loro compagne di scuola.

E siamo solo alla punta dell’iceberg. Perché le cosiddette “app di nudificazione”, o deepnude, fanno parte del mondo dei deepfake, quei contenuti generati dall’intelligenza artificiale che sembrano veri ma non lo sono. E distinguere il reale dal falso sta diventando ogni giorno più difficile.

Anche se in Italia il deepfake è considerato reato dal nuovo disegno di legge sull’intelligenza artificiale. Ma questo riuscirà davvero a fermare un fenomeno che corre così veloce?

 

About Author