Applicazione Deepnude
Per Deepnude si intende un'applicazione che usa l'intelligenza artificiale per creare foto di nudo finte, ma con il volto di una persona vera. Un fenomeno che, manco a dirlo, ha colpito soprattutto le donne, in particolare le adolescenti. Diversi utenti, infatti, hanno scaricato questa applicazione e hanno creato alcune immagini pornografiche o pedopornografiche che sono poi state fatte circolare sui social all'insaputa delle vittime.
Non occorre andare troppo lontano nel tempo per trovare un caso di Deepnude. È avvenuto lo scorso settembre nella città spagnola di Almendralejo: più di 20 ragazze, di età compresa tra gli 11 e i 17 anni, hanno trovato online immagini indecenti generate dall'intelligenza artificiale. Una non piacevole "sorte" toccata a tante adolescenti, tutte abitanti della stessa cittadina.
Dei contenuti che erano chiaramente illegali e anche di sfruttamento e abuso sessuale minorile. Vi basti pensare che la Internet Watch Foundation ha scoperto che in un solo mese sono state trovate più di 20.000 immagini generate dall'intelligenza artificiale su un forum in cui si condivide materiale pedopornografico.
La situazione in Italia
Deepnude è arrivato anche in Italia e già da qualche anno: ne avevano parlato sia Striscia la Notizia che Le Iene. Per fortuna i casi, almeno quelli denunciati, sono stati solo una decina ma non possiamo purtroppo escludere che il fenomeno possa allargarsi sempre di più.
Uno dei più grandi problemi, in tutto questo, è che purtroppo si rischia che gli adolescenti non ne parlino né con i genitori né con le autorità, scegliendo di cedere al ricatto: Deepnude può diventare facilmente uno strumento per fare cyberbullismo, una particolare forma di comportamento aggressivo attuato esclusivamente attraverso l'uso di dispositivi elettronici mobili, o sextortion, un tipo di ricatto in cui viene minacciata la diffusione di contenuti sessuali sensibili se in cambio non si paga un riscatto o non si soddisfano altre richieste.
L'applicazione è stata cancellata o no?
La app è durata dopo perché critiche e indignazioni hanno convinto i creatori a chiuderla. Tutto questo anche se, nella versione free, compariva la scritta Fake ben in evidenza, mentre nella versione a pagamento (50 dollari l'anno) l'avviso del falso era più piccolo e posizionato in un riquadro in alto, tanto da essere facilmente eliminabile.
Ma il problema è un altro: facendo un giro sul web è molto facile trovare i file di download dell'applicazione, senza dimenticare che c'è sempre chi è pronto a craccarla per farla funzionare anche senza registrazione. Inoltre, la realtà dei fatti è che il sogno di vedere senza veli amiche, colleghe, ex fidanzate o donne famose, è più vivo che ma. Per questo motivo, il rischio che altre donne possano essere spogliate sfruttando diverse piattaforme resta anche adesso molto alto.
Come difendersi
La prima cosa da fare per difendersi dai ricatti del Deepnude, dal cyberbullismo e simili è quello di conoscere il fenomeno. Il motivo è molto semplice: solo così si è veramente preparati ad affrontarlo.
Inoltre, bisogna stare molto attenti a dove e con chi condividiamo le nostre foto, e in particolare quelle scattate al mare in bikini. Allo stesso tempo, dobbiamo controllare bene chi sono le persone che hanno accesso alle nostre foto e video e a quelle dei nostri figli, soprattutto se femmine e adolescenti.
In quanto genitori dobbiamo anche aiutare a i nostri figli a non aver paura di raccontare che sono vittime di Deepnude. Infine, in caso di ricatto è fondamentale raccogliere prove tramite screenshot e non avere alcune timore di rivolgersi alle autorità e alla polizia postale per denunciare il fatto.