DeepNude era in software per Windows e Linux che grazie all’intelligenza artificiale attingeva a un repertorio di oltre 10mila immagini di donne nude che permetteva all’applicazione di eliminare i vestiti dalla foto originale, sostituirli con nudità adeguate alla corporatura del soggetto e aggiungere le giuste ombreggiature. Insomma tutti questi accorgimenti contribuivano a dare una parvenza di realtà, come se queste foto di nudo fossero vere. Poteva quindi trattarsi di chiunque, una amica, una conoscente, una persona del tutto estranea.
Il timore era quindi che potesse trasformarsi in uno strumento per potenziali molestatori, che avrebbero potuto diffondere immagini di persone senza il loro consenso, anche senza mai esseri entrati in possesso della foto della donna che volevano ricattare.
Questa app è stata lanciata nel mercato lo scorso 23 giugno. Nel giro di poche ore è stata scaricata da mezzo milione di utenti. L’applicazione ha suscitato aspre critiche sia da parte dei media che del web.
L’ideatore dell’applicazione che si fa chiamare Alberto e dice di stare in Estonia, dopo pochi giorni ha ritirato l’app dagli store e ha rimborsato gli utenti che l’avevano acquistata.
Su Twitter è stato pubblicato un messaggio di scuse in cui è stato spiegato che: “Non avremmo mai immaginato che l’applicazione sarebbe diventata virale e non saremmo riusciti a controllare il traffico. Il rischio di abusi è troppo alto, non vogliamo fare soldi in questa maniera”.