ESPECIAL.- El creador de DeepNude anunció que bajará la aplicación luego de una serie de denuncias por objetivar a los cuerpos de las mujeres, pues el software prometía 'desnudar' fotos de mujeres mediante un algoritmo.
TE RECOMENDAMOS: Comparte foto con su novia y asegura estar enamorado; la asesina a 53 puñaladas
"Honestamente, la app no es tan grandiosa, sólo funciona con ciertas fotos. No esperábamos que se volviera tan viral que no pudiéramos controlar el tráfico", explicó el creador de DeepNude.
Por 50 dólares (956 pesos), el desarrollador ofrecía un software que analizaba la fotografía de una mujer con ropa y, mediante inteligencia artificial, entregaba una versión la mujer, desnuda.
Aunque el creador de la app, identificado con el usuario de Alberto, había explicado que no lo hacía por morbo, sino por curiosidad y diversión, usuarias en redes denunciaron que estas iniciativas propagaban el acoso sexual a las mujeres.
La app implementaba la tecnología Deepfake, una técnica de inteligencia artificial que usa algoritmos de aprendizaje no supervisados para crear una imagen o video falsos, pero bastante realistas, a partir de otros verdaderos.
Con esta técnica se recreó al personaje de la Princesa Leia en la película Rogue One, de la saga Star Wars. En 2017, se empezó a utilizar para videos pornográficos con rostros de actrices famosas, por lo que varios sitios empezaron a prohibir esta tecnología.
"Esto es absolutamente terrorífico. Ahora cualquiera puede ser víctima de porno venganza sin tener que haberse tomado una foto desnuda", declaró la activista feminista Katelyn Bowden.
En la declaración, el creador anunció que no lanzará otra versión de DeepNude ni concederá su uso a alguien más.
IHL