La inteligencia artificial (IA) puede crear el logo de tu empresa o escribir tu tesis, pero ¿sabes para qué lo usa la mayoría de personas? Para hacer porno falso con IA.

Vamos aclarando algunos términos. Los deepfakes son videos que usan la inteligencia artificial para alterar caras o voces en un video para que se vean bastante reales, explica la revista Business Insider.  Su nombre viene de la combinación de las palabras “deep” (profundo, refiriéndose al profundo conocimiento de la inteligencia artificial) y fake (falso).

Tal vez te has topado por ahí con un video de Obama llamando a Donal Trump un “completo idiota”, algo que nunca pasaría en la vida real, pero gracias a la inteligencia artificial, podemos hacer un video falso de Obama diciendo esas cosas y que parezca de verdad. 

En algunos casos es gracioso, en otros no tanto. Hace poco alguien hizo un deepfake, del presidente de Ucrania diciendo que deberían rendirse ante Rusia. La noticia se tuvo que desmentir porque parecía demasiado real. 

Por razones de privacidad YouTube necesita tu permiso para cargarse. Para más detalles, por favor consulta nuestra Política de Privacidad.
I Accept

Lastimosamente la mayoría del internet no lo usa para “bromas”, sino para el porno hecho con inteligencia artificial. Lo hacen utilizando la cara de mujeres alrededor del mundo, sin que ellas lo sepan. De hecho el 96% de los deepfakes de todo el internet son pornográficos

Es tan fácil como escoger un video porno, escoger una foto de cualquier persona y la inteligencia artificial modificará los rostros, para crear porno falso. Y no, no necesitas un programa especial o seguir un curso. Puedes descargarte una aplicación en la tienda de Apple que lo haga por ti. 

Hace poco, el streamer Atrios estuvo en medio de un escándalo cuando su público descubrió que pagaba por hacer porno deepfake de sus compañeras en el mundo del streaming. Entre ellas Pokimane, SweetAnita y QTCinderella. Y sí, ninguna había dado consentimiento para que sus caras aparezcan en videos pornográficos. 

Esto abrió un debate muy grande sobre la moralidad del porno falso con IA y el peligro que representa para las mujeres que alguna vez hayan subido una foto suya al internet. Literalmente, todas estamos a un click de estar en un video porno en internet sin nuestro consentimiento. 

Así que hablemos de lo perturbador que es el porno hecho con inteligencia artificial y por qué necesitamos cancelarlo lo más pronto posible. 

Es un ataque directo a las mujeres

La conductora Jess Davies explica en su documental Deepfake Porn: Could You Be Next? que muchos de los programas de inteligencia artificial están diseñados para hacer porno deepfake de mujeres. Muchos ni siquiera tienen la tecnología para modificar un cuerpo masculino. 

Esta es una clara señal de que (otra vez) las mujeres son el centro de abusos y violaciones a la intimidad que no parecen tener un límite en el internet. En su documental, Davies narra los diferentes pedidos que aparecen en esta páginas de IA. Desde hombres pidiendo porno deepfake de celebridades, hasta un padre que solicitó una versión desnuda de su hija. Asco total.

La “línea de moralidad” que tienen estas páginas y programas es que solo hacen porno deepfake de famosas (como si eso fuera justificable). Sin embargo, Davies pudo comprobar que muchos estaban dispuestos a hacerlo con la cara de cualquier persona. Incluso menores de edad.  

La streamer QTCinderella, una de las víctimas de porno falso con IA, dijo en su Twitch que las personas que consumían este material son parte del problema porque no pueden dejar de ver a las mujeres como objetos. 

 

View this post on Instagram

 

A post shared by BBC Three (@bbcthree)

Es una violación al consentimiento y privacidad de las personas

De acuerdo a un reporte del 2020 un bot de inteligencia artificial creó más de 680 mil deepfakes porno de mujeres, sin que ellas supieran.

Dentro de la narrativa de los defensores del porno hecho con inteligencia artificial se encuentra la excusa de que al no ser ‘real’ no se necesita un consentimiento. De hecho esas fueron las palabras del dueño de una de estás páginas de IA, en una entrevista con la conductora Jess Davies

Sin embargo, para la directora de salud mental Kristen Zaleski, que todo el mundo pueda ver imágenes explícitas tuyas, sin tu consentimiento (sean reales o no) es una forma de violencia sexual con consecuencias reales. Por ejemplo, Zaleski explica que tuvo un caso donde una maestra fue víctima del porno falso con IA y fue despedida porque los padres ni siquiera creían que eso era posible.

A todo esto, la creadora de contenido Ellie Schnitt tiene una pregunta más perturbadora. ¿Por qué, en un mundo donde existen varias opciones porno consensuado, tantas personas quieren ver contenido que no lo es?

Para Schnitt, no se trata de ver porno, si no del morbo de poder abusar de la intimidad de alguien. Para muchos de estos consumidores es una forma de sentirse poderosos y vulnerar a estas mujeres. Como decir “puedo hacerte todo esto y no puedes hacer nada para detenerme”. Ahí está el verdadero fetiche. 

Además, no es como si los hombres no entendieran sobre el consentimiento, solo hace falta ver cómo saltan cuando los creadores de contenido digital roban su contenido para empaquetarlo en un nuevo producto y ganar dinero. Ahí sí parecen entender muy bien el concepto de “estás usando mi imagen sin mi permiso”.

Puede provocar el mismo nivel de trauma que un abuso sexual

La streamer Maya Higa publicó un comunicado en sus redes sociales donde describió la sensación de enterarse que su cara estaba en un video de porno deepfake, como la misma que sintió cuando fue abusada sexualmente un par de años atrás. 

“Si alguien piensa que no es mucha cosa que MI nombre en los titulares, con miles de personas las que están comentando sobre la sexualización de mi cuerpo en contra de mi voluntad, eres parte del problema.”

En una entrevista para la revista Glamour, otra víctima del porno hecho con inteligencia artificial comentó que se sentía tan usada y culpable que no podía ver su cuerpo en el espejo. 

Kate Isaacs, activista, también descubrió un video falso de porno que usaba su cara. Isaacs describe el momento como un pánico total y en su lucha por intentar bajar el video de internet, se dio cuenta que más que una víctima, iba a ser tachada como una enemiga. 

Isaacs explica que los usuarios la acusaban de intentar quitarles “su porno” como si esas imágenes fueran su propiedad. Además le llovieron una serie de comentarios donde los usuarios amenazaban con violarla en la vida real y publicar ese video. 

No importaba si el porno deepfake de Isaacs “no era real”, la violencia que sufre por ello, sí lo es. 

MÁS RECIENTES