Claudia parecía ser una usuaria común y corriente de Reddit, causando tanta atracción entre los internautas que pudo comenzar a vender fotos eróticas sin mayores contratiempos. Todo parecía relativamente normal hasta que un consumidor de la plataforma reveló que la atractiva joven no era real, sino el producto de una inteligencia artificial que no existe.
Así es Claudia, la “mujer” de IA que engañó a varios
Claudia aparece en su foto de perfil como una joven de 19 años que porta un flequillo negro y recto, sus ojos gigantes son de color azul verdoso. En la imagen aparece con un escote no tan pronunciado que sobresale de su camiseta sin mangas que casi no se ve por lo largo de su cabellera. “Eres muy hermosa“, le comentaban hasta que apareció un comentario:
[TE PODRÍA INTERESAR: ¿Cómo usar la inteligencia artificial (IA) para crear un CV en minutos?]
“Para aquellos que no lo saben, voy a matar su fantasía. Esto es literalmente una creación de IA, si ha trabajado con modelos de imágenes de inteligencia artificial y ha hecho los suyos el tiempo suficiente, puede decirlo al 10000%. Siento arruinar la sorpresa, supongo”.
Usuario de Reddit
Claudia nunca fue real, pero a través de su cuenta se ofrecieron fotografías de desnudos creadas por inteligencia artificial e incluso se cobraba una suma de dinero a cambio de dichas imágenes. Este caso ha generado todo un debate sobre los alcances de las nuevas tecnologías y su implicación moral en el consumo de contenido para adultos.
¿Cómo se creo a esta mujer con inteligencia artificial?
Esta joven y atractiva chica es un producto de inteligencia artificial hecha por dos estudiantes de Informática que compartieron su creación con la revista Rolling Stone. Los responsables de esta “mujer” utilizaron el programa Stable Diffusion, que utiliza el aprendizaje automático para generar fotos realistas usando sólo un mensaje de texto.
Los responsables de Claudia aseguraron que abrieron la cuenta como una broma, pues encontraron un perfil de Reddit que estaba ganando hasta 500 dólares (9 mil 32 pesos mexicanos) con fotos de mujeres reales, por lo que decidieron vender falsas fotos eróticas de su creación, ganando 100 USD (mil 806 pesos) hasta que las personas se dieron cuenta del engaño.
“Se podría decir que toda esta cuenta es sólo una prueba para ver si puedes engañar a las personas con imágenes de IA (…) Podrías compararlo con los youtubers, crean sus propios personajes y juegan como una persona completamente diferente. Honestamente, no pensamos que obtendría tanta atracción”.
Creadores de Claudia (permanecen anónimos)
Los responsables de esta mujer que, aun sin ser real, logró juntar al menos 100 dólares con “fotos de ella desnuda“, se justificaron diciendo que las fotos generadas por IA no están en contra de las reglas de Reddit. “Si la gente piensa que es real y quiere hacer algo fuera de mi subreddit, eso depende de ellos”, dijo uno de los estudiantes.
El debate moral que generó Claudia
Aunque la publicación de Claudia no viola las reglas de Reddit, ha abierto el debate sobre los peligros y preocupaciones éticas de la creación de contenido para adultos generado por inteligencia artificial, pues aunque hay modelos de OnlyFans como Harper The Fox, que usan la tecnología para crear desnudos al estilo cyberpunk, esto rebasa los límites conocidos.
Mientras que la mayoría de las discusiones sobre los peligros que plantean la IA y el contenido para adultos se han centrado en la prevalencia de las falsificaciones con la técnica conocida como “deep fake“, la amenaza que representa la pornografía de IA con personajes ficticios es diferente, dice Hany Farid, profesor de la Universidad de California, Berkeley.
- El “deep fake” es un término que se usa para describir una imagen o video que usa el rostro de una persona sin su consentimiento
“Creo que la pornografía deep fake debería ser ilegal y es realmente problemática. Eso es blanco y negro y fácil de alguna manera”, dice, aunque reconoce que las cuentas como las de Claudia es un fenómeno “más complicado”, pues aunque son ostensiblemente ficticias e inventadas por completo, esto también requiere de personas reales para funcionar.
Las miles de millones de imágenes utilizadas para entrenar modelos de IA son de personas reales, la mayoría de las cuales probablemente no hayan dado su consentimiento para que se usen sus imágenes de esta forma. Esto, en sí mismo, plantea problemas éticos, dice Farid, ya que existe la posibilidad de que estos modelos de inteligencia artificial puedan reproducir imágenes en las que fueron entrenados.