La red se llena de porno ‘deepfake’ de Taylor Swift y muestra el peligro de la IA para las mujeres | Tecnología
Las redes se han llenado de imágenes sexualmente explícitas de una de las personas más influyentes del momento: la cantante estadounidense Taylor Swift. Una vez más, como lleva pasando mucho en los últimos tiempos, no se trataba de fotos reales, sino de desnudos creados con inteligencia artificial (IA), deepfakes porno. Una de las publicaciones más destacadas en la red social X ha llegado a acumular más de 35 millones de visualizaciones, 24.000 reenvíos y cientos de miles de me gusta, antes de que la plataforma interviniera para suspender la cuenta del usuario —verificado— que compartió las imágenes, por violar las políticas de la red. Pero ha circulado durante casi un día, tiempo más que suficiente para volver a encender las alertas sobre el peligro de la proliferación de pornografía falsa generada por IA que ataca a las mujeres. Y sobre el desafío de detener su propagación: Swift estaría estudiando si demandar a la web que primero colgó las imágenes, según el Daily Mail.
Bloquear la cuenta original de X tampoco fue suficiente para zanjar el asunto, ya que otras siguieron con la difusión de las imágenes; algunas de las cuales todavía permanecen activas. El término “Taylor Swift AI” se convirtió en tendencia en algunas regiones, tanto que incluso X ha salido a recordar, a través de un post desde su cuenta oficial, su política de “tolerancia cero” hacia este tipo de contenido. “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas adecuadas contra las cuentas responsables de publicarlas. Estamos monitoreando de cerca la situación para garantizar que cualquier otra infracción se aborde de inmediato y que el contenido se elimine. Estamos comprometidos a mantener un entorno seguro y respetuoso para todos los usuarios”, dice la publicación.
Posting Non-Consensual Nudity (NCN) images is strictly prohibited on X and we have a zero-tolerance policy towards such content. Our teams are actively removing all identified images and taking appropriate actions against the accounts responsible for posting them. We’re closely…
— Safety (@Safety) January 26, 2024
No es la primera vez que pasa, tanto a celebridades como a mujeres anónimas. Hace unos pocos meses, un grupo de menores en Almendralejo fue víctima de imágenes manipuladas con una aplicación de inteligencia artificial, un caso que tuvo repercusión en España y despertó el interés público sobre los problemas que pueden derivar de esta tecnología. También le pasó a Rosalía, que denunció la publicación de deepfake —un vídeo o una imagen estática donde se sustituye el rostro de la imagen original por el de cualquier otra persona— por parte del cantante JC Reyes. En México, la difusión de cientos de miles de imágenes de las estudiantes provocó una protesta masiva en el Instituto Politécnico Nacional.
En el caso de Taylor Swift, el digital 404 Media apunta a que las imágenes pueden haberse originado en un grupo en Telegram, donde los usuarios comparten imágenes explícitas de mujeres generadas por IA a través de un generador gratuito de Microsoft. El primero en haber difundido los deepfakes en X es un usuario que se esconde detrás de la cuenta @Zvbear, que ha tenido que hacer privada su cuenta con más de 83.000 seguidores después que las swifties —como se les conoce a las seguidoras de la cantante— hayan cargado contra él.
Las fans de la cantante pop han criticado duramente a X por permitir que muchas de las publicaciones permanezcan activas durante tanto tiempo, y han utilizado el hashtag “Taylor Swift IA” para promover clips reales de Swift, sepultando así las falsificaciones explícitas. Según algunos medios estadounidenses, el hombre detrás de @Zvbear es un ciudadano somalí que reside en Canadá de 27 años, conocido por publicar contenido atrevido en plataformas como 4chan, X y Reddit. Estás imágenes también se han difundido en una web dedicada expresamente a la difusión de desnudos de mujeres famosas, en algunos casos imágenes explícitas de películas en las que participaron, pero no para de crecer el volumen de deepfakes porno que ya han afectado a celebridades como Meghan Markle, Megan Fox y Kate Upton.
El fenómeno de la pornificación de las mujeres mediante inteligencia artificial se ha disparado en los últimos meses, pero los hombres no muestran preocupación, según un reciente estudio sobre el estado de los deepfake realizado en Estados Unidos. El 48% de los hombres encuestados allí reconocía haber visto pornografía falsa al menos una vez. De ellos, el 74% afirma no sentirse culpables por consumirla, lo que sugiere que el contenido deepfake se ha convertido en una práctica aceptada y normalizada de las preferencias de entretenimiento para adultos. Además, el 20% de los participantes en la encuesta se había planteado la posibilidad de aprender a crear pornografía con inteligencia artificial para utilizarla con mujeres famosas o de su entorno.
Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.