Imágenes falsas y sexualmente explícitas de Taylor Swift, posiblemente generadas por inteligencia artificial, se difundieron rápidamente en las plataformas de redes sociales esta semana, perturbando a los fanáticos que las vieron y reavivando los llamados de los legisladores para proteger a las mujeres y tomar medidas enérgicas contra las plataformas y la tecnología que difunde tales imágenes.
Una imagen compartida por un usuario en X, anteriormente Twitter, fue vista 47 millones de veces antes de que la cuenta fuera suspendida el jueves. X suspendió varias cuentas que publicaban imágenes falsas de la Sra. Swift, pero las imágenes se compartieron en otras plataformas de redes sociales y continuaron difundiéndose a pesar de los esfuerzos de esas empresas por eliminarlas.
Mientras X decía que estaba trabajando para eliminar las imágenes, los fanáticos de la superestrella del pop inundaron la plataforma en protesta. Publicaron palabras clave relacionadas, junto con la frase «Protege a Taylor Swift», en un esfuerzo por reprimir las imágenes explícitas y hacerlas más difíciles de encontrar.
Reality Defender, una empresa de ciberseguridad centrada en la detección de IA, determinó con un 90% de certeza que las imágenes fueron creadas utilizando un modelo de difusión, una tecnología basada en IA accesible a través de más de 100.000 aplicaciones y modelos disponibles para el público”, dijo Ben Colman, co -Fundador y CEO.
A medida que la industria de la IA está en auge, las empresas se han apresurado a lanzar herramientas que permitan a los usuarios crear imágenes, vídeos, textos y grabaciones de audio con instrucciones sencillas. Las herramientas de inteligencia artificial son muy populares, pero han hecho que sea más fácil y barato que nunca crear los llamados deepfakes, que retratan a personas haciendo o diciendo cosas que nunca hicieron.
Los investigadores ahora temen que los deepfakes se estén convirtiendo en una poderosa fuerza de desinformación, que permita a los usuarios cotidianos de Internet crear imágenes de desnudos no consensuados o retratos vergonzosos de candidatos políticos. Se utilizó inteligencia artificial para crear llamadas automáticas falsas del presidente Biden durante las primarias de New Hampshire, y Swift apareció este mes en anuncios falsos vendiendo marihuana.
«La pornografía no consensuada de diversos tipos siempre ha sido una corriente oscura en Internet», dijo Oren Etzioni, profesor de informática en la Universidad de Washington que trabaja en la detección de deepfakes. «Ahora es una cepa nueva y particularmente dañina».
“Veremos un tsunami de estas imágenes explícitas generadas por inteligencia artificial. Las personas que crearon esto lo ven como un éxito”, afirmó Etzioni.
X dijo que tiene una política de tolerancia cero hacia el contenido. «Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas», dijo un representante en un comunicado. «Estamos monitoreando de cerca la situación para asegurarnos de que cualquier violación adicional se aborde de inmediato y se elimine el contenido».
X ha sido testigo de un aumento de contenidos problemáticos, incluido acoso, desinformación e incitación al odio desde que Elon Musk compró el servicio en 2022. Aflojó las reglas sobre los contenidos del sitio web y despidió, despidió o aceptó la renuncia de los miembros del personal que trabajaban. para eliminar dicho contenido. La plataforma también restableció cuentas que previamente habían sido prohibidas por violar las reglas.
Aunque muchas de las empresas que fabrican herramientas de IA generativa prohíben a sus usuarios crear imágenes explícitas, la gente encuentra formas de romper las reglas. «Es una carrera armamentista y parece que cada vez que alguien pone una barandilla, alguien más encuentra una manera de liberarla», dijo Etzioni.
Según 404 Media, un sitio de noticias de tecnología, las imágenes se originaron en un canal de la aplicación de mensajería Telegram dedicado a producir este tipo de imágenes. Pero los deepfakes atrajeron una atención generalizada después de que fueron publicados en X y otros servicios de redes sociales, donde se difundieron rápidamente.
Algunos estados han restringido los deepfakes pornográficos y políticos. Pero las restricciones no han tenido un impacto importante y no existen regulaciones federales sobre este tipo de falsificaciones, dijo Colman. Las plataformas han intentado abordar los deepfakes pidiendo a los usuarios que los denuncien, pero este método no ha funcionado, añadió. Cuando se informa sobre ellos, millones de usuarios ya los han visto.
«La pasta de dientes ya está fuera del tubo», dijo.
El publicista de Swift, Tree Paine, no respondió de inmediato a las solicitudes de comentarios el jueves por la noche.
Los deepfakes de Swift han provocado nuevos llamados a la acción por parte de los legisladores. El representante Joe Morelle, un demócrata de Nueva York que presentó un proyecto de ley el año pasado que haría que compartir este tipo de imágenes fuera un delito federal, dijo a las mujeres en todas partes, todos los días”.
«He advertido repetidamente que la inteligencia artificial podría usarse para generar imágenes íntimas no consensuadas», dijo el senador Mark Warner, demócrata de Virginia y presidente del Comité de Inteligencia del Senado, sobre las imágenes de X. «Esta es una situación deplorable».
La representante Yvette D. Clarke, demócrata de Nueva York, dijo que los avances en inteligencia artificial han hecho que la creación de deepfakes sea más fácil y económica.
«Lo que le pasó a Taylor Swift no es nada nuevo», dijo.