Este episodio vuelve a traer la preocupación entre las redes sociales por abordar el problema de los deepfakes: imágenes y audios realistas generados con IA que pueden ser utilizados para representar a individuos famosos en situaciones comprometedoras o engañosas sin su consentimiento.
Durante el fin de semana, intentos de buscar términos como “Taylor Swift” o “Taylor IA” en X resultaron en mensajes de error, tras la proliferación en línea de imágenes pornográficas generadas por IA de la cantante en días recientes. Esto implicó que incluso el contenido legítimo sobre Swift se hiciera más difícil de acceder en la plataforma.
Joe Benarroch, jefe de operaciones comerciales en X, explicó que esta medida es temporal y se tomó como precaución para priorizar la seguridad en el asunto. Hasta el momento, Swift no ha hecho comentarios públicos sobre el incidente.
El incidente ocurre en un contexto donde X, adquirida por el empresario multimillonario Elon Musk por 44 mil millones de dólares, ha reducido los recursos destinados a la moderación de contenidos y suavizado sus políticas, reflejando los ideales de libertad de expresión de Musk.
Un mercado activo de herramientas permite a cualquier persona utilizar IA para crear videos o imágenes a semejanza de una celebridad o político con tan solo unos clics. Aunque la tecnología deepfake está disponible desde hace varios años, avances recientes en IA han facilitado la creación de imágenes más realistas. Los expertos advierten que la pornografía falsa es uno de los abusos emergentes más comunes de la tecnología deepfake, y también señalan su uso creciente en campañas de desinformación política.