Ayer lunes, el presidente Donald Trump firmó la «Take It Down Act», una legislación con apoyo de ambos partidos que endurece las sanciones contra la difusión de material íntimo sin consentimiento, incluyendo las cada vez más notorias falsificaciones profundas o deepfakes con IA. Esta ley, cuyo nombre completo es «Herramientas para Abordar la Explotación Conocida mediante la Inmovilización de Deepfakes Tecnológicos en Sitios Web y Redes», establece un marco federal para un asunto que hasta ahora se lidiaba principalmente a nivel estatal y mediante políticas internas de algunas compañías de internet.
La nueva ley castiga la publicación de estas representaciones visuales, ya sean verídicas o producto de la inteligencia artificial, y obliga a las empresas de redes sociales y otros servicios online a retirar dicho contenido en un plazo máximo de 48 horas tras ser notificadas por la víctima. Además, se les exige tomar medidas para evitar la reaparición de material duplicado.
Quienes infrinjan esta ley publicando las imágenes o vídeos podrán enfrentarse a consecuencias penales que incluyen multas, tiempo en prisión y la obligación de restitución a los afectados. Durante el acto de firma en la Casa Blanca, Trump dijo: “Esta será la primera ley federal que combata la distribución de imágenes explícitas publicadas sin el consentimiento de los sujetos. No toleraremos la explotación sexual en línea”.
El detonante ha sido los abusos digitales
La promulgación de la «Take It Down Act» responde a una creciente alarma social ante la proliferación de imágenes explícitas no consentidas, un problema que ha encontrado en los deepfakes un nuevo y peliagudo vector de propagación.
Uno de los casos que puso el tema en el candelero fue la difusión masiva de imágenes alteradas de la estrella del pop Taylor Swift a través de X en enero de 2024, lo que llevó a la red social a bloquear temporalmente las búsquedas con su nombre.
Otro suceso fue la experiencia del senador Ted Cruz, uno de los patrocinadores del proyecto junto a la senadora Amy Klobuchar. Cruz relató cómo Snapchat se negó durante casi un año a eliminar un deepfake generado por IA de una niña de 14 años.
La primera dama, Melania Trump, también fue una firme defensora de esta legislación, llegando a presionar directamente a los congresistas. En una declaración, calificó la ley como una «victoria nacional» y advirtió sobre los peligros de las nuevas tecnologías. Un informe de 2023 de la empresa Security Hero reveló que la mayoría de los deepfakes en línea son de naturaleza pornográfica, y el 99% de las personas objeto de este contenido son mujeres.
Pero no todos están a favor. Por ejemplo, la organización Fundación Frontera Electrónica (EFF) y otros defensores de la libertad de expresión han puesto el grito en el cielo, argumentando que la redacción de la ley es excesivamente amplia. Temen que su disposición de retirada «se aplica a una categoría de contenido mucho más amplia… que las definiciones más restringidas de NCII [imagen íntima no consensuada] que se encuentran en otras partes del proyecto de ley». La EFF también cree que el ajustado plazo de 48 horas para la retirada podría llevar a que los servicios online más pequeños opten por eliminar publicaciones ante cualquier queja, sin verificar si realmente infringen la ley, para evitarse problemas.
Por ejemplo, el Reino Unido ya declaró ilegal compartir pornografía deepfake como parte de su Ley de Seguridad en Línea de 2023.