Acción legislativa ante deepfakes sexuales podría tardar en llegar

El último incidente relacionado con la cantante Taylor Swift urgió a los legisladores de Estados Unidos a acelerar las acciones legales en contra de las imágenes de desnudos realizados con Inteligencia Artificial, pero ponerlas en marcha podría no ser una tarea fácil.
31 Enero, 2024 Actualizado el 31 de Enero, a las 20:42
Esta propuesta legislativa surge en un contexto legal complejo en Estados Unidos, donde solo 10 estados cuentan con leyes específicas contra la creación y distribución de pornografía deepfake. (Imagen: iStock)
Esta propuesta legislativa surge en un contexto legal complejo en Estados Unidos, donde solo 10 estados cuentan con leyes específicas contra la creación y distribución de pornografía deepfake. (Imagen: iStock)
Arena Pública

Después de que el mundo digital se viera sacudido con el reciente incidente de imágenes explícitas generadas por IA que involucran a la cantante Taylor Swift, un grupo bipartidista de senadores en Estados Unidos presentó la "Ley de Interrupción de Imágenes Falsificadas Explícitas y Ediciones No Consensuales de 2024", también llamada "Ley DEFIANCE".

Esta medida marcaría un intento más claro de abordar el problema en el ámbito legal. Sin embargo, esta ley podría encararse con problemas para su ejecución, entre ellos las preocupaciones sobre la libertad de expresión y creatividad, la existencia de precedentes y normativas generales, y la dificultad en el proceso de aprobación debido a la necesidad de competir con otras prioridades en la agenda legislativa, sobre todo porque se avecina el periodo electoral.

La ley tiene como propósito permitir a las víctimas de 'falsificaciones digitales', también conocidas como deepfakes, solicitar una sanción civil contra los perpetradores, aunque su alcance no se limita exclusivamente a ellas. Define como falsificación cualquier imagen sexual "íntima", término detallado en la normativa subyacente, creada mediante "software, aprendizaje automático, inteligencia artificial o cualquier otro medio tecnológico o generado por computadora... con la intención de que una persona razonable la perciba como indistinguible de una representación visual auténtica del individuo".

Esto abarca tanto imágenes reales modificadas para parecer sexualmente explícitas como el uso de herramientas más antiguas como Photoshop, siempre que el resultado sea lo suficientemente realista. Incluso la adición de una etiqueta que identifique la imagen como no auténtica no exime de responsabilidad.

Dick Durbin, líder de la mayoría del Senado, Lindsey Graham, Amy Klobuchar y Josh Hawley respaldan esta iniciativa, destacando que aunque las imágenes puedan ser falsas, el daño a las víctimas por su distribución es muy real.

Sin embargo, esta propuesta legislativa surge en un contexto legal complejo en Estados Unidos, donde solo 10 estados cuentan con leyes específicas contra la creación y distribución de pornografía deepfake. Además, los legisladores del Congreso han propuesto varios proyectos de ley para abordar la relación entre Inteligencia Artificial y pornografía no consensuada, aunque la mayoría de ellos aún no ha sido aprobada, tal como informa el medio estadounidense especializado The Verge.

La ley también podría enfrentarse a conflictos respecto a la expresión artística, ya que podría permitir a personas influyentes presentar demandas por parodias políticas, recreaciones o creaciones ficticias.

Además, el proceso electoral que vive en Estados Unidos, podría darle lentitud a la regulación como se especuló después de que Europa pactara la primer Ley de IA, pues hasta ahora no ha habido respuesta en cadena por parte del país norteamericano. Otra de las razones que ha propiciado la lentitud de la regulación es debido al riesgo de limitar la innovación y la competitividad frente a China.

Los debates no resueltos sobre privacidad se convierten en un obstáculo, y la polarización política dificulta la formulación de leyes concretas. Pero la controversia en torno a Taylor Swift no solo destaca la urgencia de una legislación integral, sino también la necesidad de tecnologías avanzadas para abordar los riesgos y el impacto de la tecnología deepfake en otros contextos como la democracia.

Aunque el  "efecto Taylor Swift" podría hacer que esta regulación sea una de las prioridades, debido a su influencia en el contexto social, no es un hecho que pueda llevarse a cabo a la brevedad. Sin embargo, plataformas de redes sociales también se han unido a las medidas contra la difusión de estas prácticas limitando las búsquedas.