Identificará Meta imágenes de IA en medio del mayor año electoral

La medida busca combatir la desinformación propiciada por la difusión de contenido creado con Inteligencia Artificial (IA) como imágenes o deepfakes.
6 Febrero, 2024 Actualizado el 6 de Febrero, a las 18:18
Meta advierte que la transición no será inmediata. (Imagen: iStock)
Meta advierte que la transición no será inmediata. (Imagen: iStock)
Arena Pública

La desinformación en los periodos electorales estará a la orden del día, y Meta lo sabe. La empresa matriz de Facebook e Instagram, ha anunciado medidas más estrictas para abordar la desinformación y material audiovisual falso, también conocido como deepfakes, a partir de la identificación de contenido generado por Inteligencia Artificial (IA) en medio del año electoral más significativo de la historia.

La compañía planea implementar etiquetas en diversos idiomas en todas sus aplicaciones que se conviertan en marcadores visibles. Hasta ahora, Meta solo identificaba imágenes generadas por su propia inteligencia artificial, pero ahora ampliará esta etiqueta a contenido proveniente de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock.
 

Según el comunicado, se establecerá la exigencia de utilizar esta herramienta de divulgación y etiquetado al publicar contenido que incluya un video fotorrealista o un audio con sonido realista, creado o alterado digitalmente. Además, en caso de incumplimiento, se podrían aplicar sanciones.

En situaciones donde se determine que el contenido de imagen, video o audio generado o alterado digitalmente posea un riesgo particularmente alto de engañar materialmente al público sobre un asunto de importancia, la plataforma también contempla la posibilidad de agregar una etiqueta más destacada para proporcionar a las personas mayor información y contexto.

Meta advierte que la transición no será inmediata. Nick Clegg, presidente de asuntos globales de Meta, explicó que comenzarán a etiquetar imágenes generadas por IA de fuentes externas "en los próximos meses" y continuarán perfeccionando el proceso en el próximo año.

Esta medida se produce en las vísperas de un año electoral ajetreado, donde 79 países celebrarán 87 procesos electorales este año. Destacan elecciones clave en países como Taiwán, Pakistán, Venezuela, Estados Unidos y desde luego, México.

Los deepfakes, producidos mediante inteligencia artificial, consisten en vídeos o imágenes que pueden retratar a una persona hablando o realizando acciones que en la realidad no han ocurrido. Según una encuesta realizada por Statista  en 2022, el 57% de los consumidores a nivel mundial afirmaron tener la capacidad de identificar un video falso, mientras que el 43% admitió no poder distinguir entre un video deepfake y uno auténtico.

La identificación de contenido generado por IA es un desafío para las empresas, sobre todo para las plataformas de redes sociales, que ya han visto las consecuencias de esta tendencia en otros ámbitos además del electoral. La proliferación de desinformación vinculada a procesos electorales generó una crisis en Facebook tras las elecciones presidenciales de 2016.

En esta coyuntura, actores extranjeros, principalmente de Rusia, lograron crear y difundir contenido altamente polémico e inexacto. La plataforma continuó siendo objeto de explotación en los años subsiguientes, especialmente durante la pandemia de COVID 19, donde individuos aprovecharon la plataforma para viralizar grandes cantidades de información errónea.

La propagación de desinformación en este contexto podría ser crucial para la toma de decisiones. La desinformación y las noticias falsas tienen un impacto perjudicial en la confianza fundamental de un sistema democrático: la ciudadanía. Según el Instituto Nacional Electoral, la difusión de declaraciones sobre el "robo de urnas", "boletas electorales falsas" y "fraude electoral", por ejemplo, genera un efecto negativo en la percepción de los ciudadanos, aún cuando se demuestre su falsedad.

“Aunque las autoridades electorales se encarguen de analizar y verificar los hechos para emitir desmentidos con información verificable, estas correcciones a veces no tienen el mismo impacto que las noticias falsas (fake news)”, asegura el Instituto.

Meta asegura en el comunicado que este trabajo es especialmente importante ya que es probable que se convierta en un espacio cada vez más conflictivo en los próximos años. “Las personas y organizaciones que quieran engañar activamente a las personas con contenido generado por IA buscarán formas de evitar las salvaguardas implementadas para detectarlo. En nuestra industria y en la sociedad en general, tendremos que seguir buscando formas de estar un paso por delante”, asegura la empresa.

También se recomienda que las personas consideren verificar si la cuenta que comparte el contenido es confiable o buscar detalles que puedan parecer o sonar poco naturales.

La empresa buscará estar preparada para el periodo de gran flujo de información que se avecina en 2024.