Restringe Meta el uso de IA en anuncios electorales bajo escrutinio por desinformación

La empresa acaba de anunciar herramientas para creadores como una apuesta más sólida hacia la Inteligencia Artificial, aunque al parecer, también representa ciertos riesgos.
8 Noviembre, 2023 Actualizado el 8 de Noviembre, a las 07:34
La capacidad de la IA para crear contenidos falsificados, ha generado preocupaciones crecientes.
La capacidad de la IA para crear contenidos falsificados, ha generado preocupaciones crecientes.
Arena Pública

Los riesgos del uso de herramientas de Inteligencia Artificial (IA) continúan a la orden del día, pero Meta no se quedará de brazos cruzados. La empresa tecnológica prohibirá a campañas políticas y anunciantes de otras industrias reguladas el uso de sus nuevos productos publicitarios de IA generativa, negando el acceso a herramientas que los legisladores han advertido podrían acelerar la difusión de desinformación electoral, según un informe de Reuters.

“Los anunciantes que realicen campañas calificadas como anuncios de vivienda, empleo, crédito, asuntos sociales, elecciones, política, relacionados con salud, productos farmacéuticos o servicios financieros no están autorizados actualmente para utilizar estas funciones de IA generativa", se lee en una nota adjunta en diversos documentos publicados en Ads Manager.

Las restricciones abarcan una serie de funciones que hasta ahora estaban disponibles para los anunciantes políticos, incluyendo la capacidad de ajustar el contenido de sus anuncios con el fin de mejorar el alcance de sus mensajes. También se han restringido funciones que permitían la incorporación de animaciones 3D generadas por algoritmos y la creación de fondos para imágenes de productos. Además, las funciones destinadas a revisar y optimizar el contenido textual con fines propagandísticos se han visto limitadas.

Un portavoz de Meta, dijo a Reuters, que esta medida se ha implementado con el objetivo de comprender mejor los riesgos potenciales asociados al uso de IA generativa en anuncios relacionados con temas sensibles, en particular aquellos relacionados con elecciones y política. El gigante de las redes sociales busca proteger la integridad de sus plataformas y, al mismo tiempo, abordar las crecientes amenazas de desinformación y manipulación de contenido.

La implementación de restricciones surge como respuesta a la creciente preocupación en torno a la difusión de datos falsos o erróneos, particularmente en relación con los procesos electorales programados en diversas partes del mundo durante el año 2024.

Los avances de la IA generativa incluyen contenidos falsificados, también conocidos como deepfakes, incluyendo audio, video e imágenes, con un nivel de realismo que plantea riesgos sustanciales para la percepción pública y la integridad de los procesos electorales.

Uno de los episodios que puso de manifiesto la necesidad de abordar estas preocupaciones ocurrió en octubre, cuando comenzó a circular un deepfake de audio en Facebook durante las elecciones en Eslovaquia, lo que expuso  las lagunas en las políticas de Meta respecto a la IA, que no contemplan las grabaciones de audio alteradas dentro de su política de privacidad.

Además, en mayo, se difundió en Facebook un video manipulado que involucraba al presidente Joe Biden. La grabación original lo mostraba durante las elecciones de mitad de mandato de 2022, colocando una calcomanía de "Vote" en el pecho de su nieta y dándole un beso en la mejilla. La versión manipulada repetía el clip en un bucle, creando la ilusión de que el presidente tocaba repetidamente a la niña, acompañado de un pie de foto que lo tachaba de "pedófilo".

En ese momento, Meta, la empresa matriz de Facebook, optó por mantener el video en la plataforma. Sin embargo, se mantuvo bajo el escrutinio del Consejo Asesor de Contenido, una entidad independiente encargada de la moderación de contenidos. Su objetivo era ejercer presión sobre Meta para que aborde de manera efectiva la gestión de contenidos manipulados y la lucha contra la desinformación, especialmente en el contexto de las elecciones presidenciales de Estados Unidos de 2024 y más de 50 votaciones que se llevarán a cabo en todo el mundo el próximo año.

Dan Chaison, portavoz del consejo, subrayó la importancia de que las plataformas digitales se preparen adecuadamente para proteger la integridad de los procesos electorales. “Explorar el modo en que Meta puede abordar mejor el contenido alterado, incluidos los videos destinados a engañar al público antes de las elecciones, es aún más importante dados los avances en inteligencia artificial (IA)”, dijo.

La exploración de cómo Meta puede abordar de manera más eficaz el contenido alterado, en particular los videos diseñados para engañar al público antes de las elecciones, se ha vuelto aún más crucial debido a los avances en la inteligencia artificial (IA). En una publicación en su blog, Meta declaró que había determinado que el video de Biden no infringía sus políticas respecto a la incitación al odio, el acoso o los medios manipulados.

Según estas políticas, la compañía eliminaría cualquier contenido que haya sido editado o modificado de manera sintética, de manera que no sea evidente para una persona común y que induzca a error al hacerla creer que un sujeto del video dijo algo que no dijo. En este caso en particular, Meta enfatizó que no se utilizó IA ni aprendizaje automático para alterar el contenido del video.

Hasta ahora, Meta no ha desarrollado ninguna herramienta destinada al usuario final que facilite a los usuarios o a los verificadores de información la comprensión del contexto del contenido que están visualizando, como las marcas de agua, por ejemplo. Aunque, en este contexto, la regulación global de la IA tampoco ayuda para que los usuarios determinen los contenidos alterados.

La capacidad de la IA para crear contenidos falsificados, ha generado preocupaciones crecientes. Según un sondeo de iProov, firma de ciberseguridad y especializada en verificaciones biométricas, a nivel mundial, en 2022, el 57% de las personas en todo el mundo afirmó que podía identificar un video deepfake.

Aunque Meta no es la única plataforma bajo el escrutinio regulatorio. Las normas en cuestión de implementación de IA se hacen cada vez más palpables en países europeos, como lo es Reino Unido, donde recientemente se llevó a cabo la primera cumbre  mundial sobre riesgos de IA . Los países en el mundo cada vez voltean más hacia la regulación de aspectos como la privacidad de los datos, y desde luego, la desinformación, que en contextos electorales podría vulnerar la democracia.

A pesar de las restricciones impuestas por Meta, persisten las interrogantes sobre la efectividad de estas medidas en un entorno en constante evolución. A esta iniciativa se han sumado distintas compañías que, aunque han lanzado poca información sobre las medidas de seguridad que planean imponer en esos sistemas, han esclarecido el riesgo que suponen dichas herramientas.

Google, la empresa de publicidad digital más grande, anunció el lanzamiento de herramientas de anuncios generativos de IA similares la semana pasada, aunque planea mantener el ámbito político fuera de sus productos bloqueando una lista de "palabras clave políticas" para ser utilizadas como indicaciones, por ejemplo.

Sin embargo, a medida que se van moldeando las medidas regulatorias y a medida que los gigantes tecnológicos se suman a la implementación de normativas, las formas de alteración se reproducen y se hacen cada vez más grandes, por lo que, en un futuro no tan lejano, será indispensable contar con un marco regulatorio que evite y que modere este creciente problema.