IA en periodos electorales: ¿Riesgo para la democracia?

La regulación de las herramientas de Inteligencia Artificial será una pieza clave en los periodos electorales para contrarrestar la manipulación y la viralización de la desinformación.
9 Octubre, 2023 Actualizado el 10 de Octubre, a las 12:59
La regulación mexicana se ve afectada por la polarización de organismos.
La regulación mexicana se ve afectada por la polarización de organismos.
Arena Pública

Pocas veces en la historia se ha dado una convergencia tan profunda entre la política y la tecnología. ¿Cuánto de lo que actualmente se observa en la esfera virtual es real, y cuánto es producto de una sofisticada maquinaria de manipulación?

En un contexto donde la influencia tecnológica impregna cada aspecto de la vida, la democracia podría encontrarse en una encrucijada. La falta de regulación y el rápido avance y crecimiento de desarrollos de Inteligencia Artificial (IA), podría tener consecuencias importantes para los próximos periodos electorales; especialmente para el que se avecina en 2024 en México.

Desde algoritmos de recomendación personalizados, hasta sistemas de análisis del sentimiento, las herramientas de Inteligencia Artificial han tomado predominancia en las campañas electorales.

Uno de los ejemplos más claros que han impactado en la política son los productos tipo deepfake, hechos con Inteligencia Artificial. Un deepfake es una técnica de manipulación de contenido multimedia que utiliza la IA, en particular, las redes neuronales profundas, para crear contenido falso y realista, como videos, imágenes o audio, que parecen ser auténticos pero en realidad son generados o alterados por terceros.

En los videos deepfake, se toma un video existente o se graba un nuevo video con una persona real; de ahí que se utilice un algoritmo de aprendizaje profundo para reemplazar la apariencia facial y/o la voz de la persona en el video con la de otra persona. El resultado es un video en el que parece que alguien está diciendo o haciendo algo que nunca hizo en realidad.

Según Wario Duckerman, director ejecutivo de BRITA Inteligencia Artificial, los deepfakes se han utilizado desde hace tiempo atrás. “No son una tecnología nueva, es una tecnología que se desarrolla con redes neuronales y deep learning, que es inteligencia artificial avanzada. Lo que hace, es poner el rostro de una persona en una situación distinta a la original. La tecnología de deepfake se ha utilizado mucho años atrás en elecciones en la India, donde se ha utilizado para desprestigiar a cierto candidato, por ejemplo”, dijo en entrevista.

Y es que los deepfakes han permeado de manera importante alrededor del mundo. Un ejemplo de ello, es Estados Unidos. En 2017 se desató la controversia en torno a un video de un Barack Obama deepfake, hecho por Investigadores de la Universidad de Washington, en el que aparentemente dice logros presidenciales. El motivo de elegir a Obama como modelo fue la disponibilidad de una gran cantidad de material de archivo. 

Este “falso Obama” encaminó el foco hacia una preocupación todavía más grande que venía después del deepfake: la desinformación.

¿Atentado contra la democracia?

Tomando en cuenta que en las elecciones presidenciales de 2016 en Estados Unidos, las tecnologías digitales y las redes sociales desempeñaron un papel fundamental y controvertido, el problema de la desinformación toma gran relevancia. Las campañas políticas utilizaron estrategias avanzadas, como bots en Twitter y la segmentación de datos a través de empresas como Cambridge Analytica.

Tal como lo explora el artículo Political Communication, Elections and democracy: The Campaigns of Donald Trump and Jair Bolsonaro, las noticias falsas se difundieron ampliamente en plataformas de redes sociales, con un impacto significativo en la opinión pública. Además, hubo evidencia de interferencia externa, incluida la posible participación de Rusia en la propagación de desinformación en línea. Estas elecciones demostraron cómo la tecnología y las redes sociales pueden tener un impacto profundo en la política y la democracia.

Pero la IA en tiempos electorales tiene un arma todavía más poderosa para preponderar la desinformación. Se trata del alcance. Tal como lo señala Duckerman en entrevista, “anteriormente se utilizaban códigos y algoritmos que debían programarse. Uno debía entrenar el sistema con fotografías y demás elementos para arrojar el video, pero actualmente ya existen plataformas que facilitan la tarea, y no hay necesidad de hacerlo, ahora ella lo hace sola”. Ahora, al googlear las palabras “clonación de voz”, o “deepfake”, fácilmente cualquier persona puede acceder y obtener contenido alterado.

Sin embargo, para Alfredo Rojas-Calderón, doctor en Ciencias de la Comunicación (UCM) y doctor en Ciencia Política (USB), experto en opinión pública y comunicación política, las noticias falsas y el uso de algoritmos a cierta conveniencia, impacta en la opinión pública, pero no se trata de un discurso nuevo.

“La manipulación no es nueva en el campo de la comunicación política, y particularmente de las campañas electorales. Lamentablemente siempre nos movemos entre la persuasión, que debería ser la razón de ser de una campaña política, y la manipulación. A veces es una línea muy delgada. Lo que está pasando con las herramientas de IA es que se produce en un momento en el que el entorno de la comunicación, un entorno híbrido de medios tradicionales y medios digitales, está marcado por la desinformación”, dijo en entrevista. 

“Claro que se han combinado dos cuestiones: herramientas de riesgo para la manipulación, y un entorno que viene siendo muy favorable a la desinformación. Las redes sociales ya habían allanado este terreno, como son los bots, para masificar cierto mensaje. Por lo tanto, ha sido un proceso progresivo en el que ahora, esta confluencia que supone el alto riesgo de la IA con un entorno caracterizado por la desinformación, resulta tremendamente complicado”, matiza.

Además, aunque los deepfakes se han popularizado en redes sociales, no es el único recurso al que partidos políticos han recurrido. Algunos, por ejemplo, contratan consultoras con las que, a través de un conjunto de perfiles en Twitter, por ejemplo, pueden instalar temas. Algunas veces esos perfiles son perfiles creados manualmente, como tradicionalmente se hace, pero la Inteligencia Artificial se encarga de popularizarlos. Este tipo de estrategias recaen en la manipulación de los contenidos, y por lo tanto repercute en las decisiones de los votantes.

Esto, para Rojas-Calderón, sí representa un riesgo para la democracia, sin embargo, algo muy importante a destacar, es que este tipo de amenazas siempre han existido; solo que ahora hay un medio más para alterarla. “Las amenazas se ciernen sobre la conversación pública, al distorsionarla, y al ver discursos muy visibilizados y otros que quedan silenciados. La selección y la omisión no es nueva, pero la facilitación sí. Entonces, es una amenaza, las amenazas de la democracia vienen de distintas formas. Ya hay casos específicos, y podemos partir incluso del ideal de la comunicación política: que los gobernados estén informados de forma adecuada y suficiente para ejercer su voto, así como la participación política en general. Por lo tanto, cualquier situación que suponga distorsionar y romper este ideal, pone en riesgo la democracia. Si los ciudadanos no reciben la información adecuada para ejercer su derecho, y la información de los medios queda subordinada, se pone en riesgo”.

Aunado a ello, también se deriva el poco incentivo hacia los usuarios para que reconozcan este tipo de desarrollos. Según un sondeo de iProov, firma de ciberseguridad y especializada en verificaciones biométricas, a nivel mundial, en 2022, el 57% de las personas en todo el mundo afirmó que podía identificar un video deepfake. En México, un estudio de Kaspersky de 2022 reveló que 72% de los mexicanos desconoce qué es un deepfake, mientras que el 62% de los encuestados admite no saber reconocer cuándo un video ha sido manipulado con esa tecnología.

Entonces, ¿quién y cómo castigaría la difusión de estos contenidos? La respuesta es poco optimista. A nivel internacional apenas comienzan a consensuar acuerdos legales que involucren a la IA en la difusión de información. Por otro lado, en México, no existen respaldos legales sólidos que intervengan.

Polarización, el entorpecimiento de la regulación mexicana

El organismo encargado de regular el contenido compartido y la información falsa en México es el Instituto Nacional de Acceso a la Información (INAI), y en materia electoral, el Instituto Nacional Electoral (INE), de la mano con el Tribunal Electoral del Poder Judicial de la Federación (TEPJF), e instituciones a nivel local.

Sin embargo, aún no existen las leyes adecuadas que se adapten al entorno digital que se vive hoy en día. Si bien el INE ha incursionado en estrategias contra la desinformación como el “Glosario contra la desinformación”, y se ha discutido recientemente en el Senado de la República la adopción de leyes que contemplen este tipo de herramientas, todavía no es suficiente.

Para Laura Coronado, abogada y experta en Cultura Digital, miembro del Sistema Nacional de Investigadores del CONACyT, la regulación en este sentido, es renuente. “Tenemos contemplado dentro de la legislación la difusión de información falsa. Pero el problema con la legislación en materia electoral es que es reactiva, es decir, hasta que tenemos el suceso se analiza, pero el daño ya se causó; el daño en el sentido de que ya pudo haber un candidato o candidata perjudicado a partir de la propagación de información falsa”, dijo en entrevista.

Además, Coronado también expone uno de los problemas de legislación más grandes en nuestro país: la disociación entre organismos. “Por desgracia nuestros órganos han entendido autonomía e independencia como aislamiento. Lo ideal es que tuviéramos un sistema jurídico armónico en México, donde la batalla en contra de la desinformación, fraudes, engaños, incitación al odio, etc., fueran desde un mismo enfoque. El problema es que parece que las autoridades dentro de su ámbito no se coordinan con el resto. Eso crea vacíos que son utilizados por expertos en marketing, hackers y personas públicas. Es una de las grandes tareas que tenemos de cara al 2024 y al 2030. No se trata de que sea un poder único y dejemos de lado la democracia, sino, por el contrario, que estas herramientas eviten que caigamos en injusticias por el entorpecimiento de la maquinaria en contra de las prácticas que son ilegales”, asegura.

Por el lado de los desarrolladores, Duckerman, líder de BRITA AI, asegura que, aunque es grave el asunto de la regulación, los desarrollos de Inteligencia Artificial no tienen fines específicamente de manipulación y dispersión de información falsa. Al final de cuentas, todo es controlado por un humano.  “Hay muchos miedos y se ha satanizado la tecnología por la desaparición de empleos, por ejemplo, pero lo que pretendemos como desarrolladores, es realizar soluciones o software, proyectos que beneficien a la sociedad para automatizar procesos, para poder ahorrar tiempo, y que la IA pueda hacer trabajos muy tediosos. Nosotros estamos desarrollando una IA para detectar los deepfakes, o clonaciones de voz, o textos manipulados. De esa forma podemos también combatir la desinformación”, subrayó.

Sin embargo, el también experto en marketing digital, ensambla la idea de que la regulación no debe dejarse de lado. “En Europa, por ejemplo, en diciembre tendrán las primeras regulaciones, además de las que ya se han hecho. Latinoamérica va más lento, y es una amenaza el no contar con leyes sólidas que actúen en beneficio".

De cara a las elecciones de 2024

¿Cómo se puede garantizar la transparencia y la integridad en un entorno donde las fronteras entre la verdad y la mentira son cada vez más borrosas?

“Entiendo el miedo que puede surgir, pero esto ha pasado en cada revolución tecnológica. Al final, queda adaptarse y seguir caminando. La tecnología ya está, y somos humanos, y vamos a tener que adaptarnos a ella, porque la IA no se maneja por sí sola. Lo que sí se debe de trabajar es en la regulación que puedan cerrar algunas brechas”, asegura Wario Duckerman.

Respecto a la falta de regulación, de cara al 2024, Laura Coronado ve unas elecciones con gran prominencia en estas tecnologías, pero con un gran reto en el aspecto jurídico. “Creo que la gran meta que deben de tener ahora los legisladores, es establecer quién es el responsable de la información, porque aquí viene un gran debate: por un lado, quien emite la información y por otro, si las plataformas son responsables o no de esta difusión, y las personas que se ven beneficiadas por esta difusión. Creo que tenemos que utilizar esta misma tecnología para que, a través de ciertos mecanismos, poder identificar la desinformación. A partir del uso de esta IA establecer candados muy precisos previos a la difusión de este tipo de imágenes. Algunas plataformas como Microsoft y Google a través de su IA, están encausadas para desarrollar este tipo de tecnologías, algunas de ellas a través de blockchain, por ejemplo, pero aún nos falta mucho por hacer”, señala.

Y respecto a los usuarios, los votantes, los más perjudicados en el altercado de la democracia con fines privados, queda la información y la ética.  Para Rojas-Calderón, también Investigador y consultor en asuntos públicos, la consultoría política ya tenía un reto muy grande; ahora lo es más. Los ojos del mundo estarán puestos en cómo manejamos esta nueva era de la política impulsada por la IA, pero también en dos aristas: en la identificación de los sesgos del mensaje y la diversificación de información por parte de medios de comunicación; además de mirar los retos como colectivos.