Avanza Europa en regulación de IA; pero desafíos persisten

Los países y representantes legislativos de la Unión Europea han estado trabajando para finalizar el proyecto de normativas propuesto por la Comisión hace dos años, pero han enfrentado dificultades para mantenerse actualizados con la rápida evolución tecnológica, lo que ha complicado la consecución de un consenso.
7 Diciembre, 2023 Actualizado el 7 de Diciembre, a las 18:43
El desafío de regular una tecnología que impacta todos los sectores económicos y evoluciona rápidamente ha sido una tarea compleja para los gobiernos. (Imagen: iStock)
El desafío de regular una tecnología que impacta todos los sectores económicos y evoluciona rápidamente ha sido una tarea compleja para los gobiernos. (Imagen: iStock)
Arena Pública

La urgente regulación de Inteligencia Artificial (IA) por fin podría tener un precedente importante. Las instituciones de la Unión Europea han logrado avances significativos en la regulación de sistemas de IA, estableciendo normas para modelos fundamentales como uno de los primeros esfuerzos globales para legislar sobre esta tecnología en expansión.

Entre los logros alcanzados, se acordaron términos provisionales para regular los sistemas de IA generativa, como ChatGPT, según un documento circulado entre los negociadores, al que Reuters tuvo acceso. Además, la Comisión Europea mantendrá una lista de modelos de IA considerados un "riesgo sistémico", y los proveedores de IA deberán divulgar resúmenes detallados de los datos utilizados para entrenarlos.

Sin embargo, la regulación de la vigilancia biométrica y el acceso al código fuente aún no están definidos, y se espera que estos temas sean parte de las próximas discusiones. Uno de los puntos de mayor fricción se centra en las excepciones para la vigilancia biométrica en tiempo real en espacios públicos. Mientras los gobiernos europeos abogan por permitir esta práctica con autorización judicial previa para combatir delitos como el terrorismo, también se argumenta que existen posibles violaciones a los derechos fundamentales.

Después de intensas deliberaciones, que inicialmente se esperaba que concluyeran el jueves, el Consejo de la UE, el Parlamento Europeo y la Comisión Europea, decidieron extender las negociaciones en busca de un consenso más amplio.

La ley propuesta podría convertirse en un referente global, influyendo en la forma en que otros países abordan la regulación de la IA. Con la fecha límite de votación prevista para la primavera, la UE busca mantener su posición pionera en la regulación de la tecnología, a pesar de la complejidad de las negociaciones y la rápida evolución de la IA.

Esta negociación surge un año después del lanzamiento de ChatGPT, el chatbot de IA lanzado por OpenAI, una de las startups de investigación y desarrollo de IA más importantes al día de hoy. A su vez, se alinea con el reciente lanzamiento de Gemini, la apuesta de Google por competir con ChatGPT, y que integra áreas multidisciplinares para la comprensión y creación de materiales.

La regulación de IA ha tomado fuerza después de presentarse un debate en torno al uso de esta herramienta. Uno de los precedentes clave, por ejemplo, fue el veto de Italia al chatbot en marzo de este año, cuando por primera vez se habló de la manera en la que el desarrollo retenía los datos personales de los usuarios.

En octubre de este año, Estados Unidos también mostró interés en avanzar en la regulación de esta tecnología, cuando la administración de Biden lanzó una orden ejecutiva para regular la IA, con un enfoque que busca encontrar un equilibrio entre controlar los riesgos y no obstaculizar el desarrollo tecnológico. La Casa Blanca anunció un amplio proyecto que impone nuevas normativas a las empresas de IA y orienta a diversas agencias federales para establecer salvaguardias.

El desafío de regular una tecnología que impacta todos los sectores económicos y evoluciona rápidamente ha sido una tarea compleja para los gobiernos. Aunque la demora en la regulación podría resultar en posibles peligros y malos usos de la tecnología, mientras que una reacción rápida podría conducir a normativas perjudiciales o a regulaciones sesgadas.

En la orden ejecutiva de EU, se establecen nuevos requisitos para las empresas que construyen sistemas potentes de IA, especialmente aquellas cuyos modelos superan un umbral específico de potencia de computación. Estas empresas deben notificar al gobierno sobre las pruebas de seguridad y compartir resultados antes de lanzar modelos al público. La orden se basa en la Ley de Producción para la Defensa de 1950, otorgando al presidente autoridad para impulsar acciones en materia de seguridad nacional.

La orden también exige a los proveedores de servicios en la nube, como Microsoft, Google y Amazon, proporcionar información al gobierno sobre sus clientes extranjeros. Además, instruye al Instituto Nacional de Estándares y Tecnología para preparar pruebas estandarizadas que evalúen el rendimiento y la seguridad de los modelos de IA.

Aunque, si bien la orden ejecutiva refleja un enfoque pragmático, todavía es un intento por regular a esta tecnología, al igual que el de la Comisión Europea. El rápido avance de los sistemas de IA hace de carácter urgente la regulación, pero el avance es lento y cuidadoso entre las potencias mundiales.