Presiona EU a desarrolladores de IA para acelerar el paso hacia la regulación

Directores ejecutivos de empresas como Alphabet, Microsoft, OpenAI y Anthropic se reunieron recientemente con el presidente de los Estados Unidos en la Casa Blanca.
8 Mayo, 2023 Actualizado el 9 de Mayo, a las 11:26
La reunión se produce en medio de un panorama donde la regulación comienza a ser importante para los gobiernos. (Imagen: iStock)
La reunión se produce en medio de un panorama donde la regulación comienza a ser importante para los gobiernos. (Imagen: iStock)
Arena Pública

Estados Unidos aprieta el paso en el camino de la regulación de la Inteligencia Artificial. Recientemente, la vicepresidenta Kamala Harris y otros funcionarios de la administración de Joe Biden, sostuvieron una reunión con ejecutivos de empresas desarrolladoras y líderes en tecnología como lo son Alphabet, Microsoft, OpenAI y Anthropic, para discutir los riesgos de sus productos antes de ser lanzados al público. 

“Hoy me reuní con los directores ejecutivos de las empresas a la vanguardia de estos avances para discutir la responsabilidad que tienen los gobiernos y las empresas de mitigar los riesgos para proteger al público”, dijo la vicepresidenta Kamala Harris. 

Durante la reunión se hizo hincapié a los directores ejecutivos para que limiten los riesgos de la IA, para enfrentar las crecientes preguntas y llamadas para regular los desarrollos que avanzan rápidamente, como es el caso de Chat GPT,  el modelo de lenguaje natural desarrollado por OpenAI, que ha cobrado gran popularidad por su capacidad de respuesta basada en una arquitectura basada en el modelo GPT (Generative Pre-trained Transforme, o Transformador Generativo Pre-entrenado, en español). 

Según The New York Times, la reunión duró aproximadamente dos horas, en la que el presidente Joe Biden tuvo la oportunidad de estar un momento. “Lo que están haciendo tiene un enorme potencial y un enorme peligro”, dijo Biden a los ejecutivos. Esta fue la primera reunión de este tipo en la Casa Blanca. 

Sin embargo, también hubo una iniciativa por parte del gobierno de los Estados Unidos. Según el medio estadounidense The Verge, la Casa Blanca anunció financiamiento y orientación política para “desarrollar IA responsable”. 

“Las acciones incluyen una inversión de $140 millones de la Fundación Nacional de Ciencias para lanzar siete nuevos Institutos Nacionales de Investigación de IA (NAIR), aumentando el número total de instalaciones dedicadas a la IA a 25 en todo el país”, aseguró el medio. 

La reunión se produce en medio de un panorama donde la regulación de IA cobra mayor relevancia para los gobiernos en el mundo. En la Unión Europea, por ejemplo, la situación va un paso adelante. Italia fue el primer país en prohibir Chat GPT después de que en el mes de marzo se suscitara una pérdida de datos respecto a las conversaciones de los usuarios e información de Chat GPT relativa al pago de los suscriptores del servicio de pago. 

El CEO de OpenAI, empresa matriz del chatbot , Sam Altman, reveló que existía la posibilidad de que hubiera un error que permitió ver conversaciones de otros usuarios. “Tuvimos un problema importante en Chat GPT debido a un error en una biblioteca de código abierto, para el cual ahora se lanzó una solución y acabamos de terminar de validar”, dijo

Sin embargo, a inicios de mes el regulador italiano dio a conocer que OpenAI había atendido las exigencias del gobierno para mantener seguros los datos e información de los usuarios. La Garante italiana había dado plazo hasta el 30 de abril a OpenAI para que agregara ciertas modificaciones al sistema de Chat GPT con la intención de abordar las preocupaciones de seguridad. Ante esta exigencia, la empresa creadora del chatbot dijo que “brindará una mayor visibilidad de su política de privacidad y el formulario de exclusión voluntaria del contenido del usuario”, según informa un portavoz de la empresa a través de Reuters

La empresa también comunicó que proporcionará un nuevo formulario para que los usuarios de la Unión Europea puedan decidir respecto al uso de datos personales para entrenar sus modelos, por lo que será opcional que el desarrollo pueda acceder a esta información. El formulario incluye datos del usuario, sin embargo, también asegura que el llenado del mismo no garantiza la excepción de los datos personales.

En la reciente reunión con funcionarios en la Casa Blanca, Altman respondió a una pregunta sobre si las empresas están en sintonía con las regulaciones. Dijo a los periodistas después de la reunión que "sorprendentemente estamos en sintonía sobre lo que debe suceder".

Otros países también comienzan a voltear a este aspecto. Según información de Reuters, los reguladores de privacidad en Francia e Irlanda se comunicaron con sus homólogos en Italia para obtener más información sobre la base de la prohibición de Italia, además de que Alemania también también tenía miras de bloquear a Chat GPT por preocupaciones de seguridad de datos, dijo el comisionado alemán de protección de datos al periódico Handelsblatt.

La regulación de la Inteligencia Artificial se desarrolla mientras crecen también los modelos, por lo que el paso es aún lento, aunque no deja de ser una preocupación internacional. “Tenemos que tener mucho cuidado de no crear un mundo en el que los humanos estén de alguna manera subordinados a un futuro de máquinas más grande”, dijo Sophie Hackford, futurista y asesora de innovación tecnológica citada por CNBC

Hasta ahora, después de la reunión de ejecutivos en la Casa Blanca, se sabe que los mismos participarán en una evaluación pública de sus sistemas de IA. “El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos, y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense”, dijo la vicepresidenta Kamala Harris en un comunicado citado por Reuters

Los reguladores estadounidenses apenas comienzan a trazar el camino hacia la regulación, detrás de los países de la Unión Europea. Sin embargo, es un paso importante para el desarrollo inevitable de los modelos de IA.