Irlanda llama a la precaución en la regulación de la IA

Mientras otros países como China e Italia se unen a las prohibiciones de desarrollos de Inteligencia Artificial como Chat GPT, Irlanda hace un llamado por la preocupación de prohibiciones prematuras.
26 Abril, 2023 Actualizado el 28 de Abril, a las 18:41
La comisión irlandesa está intentando entender mejor la tecnología, así como los grandes modelos de lenguaje. (Imagen: Pexels)
La comisión irlandesa está intentando entender mejor la tecnología, así como los grandes modelos de lenguaje. (Imagen: Pexels)
Arena Pública

El debate por los riesgos de la Inteligencia Artificial (IA) y su regulación se sigue apoderando de las grandes potencias tecnológicas. Recientemente, el Regulador de Datos Irlandés advirtió que, aunque en efecto, los desarrollos de IA deben ser regulados, “debe hacerse correctamente antes de precipitarse en prohibiciones que no se van a mantener”, dijo el jefe de protección de datos según un informe de Reuters. 

Helen Dixon, la comisionada de protección de datos (DPC) de Irlanda, dijo durante el evento de Bloomberg New Economy Gateway Europe, cerca de Dublín, que: "Necesita ser regulado y se trata de descubrir cómo regularlo adecuadamente".

Irlanda es uno de los terrenos más importantes en el ámbito tecnológico dado que es sede europea de muchas empresas líderes, incluyendo a Google, Microsoft, Facebook, IBM y Apple. Estas empresas tienen centros de investigación y desarrollo en Irlanda, lo que ha ayudado a atraer talento y recursos en inteligencia artificial.

Dixon también señaló que, al menos la comisión irlandesa, está intentando entender mejor la tecnología, así como los grandes modelos de lenguaje: "Así que creo que son los primeros días, pero es hora de tener esas conversaciones ahora en lugar de precipitarse en prohibiciones que realmente no se van a mantener", dijo.

Estas declaraciones surgen después de que Italia ordenara un cese temporal a los servicios de Chat GPT por sus riesgos. La potencia europea se convirtió en el primer país en vetar al popular chatbot, debido a la preocupación del riesgo que corre la privacidad de los usuarios. 

El Garante para la Protección de Datos Personales (GPDP) de Italia acusó al chatbot de una recopilación ilícita de datos personales, así como de una ausencia de sistemas de verificación de edad para los menores. Después de una revisión, la Garante dio a OpenAI, empresa matriz de Chat GPT, hasta el 30 de abril para cumplir con los requisitos específicos de privacidad que le permitirían levantar la prohibición temporal del chatbot en el país. Este 28 de abril, la autoridad italiana anunció que ChatGPT ya no se encuentra bloqueado después de que OpenAI obedeciera las exigencias del gobierno.

Según informa Politico, OpenAI debía verificar la edad de los usuarios antes de que usen el chatbot de IA, además de explicar en su sitio web cómo y por qué procesa los datos de las personas para Chat GPT. La empresa estadounidense tambien tendrá que pedir a los usuarios su consentimiento o interés legítimo para utilizar sus datos y posibilitar que las personas soliciten la corrección o eliminación de sus datos personales.

Después de la prohibición italiana, la discusión entre algunos países de la Unión Europea acerca de la regulación de desarrollos de Inteligencia Artificial, comenzó a hacerse presente. 

“Algunos reguladores están descubriendo que las herramientas existentes, como el Reglamento General de Protección de Datos (RGPD) que brinda a los usuarios control sobre su información personal, pueden aplicarse a la categoría emergente de empresas de IA generativa”, informó Reuters. 

Por su parte, China había tenido un antecedente similar. En febrero de este año, el país asiático había sugerido a ciertas empresas no utilizar el desarrollo de IA debido a preocupaciones de difundir “propaganda y desinformación” por parte del gobierno de los Estados Unidos.

Según informes chinos, los gigantes de la tecnología Tencent, Alibaba y Ant Group, recibieron instrucciones precisas de no incluir a Chat GPT en sus servicios, ya sea directamente o a través de terceros.

En muchos países, la preocupación del riesgo que corren los datos personales de usuarios que utilizan desarrollos de IA va en aumento, aunque al parecer ya existen dos lados de la moneda. A medida que esta herramienta crece, crecen también preocupaciones y desafíos que los países deben atender.