Veto de Italia a Chat GPT alienta el debate en la Unión Europea

El riesgo que presenta el desarrollo de Inteligencia Artificial podría afectar a la privacidad de los usuarios de Italia, mientras más países podrían sumarse a la prohibición.
5 Abril, 2023 Actualizado el 6 de Abril, a las 07:28
También se informó que se abrió una investigación contra la empresa. (Imagen: Pexels)
También se informó que se abrió una investigación contra la empresa. (Imagen: Pexels)
Arena Pública

Italia acaba de dar un paso importante. Se convirtió en el primer país en vetar a Chat GPT, el chatbot desarrollado con Inteligencia Artificial, por la preocupación del riesgo que supone la privacidad de los usuarios.

Así lo informó la Garante para la Protección de Datos Personales (GPDP) de Italia mediante un comunicado , que acusa al chatbot de una recopilación ilícita de datos personales, así como de una ausencia de sistemas de verificación de la edad de los menores. 

 

 

Además de ordenar el cese inmediato del uso del chatbot, propiedad de Open AI, también informó que se abrió una investigación contra la empresa. “Detenga Chat GPT hasta que respete la normativa de privacidad”, se lee en el informe. 

La prohibición se suscitó después de que el pasado 20 de marzo, Chat GPT sufriera una pérdida de datos respecto a las conversaciones de los usuarios e información relativa al pago de los suscriptores del servicio de pago.

El CEO de Open AI , Sam Altman, reveló que existía la posibilidad de que hubiera un error que permitió ver conversaciones de otros usuarios. “Tuvimos un problema importante en Chat GPT debido a un error en una biblioteca de código abierto, para el cual ahora se lanzó una solución y acabamos de terminar de validar”, dijo. 

La preocupación de la GPDP se extiende a una falta de información por parte de los usuarios respecto a este tipo de problemas: “la falta de información a los usuarios y a todas las partes interesadas cuyos datos son recopilados por Open AI, pero sobre todo la ausencia de una base legal que justifique la recopilación y el almacenamiento masivo de datos personales, con el propósito de "entrenar" los algoritmos que subyacen al funcionamiento de la plataforma”, explica el comunicado. 

Altman se ha mostrado abierto al diálogo con las autoridades italianas, aunque en sus propias palabras, para él Open AI “está funcionando correctamente”. 

Chat GPT se ha convertido en uno de los desarrollos de Inteligencia Artificial (IA) más populares alrededor del mundo.  Según Reuters, se estima que Chat GPT alcanzó los 100 millones de usuarios activos mensuales en enero, solo dos meses después de su lanzamiento, “lo que la convierte en la aplicación para consumidores de más rápido crecimiento en la historia”. 

Chat GPT es un modelo de lenguaje de procesamiento natural para generar respuestas a las consultas y preguntas de los usuarios en una conversación en línea. GPT significa "Generative Pre-trained Transformer", y hace referencia a la arquitectura de redes neuronales utilizada para entrenar el modelo. Se trata de un desarrollo basado en Inteligencia Artificial. 

El chatbot tiene ahora también un gran aliado, y es Microsoft, pues la empresa líder en tecnología ha redoblado su apuesta por Open AI para lanzar su buscador Bing que actualmente, funciona con GPT 4. 

Otros países de la Unión Europea podrían sumarse a la prohibición del chatbot como Italia ya lo hizo. Según información de Reuters, los reguladores de privacidad en Francia e Irlanda se han comunicado con sus homólogos en Italia para obtener más información sobre la base de la prohibición, además de que Alemania también podría seguir los pasos de Italia al bloquear Chat GPT por preocupaciones de seguridad de datos, dijo el comisionado alemán de protección de datos al periódico Handelsblatt.

La regulación de la Inteligencia Artificial se desarrolla mientras crecen también los modelos, por lo que el paso es aún lento, aunque no deja de ser una preocupación internacional. “Tenemos que tener mucho cuidado de no crear un mundo en el que los humanos estén de alguna manera subordinados a un futuro de máquinas más grande”, dijo Sophie Hackford, futurista y asesora de innovación tecnológica citada por CNBC

Desde abril de 2021, la Unión Europea presentó un conjunto de propuestas para regular la Inteligencia Artificial en la región. Estas propuestas, conocidas como el Reglamento de IA de la UE, establecen un marco de normas éticas y legales para el uso de la IA en Europa.

El Reglamento de IA de la UE se divide en cuatro categorías de riesgo para la salud y los derechos de las personas.

El primero, de riesgo inaceptable, se aplican las reglas más estrictas y se prohíbe la mayoría de los usos de IA que presenten un riesgo inaceptable para la salud o los derechos fundamentales de las personas. Los de alto riesgo aplican requisitos rigurosos, como evaluaciones de riesgos, pruebas y certificación obligatorias antes de que se puedan poner en el mercado productos o servicios de IA de alto riesgo.

Por su parte, los de riesgo limitado no se aplican requisitos adicionales, pero los proveedores deben proporcionar información clara y accesible a los usuarios, mientras que en el riesgo mínimo: no se aplican requisitos adicionales.

El Reglamento de IA de la UE también establece normas específicas para algunas aplicaciones de IA, como los sistemas de vigilancia biométrica, que se prohíben en la mayoría de los casos, y los sistemas de puntuación social, que se prohíben por completo. Sin embargo, las medidas continúan adaptándose a los desarrollos en crecimiento.