Preocupan sesgos en chatbots de IA a gigantes tecnológicos

Meta y Microsoft se encuentran ante una serie de desafíos derivados de las herramientas de inteligencia artificial (IA) que pueden propagar datos incorrectos cuando interactúan con usuarios.
18 Octubre, 2023 Actualizado el 18 de Octubre, a las 17:56
Meta ha estado trabajando en la incorporación de chatbots de IA a su ecosistema, mientras que Microsoft trabaja en perfeccionar sus sistema de IA generativa potenciada por OpenAI. (Imagen: Pexels)
Meta ha estado trabajando en la incorporación de chatbots de IA a su ecosistema, mientras que Microsoft trabaja en perfeccionar sus sistema de IA generativa potenciada por OpenAI. (Imagen: Pexels)
Arena Pública

La confiabilidad en los chatbots de inteligencia artificial (IA) se ha convertido en un tema de creciente preocupación para gigantes tecnológicos a medida que comienzan a implementarlos, y la garantía de que estos sistemas no emitan respuestas inapropiadas o sesgadas se ha vuelto una prioridad.

Un artículo reciente titulado "Decoding Trust: una evaluación integral de la confiabilidad en los modelos GPT", publicado por Microsoft Research, en colaboración con varias universidades, puso en relieve la importancia de abordar los sesgos en los modelos de lenguaje, incluyendo los chatbots de IA, como los que ocupa el gigante tecnológico en la última actualización de Bing, que utiliza GPT 4, potenciada por Open AI. 

La investigación evalúa la confiabilidad en modelos de lenguaje grandes (LLM), arrojando luz sobre varias perspectivas cruciales, desde la toxicidad hasta la privacidad. El artículo, presentado en la conferencia NeurIPS 2023, se centra en la evaluación de GPT-4 y GPT-3.5 en ocho perspectivas de confiabilidad distintas, incluyendo la toxicidad, el sesgo de estereotipos, la solidez del adversario, la solidez fuera de la distribución, la solidez de las demostraciones adversas, la privacidad, la ética de las máquinas y la equidad. Los resultados revelan vulnerabilidades previamente desconocidas en la confiabilidad de estos modelos.

El equipo de investigación descubrió que los modelos GPT pueden ser engañados para generar contenido tóxico y sesgado, así como para filtrar información privada, tanto de los datos de entrenamiento como de las conversaciones en curso. Aunque GPT-4 mostró ser generalmente más confiable que su predecesor GPT-3.5 en los puntos de referencia estándar, también se reveló que es más vulnerable a las indicaciones maliciosamente diseñadas y al sistema de jailbreak. Esto podría deberse a la precisión con la que GPT-4 sigue instrucciones engañosas.

Empresas como Meta también han volteado a ver este aspecto. Meta ha estado trabajando en la incorporación de chatbots de IA a su ecosistema, algunos de los cuales tienen una personalidad llamativa, como un chatbot que habla como un detective pero se asemeja a Paris Hilton, y otro basado en Snoop Dogg.

Según informa Bloomberg, Nick Clegg, presidente de asuntos globales de Meta, ha señalado que han dedicado miles de horas a pruebas de estrés para garantizar que estos chatbots sean seguros. Sin embargo, admitió que no pueden garantizar que en algún momento no emitan respuestas inapropiadas.

Meta tiene la intención de emplear licencias transparentes y de código abierto para algunos de sus conjuntos de datos y modelos de lenguaje, tecnología fundamental en la implementación de chatbots de inteligencia artificial. Este enfoque es  esencial para asegurar un uso ético de la IA y para fortalecer la confianza de los usuarios.

A medida que las tecnologías de IA continúan su expansión en nuestras vidas cotidianas, la necesidad de abordar los sesgos y las respuestas inapropiadas se vuelve más urgente. Gigantes tecnológicos como Meta y Microsoft están en la batalla por la confiabilidad en los chatbots de IA y la ética en la inteligencia artificial. La confiabilidad de los modelos lingüísticos es una consideración crucial, especialmente cuando se utilizan en aplicaciones sensibles como la atención médica y las finanzas.