Piden frenar IA por “amenazante”: El llamado de Elon Musk y otros líderes

A través de una carta abierta del Future of Life Institute, investigadores líderes en Inteligencia Artificial piden pausar los desarrollos más potentes para establecer protocolos de seguridad y regulación.
29 Marzo, 2023 Actualizado el 30 de Marzo, a las 10:47
Líderes desarrolladores de IA piden que sea una pausa de al menos seis meses. (Imagen: Future of Life Institute)
Líderes desarrolladores de IA piden que sea una pausa de al menos seis meses. (Imagen: Future of Life Institute)
Arena Pública

---Actualización 10:37 hrs (hora del centro de México), 30 marzo: Se añade información difundida por Reuters en el 12avo párrafo---

“Riesgos profundos para la humanidad”. Es así como una carta abierta define a los desarrollos de inteligencia artificial (IA ) más potentes que GPT-4, con el propósito de frenar durante al menos seis meses su entrenamiento.

La carta, que ya han firmado mas de mil personas, se pregunta si "¿deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?", a la vez que piden que se desarrollen protocolos de seguridad, e incluso la intervención de los gobiernos para su regulación y supervisión.

 

 

Entre los firmantes se encuentran Elon Musk, CEO de Twitter y fundador de Space X y Tesla; Steve Wozniak, cofundador de Apple y emprendedor tecnológico; expertos en IA, como Stuart Russell y Yoshua Bengio; el filósofo e historiador israelí, Yuval Noah Harari; Evan Sharp, cofundador de Pinterest; Craig Peters, CEO de Getty Images; entre muchos otros empresarios, científicos, académicos de las más variadas disciplinas, así como líderes sociales y políticos reconocidos, principalmente de Europa y Estados Unidos.

La exigencia de los líderes se fundamenta en las declaraciones de Open AI, empresa desarrolladora de Chat GPT que recientemente también se unió a Microsoft para potenciar el buscador Bing con Inteligencia Artificial. Open AI dijo que "en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos".

Por su parte la carta abierta dada a conocer expresa: “Estamos de acuerdo. Ese punto es ahora”.  De acuerdo a los firmantes, la pausa debería ser utilizada para desarrollar protocolos de seguridad. “Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria”, dice.

Entre otras acciones, los líderes firmantes piden la creación de “autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación”, entre otras.

La carta fue publicada por Future of Life Institute, una organización sin fines de lucro que trabaja para reducir los riesgos existenciales y catastróficos globales que enfrenta la humanidad. La organización se enfoca en cuatro principales riesgos que describe en su sitio web -Inteligencia Artificial, Biotecnología, Armas Nucleares y Cambio Climático-: “Los cuatro dependen del desarrollo, el uso y la gobernanza de las tecnologías transformadoras. Enfocamos nuestros esfuerzos en orientar los impactos de estas tecnologías”, dice la organización.

Las recomendaciones de la carta abierta surgen de los llamados Principios de IA de Asilomar , que según Quartz, son “un conjunto de 23 pautas creadas para dirigir la investigación y el desarrollo de IA. Se desarrollaron en la Conferencia Asilomar de 2017 sobre IA beneficiosa, que fue organizada por el Future of Life Institute y celebrada en Pacific Grove, California”.

Los desarrollos en específico a los que se refiere la carta, son los GPT más potentes que la versión cuatro. Este tipo de desarrollos, llamados así por su nombre en inglés Generative Pretrained Transformer, son solo un tipo de modelo de lenguaje natural basado en la técnica de aprendizaje profundo de redes neuronales, empleados en una variedad de aplicaciones de procesamiento del lenguaje natural, como chatbots, traducción automática, generación de texto y análisis de sentimientos, entre otros.

Entre los más populares se encuentra Chat GPT, y su más reciente versión es la número cuatro, que se trata de un chatbot que puede contestar a estímulos textuales con información detallada. 

Desde luego que la carta abierta llega en un momento importante para estos desarrollos cuyas empresas tecnológicas, como Microsoft y Google, están invirtiendo cifras multimillonarias y se han enfrascado en una feroz competencia pocas veces vista; aún en un sector tan vertiginoso como el tecnológico. Ahora, la carta abierta plantea la pregunta obligada sobre si es realmente necesaria esta pausa.

La agencia Reuters informó sobre la presentación de una queja del Center for Artificial Intelligence and Digital Policy -una organización de ética tecnológica- ante la Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) para que "impida que OpenAI emita nuevos lanzamientos comerciales de GPT-4", a la que calificó como "parcial, engañoso y un riesgo para la privacidad y seguridad pública".

OpenAI, en alianza con Microsoft, lanzó su cuarta versión de su programa IA GPT, a inicios de marzo, y ha llamado la atención por involucrar a los usuarios en la realización de actividades como conversación, composición de canciones, entre otros.

 

Regulación, aún a paso lento

La regulación de la Inteligencia Artificial está en pañales dada la velocidad con la que se están desarrollando los nuevos modelos de IA. En las distintas regiones del mundo el tema está abordándose de manera local aunque las grandes potencias ya han dado pasos aunque aún iniciales.

La Unión Europea, por ejemplo, ha propuesto un marco de regulación para la IA que se centra en cuatro áreas clave: la transparencia, la responsabilidad, la seguridad y la privacidad de los datos. Este marco incluye regulaciones específicas para la IA de alto riesgo, como la biometría y la vigilancia, así como un enfoque en la protección de los derechos fundamentales, de la cual se hablaba en 2020, pero que ahora no tiene un punto clave.

El Gobierno de Reino Unido acaba de publicar un documento técnico sobre la regulación de la IA a fin de "promover la innovación responsable y preservar la confianza del público en la tecnología", además de que las propuestas de regulación "ayudarán a crear el entorno adecuado para que la IA florezca de manera segura en el Reino Unido", dice el Competition Policy Internacional (CPI), una organización que difunde contenidos antimonopolios.

En el documento titulado "Un enfoque a favor de la innovación para la regulación de la IA", el gobierno británico -citado por CPI- advierte que "un mosaico de regímenes legales está impidiendo que las empresas utilicen la IA en todo su potencial, lo que genera confusión y cargas financieras y administrativas", ante ello dijo "que buscará una regulación ligera. Eso incluye entregar la responsabilidad a los reguladores existentes en lugar de establecer un nuevo organismo", señala CPI.

Mientras que Estados Unidos no tiene una regulación específica para la IA, aunque varias agencias gubernamentales han emitido guías y principios para su uso, mientras que China ha implementado varias regulaciones para la IA, incluyendo leyes para proteger la privacidad de los datos y la seguridad de la información, así como directrices para la investigación y desarrollo de la IA. Esta potencia ha marcado uno de los principales avances en materia de seguridad, aunque ninguno como el que exige la carta. 

En general ninguna de las regulaciones cumple con tales requisitos, en gran medida porque los desarrollos de IA también están creciendo y se encuentran en un momento de desarrollo; aunque los expertos coinciden que es un buen momento para mirar y poner en perspectiva los cuestionamientos sobre si existe un verdadero riesgo.