Ola de IA podría disminuir en 2024

Después de la regulación acordada por la Unión Europea en diciembre del año pasado, sumada a demandas del sector privado, la inversión en Inteligencia Artificial (IA) podría verse reducida.
4 Enero, 2024 Actualizado el 5 de Enero, a las 13:22
Una de las consecuencias de la regulación, es que las empresas se enfoquen en las normativas en lugar de nuevos desarrollos. (Imagen: iStock)
Una de las consecuencias de la regulación, es que las empresas se enfoquen en las normativas en lugar de nuevos desarrollos. (Imagen: iStock)
Arena Pública

El 2023 fue un parteaguas para el desarrollo de Inteligencia Artificial (IA) y se presenció la fuerza de una ola que apenas comienza. Sin embargo, en 2024 esta ola podría desacelerarse.

La regulación, marcada por los acuerdos adoptados por la Unión Europea (UE) a finales del año pasado, se proyecta como un elemento determinante que podría transformar el curso de la innovación en este campo.

El 8 de diciembre, la Unión Europea pactaba lo que sería la primera ley integral de regulación de IA a nivel mundial. De esta manera, la UE se posicionaba como la primera potencia mundial en abordar de manera sólida los usos de la IA para equilibrar las oportunidades que presenta con la necesidad de mitigar riesgos.

La llamada Ley de IA, que se espera sirva como estándar global, tiene como objetivo garantizar que los sistemas de IA utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores europeos.

Esta primera regulación podría fungir como un parteaguas, debido a la relevancia de la Unión Europea alrededor del mundo. 

“Me parece un gran avance, principalmente porque maneja cuestiones de riesgo. El impulso político hizo que fuera posible esta normativa. Aplaudo esta primera iniciativa porque es necesario ponerlo en la mesa, es necesario regularlo y hacerlo de una manera más dura. La UE tiene un derecho tan avanzado, que los demás países lo toman como un estándar. Creo que es una normatividad base”, asegura Jersain Llamas, abogado experto en regulación tecnológica, en entrevista.

Pero el hecho de que entre en vigor entre 2025 y 2026, no quiere decir que no tenga repercusiones en este año. “Ese pequeño vacío, que también conocemos como “iniciación de la vigencia”, sirve para que las personas puedan comenzar a estudiar y a entender esta normatividad, y darles un tiempo para que hagan las adaptaciones. Uno pensaría que hay un vacío legal, pero al contrario, es un espacio de tiempo para entender las obligaciones, conocerlas. Es una oportunidad para que las empresas puedan cumplir con los requerimientos, ya que de la noche a la mañana sería imposible”, opina Llamas.

Este conocimiento y entendimiento para apegarse a las normativas, podría desencadenar un freno a la innovación. Tal como explica el experto, la regulación sirve para vincular, y para poner en la mesa las reglas del mercado, pero una de las consecuencias de la regulación, es que las empresas se enfoquen en las normativas en lugar de nuevos desarrollos. “Creo que el siguiente año, posiblemente, se va a frenar la innovación por la cuestión de los requisitos, los seguimientos, y todos los elementos que se pondrán a consideración si alguien quiere sacar un programa de acuerdo a los riesgos del nuevo reglamento. Pero también considero que se van a hacer mejores desarrollos e innovaciones conforme a las adaptaciones, porque la regulación protege”, matiza.  

Esto podría crear un efecto dominó si más potencias mundiales se unen, aunque eso estaría por verse. En octubre del año pasado el presidente de los Estados Unidos, Joe Biden, firmó una orden ejecutiva para controlar el desarrollo de los sistemas de IA y su aplicación en todos los sectores de la sociedad ante los riesgos que plantea esta nueva tecnología. “Necesitamos controlar esta tecnología y no hay forma de evitarlo”, explicó Biden.

Pero, ¿Estados Unidos podría ser el segundo país en acordar una regulación con mayor profundidad? Ricardo Carreón, consultor en tecnologías y mentor en IA, considera que es difícil que otra potencia mundial trate de hacer algo similar a lo que realizó la UE.

“Lo de Estados Unidos fue solamente una orden ejecutiva, que vino del poder ejecutivo, cuyos límites establecen criterios más por una preocupación en la seguridad de sistemas avanzados de IA , es decir, que si van a desarrollar un GPT-5 o cualquier evolución de sistemas de IA, al comparar ciertos aspectos de seguridad. Pero no se trata de una ley, ni es tan amplia como lo que hizo la UE. No creo que EU vaya mucho más allá de eso”, dijo en entrevista.

León Palafox, Jefe de Inteligencia Artificial, Retail, Telco y Medios en Algorithia, experto en sistemas de IA, concuerda en este punto. Palafox explica en entrevista que esto se debe al proceso electoral que vivirá Estados Unidos. “En cualquier otro año hubiera esperado una consecuencia después de la Ley de la UE, pero debido al tema de las elecciones es posible que retrase. No creo que ningún congresista tenga el capital político para echar a andar un proyecto de regulación de gran impacto, o del tamaño del de la UE”, aseguró.

Pero otra de las posibles limitaciones que podría enfrentar esta tecnología la vimos al terminar el año, cuando el periódico New York Times demandó a OpenAI, empresa creadora de ChatGPT, por entrenar a sus modelos con información exclusiva del medio. Este podría ser un parteaguas significativo en 2024.

Una probable victoria de The New York Times cambiaría todo

Este podría no ser un año tan próspero para OpenAI como los anteriores, en especial si la demanda procede. En 2023 la startup se convirtió en una de las más valiosas, recibiendo un financiamiento importante por parte de Microsoft, quien aprovechó también sus herramientas para lanzar Bing como un chatbot, y más recientemente a Copilot, como un ecosistema de IA.

Pero este boom podría tener un precio. El Times acusó a Microsoft y OpenAI de establecer un modelo de negocio fundamentado en una "violación masiva de derechos de autor", sosteniendo que sus sistemas de inteligencia artificial "aprovechan y, en numerosos casos, retienen extensas secciones de la expresión sujeta a derechos de autor presentes en esas obras”.

De ganar el New York Times (NYT) la demanda en este año, habría implicaciones significativas. “Considero que esto puede tener una incidencia muy grande en los sistemas de IA, en primer lugar, porque tendrían que quitarle a ChatGPT la información del NYT, si es que gana, o llegar a un cierto acuerdo. Eso tendría una implicación fuerte respecto a cómo aprenden estos sistemas a partir de ese incidente, y en adelante”, dijo Ricardo Carreón.

Por otro lado, Palafox agregó que es muy probable que este caso llegue a la Suprema Corte, donde puede haber un esbozo de regulación y un precedente. “Si gana el NYT sentará un precedente de modelos que fueron entrenados con datos, textos e imágenes que tenían derechos de autor. No podrán ser utilizados. Esto tendría una consecuencia muy agresiva en el panorama. Hay personas que auguran que OpenAI podría quebrar. Es imposible quitarle los datos al modelo una vez que lo aprendió. Se tendría que reentrenar, y es un proceso tardado y costoso”, dijo.

Pero el experto señala una consecuencia más importante, y es el freno a la inversión. “Muchas empresas posiblemente van a frenar la inversión. De ganar el NYT, puede pasar que baje el capital invertido. Veo que habrá menos jugadores,  lo cual va a repercutir en innovación”, aseguró.

Sin embargo, esto no quiere decir que la ola se esfumará. Es muy posible que nos encontremos con un panorama de desarrollo y de inclusión de esta tecnología en más esferas de nuestra vida en este 2024. Así lo asegura Claudia Jiménez, profesora universitaria y conferencista, experta en tecnología y sistemas de IA.

“Tenemos este gran reto que la resistencia a la IA deje de ser una resistencia, y que se integre, por ejemplo, al sector educativo. Me parece que las cosas han cambiado en términos de enseñanza-aprendizaje, y los profesores tenemos que estar abiertos a otras formas de enseñar, integrando programas como ChatGPT, cuestiones de diseño como Dall-E, etc. Cualquier tecnología la tenemos que utilizar como asistente virtual, como una ayuda para nosotros, en tanto que pueda resolver y mejorar las tareas”.

Además, la experta opina que este año podríamos ver el desarrollo, sobre todo, de los sistemas de machine learning, esto como consecuencia de la curva de rapidez que ha tenido el uso, y la popularidad de la IA en 2023, que, en sus palabras, “ha sido brutal”.

Aunque, sin duda, será un año lleno de retos. Los usuarios también tendrán que estar conscientes de un uso responsable y ético de la IA, incluso cuando todavía no exista una regulación formal. “Todos tenemos que estar conscientes de que la tecnología existe, y se puede utilizar”, puntualiza Ricardo Carreón.

En México no será diferente al resto del mundo, aunque es importante voltear a ver la relevancia del escrutinio. “Me parece que en América Latina, vamos pasos atrás. Es un llamado para enfocar la importancia de la regulación. Podría pensarse a nivel regional. Nos hacen falta estos primeros aproximamientos, si no, seguiremos yendo detrás”, sugiere Claudia Jiménez.

“Creo que habrá un debate en México, aunque no ha habido un posicionamiento formal. Simplemente se han hecho foros. Creo que el primer punto medular para México, es que primero defina lo que es IA, si se trata de un elemento administrativo, etc., y de ahí partir para homogeneizar lo que entendemos por IA “, matiza Llamas.