IA y poder: dos años en retrospectiva
Cumplo dos años escribiendo sobre tecnologías y sus impactos sociales en este espacio que me ha permitido compartir mi visión desde un enfoque social y humano. Dos años en los que también hemos visto enormes cambios en la manera en que nos relacionamos con una tecnología disruptiva como la inteligencia artificial (IA). Puedo decir que pasó de ser una curiosidad tecnológica a la arena central de disputas por el poder, la gobernanza, las narrativas políticas y los derechos fundamentales. En esta entrega, hago un breve recorrido acerca de lo escrito en este camino.
En 2025, quedó claro que la IA dejó de ser un fenómeno tecnológico para convertirse en una disputa por la soberanía digital, los derechos, la transparencia institucional y el futuro colectivo. No se trata únicamente de quién desarrolla mejores modelos; se trata de quién controla los datos, quién define los estándares, quién supervisa los riesgos y, sobre todo, quién garantiza que los beneficios se distribuyan equitativamente. Esta transición de la tecnología al poder no es trivial: es una redefinición de quiénes son los actores centrales del siglo XXI.
Gobernanza global: desacuerdos, marcos disparejos y velocidad desigual
Desde la Unión Europea hasta Estados Unidos, Asia y América Latina, los marcos regulatorios han mostrado un patrón: las instituciones políticas corren detrás de la velocidad tecnológica.
Europa ha intentado consolidar un enfoque precautorio con la primera Ley de IA del mundo. Insiste en marcos basados en derechos humanos, trazabilidad y no discriminación, por lo que su implementación ha enfrentado retos internos, especialmente en la supervisión de sistemas sofisticados.
Estados Unidos y China compiten por ser LA gran potencia tecnológica del mundo. La geopolítica del poder ha cambiado pues ahora quien tiene acceso a los datos tiene el control y el poder sobre recursos económicos, políticos y militares. Y aunque en foros internacionales y organismos multilaterales se defienda la tesis de que la innovación ya no es sostenible sin salvaguardas, lo cierto es que a estos competidores sólo parece importar la aceleración de una carrera similar a la armamentista de las décadas del siglo pasado.
Pero cuando se habla de Asia no solo es China. Corea del Sur marcó pauta y anunció la obligatoriedad de etiquetar contenido generado por IA para abonar a la transparencia como infraestructura democrática básica.
La ética como slogan vs. la ética como política pública
En varios de mis escritos, comparé cómo la narrativa de la “IA responsable” se convirtió en una estrategia para calmar reguladores y consumidores, mientras las estructuras de poder y decisión permanecían intactas. Editoriales impecables sobre justicia algorítmica o transparencia fueron acompañadas de medidas que debilitaban comités internos de ética o relegaban preocupaciones de seguridad cuando chocaban con los intereses del negocio.
El resultado es una paradoja: empresas que pregonan responsabilidad algorítmica son simultáneamente las que concentran datos, capital y mercado en niveles históricamente inéditos. Esto no solo erosiona la confianza pública, sino que evidencia que, sin marcos legales, la autorregulación es insuficiente y peligrosa.
América Latina: avances tímidos y asimetrías profundas
El Índice Latinoamericano de IA ILIA, 2025 mostró que países como Chile, Brasil y Uruguay se encuentran en posiciones más avanzadas en desarrollo y adopción, mientras que México, a pesar de contar con talento y capacidades, continúa rezagado sin una estrategia clara. Por otro lado, países como Colombia, Perú y Ecuador han iniciado análisis de preparación institucional y marcos conceptuales con apoyo de organismos internacionales.
Cada país cuenta con avances, sin embargo, la narrativa que integra la región cuenta historias sobre la fragmentación de normas, la falta de capacidades técnicas institucionales y la dependencia de tecnología extranjera, lo que limita su participación en la configuración de normas globales y en la creación de modelos propios.
México: entre anuncios ambiciosos y vacíos de gobernanza
México hizo anuncios ambiciosos: su Estrategia de Digitalización 2025, la creación de un centro público de formación en IA y la plataforma México IA+ para articular inversión, industria y academia.
Son señales positivas. Sin embargo, el reto estructural persiste: ¿habrá realmente gobernanza capaz de supervisar modelos, auditar sistemas y garantizar derechos? Sin institutos de auditoría algorítmica, organismos independientes de supervisión o marcos regulatorios claros, la digitalización puede amplificar desigualdades más que mitigarlas.
Más aún, como resalté en mis análisis de los conversatorios del Senado, México enfrenta el desafío de pasar del discurso y de los diagnósticos a instituciones robustas y políticas públicas ejecutables.
Del discurso a la acción: ¿cómo pasar de promesas a políticas?
La experiencia de los últimos años muestra que la gobernanza de la IA no se agota en leyes, estrategias nacionales o principios éticos, por más necesarios que estos sean. El verdadero desafío comienza después: cuando los sistemas ya están en uso, cuando los daños no son hipotéticos y cuando las instituciones no siempre cuentan con capacidades técnicas para responder.
En ese terreno intermedio, entre el Estado que legisla, el mercado que innova y la ciudadanía que experimenta los impactos, se abre un vacío crítico. Un espacio donde no hay todavía mecanismos claros para documentar incidencias, evaluar riesgos reales, comparar prácticas y exigir rendición de cuentas. Y es justamente ahí donde la conversación sobre gobernanza suele volverse abstracta, reactiva o fragmentada.
La inteligencia artificial no falla solo cuando “se equivoca”; falla cuando opera sin supervisión, sin trazabilidad y sin debate público informado. Sesgos algorítmicos, vigilancia opaca, automatización de decisiones sensibles o desinformación amplificada no siempre activan respuestas institucionales inmediatas, pero sí erosionan derechos y la confianza social.
Frente a este escenario, distintos países y regiones comenzaron a reconocer la necesidad de instancias independientes y multisectoriales que acompañen la regulación formal. Espacios que no sustituyen al Estado, pero tampoco responden a intereses corporativos; que no dictan política pública, pero sí producen evidencia, alertas tempranas y análisis comparado.
En América Latina, esta necesidad es aún más evidente. La región adopta rápidamente tecnologías de IA, pero lo hace en contextos de asimetría estructural, dependencia tecnológica y capacidades institucionales desiguales. Sin repositorios de casos, sin observatorios regionales y sin marcos de evaluación compartidos, cada país enfrenta los riesgos de forma aislada y con poco margen de maniobra.
Es en este contexto donde iniciativas como el Consejo Latinoamericano de Ética en Tecnología (CLETec) adquieren relevancia pública, no como voces de autoridad moral, sino como infraestructura cívica de la gobernanza tecnológica. Su valor no está en proponer soluciones universales, sino en hacer visibles los problemas que hoy permanecen dispersos, normalizados o invisibilizados.
La experiencia comparada muestra que, sin documentación sistemática de incidencias, sin análisis de riesgos situados y sin participación de actores diversos, la gobernanza de la IA corre el riesgo de quedarse en una promesa normativa que no alcanza la práctica. Y cuando eso ocurre, la tecnología avanza, pero la democracia retrocede.
El debate ya no es si necesitamos regular la inteligencia artificial. La pregunta urgente es cómo construimos capacidades sociales, técnicas y políticas para gobernarla en el tiempo, más allá de los ciclos legislativos y de las modas tecnológicas. En esa tarea, los espacios que articulan conocimiento, evidencia y diálogo plural no son accesorios: son condiciones mínimas para una gobernanza democrática de la IA.
Mi mirada en estos dos años ha sido consistente: la IA es una cuestión política, ética y de poder, no un asunto técnico ajeno al destino social. Si la gobernanza no logra ponerse a la altura de la tecnología, si no construimos instituciones autónomas y participativas, entonces la promesa de una IA que beneficie a la mayoría será siempre una ilusión.
Seguiré escribiendo sobre estos temas con más preguntas que respuestas, pero siempre con una mirada crítica y propositiva para la construcción de futuros que concilien nuestras realidades con las realidades tecnológicas.