top of page

La regulación de la IA: una disputa política que apenas comienza

  • Foto del escritor: LIASI
    LIASI
  • hace 6 días
  • 2 Min. de lectura

Aldo Banda


En el Seminario Ser Humanx en Tiempos de IA del 22 de abril de 20206 reunió al Dr. Marco Antonio Lopátegui Torres (FCPyS-UNAM) y al Dr. Juan Carlos Barrón Pastor (CISAN-UNAM) para discutir un debate urgente en el momento: cómo gobernar la inteligencia artificial antes de que la ausencia de reglas defina el juego por nosotros.


La sesión, titulada "Hacia una gobernanza de la IA", dejó en claro que la pregunta no es técnica. Es política.



El peso de la historia


El Dr. Lopátegui abrió con una advertencia metodológica: quienes analizan la IA como si fuera un fenómeno sin precedentes cometen un error de perspectiva, cuando solamente es un capítulo de una misma historia en la que la tecnología reorganiza la vida social, y en la que siempre hay ganadores y perdedores.


"La tecnología no puede asociarse de forma automática con el bienestar", señaló. Las revoluciones tecnológicas transforman la manera de producir, comunicar y gobernar, pero también profundizan desigualdades y refuerzan la concentración del poder. La IA, argumentó, no es la excepción.


Tres modelos, tres apuestas


En el centro de su exposición, Lopátegui trazó un mapa comparado de los enfoques regulatorios que hoy disputan la gobernanza global de la IA. Europa ha apostado por un modelo preventivo basado en niveles de riesgo, con obligaciones de transparencia y sanciones para quienes incumplan. Estados Unidos presenta una regulación fragmentada, con estados como California liderando una disputa que el gobierno federal no ha logrado resolver. China, por su parte, ha optado por una intervención estatal directa y un control más amplio sobre los sistemas.


Tres modelos que reflejan, más que preferencias técnicas, concepciones distintas sobre la relación entre Estado, mercado y ciudadanía.


El investigador también llamó la atención sobre algo que suele omitirse en el debate público: la IA no es solo código. Depende de infraestructura física, centros de datos, energía y minerales críticos. Su dimensión material es también su dimensión geopolítica.



Vigilancia, poder y derechos


El Dr. Barrón Pastor llevó la discusión hacia los efectos políticos concretos. Para él, el debate sobre IA no puede separarse de los problemas de vigilancia, privacidad y uso militar. Los gobiernos y las grandes corporaciones que controlan datos, plataformas y sistemas algorítmicos concentran un poder que, en muchos casos, opera sin contrapesos claros.


"La IA no es solo una herramienta de innovación", advirtió. Es también un posible instrumento de vigilancia masiva y control político. La regulación, en ese contexto, enfrenta un dilema real: proteger derechos fundamentales sin convertirse en un obstáculo al desarrollo tecnológico. Ningún modelo ha resuelto esa tensión todavía.



Lo que quedó sobre la mesa


Ambos investigadores coincidieron en que la expansión de la IA está ligada a la concentración del poder en grandes corporaciones y a la reorganización del sistema internacional. Que la regulación no es un tema secundario, sino una disputa abierta sobre qué futuros son posibles y para quién. Y que asumir la neutralidad del desarrollo tecnológico es, en sí mismo, una posición política.


La sesión cerró sin respuestas definitivas pero con muchas preguntas, que es lo que el seminario siempre busca.


Comentarios


Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) del CEIICH-UNAM

  • c65f9eac24be62dfdcc5f509a32930f8-trazo-de-icono-de-sitio-web
  • Facebook
  • Instagram
  • TikTok

¡Gracias por suscribirte!

© 2025 Creado por LIASI - CEIICH

bottom of page