top of page

La IA no es neutral: historia, poder y producción situada del conocimiento

  • Foto del escritor: LIASI
    LIASI
  • 17 abr
  • 3 Min. de lectura

Aldo Banda


La sesión del miércoles 15 de abril del Seminario Ser Humanx en Tiempos de IA reunió dos perspectivas complementarias sobre inteligencia artificial desde la tecnociencia y los estudios sociales de la ciencia. El Dr. Iván Vladimir Meza Ruiz y la Dra. Gabriela Elisa Sued, ambos del IIMAS-UNAM, ofrecieron lecturas que, juntas, permiten entender la IA no como un fenómeno técnico autónomo, sino como una práctica profundamente moldeada por contextos históricos, económicos y sociales.



Una historia de la IA que no suele contarse El Dr. Meza Ruiz abrió con una genealogía crítica del campo.


Desde los años cuarenta, cuando la cibernética y las primeras intuiciones sobre redes neuronales comenzaron a modelar la idea de imitar procesos biológicos, hasta el presente dominado por la IA generativa, trazó una línea en la que el desarrollo tecnológico nunca ha sido neutral. En los cincuenta se estabilizó la visión simbólica, centrada en reglas y en la pretensión de capturar la "esencia humana" mediante programación; décadas después, el conflicto entre simbólicos y conexionistas fue cediendo terreno a los enfoques estadísticos y numéricos, impulsados por la disponibilidad masiva de datos en internet. El machine learning se consolidó en los 2000, el deep learning transformó el campo a finales de esa década, y en 2022 la IA generativa cambió la percepción pública de forma irreversible.


Su tesis central fue incómoda pero necesaria: el desarrollo actual de la IA está fuertemente orientado por el capitalismo y la industria, más que por una reflexión humanística o social. Las ciencias sociales han funcionado como fuente de inspiración, pero han tenido poca incidencia directa en la dirección del campo. A esto se suman usos que ya no son especulativos: la IA aplicada a vigilancia, monitoreo y decisiones militares, con ejemplos concretos en los conflictos de Ucrania e Irán, revela una escalada tecnológica con costos materiales, ambientales y humanos que la regulación internacional todavía no logra contener. Sin embargo, el Dr. Meza Ruiz dejó una apertura: el futuro de estas tecnologías no está escrito, y la interacción entre comunidades puede reorientarlo.



La IA como ensamblaje situado


La Dra. Sued presentó los resultados de una investigación de tres años sobre la producción de inteligencia artificial en México. Primero, dijo que la IA solo como algoritmos, argumentó, es insuficiente porque se trataría únicamente de tecnociencia. En cambio, una práctica sociotécnica está compuesta por personas, datos, computadoras, sensores, imaginarios colectivos y procesos de formación y publicación. Entenderla así obliga a preguntarse quiénes la producen, con qué datos, desde qué infraestructura y para qué futuros.


En el caso mexicano, los proyectos presentados por la Dra. Sued, la IA dependen de colaboración amplias: con científicos de otras disciplinas, astrónomos, químicos, bioquímos, con profesionales no científicos como médicos, con comunidades locales que participan en proyectos de sensores ambientales o de fauna, y con repositorios de datos estatales. El acceso a datos no es un detalle técnico, orienta los temas, las herramientas, las publicaciones y los horizontes posibles.



Uno de los puntos más desarrollados fue la desigualdad de género en el campo. Hay menos mujeres en carreras STEM y en puestos de decisión; la diversidad de problemas abordados se reduce cuando la producción de IA es menos diversa; los deepfakes sexuales contra mujeres constituyen una forma dominante de violencia digital; y de un análisis de 13,700 publicaciones sobre IA, solo 67 trataban temas relacionados con mujeres —concentradas, además, en cáncer de mama y diabetes gestacional, reproduciendo sesgos que afectan la calidad misma de la ciencia. Su conclusión fue directa: una ciencia más diversa es una mejor ciencia, y la falta de diversidad nos perjudica a todos.


La Dra. Sued planteó que la IA es una promesa, pero no una solución automática. Cumplirla exige capacidades científicas, actores no especialistas, infraestructura, financiamiento, ética, biodiversidad y paridad de género. Su utopía fue concreta: una industria de IA localizada, cuidada y protegida, que desarrolle soluciones útiles para México en lugar de depender de imposiciones tecnológicas externas.



Un horizonte compartido


En el diálogo con el público emergieron preguntas sobre datos personales y derechos de las comunidades, sobre la regulación de la IA en contextos bélicos, y sobre qué puede hacer la investigación social frente a un campo que avanza más rápido que sus marcos normativos. Ambos ponentes coincidieron en que la interdisciplinariedad, la coproducción y la mirada situada no son adornos metodológicos: son condiciones para pensar la IA con responsabilidad social.



Comentarios


Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) del CEIICH-UNAM

  • c65f9eac24be62dfdcc5f509a32930f8-trazo-de-icono-de-sitio-web
  • Facebook
  • Instagram
  • TikTok

¡Gracias por suscribirte!

© 2025 Creado por LIASI - CEIICH

bottom of page