Toda tecnología nace en un contexto histórico, cultural y político determinado. El reloj mecánico, por ejemplo, tuvo un gran impacto en la transformación de la sociedad feudal del siglo XIII: instauró una nueva forma de medir y organizar el tiempo que anticipó la disciplina del trabajo moderno y sentó las bases para una sociedad regida por la productividad. De forma similar, las grandes máquinas de la Revolución Industrial, como la locomotora a vapor, expresaban una visión de expansión, dominio y supremacía del saber técnico sobre la naturaleza.
La inteligencia artificial no es la excepción: también está moldeada por visiones de mundo, intereses económicos y relaciones de poder. Como toda tecnología, está atravesada por las ideas, prioridades y aspiraciones que cada sociedad elige sostener.
¿Significa eso que no debemos usarla? En absoluto. Los beneficios de la inteligencia artificial están más que probados. Puede mejorar diagnósticos médicos, hacer más eficiente el uso de la energía, ampliar el acceso a la educación, optimizar la gestión de recursos naturales o desarrollar herramientas clave para enfrentar el cambio climático. Las oportunidades son muchas. No obstante, es importante mantener una actitud crítica frente a su implementación, especialmente cuando muchas veces la utilizamos e incluso impulsamos su aplicación sin comprender plenamente cómo opera ni bajo qué principios ha sido desarrollada.
La IA es una construcción humana. Como tal, puede reflejar paradigmas, climas de época y también reforzar desigualdades. Hay aplicaciones y modelos de inteligencia artificial que reproducen sesgos por sexo, identidad o expresión de género, etnia, sin que nadie lo haya querido explícitamente. Algoritmos que deciden si una persona accede a un crédito o a un empleo. Plataformas que saben más de nosotros que nosotros mismos. El problema no es solo técnico: es ético, político y social.
A esto se suma que en los equipos que desarrollan estas tecnologías suelen predominar perfiles bastante homogéneos. Según datos de la OCDE, solo el 35 % de las personas que trabajan en inteligencia artificial en los países miembros son mujeres, a pesar de que ellas representan más de la mitad de la población con educación terciaria. Además, la mayoría de quienes trabajan en este campo cuentan con niveles muy altos de formación en competencias digitales, lo que refleja una distribución desigual de las habilidades necesarias para participar en su desarrollo. Por otro lado, la adopción y liderazgo en el uso de inteligencia artificial se concentra en grandes empresas y sectores con alta intensidad en investigación e infraestructura tecnológica. Esta combinación de factores influye directamente en los problemas que se priorizan, en el tipo de soluciones que se diseñan y en quiénes se ven realmente beneficiados. Cuanto más uniforme es el equipo que crea inteligencia artificial, mayores son las probabilidades de que se reproduzcan sesgos o se ignoren realidades que no se conocen de cerca (OCDE, 2025; Green y Lamby, The Characteristics of the Artificial Intelligence Workforce across OECD Countries).
Entonces, ¿qué podemos hacer? En distintos sectores ya se están abriendo caminos para repensar cómo se diseña, implementa y regula la inteligencia artificial. Se están impulsando propuestas orientadas a fortalecer su gobernanza con base en principios éticos y de interés público, así como a ampliar su aplicación para abordar desafíos sociales y ambientales complejos. Estas iniciativas surgen del trabajo articulado de actores diversos como emprendimientos de base tecnológica, organizaciones sociales, empresas, instituciones académicas, administraciones públicas y financiadores.
Como resultado de estas sinergias, comienzan a consolidarse modelos de innovación abierta que buscan garantizar el acceso equitativo a recursos, datos y capacidades, y permitir así una participación más amplia y significativa en las decisiones sobre el desarrollo y uso de esta tecnología. En ese marco, ya hay iniciativas que aplican la inteligencia artificial al fortalecimiento de la democracia, la reducción de la polarización en redes sociales, la lucha contra la desinformación o la inclusión de personas con diversidad funcional. También emergen soluciones en el ámbito ambiental, orientadas a la conservación de ecosistemas y la protección de la biodiversidad. Son usos que muestran que es posible desarrollar esta tecnología con fines públicos, desde lo social, lo comunitario y lo ambiental.
Pero para que estas experiencias no queden aisladas, es necesario promover una alfabetización digital crítica que no deje a nadie afuera, y garantizar condiciones de acceso equitativo al conocimiento, a los recursos y a la toma de decisiones. De lo contrario, corremos el riesgo de que la IA profundice las brechas existentes en lugar de contribuir a cerrarlas.
Una IA justa, equitativa y responsable no se crea sola. Necesita empatía, transparencia, equidad y corresponsabilidad. La tecnología no tiene un destino propio; somos nosotros, como sociedades, quienes decidimos hacia dónde queremos llevarla.
Este artículo forma parte del Dosier Corresponsables: Por una IA responsable, justa y equitativa