La inteligencia artificial ha dejado de ser una promesa futura para convertirse en una realidad cotidiana que ya influye en cómo trabajamos, nos comunicamos, accedemos a servicios o tomamos decisiones colectivas. Su avance es vertiginoso y, con él, crecen tanto las oportunidades como los riesgos. Ante este escenario, una pregunta resulta ineludible: ¿quién gobierna la inteligencia artificial y desde qué valores?
Desde el movimiento social de la discapacidad tenemos claro que la respuesta no puede dejarse únicamente en manos del mercado o de una innovación tecnológica desprovista de ética. La inteligencia artificial puede ser una aliada de la inclusión, la autonomía personal y la innovación social, pero también puede convertirse en una nueva fuente de exclusión, discriminación y vulneración de derechos si no se gobierna desde un enfoque de derechos humanos.
Esta convicción ha centrado recientemente el trabajo del Consejo de Ética del CERMI, que ha debatido en profundidad los dilemas éticos que plantea la inteligencia artificial. Fruto de este proceso, el CERMI ha impulsado una reflexión estratégica orientada a anticipar riesgos y a situar a las personas en el centro del desarrollo tecnológico, especialmente a aquellas que históricamente han encontrado más barreras en el acceso a derechos y oportunidades.
Uno de los primeros aprendizajes de este debate es que la ética de la inteligencia artificial no es una cuestión abstracta. Afecta a decisiones muy concretas y cotidianas: cómo se generan los contenidos, quién los supervisa, qué criterios se utilizan para automatizar procesos, cómo se garantiza la participación real y qué impacto tienen estas herramientas en el empleo, especialmente en el empleo de las personas con discapacidad.
La inteligencia artificial permite producir más y más rápido, pero producir más no siempre significa producir mejor. Existe el riesgo de dar por buenos contenidos erróneos, sesgados o directamente falsos solo porque están bien formulados. Por eso, la supervisión humana no es un trámite, sino una exigencia ética irrenunciable. La tecnología no puede convertirse en un axioma incuestionable ni en un sustituto del pensamiento crítico.
Otro de los ejes del debate ha sido el impacto de la automatización en el empleo. En el Tercer Sector, y muy especialmente en el ámbito de la discapacidad, el trabajo humano no es un coste prescindible, sino un valor central. Automatizar no puede significar sustituir personas ni erosionar el empleo inclusivo que tanto ha costado construir. La inteligencia artificial debe servir para apoyar, mejorar y dignificar el trabajo, nunca para hacerlo desaparecer.
Especial atención merece también la cuestión de la accesibilidad. La inteligencia artificial ofrece enormes posibilidades para ampliar servicios como la subtitulación, la lengua de signos o la lectura fácil. Pero este potencial convive con una tensión real: cómo avanzar en accesibilidad universal sin poner en riesgo la sostenibilidad de las entidades del propio movimiento asociativo que prestan estos servicios y generan empleo especializado. La respuesta requiere diálogo, corresponsabilidad y políticas públicas alineadas con el interés general.
El debate ético se vuelve aún más complejo cuando entramos en terrenos como la biometría o los sistemas de reconocimiento facial y de voz. Estas tecnologías plantean riesgos claros de exclusión cuando se aplican sin tener en cuenta la diversidad humana. Cuando una persona no puede acceder a un servicio, a un examen o a un trámite administrativo por no poder interactuar con un sistema automatizado diseñado para un perfil estándar, no estamos ante un fallo técnico, sino ante una vulneración de derechos fundamentales.
Por eso insistimos en que la inteligencia artificial debe ser gobernada, auditada y vigilada de forma permanente. No basta con innovar, hay que hacerlo bien. No basta con cumplir formalmente la normativa, es imprescindible consolidar una cultura ética que oriente las decisiones sobre cómo, para qué y con qué límites se utilizan estas tecnologías.
En esta línea, el CERMI ha aprobado una Estrategia de Gobierno de la Inteligencia Artificial como instrumento marco que establece los criterios y principios de actuación para la adopción y el uso de tecnologías de IA en el movimiento asociativo de la discapacidad. Se trata de una herramienta de gobernanza práctica, orientada a anticipar riesgos y a garantizar que la inteligencia artificial se utilice siempre desde el respeto a los derechos humanos, la dignidad de las personas con discapacidad y los valores que definen nuestra acción colectiva.
La inteligencia artificial no es neutra, refleja prioridades, intereses y modelos sociales. Gobernarla desde la ética implica decidir conscientemente qué tipo de sociedad queremos construir y a quién sirve la tecnología. Apostar por una inteligencia artificial responsable supone reforzar la accesibilidad, garantizar la igualdad de oportunidades y evitar que la innovación tecnológica genere nuevas formas de exclusión o discriminación.
La innovación solo es auténtica cuando amplía derechos y fortalece la cohesión social. En este proceso, la experiencia, el conocimiento y la participación activa de las personas con discapacidad deben ocupar un lugar central en el diseño, la evaluación y la gobernanza de las tecnologías que ya están moldeando nuestra vida colectiva.
Accede a más información responsable en nuestra biblioteca digital de publicaciones Corresponsables y en la Ficha Corporativa de CERMI en el Anuario Corresponsables 2025.

