El avance de la Inteligencia Artificial (IA) no es meramente una revolución tecnológica; es uno de los desafíos más profundos a los que se enfrentan nuestras sociedades y, fundamentalmente, un asunto de derechos humanos. En este contexto, desde el Comité Español de Representantes de Personas con Discapacidad (CERMI), observamos cómo la IA se nos presenta como una fuerza de doble filo: por un lado, promete un futuro de innovación sin precedentes; por otro, amenaza con profundizar las brechas sociales si su desarrollo no se somete a un riguroso marco ético.
Un uso irresponsable de la IA no genera riesgos abstractos, sino violaciones concretas de derechos fundamentales. Cuando un algoritmo entrenado con datos sesgados perpetúa la discriminación por motivos de género o discapacidad en el acceso a un empleo, a un crédito o a la justicia, se está vulnerando el derecho a la igualdad y a la no discriminación. Cuando los sistemas de IA procesan masivamente datos personales para fines opacos, se atenta directamente contra el derecho a la privacidad. Y cuando una «caja negra» algorítmica toma decisiones que alteran la vida de una persona sin ofrecer una explicación, se anula el derecho a un juicio justo.
Frente a esta realidad, nuestra posición es clara: la IA debe estar al servicio incondicional de la inclusión y la igualdad. Para materializar esta visión, hemos articulado un marco ético que se basa en tres principios interconectados: equidad, transparencia y responsabilidad.
El pilar central de nuestra propuesta es una visión exigente de la equidad: los sistemas de IA no solo deben evitar la discriminación, sino que deben diseñarse activamente para corregir sesgos históricos y tratar a todas las personas con justicia. Desde nuestra perspectiva, esto significa auditar constantemente los modelos para detectar y mitigar cualquier prejuicio que pueda perjudicar a las personas con discapacidad.
Esta garantía de equidad depende directamente de la transparencia. Rechazamos frontalmente la idea de la IA como una «caja negra» inescrutable y exigimos que la lógica detrás de cada decisión algorítmica sea comprensible. Nuestro llamamiento a la «explicabilidad» encuentra su aliado técnico en la IA Explicable (XAI). Incluso ante el dilema de que los modelos más complejos suelen ser los menos transparentes, nuestra postura es firme: el derecho de una persona a entender una decisión que afecta a su vida es innegociable y prevalece sobre la opacidad técnica.
Finalmente, todo el sistema se sostiene sobre el principio de responsabilidad. Subrayamos que la tecnología no puede ser un escudo para diluir la responsabilidad humana. Detrás de cada algoritmo hay personas y organizaciones que deben responder por sus resultados. Asignar roles claros es fundamental para garantizar que, si un sistema falla o discrimina, haya una vía efectiva para la reparación.
Quizás nuestra aportación más distintiva es elevar la accesibilidad universal a la categoría de principio ético fundamental. Entendemos que sin accesibilidad no hay ejercicio pleno de derechos en la era digital. Por ello, promovemos un enfoque de «ética desde el diseño», donde la accesibilidad no es un añadido, sino un requisito inicial. Una IA que no es accesible no es una herramienta neutra; es una nueva barrera.
Este enfoque se complementa con el principio de participación, que adapta nuestro lema histórico «Nada sobre las personas con discapacidad sin nosotras» al ámbito tecnológico. Reclamamos la participación activa de las personas con discapacidad como partes interesadas clave en todo el ciclo de vida de la IA. Este principio es la encarnación práctica de un diseño ético proactivo: solo involucrándonos como personas usuarias finales desde el principio se pueden definir objetivos realmente inclusivos.
Nuestro marco ético se fortalece con un principio de igualdad entre mujeres y hombres, reconociendo que las mujeres y las niñas con discapacidad se enfrentan a formas agravadas de discriminación. Esta vulnerabilidad no es una simple suma de desventajas, sino el resultado de una intersección profunda entre las barreras de una sociedad patriarcal y las de una sociedad capacitista.
Este enfoque demuestra por qué la equidad es tan compleja y vital. Históricamente, las mujeres y niñas con discapacidad han sido «las grandes invisibles y olvidadas» en las bases de datos que alimentan a los algoritmos. El resultado de esta «brecha de datos» crítica es una tecnología sesgada que puede perpetuar nuestra invisibilidad o, peor aún, crear nuevas formas de exclusión. Por ello, exigimos acciones concretas como la inclusión transversal del enfoque de género en toda evaluación ética y la participación activa de las mujeres con discapacidad en todas las fases del ciclo tecnológico, asegurando que la IA del presente sea una herramienta de igualdad y no un espejo de las discriminaciones del pasado.
En definitiva, la disyuntiva no es entre innovación y derechos. El verdadero reto es encauzar la innovación para que fortalezca los derechos. Nuestra propuesta funciona como una guía ética indispensable para construir una IA desde sus cimientos, asegurando que el progreso tecnológico sirva para expandir la dignidad y los derechos de todas las personas. La verdadera medida de su éxito no será su capacidad de cálculo, sino su contribución a un mundo más justo.
Este artículo forma parte del Dosier Corresponsables: Por una IA responsable, justa y equitativa