La Inteligencia Artificial (IA) ya es una realidad que impacta profundamente nuestra vida cotidiana. Muchos son los avances que se han conseguido en los últimos meses, y el empleo de algoritmos de IA permea ya prácticamente todas las disciplinas académicas. Aunque la IA está profundamente arraigada en nuestro día a día, no puede considerarse neutra y plantea un desafío ético urgente que es necesario abordar.
Neutralidad aparente
Asumir que los algoritmos que vertebran los sistemas IA son neutrales porque están basados en datos es un error. Varios estudios han demostrado que el sesgo de los sistemas de IA puede producir predicciones inexactas, trato injusto hacia determinados colectivos y grupos, además de reforzar estereotipos y prejuicios sociales muy dañinos, contribuyendo así a la desigualdad social.
Casos reales de sesgo son los observados en modelos de conversión de texto a imagen de OpenAI –la empresa desarrolladora de ChatGPT– y Midjourney, que han mostrado sesgos raciales y estereotipados en sus resultados; o el estudio que analizó imágenes generadas por tres herramientas populares de IA generativa (Midjourney, Stable Diffusion y DALL-E 2) y encontró que estos generadores de IA mostraban prejuicios contra las mujeres y los afroamericanos.
El sesgo, además, puede socavar la confianza en los sistemas de IA. Si las personas creen que un sistema de IA está sesgado, es menos probable que lo utilicen o acepten sus decisiones, lo que también podría obstaculizar la adopción de tecnologías con un potencial sobresaliente.
Responsabilidad en el diseño y uso
Una IA responsable comienza por reconocer que sus impactos trascienden el ámbito técnico. Requiere que quienes diseñan, implementan y regulan estos sistemas asuman la responsabilidad ética de sus decisiones.
Requiere que existan legislaciones y organismos que velen por el diseño, la implantación y uso de los algoritmos, analizando cuando sea posible los potenciales sesgos y riesgos de los modelos empleados.
Requiere que, a medida que los avances tecnológicos cambien dichos algoritmos, haya un acompañamiento por parte de los organismos regulatorios, adaptando las normativas a los nuevos sesgos y desafíos que la IA pueda representar.
La transparencia también es fundamental. Aunque no todos los modelos pueden ser completamente abiertos, sí es posible exigir que las instituciones expliquen qué tipo de datos usan, cómo se entrenan los algoritmos y con qué criterios se toman sus decisiones.
Justicia y equidad
Más allá de la responsabilidad técnica, una IA justa debe buscar activamente reducir desigualdades. Esto implica pensar en la equidad desde la etapa de diseño, considerando los colectivos que puede verse beneficiados y perjudicados.
El objetivo es que la IA ayude a transformar el mundo hacia algo mejor. Los sistemas IA tienen que ayudar a eliminar barreras actuales y dar oportunidades a colectivos desfavorecidos por cualquier condición.
Para llevar a cabo este proceso hay que democratizar el acceso a esta nueva tecnología. Adaptarse a las necesidades de los desfavorecidos permitiría mejorar el acceso a dichas herramientas. Esta es una tarea compartida del regulador, de las grandes plataformas y de las empresas.
Para que la IA sea equitativa, debe abrirse a otras plataformas: universidades, organizaciones sociales, comunidades marginadas, y los gobiernos deben tener un rol activo en definir cómo se usa esta tecnología, además de participar en la definición del marco regulatorio.
Creación de un marco normativo
La creación de marcos legales que regulen la IA de forma clara y coherente es un paso esencial para garantizar su uso responsable. Por ejemplo, la Unión Europea ha propuesto regulaciones que exigen que los sistemas de IA sean transparentes y explicables, lo que puede ayudar a identificar y mitigar los sesgos. Estas regulaciones también exigen que los sistemas de IA de alto riesgo se sometan a evaluaciones de conformidad antes de su implementación.
En Estados Unidos, varios estados han promulgado leyes que regulan los sistemas de decisiones automatizadas para evitar resultados discriminatorios. Sin embargo, la regulación requiere de un equilibrio entre fomentar la innovación, el uso responsable y ético, y la prevención del daño. Solo la intervención de los desarrolladores, de las fuerzas políticas y del público en general puede garantizar dicho equilibrio.
La inteligencia artificial tiene un enorme potencial para mejorar nuestras sociedades, pero ese potencial solo se cumplirá si se desarrolla bajo principios de responsabilidad, justicia y equidad.
La IA será la gran revolución del siglo XXI y no se trata de frenar la innovación, sino de orientarla hacia el bien común.
Este artículo forma parte del Dosier Corresponsables: Por una IA responsable, justa y equitativa