¿Cuáles cree que son los principales riesgos éticos asociados al uso de la inteligencia artificial en su sector o actividad?
Desde mi doble condición de catedrático en el ámbito de la educación superior y miembro de la junta directiva de OdiseIA, considero que los riesgos éticos de la inteligencia artificial no son meramente tecnológicos: son culturales, institucionales y sociales.
- ¿Cuáles cree que son los principales riesgos éticos asociados al uso de la inteligencia artificial en su sector o actividad?
- ¿Qué papel deben desempeñar las empresas y organizaciones a la hora de promover un uso responsable de la inteligencia artificial?
- Finalmente, ¿qué visión de futuro tiene sobre la evolución de la IA y su papel en la transformación social?
- ¿Qué papel cree que deberían tener la educación y la sensibilización ciudadana en torno a los usos y riesgos de la inteligencia artificial?
En la universidad, uno de los desafíos más inmediatos es la integridad académica. La IA generativa puede convertirse en una herramienta extraordinaria de profundización intelectual o, por el contrario, en un atajo que favorezca una comprensión superficial. El verdadero riesgo no es que el estudiante utilice la tecnología, sino que delegue en ella el esfuerzo cognitivo. Se abre así una brecha entre quienes usan la IA como tutor personalizado para ampliar su aprendizaje y quienes la emplean para evitarlo.
Existe además el riesgo de dependencia cognitiva. Si no se educa en el pensamiento crítico, la inmediatez de la respuesta puede sustituir al proceso reflexivo. En un reciente artículo defendía que avanzamos hacia una “sociedad del prompt”, donde saber preguntar será más decisivo que memorizar respuestas, pero formular buenas preguntas exige conocimiento previo, curiosidad y criterio ético.
Desde la perspectiva de OdiseIA, preocupa especialmente la brecha digital y la exclusión. El acceso desigual a estas herramientas —o a la formación necesaria para utilizarlas adecuadamente— puede ampliar desigualdades educativas y laborales.
En el ámbito financiero (mi otra vertiente profesional), el riesgo más delicado es el de los sesgos algorítmicos. Sistemas utilizados para la concesión de crédito, la selección de personal o la evaluación de riesgos pueden automatizar discriminaciones históricas si no son auditados adecuadamente. La opacidad en los modelos erosiona la confianza, que en finanzas constituye un activo esencial.
Finalmente, desde el punto de vista del empleo, la IA plantea un desafío estructural: no elimina simplemente puestos de trabajo, sino que transforma tareas. Sin políticas adecuadas de transición, puede aumentar la polarización laboral entre perfiles altamente cualificados y trabajadores desplazados por la automatización.
¿Qué papel deben desempeñar las empresas y organizaciones a la hora de promover un uso responsable de la inteligencia artificial?
Las organizaciones deben abandonar la posición de meros adoptantes tecnológicos para convertirse en garantes de una transición ética. La automatización genera lo que podríamos denominar “ansiedad organizacional”: temor a la sustitución, incertidumbre profesional y resistencia al cambio. Gestionar este proceso es una responsabilidad directiva.
En primer lugar, deben liderar programas sólidos de reskilling y upskilling, orientados a que la fuerza laboral evolucione hacia tareas de mayor valor añadido: pensamiento crítico, supervisión estratégica, creatividad, liderazgo y gestión ética de sistemas automatizados. La IA debe actuar como un “mayordomo digital” que potencie la productividad sin erosionar la dignidad profesional.
En segundo lugar, es imprescindible implantar marcos de gobernanza y ética aplicada. Esto implica comités multidisciplinares de evaluación de riesgos, auditorías periódicas de algoritmos, protocolos de explicabilidad y figuras especializadas —como responsables de derechos digitales o consultores en ética tecnológica— que supervisen los despliegues de IA.
En tercer lugar, la transparencia es clave. Cuando la IA interviene en decisiones sensibles —contratación, concesión de crédito, evaluación académica— debe garantizarse trazabilidad y rendición de cuentas.
Finalmente, la colaboración entre academia, sector privado y organizaciones como OdiseIA resulta esencial para generar estándares compartidos y políticas públicas que favorezcan un progreso inclusivo. La ética de la IA no puede construirse desde compartimentos estancos.
Finalmente, ¿qué visión de futuro tiene sobre la evolución de la IA y su papel en la transformación social?
Estamos transitando de la “sociedad de la información” hacia una “sociedad del prompt”, donde lo decisivo no será el acceso al dato, sino la capacidad de formular preguntas con criterio, creatividad y responsabilidad.
La IA no debe entenderse como sustituto del ser humano, sino como una herramienta de complementariedad híbrida. Las máquinas optimizan procesos, analizan grandes volúmenes de datos y automatizan tareas repetitivas; los humanos aportamos juicio contextual, inteligencia emocional, capacidad relacional e interpretación ética.
En la educación superior, veremos una creciente personalización del aprendizaje y una liberación de carga administrativa que permitirá dedicar más tiempo al acompañamiento intelectual. En el ámbito económico, la IA incrementará la productividad, pero su impacto distributivo dependerá de las decisiones institucionales que adoptemos hoy.
Es comprensible el “vértigo tecnológico” ante la velocidad del cambio. Sin embargo, soy moderadamente optimista. Con una gobernanza adecuada, la IA puede democratizar el acceso al conocimiento, mejorar la medicina personalizada, optimizar procesos empresariales y facilitar una administración más eficiente.
La cuestión central es asegurar que la tecnología siga siendo una creación humana al servicio de la humanidad, evitando que la automatización derive en nuevas formas de dependencia o exclusión.
¿Qué papel cree que deberían tener la educación y la sensibilización ciudadana en torno a los usos y riesgos de la inteligencia artificial?
La educación es el eje vertebrador de una IA ética. No basta con enseñar a utilizar herramientas; debemos promover una alfabetización crítica en inteligencia artificial.
En la universidad, el profesor debe evolucionar desde transmisor de información hacia guía intelectual que enseñe a cuestionar, contrastar y mejorar los resultados generados por sistemas automáticos. La clave no es prohibir la IA, sino integrarla pedagógicamente con exigencia académica.
Es urgente desarrollar competencias en ética, pensamiento complejo y comprensión de los límites tecnológicos desde edades tempranas. La sensibilización ciudadana debe incluir nociones sobre privacidad, sesgos, derechos digitales y responsabilidad algorítmica.
En la era digital, el aprendizaje continuo ya no es opcional: es condición para mantener la autonomía personal y profesional. Solo una sociedad formada en valores, con juicio crítico y cultura tecnológica suficiente, podrá exigir que el desarrollo de la IA sea verdaderamente responsable.
En última instancia, la ética de la inteligencia artificial no es un debate técnico, sino un compromiso colectivo. El futuro no dependerá únicamente de lo que las máquinas sean capaces de hacer, sino de lo que nosotros decidamos permitir, regular y enseñar.
Esta entrevista forma parte del Dosier Corresponsables: IA Ética, en alianza con OdiseIA


