¿Cuántos de nosotros tenemos la certeza de que la inteligencia artificial (IA) se está aplicando de forma ética en nuestros entornos de trabajo? Y lo que es más importante: ¿cómo lo sabemos?
Con estas preguntas se inició en septiembre de 2025 WorkétIcA, el primer foro en España para la aplicación ética de la inteligencia artificial en el mundo del trabajo. Una iniciativa pionera de la Fundación Máshumano porque los protagonistas son directivos de grandes empresas, que están en primera fila liderando en estos tiempos de transformación digital.
Te invitamos a contemplar la escena: el fresco La escuela de Atenas, pintado por Rafael en el s. XVI. Ahí no había inteligencia artificial, pero sí estaba la ética, fundamental cuando nos relacionamos con la IA. En el centro de la pintura hay dos figuras que representan respectivamente a Platón y a Aristóteles. Platón lleva en una mano su diálogo Timeo, sobre la cosmología; y con la otra mano señala hacia arriba, hacia las ideas. Sin embargo, su discípulo Aristóteles señala hacia abajo, hacia el mundo concreto, mientras lleva en la otra mano la Ética a Nicómaco. Aristóteles está preocupado por el mundo en el que nos movemos todos, en el que se encarna la ética.
WorkétIcA tiene el formato de un foro por dar valor al encuentro de personas que, desde su experiencia, comparten desafíos comunes. Porque todos los directivos que forman parte del llamado Consejo Abierto se encuentran ante retos similares a medida que la IA adquiere relevancia en sus organizaciones.
Europa se afana en las leyes, como el Reglamento General de Protección de Datos (RGPD) que comenzó a aplicarse en 2018 regulando el tratamiento de los datos personales relacionados con personas en la Unión Europea (UE). Como también la Ley de la Inteligencia Artificial de la UE (AI Act) aprobada en mayo de 2024 y de progresiva implementación. Se intenta poner puertas al campo -aunque haya quienes lo consideran imposible- recuperando la desprestigiada idea de límite.
Todo ello se lleva a cabo bajo un marco ético. La ética rebosa la ley. No solo porque a lo largo de la historia hemos visto que no siempre van de la mano, sino porque, además, no todo puede ser legislado.
En el desarrollo occidental ha primado un modelo positivista, de racionalidad científica, basado en hechos, en la línea platónica. Nos hemos fijado en cómo son las cosas. Hoy en día la IA es una aplicación tecnológica de esa lógica, con sus datos y sus modelos matemáticos y algoritmos. Pero hablar de ética es hablar de valores. Y hablar de ética de la IA sigue siendo hablar de valores porque hay otra forma de plantear los problemas que no solo hable de los hechos. Si nos limitamos al mundo de los hechos quedan fuera de nuestras decisiones las cuestiones que tienen que ver con el sentido. Porque los hechos se perciben, los valores se estiman. No solo se trata de hacer, sino de tener un horizonte de sentido.
Por eso se comienza a sintonizar con una razón más amplia, con la idea aristotélica de ir a lo concreto, a problemas como los que se encuentran los miembros del Consejo Abierto de WorkétIcA en su liderazgo digital. A la complejidad de nuestra realidad, sistémica, ambigua, abierta a la incertidumbre. A Aristóteles que señala hacia abajo, que pisa suelo, que habla del mundo de la acción. Se trata no solo de cómo son las cosas, sino de pensar cómo deberían ser y, más concretamente, de ¿qué debo hacer?
En WorkétIcA nos reunimos mensualmente en una sesión de dos horas en la que analizamos casos reales; similares a los que se pueden estar dando en muchas organizaciones. Surgen de las inquietudes del Consejo Abierto. Hemos visto el impacto de la IA en la contratación de perfiles junior; el exceso de confianza en los resultados que la IA genera; si es ético que la IA sustituya a una persona en las entrevistas de selección; el uso de un asistente de IA para managers para conversaciones difíciles; utilizar datos sintéticos para corregir sesgos representativos, etc. Si tienes curiosidad, puedes acceder al apartado de WorkétIcA en la web de la Fundación Máshumano: https://mashumano.org/worketica/. Ahí encontrarás una nota de conocimiento por cada sesión. Esas notas que compartimos son síntesis de otras más detalladas que reciben los participantes, junto a conceptos de la ética que han salido a colación en cada sesión, y lecturas voluntarias propuestas para quien desee profundizar. Sin ser WorkétIcA un espacio de formación, colateralmente se produce un aprendizaje.
Se puede abordar la ética de la IA desde múltiples vertientes. WorkétIcA opta por hacerlo desde el trabajo directo con personas con gran responsabilidad en sus empresas. Para fomentar la transformación desde dentro, desarrollando su sensibilidad, su mirada crítica y su competencia. Para que la ética de la IA se expanda en la cultura empresarial a modo de rizoma, que dirían los filósofos Deleuze y Guattari. Esas raíces que dan nuevas plantas en otros puntos. Para que la ética no sea una estructura externa impuesta, sino una práctica inmanente a una sensibilidad colectiva, en un crecimiento rizomático en el que viva en las decisiones cotidianas. Porque la ética de la IA también es rentable.
Con la guía de una dirección experta trabajamos desde el diálogo como vehículo del método deliberativo propio de la ética. Nos adentramos en tal engranaje superando la simplificación binaria de la realidad (blanco-negro) para explorar los grises como soluciones posibles en cuestiones prácticas. Porque, frente a la demostración de la ciencia, la ética en general -y la ética de la IA en particular- se mueve en el ámbito de lo contingente, de lo que puede ser de uno u otro modo. No estamos en el mundo de la certeza, sino en el del acierto. De ahí la importancia de la argumentación en el proceso deliberativo para encontrar, ante los casos concretos, soluciones razonables, responsables y siempre prudentes.
La ética de la IA es la ética de las personas cuando interaccionamos con ella a lo largo de su trazabilidad porque la inteligencia artificial no es un agente moral pleno. Somos nosotros los que tenemos que intentar que la IA beneficie a los seres humanos y a la naturaleza; que no los dañe; que los bienes que genera se distribuyan con justicia; que potencie la autonomía de las personas; que podamos entenderla y cuestionarla en lo que nos afecta; además de que siempre haya personas e instituciones responsables que puedan rendir cuentas. Por eso WorkétIcA se centra en quienes en el mundo del trabajo velan por poner a las personas en el centro.
Fue en 1979 que el filósofo Hans Jonas publicó su obra El principio de responsabilidad, apelando a la obligación que todos tenemos de asumir una responsabilidad ética ante el poder tecnológico. Habló de “desarrollo sostenible” y de “generaciones futuras”, de forma que sus ideas influyeron en el conocido Informe Brundtland, publicado por Naciones Unidas en 1987, sobre el desarrollo sostenible como aquel que satisface las necesidades del presente sin comprometer la capacidad de las generaciones futuras de satisfacer sus propias necesidades.
Por eso debemos preguntarnos: ¿cómo podemos verificar que se están tomando decisiones éticas en la implementación de la IA en el entorno laboral?
Desde la Fundación Máshumano, el proyecto WorkétIcA, este primer foro en España para la implantación ética de la IA en el mundo del trabajo, actúa precisamente para atender a ese sentido de la responsabilidad.
Este artículo forma parte del Dosier Corresponsables: IA Ética, en alianza con OdiseIA


