¿Qué medidas concretas está desarrollando su organización para garantizar una IA ética y con impacto social positivo?
En OdiseIA hemos entendido desde el principio que hablar de IA ética no basta: hay que aterrizar en procesos, cultura y métricas. Por eso trabajamos en tres capas: formación transversal en impacto social y ético para todos los equipos, integración de criterios de gobernanza de datos y privacidad en proyectos concretos (por ejemplo, en el marco del proyecto Google.org–OdiseIA sobre profesiones del futuro) y acompañamiento a organizaciones para que incorporen estos criterios en su propia hoja de ruta digital. Todo ello se apoya en la filosofía de OdiseIA como observatorio independiente, que actúa de bisagra entre academia, empresa, administración pública y ciudadanía para que la IA genere valor, pero no a costa de derechos fundamentales.
- ¿Qué medidas concretas está desarrollando su organización para garantizar una IA ética y con impacto social positivo?
- ¿Cómo valora la regulación actual en materia de IA a nivel europeo o local? ¿Qué mejoras consideraría necesarias?
- ¿Qué buenas prácticas destacaría en materia de gobernanza de IA o alineación con principios éticos (como los propuestos por la UNESCO, la UE, etc.)?
- ¿Qué consejo daría a otras organizaciones que quieren empezar a integrar la IA con un enfoque ético y responsable?
- Finalmente, ¿qué visión de futuro tiene sobre la evolución de la IA y su papel en la transformación social?
Personal y profesionalmente, parto de una visión de que la ciencia y la tecnología, que deberíamos invocar juntas como tecno-ciencia, es más que una serie de modelos y más una «infraestructura de realidad»: cada decisión técnica produce realidad social, de modo que nuestras medidas concretas (formación, gobernanza, evaluación de impacto) son en el fondo decisiones sobre qué futuro queremos que exista.
¿Cómo valora la regulación actual en materia de IA a nivel europeo o local? ¿Qué mejoras consideraría necesarias?
Dada mi formación anglosajona, valoro positivamente – aunque con ciertas reservas – que Europa haya decidido no limitarse a observar la IA, regulando de forma pionera con el Reglamento de IA de la UE, pese a que con este enfoque se llegue con retraso respecto a la velocidad de la tecnología. Sin embargo, echo en falta dos cosas: una mayor claridad operativa para las pymes y entidades sociales —que no pueden permitirse grandes departamentos de cumplimiento normativo— y una alineación más fina entre la regulación de IA y otras normativas como la de datos, competencia o consumo, para evitar un laberinto regulatorio que acabe reforzando a los de siempre. Necesitamos una regulación que proteja derechos, fomente la innovación responsable y, sobre todo, sea comprensible para quienes tienen que aplicarla en el día a día.
Desde un punto de vista técnico, el reto ahora es traducir conceptos jurídicos como «alto riesgo» o «explicabilidad» en prácticas de ingeniería viables: documentación de datasets, trazabilidad de modelos, auditorías algorítmicas y mecanismos de contestabilidad accesibles para personas no técnicas. Me preocupa que, si la regulación no se acompaña de capacidad técnica y educativa, terminemos creando una brecha entre quienes pueden costear esta complejidad y quienes quedan relegados a ser meros consumidores de servicios de IA gobernados desde fuera de Europa.
¿Qué buenas prácticas destacaría en materia de gobernanza de IA o alineación con principios éticos (como los propuestos por la UNESCO, la UE, etc.)?
En gobernanza de IA destacaría tres buenas prácticas que intento trasladar siempre que trabajo con organizaciones: primero, crear órganos mixtos de decisión (tecnología, negocio, legal, ética) que evalúen los casos de uso antes de desplegarlos. Segundo, documentar de forma rigurosa el ciclo de vida de los modelos (datos usados, supuestos, riesgos identificados, medidas de mitigación) y revisarlos periódicamente, no sólo en la fase de diseño. Y tercero, abrirse al scrutinio externo: colaborar con observatorios, universidades y organizaciones de la sociedad civil, como hacemos desde OdiseIA, para contrastar sesgos de mirada que desde dentro de la organización muchas veces ni siquiera se perciben.
Una buena gobernanza incorpora diversidad de actores, reconoce los conflictos de valor y admite que ningún modelo es neutro. El alineamiento de OdiseIA no es sólo circunstancial, y no es consecuencia. Somos actores de vanguardia al participar activamente en cinco grupos de trabajo en el Observatorio Global de la Ética y la Gobernanza de la IA de UNESCO.
¿Qué consejo daría a otras organizaciones que quieren empezar a integrar la IA con un enfoque ético y responsable?
El consejo que daría a cualquier organización que quiera integrar la IA de forma ética es que no empiece por la tecnología, sino por las preguntas: ¿para qué, a quién beneficia y quién puede salir perjudicado? A partir de ahí, propondría tres pasos muy concretos: formar a la dirección (sin su implicación la ética se queda en marketing), seleccionar pocos casos de uso de alto impacto donde aplicar IA responsable como estándar desde el inicio, y establecer indicadores que midan no sólo eficiencia o ingresos, sino efectos sobre personas, confianza y reputación. Aquí vale ya muchísimo el valor de la marca. Y, por supuesto, buscar aliados: sumarse a redes como OdiseIA y colaborar con quienes ya han recorrido parte del camino ahorra muchos errores y mucho «teatro ético», ya que sí hay en esta cuestión mucho del llamado postureo ético.
El consejo central es: no deleguéis vuestra ética en el proveedor tecnológico; apropiarse del conocimiento —aunque sea a un nivel conceptual— es condición necesaria para ejercer una verdadera agencia sobre la IA que integráis.
Finalmente, ¿qué visión de futuro tiene sobre la evolución de la IA y su papel en la transformación social?
Mi visión de futuro sobre la IA es que, más que una tecnología, se está convirtiendo en la nueva infraestructura cognitiva de nuestras sociedades, algo tan ubicuo y estructurante como lo fueron en su día la electricidad o la internet. Eso significa que la gran batalla no será sólo técnica, sino profundamente política y cultural: quién define los marcos de sentido, qué modelos de negocio se imponen, cómo distribuimos el valor generado y qué lugar dejamos a la creatividad y deliberación humanas. Si hacemos bien las cosas, la IA puede ser una palanca para ampliar capacidades; si las hacemos mal, puede agravar las asimetrías de poder que ya tenemos y convertirnos en meros usuarios pasivos de sistemas que ni entendemos ni controlamos. Esas asimetrías de poder consisten en parte en la falta o carencia de estándares en nuestros gestores políticos.
Elon Musk, justo hace unos días y obedeciendo a aquel legendario paper de Vernor Vinge, de 1993, aseguró que estamos empezando a experimentar la llamada ‘Singularidad Tecnológica‘, sobre la que personalmente llevo divulgando años. Esa es, digamos, una «aceleración tecnocientífica» donde convergen datos, computación, redes, sensores y biotecnologías.
Técnicamente, ya estamos observando y participando de un avance en sistemas híbridos: modelos fundacionales orquestando módulos especializados, interfaces multimodales que difuminan la frontera figital y una integración creciente con biometría y neurotecnologías, lo que plantea preguntas radicales sobre identidad, privacidad y autonomía. Filosóficamente, esto nos obliga a repensar categorías clásicas —trabajo, conocimiento, incluso «persona«— y a decidir si queremos una tecno-ciencia orientada a maximizar atención y extracción de valor o a ampliar capacidades humanas y justicia; la IA, en ese sentido, es un campo de batalla ontológico tanto como tecnológico.
Esta entrevista forma parte del Dosier Corresponsables: IA Ética, en alianza con OdiseIA


