Modulos es una empresa suiza, fundada en Zúrich en 2018, especializada en la gobernanza, cumplimiento y gestión del riesgo asociado a la inteligencia artificial. Con su innovador modelo de cuantificación económica del riesgo, ayuda a las organizaciones a convertir ese riesgo en valor, alineándose con un enfoque ético y sostenible que refuerza la confianza en la IA y la responsabilidad corporativa.
En un contexto de creciente preocupación global por la sostenibilidad, Modulos contribuye a los Objetivos de Desarrollo Sostenible (ODS) mediante la integración responsable de la tecnología, consolidándose como una empresa clave para el futuro de la gobernanza de la IA. Corresponsables ha tenido el placer de conversar con Elena Maran, Responsable de Módulos en España y Chief AI Risk Officer a nivel global de Modulos, para explorar cómo esta compañía está irrumpiendo en el mercado español y qué visión aporta de cara al futuro de la adopción responsable de la IA.
Modulos llega a España con un enfoque disruptivo que cambia la manera en que las organizaciones gestionan los riesgos asociados a la inteligencia artificial. ¿Cómo puede el modelo de cuantificación de riesgos de Modulos transformar la adopción de la IA en las empresas, asegurando tanto la rentabilidad como una gestión ética y responsable, especialmente en términos de riesgos éticos y transparencia?
La cuantificación de riesgos es parte de una nueva forma de abordar la gobernanza de la IA. Estamos pasando de un enfoque centrado principalmente en el cumplimiento, donde las empresas se enfocan en cómo cumplir con los requisitos legales o las políticas internas de IA y ética, a un concepto de gobernanza centrado en la evaluación de riesgos. La cuantificación de riesgos es la piedra angular de este marco de gobernanza.
Si comenzamos el proceso de gobernanza de la IA por la cuantificación de los riesgos, todas las medidas organizativas y técnicas que adoptemos en la empresa estarán alineadas con el riesgo real al que nos enfrentamos. De este modo, podemos asegurarnos de que, por un lado, dirigimos los recursos económicos de la empresa hacia proyectos que sean rentables, pero también garantizamos que tomamos medidas técnicas y organizativas para gestionar estos riesgos.
Ahora bien, enfocado desde una perspectiva organizacional: si una empresa va a tomar medidas para limitar su propio riesgo, como el riesgo relacionado con la baja calidad de los datos, al mismo tiempo debe asegurarse de que esas medidas también estén reduciendo el riesgo que los sistemas de IA puedan representar para personas de terceros, la sociedad, individuos o grupos. Este es el tipo de enfoque que se requiere, por ejemplo, según el Acta Europea sobre la Inteligencia Artificial. Es un círculo virtuoso en el que las empresas controlan su propio riesgo y, al mismo tiempo, cumplen de forma proactiva con la normativa, lo que en inglés se conoce como by design.
En un contexto de rápida innovación tecnológica, ¿cómo ayuda Modulos a las empresas a gestionar de forma eficiente los riesgos asociados, sin que esto frene su capacidad de innovar y cumplir con las normativas?
La idea de Modulos no es frenar la innovación ni asociar el riesgo a una connotación negativa que bloquee proyectos innovadores. El enfoque de la empresa es más bien centrarse en aquellos proyectos que realmente son rentables. Para evaluar si un proyecto es rentable, se debe considerar, según la teoría económica básica, no solo el valor económico que aporta, sino también los gastos potenciales.
Cuando hablamos de proyectos relacionados con la inteligencia artificial, los «gastos» se refieren a la materialización de los riesgos. Lo que hace Modulos es ayudar a valorar económicamente esos riesgos asociados con la adopción de la inteligencia artificial. Al hacerlo, las empresas pueden elegir proyectos rentables e innovadores, asegurándose al mismo tiempo de que están utilizando sus recursos económicos de manera eficiente, destinándolos a medir y bloquear amenazas reales.
Voy a poner un ejemplo: si una empresa está preocupada por la baja calidad del output de su chatbot, puede comenzar a implementar todo tipo de medidas de control, como los «guardrails», para ver qué sucede. Sin embargo, si sabemos exactamente que el problema proviene de una amenaza específica, como que el chatbot no está alineado con la política interna de contenido prohibido, entonces podemos ajustar y calibrar el tipo de «guardrail» necesario para mitigar esa amenaza. Así, se gastan menos recursos, ya que no se está utilizando un sistema de protección que no se ajusta a la exigencia y el riesgo real que estamos asumiendo.
A medida que las tecnologías de IA evolucionan, ¿cómo asegura Modulos que sus soluciones de gobernanza sigan siendo efectivas, escalables y capaces de mitigar los riesgos mientras permiten a las empresas seguir innovando?
Estamos siendo testigos de una evolución demasiado rápida de esta tecnología. Hace un año, o incluso menos, no estábamos hablando de sistemas multiagentes. Es una tecnología que avanza mucho más rápido que los marcos regulatorios o los marcos éticos y responsables.
Sin embargo, lo que hemos hecho en Modulos, aportando este marco de gobernanza centrado en el riesgo, es establecer una base sólida para una valoración económica de la gobernanza. Esta base no se ve afectada por los cambios tecnológicos, ya que es transversal a cualquier tipo de amenaza que pueda surgir con la evolución de la inteligencia artificial.
Por eso, en nuestra plataforma utilizamos también una taxonomía de riesgos que es aplicable a todos los tipos de sistemas, desde los tradicionales de machine learning hasta los sistemas multiagentes. Nos hemos dado cuenta de que no son los riesgos los que cambian, sino las amenazas y la forma en que entendemos la gobernanza en función del riesgo.
Como te comentaba, este enfoque es universal, porque en todos los casos debemos preguntarnos: ¿este sistema tiene un ROI positivo? ¿Estoy tomando medidas que me cuesten menos en proporción a la reducción del riesgo?
La gobernanza de la IA es un criterio clave dentro de los indicadores ESG. ¿Cómo ayuda Modulos a las empresas a implementar un modelo de IA responsable, alineado con sus objetivos de sostenibilidad y ética, para generar ventajas competitivas?
Primero que todo, necesitamos explicar un poco dónde encajan los criterios ESG (medioambientales, sociales y de gobernanza) en el ámbito de la inteligencia artificial. La IA no es una tecnología separada de los procesos empresariales y la gobernanza; más bien, es parte integral de la gobernanza empresarial, ya que está presente en todo lo que las compañías hacen cada vez más.
Por eso, las empresas que gestionan los ratings ESG, al formular el marco para evaluar a una empresa desde esta perspectiva, deben considerar también cómo la empresa gestiona la gobernanza de la inteligencia artificial. La gobernanza de la IA se puede evaluar mediante evidencias y métricas que miden tanto la parte técnica como la organizativa.
La plataforma de Modulos centraliza toda esta evidencia en un marco único, lo que permite descentralizar los controles que se aplican dentro de las compañías y facilita la trazabilidad de todas estas acciones. De esta manera, se puede medir de forma concreta lo que implica la gobernanza de la inteligencia artificial y contribuir a la elaboración de storytelling ESG, creando un círculo virtuoso, como mencionaba antes.
Esto también da a las empresas un incentivo adicional para ser éticas y para implementar una gobernanza responsable de la IA, ya que un mejor desempeño en este ámbito les permitirá obtener un mejor rating ESG, lo que, a su vez, les dará un mejor acceso a los mercados de capitales. Cabe recordar que todas las instituciones financieras, los fondos de inversión y los inversores favorecen a las empresas con buenos indicadores ESG.
Mirando a 5 o 10 años, ¿cómo se ve Modulos en el mercado de la gobernanza de la inteligencia artificial? ¿Qué cambios anticipa en el sector y cómo planean evolucionar para mantenerse a la vanguardia en un mercado cada vez más competitivo y en rápido crecimiento?
Ya hemos hablado un poco de este tema cuando mencioné que el marco de gobernanza centrado en el riesgo que hemos creado es un marco que permanecerá. Esto es porque, aunque las regulaciones y los marcos éticos cambian con el tiempo, lo hacen al ritmo de la evolución de la tecnología, que como comentamos, es muy rápida.
Es cierto que el Acta Europea ha tenido un retraso de 12 meses, pero las empresas ya están comenzando a ponerse en marcha para asegurarse de que en dos años estarán alineadas con este marco. Sin embargo, una vez que todas las empresas estén alineadas, aquellas que basen su gobernanza únicamente en el cumplimiento de un marco normativo quedarán obsoletas, como diríamos en inglés, «outdated».
Por eso, en Modulos hemos elevado la gobernanza a un concepto estratégico de inteligencia artificial. Al hacer esto, la gobernanza juega un rol esencial para obtener una ventaja competitiva. Nos aseguramos de que las empresas tomen medidas de gobernanza para gestionar los riesgos a lo largo de toda su vida operativa. Lo que ofrecemos en Modulos no tiene fecha de caducidad; es un sistema dinámico que seguirá siendo relevante mientras las empresas estén activas y produciendo servicios basados en IA.
Escucha la entrevista completa aquí
Accede a más información responsable en nuestra biblioteca digital de publicaciones Corresponsables.


