La inteligencia artificial ha entrado de lleno en los sectores regulados y, en particular, en el ámbito de la información jurídica y el software regulado (*), y con ella ha llegado un nuevo escenario de riesgo. Ya no hablamos solo de ciberseguridad como un asunto técnico, sino de un elemento central del gobierno corporativo, la sostenibilidad empresarial y la confianza del mercado. En este contexto, la IA se convierte en protagonista de un duelo silencioso: por un lado, impulsa formas de fraude cada vez más sofisticadas; por otro, ofrece las herramientas más poderosas para combatirlas.
Ciberseguridad, ESG y deber de diligencia
La ciberseguridad ya no puede verse como un problema exclusivo de IT. Forma parte de la “custodia” que ejerce la dirección de las compañías que prestan servicios críticos o gestionan información sensible. Desde la perspectiva ESG, proteger los datos no es solo una obligación legal, sino una responsabilidad ética y de buen gobierno.
El impacto reputacional de un incidente es hoy casi instantáneo. Una brecha de datos o un fraude relevante ya no se traduce únicamente en sanciones regulatorias, sino en una pérdida inmediata de credibilidad. La reputación tarda años en construirse y minutos en destruirse; con tecnologías como los deepfakes, incluso segundos. En este entorno, la tecnología no es solo infraestructura: es el escudo de la marca.
En el software regulado, la robustez cibernética se ha convertido en una métrica real de buen gobierno. Si una organización no protege adecuadamente datos legales o sensibles, no está fallando solo en seguridad, sino en gobernanza. Además, normativas como NIS2 o DORA dejan claro que los directivos ya no pueden alegar desconocimiento técnico. La gestión del ciber riesgo es indelegable. La tecnología cambia, pero el deber de diligencia permanece, y la IA está obligando a reescribir los mapas de riesgos corporativos.
La asimetría del ataque y la defensa inteligente
Desde el punto de vista técnico, el gran cambio es la asimetría. La IA permite a los ciberdelincuentes escalar ataques de fraude complejos a un coste casi nulo. El fraude ya no es artesanal: es industrial. Phishing hiperpersonalizado, suplantaciones de identidad creíbles y automatización de intentos de intrusión son ya parte del día a día.
Pero la misma tecnología puede equilibrar la balanza. El software jurídico y los sistemas de información en entornos regulados deben apoyarse en IA para la detección de anomalías, la verificación de identidad, el control de intrusiones y la auditoría continua. La IA puede ser usada por los malos, sí, pero también es la mejor aliada de los buenos cuando está bien gobernada.
Seguridad y experiencia de usuario
Un reto clave es no enfrentar seguridad y experiencia de usuario como si fueran enemigos. La seguridad eficaz requiere la participación y comprensión del usuario. El debate entre verificación y usabilidad es constante: ¿cómo incorporar biometría o autenticación multifactorial avanzada sin generar fricción excesiva? La respuesta está en un diseño inteligente, donde los controles antifraude se integren de forma progresiva, contextual y transparente.
Como conclusión
Una forma realista de combatir una IA maliciosa es con una IA gobernada, ética y supervisada por expertos humanos. No se trata solo de tecnología, sino de liderazgo, cultura de control y responsabilidad corporativa. En sectores regulados, el futuro de la confianza dependerá de quién gane este duelo.


