Vidext, una innovadora empresa especializada en soluciones tecnológicas basadas en inteligencia artificial, está comprometida con la creación de herramientas que mejoren la productividad y faciliten el acceso a la información. Su misión es empoderar a las organizaciones para que puedan comunicarse y formar de manera más eficiente a sus equipos, todo mientras se mantiene un enfoque ético y responsable.
- Vidext trabaja en el ámbito de la inteligencia artificial. ¿Cómo entendéis vuestro papel en el desarrollo de una tecnología responsable?
- La IA está transformando todos los sectores. ¿Cuáles son las principales oportunidades que ofrece y también los riesgos que debemos gestionar?
- Desde vuestra experiencia, ¿qué significa realmente hablar de innovación responsable en el desarrollo tecnológico?
- ¿Cómo puede la inteligencia artificial contribuir a los objetivos de sostenibilidad y a generar impacto positivo en la sociedad?
- La transparencia es clave en el uso de la IA. ¿Cómo trabajáis para garantizar la confianza de usuarios y clientes en vuestras soluciones?
- ¿Qué riesgos éticos deben tener en cuenta las empresas al incorporar IA en sus procesos y cómo pueden mitigarlos?
- ¿Cómo se puede evitar que la tecnología amplíe desigualdades existentes, por ejemplo, en acceso o en sesgos algorítmicos?
- La sostenibilidad también aplica al desarrollo tecnológico. ¿Cómo se puede reducir el impacto ambiental de soluciones basadas en IA?
- ¿Qué papel juegan la regulación y los marcos normativos en el impulso de una IA más ética y responsable?
- ¿Cómo está cambiando la relación entre personas y tecnología, y qué desafíos plantea este nuevo escenario?
- ¿Qué tendencias marcarán el futuro de la inteligencia artificial en términos de sostenibilidad, ética y gobernanza?
- Mirando a medio plazo, ¿cómo imagináis el equilibrio entre innovación tecnológica y responsabilidad social, y qué papel quiere jugar Vidext en él?
En esta entrevista, Jon Enriquez, CEO y Cofundador de Vidext, explica su visión sobre cómo la IA responsable puede transformar la manera en que las empresas gestionan la información y comunican internamente. Según Enriquez, la inteligencia artificial debe ser utilizada para potenciar las capacidades humanas y no para reemplazarlas, una filosofía que guía el desarrollo de las soluciones que ofrece Vidext.
Vidext trabaja en el ámbito de la inteligencia artificial. ¿Cómo entendéis vuestro papel en el desarrollo de una tecnología responsable?
En Vidext entendemos la IA como una herramienta para amplificar las habilidades humanas, no para sustituirlas. Nuestro papel se basa en proveer soluciones que permitan a las organizaciones comunicarse y formar mejor a sus equipos.
Nuestra visión es clara: la IA debe solucionar problemas concretos de las empresas, como la escalabilidad de la formación o la transferencia de conocimiento interno, devolviendo el control a los equipos y ayudándolos a comunicar de manera efectiva. La responsabilidad tecnológica, en nuestro caso, pasa por garantizar la seguridad de la información y un uso de la IA que mejore la productividad sin comprometer la confianza.
La IA está transformando todos los sectores. ¿Cuáles son las principales oportunidades que ofrece y también los riesgos que debemos gestionar?
La inteligencia artificial permite automatizar tareas repetitivas, escalar procesos y democratizar herramientas que antes estaban reservadas a grandes organizaciones. En el ámbito empresarial vemos un impacto claro en la formación, la comunicación interna o la gestión del conocimiento.
Es cierto que hay que prestar atención a determinadas casuísticas: sesgos en los sistemas, uso indebido de datos o excesiva dependencia tecnológica. La clave está en integrar la IA dentro de procesos gobernados por personas, con controles claros y objetivos definidos. Cuando la tecnología se implementa con criterios operativos y éticos claros, se convierte en un motor que hace avanzar a todas las organizaciones.
Desde vuestra experiencia, ¿qué significa realmente hablar de innovación responsable en el desarrollo tecnológico?
Innovar de forma responsable significa construir soluciones que resuelvan problemas reales sin perder de vista su impacto en las personas. En el ámbito de la inteligencia artificial, no basta con automatizar procesos o ganar eficiencia; también es necesario preguntarse si esa tecnología es accesible, comprensible y útil para quienes la utilizan.
Un ejemplo claro es nuestro trabajo en un proyecto donde aplicamos IA para transformar materiales formativos tradicionales para personas con discapacidad. Adaptamos contenidos audiovisuales accesibles, incorporando subtítulos automáticos, control de ritmo, traducción multilingüe o avatares adaptados. Ahí la innovación no se mide solo por la tecnología utilizada, sino por la capacidad de eliminar barreras y facilitar el acceso a la información en igualdad de condiciones.
¿Cómo puede la inteligencia artificial contribuir a los objetivos de sostenibilidad y a generar impacto positivo en la sociedad?
La IA puede tener un impacto muy relevante cuando se orienta a optimizar recursos y democratizar el acceso a determinados servicios o contenidos. En nuestro caso, vemos tres áreas claras de contribución como son la accesibilidad, la eficiencia y el conocimiento.
La primera y segunda, porque la IA permite adaptar recursos informativos a cualquier perfil de usuario de manera mucho más rápida y sin tener que invertir enormes sumas de dinero en costes de producción. Y la tercera tiene que ver con cómo una empresa consigue mejorar la inclusión y desarrollo interno al comunicar, formar o acompañar mejor a sus empleados y clientes.
La transparencia es clave en el uso de la IA. ¿Cómo trabajáis para garantizar la confianza de usuarios y clientes en vuestras soluciones?
La confianza se construye combinando tecnología, supervisión humana y seguridad. En Vidext entendemos la IA como una herramienta de apoyo, no como un sistema autónomo que toma decisiones sin control. Por eso, todo el contenido generado puede ser revisado, editado y validado antes de publicarse. La automatización agiliza procesos, pero el criterio final sigue siendo humano.
¿Qué riesgos éticos deben tener en cuenta las empresas al incorporar IA en sus procesos y cómo pueden mitigarlos?
Las compañías necesitan asegurarse de que trabajan con proveedores que cumplan estándares sólidos de seguridad y gobernanza. Según nuestra experiencia, la mejor forma de mitigar los riesgos derivados del uso de la IA, es incorporar la ética desde el mismo diseño del producto: supervisión humana, trazabilidad, accesibilidad y control por parte del cliente. La IA no debería ser una “caja negra”, sino una herramienta integrada en procesos responsables.
Además, En Vidext trabajamos con altos estándares de seguridad y protección de la información. Vidext cuenta con certificación ISO/IEC 27001:2022 y cumple con el RGPD, garantizando la protección de los datos tanto en almacenamiento como en tránsito.
¿Cómo se puede evitar que la tecnología amplíe desigualdades existentes, por ejemplo, en acceso o en sesgos algorítmicos?
La clave está en diseñar pensando desde el inicio en la diversidad de usuarios. Muchas veces la tecnología genera desigualdades no por intención, sino porque se construye para un único perfil de persona.
Como hemos indicado, ciertas tecnologías pueden ampliar desigualdades si solo priorizan la eficiencia. Pero cuando incorpora criterios de inclusión y accesibilidad, puede convertirse en una herramienta muy potente para reducir barreras.
La sostenibilidad también aplica al desarrollo tecnológico. ¿Cómo se puede reducir el impacto ambiental de soluciones basadas en IA?
La sostenibilidad tecnológica también pasa por hacer un uso eficiente de los recursos. En IA, eso implica desarrollar soluciones que aporten valor real y que optimicen procesos existentes, evitando consumos innecesarios.
Además, desde Vidext creemos que la eficiencia también es una forma de sostenibilidad. Si una empresa es capaz de reutilizar materiales existentes, traducir contenidos automáticamente o actualizar un manual de onboarding sin rehacer por completo la producción, también está optimizando recursos.
¿Qué papel juegan la regulación y los marcos normativos en el impulso de una IA más ética y responsable?
Nuestra perspectiva es que normativas como el Reglamento Europeo de IA nos ayudan a discernir entre usos responsables y usos de riesgo. De este modo, se incentiva a las empresas a profesionalizar procesos relacionados con seguridad, gobernanza y supervisión.
Para compañías como Vidext, estos marcos son también una oportunidad para reforzar nuestro manual de buenas prácticas que ya forman parte de nuestra dinámica de trabajo, y que van desde la gestión de equipos, protección de datos, transparencia y accesibilidad. La inteligencia artificial sólo genera ventaja competitiva cuando está respaldada por una plataforma segura, automatizada y preparada para escalar.
¿Cómo está cambiando la relación entre personas y tecnología, y qué desafíos plantea este nuevo escenario?
La tecnología está evolucionando de forma permanente y cambiando la forma en que trabajamos, aprendemos y nos comunicamos. El desafío es evitar que esa automatización haga perder el componente humano.
En comunicación corporativa, por ejemplo, la tecnología debe ayudar a que los mensajes sean más claros y cercanos, no más impersonales. Desde Vidext entendemos que el uso de la IA debe ayudar a escalar la comunicación sin perder autenticidad. Automatizar tareas repetitivas libera tiempo para que las personas puedan centrarse en la creatividad, la estrategia y la relación con otros compañeros.
¿Qué tendencias marcarán el futuro de la inteligencia artificial en términos de sostenibilidad, ética y gobernanza?
Nadie cuestiona ya que la IA es una infraestructura crítica de casi cualquier organización, donde sostenibilidad, ética y gobernanza no son opcionales.
En cuanto al primer punto, el de sostenibilidad, el objetivo incluye desde la optimización del consumo de energía y la reducción de la huella de carbono, hasta la consideración del impacto ético y social de la implementación de esta tecnología.
Respecto a la ética, la regulación actual y futura pretende establecer un marco que busca fomentar la innovación responsable, proporcionar claridad regulatoria y posicionar a Europa como líder en IA segura y responsable.
Y, por último, es precisamente esta IA ética la que está impulsando la modernización de la gobernanza, con un enfoque claro en la limpieza y estructuración de los datos y el desarrollo de técnicas contra amenazas futuras.
Mirando a medio plazo, ¿cómo imagináis el equilibrio entre innovación tecnológica y responsabilidad social, y qué papel quiere jugar Vidext en él?
A medio plazo, el éxito de una empresa tecnológica no se medirá solo en eficiencia, sino en el impacto humano que haya dejado. Las empresas que lideren el próximo ciclo tecnológico serán precisamente aquellas que hayan sabido integrar innovación y responsabilidad social desde el principio, como parte de su core.
En Vidext queremos ser un ejemplo de que es posible construir tecnología que sea, al mismo tiempo, eficiente, accesible y ética. Nuestro objetivo es seguir desarrollando soluciones de IA que ayuden a las organizaciones a comunicarse y formar mejor a sus equipos, pero siempre poniendo a las personas en el centro: tanto a quienes crean los contenidos como a quienes los reciben.
En ese equilibrio, nuestro papel es el de un socio tecnológico responsable: uno que acompaña a las empresas en su transformación digital con herramientas que respetan la privacidad, eliminan barreras de acceso y devuelven el control a los equipos. Porque la IA solo genera valor real cuando está al servicio de las personas, y eso es exactamente lo que guía cada decisión que tomamos.
Accede a más información responsable en nuestra biblioteca digital de publicaciones Corresponsables.


