La conversación sobre ciberseguridad y riesgos tecnológicos suele centrarse en sistemas, infraestructuras y procesos. Sin embargo, a medida que la inteligencia artificial y las plataformas digitales amplían su influencia en nuestras vidas, sus impactos sociales no pueden leerse solo desde una lógica técnica. En particular, los efectos sobre la infancia y la adolescencia están adquiriendo una dimensión que obliga a ampliar el foco del debate.
Lo que vivimos en el entorno digital ya no es algo marginal, todo lo contrario. Tiene la capacidad de propagarse y multiplicarse a gran velocidad, no posee fronteras, generando grandes oportunidades y grandes riesgos, algunos que ni si quiera conocemos. El avance es tan rápido que, como sociedad, no estamos siendo capaces de gestionar todo lo que supone en nuestras vidas y mucho menos en la vida de las niñas y niños.
El Informe de Riesgos Globales presentado en Davos sitúa a la Inteligencia Artificial entre los riesgos a corto plazo y refleja una preocupación creciente en cada vez más países por su impacto estructural a medida que avanza esta tecnología. Los retos de ciberseguridad también se cuelan entre las preocupaciones empresariales reflejadas en el informe, tanto a corto como a largo plazo.
Más allá de los sistemas, los programas y las contraseñas, hablamos de derechos fundamentales de niños, niñas y adolescentes y de cómo su vulneración genera impactos reputacionales y sociales que ninguna organización, pública o privada, puede permitirse ignorar.
La tecnología representa una gran oportunidad para el aprendizaje de la infancia y su uso es un derecho. Nuestro deber es proporcionarles una experiencia segura y adaptada a su edad; y si dedicamos un momento a escuchar sus voces, ellos mismos nos lo están pidiendo.
Al mismo tiempo, la infancia es uno de los colectivos más expuestos y vulnerables en el entorno digital. Internet, las plataformas y la IA ofrecen oportunidades educativas, sociales y culturales, pero también entrañan riesgos inéditos y complejos: desde la exposición a contenidos sexuales explícitos y sin consentimiento, hasta la captación por parte de adultos con fines de abuso, el grooming, el sexting coaccionado y la difusión no autorizada de imágenes íntimas.
En el caso de la IA, las nuevas herramientas pueden utilizarse para generar imágenes manipuladas de menores, dificultar el acceso a la información o ser utilizadas por agresores para facilitar situaciones de grooming o generar imágenes de abuso sexual infantil. Además, la IA impacta el contenido que los niños y niñas ven en línea, en las interacciones que tienen con otros usuarios y en cómo son dirigidos hacia nuevo material, efectos que pueden exponerlos a determinados riesgos, como la sextorsión o las ultrafalsificaciones (deepfakes).
Según el informe Redes que atrapan de Save the Children, un 20% de jóvenes encuestados afirmaba que alguien había compartido con otras personas imágenes creadas con IA para mostrarle desnudo, siendo menor de edad, y sin consentimiento. Por otro lado, el mismo informe relata que prácticamente la totalidad de jóvenes encuestados (97%) afirmó haber sufrido algún tipo de violencia sexual en entornos digitales durante su infancia o adolescencia, incluido ser víctimas de imágenes manipuladas y generadas con IA.
Lamentablemente, no es un problema aislado. Se trata de una realidad ya estructural que emerge en la confluencia de tecnologías sin regulación firme respecto a protección de infancia, comportamientos virales y brechas de seguridad que afectan directamente al desarrollo, bienestar emocional y derechos de niños y niñas. La IA no solo amplifica contenidos, sino que modula las interacciones y las recomendaciones en algoritmos cuya lógica de diseño prioriza el engagement y el tiempo de uso por encima de la seguridad y el interés de la infancia.
En otro informe, publicado junto a Fundación Vodafone, el 44% de las y los jóvenes españoles dicen no haber encontrado casi amabilidad en los espacios digitales y un 17% afirma que se llegan a sentir ansiosos sin sus dispositivos.
Este contexto obliga a repensar las estrategias de ciberseguridad y uso de la IA más allá de lo técnico. Porque no basta con blindar sistemas y hay que integrar la protección de la infancia como criterio de buen gobierno, teniendo en cuenta la protección de los derechos de infancia tanto en las decisiones políticas como en el diseño de los espacios y plataformas digitales. Entender la seguridad digital como un asunto transversal que impacta en reputación, uso y confianza, dota a cualquier organización de una mejor posición para anticipar y mitigar riesgos antes de que se conviertan en crisis.
Para una organización como Save the Children, la protección de la infancia y la adolescencia en el entorno digital es parte central de nuestra misión para asegurar el bienestar y el desarrollo de los niños, niñas y adolescentes. Esto se traduce en diversas acciones, empezando por la generación de evidencia y conocimiento para decisores públicos y privados, que permiten visibilizar estos fenómenos poniendo cifras y experiencias sobre la mesa. A su vez, abogamos por marcos regulatorios que integren la protección digital de la infancia en la gobernanza de las plataformas y tecnologías emergentes, incluidas las empresas desarrolladoras de IA.
Por otro lado, promovemos la educación digital de las niñas, niños y adolescentes, pero también entre familias, docentes y la sociedad en su conjunto, para promover un uso seguro y consciente del entorno digital y las tecnologías. Y a su vez, impulsamos la colaboración con diversos actores, sean públicos, privados o de la sociedad civil, para establecer ecosistemas digitales más seguros. Comprender los riesgos, herramientas de privacidad y comportamientos seguros es un pilar de prevención incuestionable.
Las organizaciones y empresas que diseñan, adoptan o comunican tecnologías tienen ante sí no solo un desafío técnico, sino un riesgo social, reputacional y de gobernanza. La percepción de sus grupos de interés (clientes, reguladores, donantes, inversores…) está cada vez más vinculada a cómo se gestionan los desafíos sociales derivados de la digitalización. Las brechas de seguridad o la falta de políticas firmes sobre protección de la infancia digital pueden erosionar la confianza y amplificar escrutinios públicos y regulatorios.
Proteger a la infancia en el entorno digital no es solo responsabilidad de los padres o de las instituciones educativas. Implica una corresponsabilidad multisectorial en la que las empresas, los reguladores y las organizaciones sociales tienen un papel complementario. Desde una óptica corporativa, esto significa incorporar criterios de seguridad digital y derechos de infancia en el diseño de herramientas, en políticas de compliance, en códigos de conducta, en evaluación de terceros y en la comunicación externa.
En un momento en que las realidades tecnológicos y sociales se entrelazan, adoptar un enfoque proactivo de ciberseguridad centrado en las personas y sus derechos definirá la calidad de nuestros marcos de gobernanza tecnológica. La protección de la infancia en el entorno digital no es un asunto secundario ni sectorial, es una necesidad colectiva para entender qué tipo de ecosistema tecnológico estamos construyendo.

