¿Cómo comenzar con un tema tan complejo y a la vez tan cotidiano? Creo que lo mejor será con un ejemplo. Hace unos meses, en una reunión con un cliente del sector retail, alguien preguntó algo que quedó en el aire durante un buen rato: «¿Oye, pero esto lo ha escrito una persona o una IA?” La pregunta hacía referencia a un artículo de un portal. Y no iba cargada de crítica, sino que era sincera y genuina.
- El problema no es la tecnología, es la intención con la que se usa
- ¿Y esto cómo se traduce en la práctica?
- La IA no sustituye el criterio estratégico
- La transparencia genera más confianza que el esfuerzo que implica
- El sesgo es el riesgo más silencioso
- ESG y comunicación: una relación que exige coherencia
- Una nueva forma de entender la autoría
Creo que es un buen punto de partida, para ir desentramando, sobre el momento en que nos encontramos.
La inteligencia artificial ha entrado en las agencias de comunicación por la puerta grande, esto no lo podemos negar. Y lo ha hecho tan deprisa que a muchos nos ha pillado un poco descolocados y sin haber terminado de pensar qué queríamos hacer con ella y cómo.
Podemos decir que hoy está en muchos ámbitos y formatos, como en la generación de copys y contenidos, de imágenes, en el análisis de audiencias o en la personalización de mensajes a gran escala. Vamos, que está en casi todo, o al menos en muchas más etapas y procesos de los que se esperaba ¿no? Precisamente por esto vale la pena detenerse a preguntarse no solo cómo se usa, sino con qué criterio. Esa pregunta, la del criterio, es la que define lo que entendemos por IA ética en comunicación.
El problema no es la tecnología, es la intención con la que se usa
Tendemos a debatir sobre la IA como si la herramienta tuviera voluntad propia, o como si fuera capaz de resolverlo todo, pero la realidad de este momento es que no la tiene. Las que sí tienen voluntad son las personas y las organizaciones que deciden cómo integrarla en sus procesos. Y ahí es donde está la clave.
Una agencia puede usar IA para generar contenido en masa sin ningún tipo de filtro o revisión. O optimizar para el algoritmo de turno y producir mensajes diseñados para “manipular emociones” antes que para informar. La verdad que todo eso es posible. Sin embargo, es evitable, y da mucho que pensar.
La IA ética en comunicación no es un conjunto de restricciones técnicas. Es una forma de trabajar que parte de una serie de compromisos concretos. Podemos acotarlos en 3 grandes bloques:
- transparencia sobre el uso de la tecnología
- responsabilidad humana en las decisiones de fondo
- respeto real por el receptor del mensaje
Digamos que no son principios abstractos, sino parte de un todo más grande y complejo que ocurre con las decisiones que se toman cada día, en cada proyecto.
¿Y esto cómo se traduce en la práctica?
Cuando en normal empezamos a integrar herramientas de IA en nuestra forma de trabajar, lo hicimos con unas preguntas de fondo que aún hoy nos siguen sirviendo de brújula: ¿esto mejora la comunicación o solo la acelera? ¿qué impacto real tiene? ¿cómo se introduce de forma organizada y concertada?
Acelerar no está mal. Pero acelerar sin mejorar es una trampa. Y en comunicación, esa trampa tiene consecuencias reales: mensajes que no conectan, audiencias que se pueden sentir manipuladas, marcas que pierden credibilidad justo cuando más la necesitan. Podríamos seguir con la lista, pero el impacto ya se entrevé.
Para situarnos, y bajarlo a un marco más cotidiano, a continuación, apunto algunas cosas que hemos aprendido por el camino:
La IA no sustituye el criterio estratégico
Cuando la IA se utiliza bien, permite que los equipos se concentren más en pensar y menos en tareas mecánicas. Esto es una verdadera ganancia en optimización de recursos. Pero se requiere criterio estratégico desde el principio. La IA sin criterio puede simplemente multiplicar la falta de contenido útil.
La transparencia genera más confianza que el esfuerzo que implica
Muchas marcas no se permiten admitir que utilizan IA en sus procesos creativos o de comunicación. Este miedo, en la mayoría de los casos, creo que es infundado. Los clientes, y sobre todo las audiencias, están más preparadas para esta conversación de lo que creemos. Ser honestos sobre nuestros procesos de trabajo, incluyendo las herramientas, puede fortalecer la relación en lugar de debilitarla.
El sesgo es el riesgo más silencioso
Los modelos de IA aprenden de datos históricos, y estos datos suelen reproducir sesgos culturales, de género o de representación. En comunicación esto puede conducir a mensajes excluyentes o a imágenes que perpetúan estereotipos que en ningún caso pasarían el filtro de un equipo humano. La revisión humana es necesaria.
ESG y comunicación: una relación que exige coherencia
Las empresas que operan con criterios ESG tienen una característica que las hace especialmente sensibles a este tema: sus audiencias son muy exigentes y están bien informadas. Este público no tolera el Greenwashing, el purpose-washing, ni ningún otro tipo de comunicación que prometa y no cumpla.
Eso significa que usar IA en la comunicación de una empresa comprometida con la sostenibilidad o la responsabilidad social es un asunto serio. La forma en que se utiliza, la supervisión, los criterios de veracidad y el papel del equipo humano en las decisiones clave son parte del relato de integridad que esa empresa desee construir.
Una nueva forma de entender la autoría
Existe un debate interesante en el sector que aún no hemos resuelto: ¿quién firma un contenido cuando la IA ha participado en su producción?
Mi postura es clara: la firma implica responsabilidad. Y la responsabilidad siempre recae en los humanos. La IA puede ayudar a estructurar, explorar perspectivas y detectar patrones que podrían pasar desapercibidos para un equipo. Sin embargo, la decisión editorial, el tono y la verdad del mensaje deben ser guiados por un criterio humano que se responsabilice por ello.
Eso no significa que debamos ocultar que usamos IA. Significa que debemos ser conscientes de lo que implica usarla. Esta conciencia, en el fondo, distingue la innovación responsable de la simple adopción ciega de una tecnología.
En un sector tan competitivo y expuesto al escrutinio público como el de la comunicación, la IA ética no es un elemento diferenciador de nicho. Cada vez más es una condición necesaria. Las empresas y agencias que lo comprendan primero tendrán ventaja. No solo en reputación, sino en calidad real de lo que producen.
Y al final, de eso se trata.
Este artículo forma parte del Dosier Corresponsables: IA Ética, en alianza con OdiseIA


