Hay momentos en los que una sociedad revela con especial nitidez aquello que está dispuesta a mercantilizar y aquello que, por el contrario, todavía considera digno de una cierta protección moral. La consulta de salud debería pertenecer, sin discusión, a esta segunda categoría. No porque esté fuera del mercado en sentido estricto (hace tiempo que no lo está), sino porque conserva todavía, al menos en el imaginario normativo, una exigencia elemental de lealtad: cuando una persona formula una pregunta sobre su cuerpo, su dolor, su miedo o su pronóstico, espera que la respuesta esté orientada, en primer término, por su necesidad de comprensión y cuidado, no por la rentabilidad comercial de su vulnerabilidad.
Ése es el umbral que empieza a volverse incierto con la expansión de las interfaces de inteligencia artificial.
Se ha hablado mucho de los riesgos de la IA en salud: diagnósticos erróneos, sesgos, opacidad, automatización del juicio, fragilidad de las fuentes, erosión de la responsabilidad profesional… Empiezo a sospechar que llega una mutación más silenciosa, menos visible pero más decisiva, que todavía no estamos advirtiendo con la suficiente radicalidad: ¿qué sucederá cuando la misma herramienta a la que el usuario acude en busca de orientación sanitaria pueda también convertirse en el canal a través del cual se le recomiendan productos, tratamientos o soluciones condicionados por lógicas publicitarias?.
La cuestión no es si veremos anuncios junto a una respuesta. Eso pertenece a un modelo ya reconocible, Google ya ha introducido anuncios en y alrededor de sus AI Overviews, aunque afirma que por ahora no los muestra en verticales sensibles como salud, política o finanzas. Microsoft, por su parte, ha impulsado programas comerciales dentro del ecosistema Copilot para que marcas y merchants ganen visibilidad y sus productos puedan ser sugeridos dentro de la experiencia conversacional. La infraestructura ya está desplazándose hacia una economía de la recomendación integrada y, precisamente por eso, la salud importa tanto: porque es el lugar donde esa integración deja de ser una simple evolución del marketing para rozar un problema de legitimidad moral.
Empiezo a pensar ese desplazamiento como algo bastante más allá de una cuestión secundaria de monetización, como una transformación de la naturaleza misma de la respuesta. En salud, una recomendación nunca es una recomendación sin más, nunca es un gesto inocente de conveniencia algorítmica. Está inscrita en una escena de asimetría, fragilidad e interpretación. Quien consulta sobre insomnio, infertilidad, dolor crónico, obesidad, ansiedad o apnea del sueño no comparece ante la máquina como un consumidor soberano que compara opciones desde la distancia. Comparece como alguien que necesita orientación para no quedar a merced de la incertidumbre. En ese contexto la pregunta decisiva no es qué producto aparece sino: qué lealtad organiza la respuesta.
Una interfaz puede escuchar un síntoma y responder de dos maneras muy distintas, puede hacerlo tratando de preservar, con todos sus límites, una cierta fidelidad a la necesidad del usuario o puede responder desde una arquitectura dividida, en la que el interés aparente por ayudar convive con una lógica subterránea de captación, conversión y valorización comercial. En ese segundo caso, ya no estamos solo ante una tecnología que informa sino ante una tecnología que explota la autoridad de la orientación para modular conductas de consumo en un momento de vulnerabilidad.
Ése es el núcleo filosófico: el paso de la interfaz informativa a la interfaz con lealtades divididas.
La cuestión legal no hace sino intensificar el problema, el Digital Services Act exige que la publicidad sea claramente identificable y prohíbe el uso de datos sensibles para la presentación de anuncios basados en profiling. El problema de fondo es que, en salud, muchas veces ni siquiera hace falta que el usuario declare formalmente una condición clínica: basta con que el sistema la infiera. Las orientaciones recientes del EDPB subrayan precisamente la relevancia de esa interacción entre DSA y GDPR cuando entran en juego categorías especiales de datos y perfiles derivados de ellas. En un entorno conversacional, esa inferencia puede ser mucho más íntima, granular y difícil de percibir por quien pregunta.
La publicidad de medicamentos sujetos a prescripción directa al público sigue prohibida en la Unión Europea, y el ecosistema regulatorio europeo trata con especial cautela cualquier uso de IA con fines médicos o sanitarios, imponiendo obligaciones reforzadas a los sistemas de alto riesgo destinados a propósitos médicos. Cuanto más se acerque una IA a orientar decisiones de salud concretas, más difícil resultará seguir describiéndola como una mera superficie neutral de interacción.
El centro de esta reflexión no es jurídico, sino moral y político. Lo que me interesa explorar es qué ocurre cuando el espacio al que acudimos en busca de una forma de verdad práctica sobre nuestra propia fragilidad empieza a organizarse según la lógica publicitaria. La OMS ya ha advertido de que los grandes modelos multimodales utilizados en salud pueden generar contenido falso, sesgado o incompleto y favorecer formas de automation bias. Si a esa fragilidad epistémica se añade una capa comercial, el problema deja de ser solo el error y se convierte en otra cosa: la posibilidad de que la consulta sanitaria sea reconfigurada como una escena de persuasión opaca, donde el usuario ya no sabe con claridad cuándo está siendo orientado y cuándo está siendo conducido.
¿Mi tesis?: el verdadero peligro no es que la IA muestre anuncios, es que haga cada vez más difícil distinguir entre aconsejar y vender allí donde las personas no comparecen solo como consumidoras, sino como sujetos vulnerables que buscan una palabra capaz de orientar sin traicionar. ¿Aceptaremos que una de las formas más contemporáneas de escucha (la escucha algorítmica) nazca ya atravesada por una lealtad dividida?
Ésa será una de las preguntas más serias de los próximos años: no si la inteligencia artificial es útil en salud, sino si permitiremos que la voz que parece responder a nuestra fragilidad termine hablando, al mismo tiempo, en nombre del mercado.
Consulta más información responsable en las publicaciones Corresponsables.


