IAS 2025: El potencial de la IA en los esfuerzos de atención y prevención del VIH

Esta tecnología permite diseñar herramientas flexibles y útiles, pero es necesario trabajar para evitar posibles sesgos en los datos de entrenamiento y reproduzcan las desigualdades existentes

Miguel Vázquez
Ver otras noticias

El tema del uso de la inteligencia artificial en relación a su uso en el ámbito de la prevención y atención del VIH ocupó un lugar destacado en la 13ª Conferencia de la Sociedad Internacional del Sida sobre Ciencia del VIH (IAS 2025), celebrada en el mes de julio en Kigali (Ruanda) y también de forma virtual. Expertos presentes en el encuentro manifestaron su entusiasmo sobre el potencial que ofrecen las tecnologías digitales, aunque también hubo voces de cautela al respecto.

El papel de la IA en la respuesta al VIH

La capacidad de la inteligencia artificial para procesar con rapidez grandes cantidades de datos y, de este modo, identificar patrones y proporcionar información que permita la toma de decisiones y la equidad puede contribuir de forma decisiva en las tareas de prevención y atención del VIH. Como ejemplo de este potencial en la prevención, un estudio reciente realizado en EE UU usó la inteligencia artificial para identificar y compartir mensajes útiles sobre prevención del VIH en redes sociales (véase La Noticia del Día 09/07/2025).

Para muchos expertos, el uso de la IA permitiría implementar respuestas más tempranas, realizar una mejor asignación de fondos y, en última instancia, empoderar a las comunidades proporcionando soluciones a los desafíos cotidianos.

Uso de chatbots como herramientas de apoyo

En la conferencia se propusieron iniciativas de tecnología de inteligencia artificial aplicada a la salud, como el uso de chatbot en WhatsApp para interactuar con las personas mientras y responder a sus dudas esperan los resultados de la prueba del VIH. Las conversaciones con el chatbot son similares a las que se entablarían con un ser humano, por lo que la información resulta más atractiva y práctica para las personas que los resultados de una simple búsqueda en internet.

Del mismo modo, el chatbot puede ayudar a que los pacientes puedan preparase mejor para la consulta y también podría desempeñar un papel importante después de esta visita, ayudando a resolver las dudas que le hayan podido quedar a la persona.

Por otro lado, estos sistemas pueden reducir la presión sobre los profesionales sanitarios, sabiendo que los pacientes disponen de una fuente adicional de apoyo. Para los gobiernos, esto reduce la carga sobre los proveedores de salud, ofrece una fuente fácilmente disponible de información sanitaria precisa y prioriza el acceso de una manera escalable y sostenible.

La experiencia con Aimee

Uno de los ejemplos de estas estrategias aplicadas al VIH fue Aimee, un chatbot dirigido a mujeres adolescentes y jóvenes, de 16 a 24 años, en Sudáfrica. Aimee está basada en modelos de lenguaje de gran tamaño (LLM, en sus siglas en inglés) disponibles comercialmente, como ChatGPT y Gemini. Apenas unos meses tras su lanzamiento, Aimee cuenta con más de 1500 usuarias activas mensuales que realizan más de 30.000 mensajes. El 40% de las usuarias regresa mes tras mes para conversar con la aplicación.

Aimee puede brinda información sobre la profilaxis preexposición frente al VIH (PrEP), temas relacionados con el embarazo, prácticas sexuales, VIH y violencia de género. Las mujeres pueden acceder al chatbot a través de WhatsApp y permite que las mujeres puedan tratar temas que les pueden resultar difíciles de buscar en internet o preguntar en voz alta.

Las interacciones de las usuarias revelaron patrones: tienden a retrasar revelaciones importantes, comenzando con preguntas funcionales inicialmente y regresando días después con preocupaciones más profundas. A menudo las usuarias “agruparon” temas: por ejemplo, empiezan hablando de la menstruación, pero terminan mostrando preocupaciones sobre el VIH. Estos hallazgos informaron el diseño del chatbot, de modo que Aimee obtenga y proporcione información de manera gradual, sin apresurar la interacción.

¿Pueden simular la empatía?

Además de proporcionar información precisa, Aimee está diseñada para proporcionar respuestas empáticas para crear un clima de confianza y emplea la escucha activa. Si Aimee nota que una usuaria está deprimida, da menor prioridad a la recopilación y el intercambio de información, y en cambio se concentra en escuchar. Esto parece tener éxito, como refleja el hecho de que una usuaria confió a Aimee que estaba planteándose un suicidio. Los protocolos de navegación aseguran que remita a un profesional de la salud en casos graves, como ideación suicida o agresión sexual. Alrededor de una cuarta parte de todas las clientas que han interactuado con Aimee han accedido a servicios ofrecidos, como pruebas de VIH, anticoncepción, PrEP o apoyo de trabajo social.

Algunas conversaciones más breves, en busca de información rápida, pueden tener solo tres mensajes, mientras que las discusiones más profundas pueden superar los 40 mensajes, lo que indica una construcción gradual de la confianza. La investigación mostró que las usuarias tienden a hablar con Aimee sobre temas como violencia de género y relaciones mucho más frecuentemente que con las enfermeras. El VIH y el uso de condones también se discuten con más frecuencia con Aimee.

La experiencia con MARVIN

En la IAS también se habló de la experiencia canadiense con MARVIN, un chatbot diseñado para proporcionar información sobre el autocuidado del VIH y temas relacionados en Canadá. Se observó que este chatbot, cuando recibía lenguaje insultante o mensajes que expresaban ideación suicida, MARVIN normalmente respondía diciendo que no entendía y pedía al usuario que reformulara la consulta.

En consecuencia, se realizó una modificación de MARVIN para asegurar que también pudiera responder de manera adecuada a insultos o mensajes donde se insinuasen posibles autolesiones. Se entrenó un primer modelo para diferenciar entre mensajes con sentimientos neutrales, positivos, negativos y muy negativos. Posteriormente, un segundo modelo de IA clasificaba los mensajes negativos o muy negativos como autolesión, insultos o “normales”.

Para el modelo 1, de 3.750 mensajes, MARVIN tuvo un buen desempeño clasificando correctamente los mensajes, con una tasa de éxito de alrededor del 85%. Sin embargo, se observó que tendía a sobreclasificar mensajes negativos como neutrales, a menudo debido al tono ambiguo.

Respecto al modelo 2, de 3.000 mensajes procesados, MARVIN mantuvo una tasa elevada de clasificación correcta de mensajes de autolesión, insultos y normales (en torno al 95% en cada caso). Sin embargo, hay que destacar que muchos mensajes negativos en los que se empleaba la ironía fueron clasificados incorrectamente como mensajes normales.

Resultados estudio piloto

Un pequeño estudio piloto que contó con seis personas participantes (tres personas con VIH, dos ingenieros y un proveedor de atención médica) demostró que MARVIN pudo generar con éxito respuestas apropiadas con información de contacto de emergencia para cualquier mensaje que expresara ideación suicida. Del mismo modo, también proporcionó orientación a las personas sobre cómo evitar el uso de lenguaje insultante.

Los siguientes pasos en el desarrollo de MARVIN incluyen su entrenamiento para que sea capaz de detectar más signos de angustia psicológica, como indicadores de depresión y ansiedad. Esto permitiría que se convierta en un acompañante digital más completo para las personas con VIH.

Desigualdades sociales

Durante una de las numerosas sesiones dedicadas a la inteligencia artificial en la IAS 2025, se planteó la preocupación por el estigma relacionado con el VIH y cómo los sesgos en los datos de entrenamiento, el código y las restricciones temáticas podrían reforzar la marginación de ciertos grupos, como personas trans o temas como el aborto. Los expertos admitieron que no disponer de las experiencias comunitarias genera una “pobreza de datos” que invisibiliza a poblaciones clave. Si no se incluyen esas experiencias, la IA corre el riesgo de reproducir —y acelerar— las inequidades sociales existentes.
Fuente:
Aidsmap/Elaboración propia (gTt-VIH)
Referencias: Baptiste S. Intelligent Health Monitoring: Why Community Data Must Be Part of the System. 13th International AIDS Society Conference on HIV Science, Kigali, symposium SY10, 2025.

Guzman Villanueva D S. The development, evaluation, and user testing of the AI-based MARVIN chatbot’s integrated mental health management module. 13th International AIDS Society Conference on HIV Science, Kigali, abstract OAD0602, 2025.

Malone S. Integrating AI into HIV Care Pathways: Supporting Self-Care, Continuity, and Quality. 13th International AIDS Society Conference on HIV Science, Kigali, satellite SAT34, 2025.

Mendonca R. Designing for Impact: Behavioural Insights from AI-Driven HIV Self-Care. 13th International AIDS Society Conference on HIV Science, Kigali, satellite SAT34, 2025.



Suscríbete a nuestros boletines

Utiliza este formulario para suscribirte a nuestros boletines. Si tienes cualquier problema ponte en contacto con nosotros.

Al continuar, confirmas que has leído el aviso legal y aceptas la política de privacidad.


Gilead
ViiV
Gilead
ViiV Healthcare
Gilead
ViiV
Gilead
ViiV