Redacción Farmacosalud.com
Representantes de profesionales sanitarios, pacientes, comunicadores y expertos en Inteligencia Artificial (IA) Generativa han creado el primer consenso sobre asistentes conversacionales en salud en el que exigen que estos chatbots inteligentes transparenten sus fuentes e intereses, den información veraz, sean empáticos y respeten la privacidad del paciente, entre otros requisitos.
En el consenso, promovido por el Instituto #SaludsinBulos en colaboración con el Colegio Profesional de Fisioterapeutas de la Comunidad de Madrid (CPFCM), han participado también representantes de médicos de Atención Primaria (SEMG, SEMERGEN), Dolor (SED), Reumatología (SER), Cáncer (Grupo de Tratamiento de Tumores Digestivos), Enfermería (FAECAP, AECPAL), Farmacia (Consejo General de Colegios Oficiales de Farmacéuticos), Fisioterapia (SoGaFi), Pacientes (AECOSAR) y empresas de tecnología sanitaria (AMETIC), así como expertos en IA (Asociación de Innovadores en eSalud), ética (OdiseIA) y comunicación en salud (COM Salud).
Base para la creación de un comité multidisciplinar sobre asistentes conversacionales
El objetivo del documento es establecer criterios estandarizados para el desarrollo y validación de los chatbots basados en grandes modelos de lenguaje (LLM, por sus siglas en inglés). Este consenso, junto con otro sobre discapacidad al que se han adherido más entidades, servirá de base para la creación de un comité multidisciplinar sobre asistentes conversacionales en salud dirigido a orientar a las organizaciones sobre su uso ético para mejorar la asistencia sanitaria y fomentar la investigación.
La equidad en la atención sanitaria, la mejora en el diagnóstico y tratamiento, la educación en salud, el acceso inmediato a información adaptada a las necesidades del paciente, la mejora en la comunicación entre profesionales sanitarios y pacientes y la lucha contra los bulos sanitarios son algunas de las posibilidades que ofrecen los asistentes conversacionales basados en la evidencia científica. Una revisión de estudios publicada en ‘Frontiers in Digital Health’ corrobora la utilidad de los chatbots basados en IA Generativa para “adaptarse a los objetivos y contextos de salud de un individuo” y “ofrecer apoyo instantáneo para alguien que se esfuerza por mejorar su rutina de salud”.
En el ámbito del dolor, uno de los focos del nuevo documento -un trabajo publicado en ‘Indian Journal of Anaesthesia’- concluía que el uso de estos chatbots conseguía aumentar la satisfacción del paciente, mejorar la adherencia al tratamiento y reducir el tiempo de consulta con respecto a la distribución de folletos informativos o las conversaciones con el médico.
Riesgos de los chatbots de salud
Sin embargo, el consenso también revela riesgos, como el de los sesgos derivados de los intereses del desarrollador o de fuentes de datos deficientes, las alucinaciones o datos inventados, la privacidad y el autodiagnóstico, y la ausencia de una normativa clara sobre su uso y responsabilidad, entre otros. “No todos los asistentes conversacionales proporcionan información veraz y exacta. Depende, en gran medida, de su entrenamiento. Y, aunque cada vez es menos frecuente con los nuevos modelos, también es necesario prevenir y vigilar sus fallos, como las alucinaciones que no se atienen a la bibliografía con la que han sido entrenados”, advierte Carlos Mateos, coordinador del Instituto #SaludsinBulos y vicepresidente de la Asociación de Innovadores en eSalud (AIES).
Con respecto a los criterios de información veraz que tienen que cumplir los asistentes conversacionales, la guía destaca la necesidad de adaptarse al contexto del paciente, utilizar múltiples fuentes y actualizar de forma constante la evidencia en la que se basa. Todo ello contribuirá a la educación en salud, “promoviendo la identificación y difusión de información confiable para contrarrestar la desinformación”.
En cuanto a la ética, estas herramientas avanzadas deben contar con mecanismos que aseguren la responsabilidad sobre la exactitud o veracidad de la información proporcionada, así como garantizar la privacidad y seguridad de los datos. Además, el uso de los sistemas de IA debe ser equitativo y accesible para todas las personas, sin discriminación geográfica, social o de otra índole, y tienen que estar libres de sesgos que puedan favorecer la desinformación.
Los firmantes del consenso aseguran que la supervisión e intervención de los profesionales sanitarios debe ser fundamental. Los usuarios de la sanidad, además, tienen que entender que se trata de una herramienta complementaria que no reemplaza a los profesionales.
Por último, en relación con los criterios de comunicación, el consenso recuerda la importancia de la escucha activa, y ser capaces de ajustar la información según la rutina y el ritmo de vida del paciente.