Redacción Farmacosalud.com
La irrupción de la Inteligencia Artificial (IA) está comportando que cada vez más personas recurran a ella para abordar y solucionar los problemas psicológicos o emocionales que les aquejan. Otro tema es la fiabilidad diagnóstica y terapéutica que pueda tener este recurso tecnológico a la hora de atender a pacientes de salud mental. “Algunos estudios sugieren que la terapia a través de IA es efectiva hasta que el paciente se da cuenta de que no hay un ser humano al otro lado de la pantalla”, advierte en este sentido Carlos Losada López, vocal de la Sociedad Española de Psicología Clínica-ANPIR.
“En primer lugar -prosigue Losada López-, cabe una reflexión sobre la importancia del diagnóstico en la salud mental: los propios manuales diagnósticos indican que el criterio de clínicos bien entrenados y con experiencia suficiente prevalece sobre las colecciones de síntomas que forman los trastornos, así que, a menos que entendamos el diagnóstico como un proceso mecánico, las IA actuales podrían introducir confusión y requerir, en todo caso, una revisión humana posterior. En cuanto al tratamiento psicológico, hay que entender que la relación profesional, los acuerdos respecto a la definición del problema y de los procesos afectados y la validación emocional son elementos clave en la efectividad, y estas tareas están lejos de lo que ahora mismo puede hacer una herramienta como la IA. Quizá sí podría suponer una mejoría en recursos como la biblioterapia, que requieren de un menor contacto con un profesional”.
Estafas, sectas religiosas…
Pero la realidad es que está aumentando el número de personas que usan chatbots (programa informático que simula una conversación) de Inteligencia Artificial para poder afrontar -o como mínimo intentar afrontar- sus inquietudes psíquicas y emocionales. “Como el propio artículo enlazado señala, los programas de IA están dando sus primeros pasos en salud mental y los resultados iniciales requieren de más investigación. Para entender lo que podemos esperar, podemos observar lo que ocurre con las muchas aplicaciones y programas que ya existen dirigidos tanto al cuidado de la salud mental como al tratamiento de los trastornos de esta índole. Los hay buenos, peores y directamente iatriogénicos*”, aduce el psicólogo.
“Ahora mismo hay aplicaciones enfocadas en la mejora de la salud desarrolladas con asesoramiento de especialistas sanitarios, y las hay que son simplemente instrumentos promocionales de cursos o clínicas privadas, o bien de estafas y sectas religiosas. Esto, sumado a la deriva que están experimentando los servicios online (creo que no es difícil ponerse de acuerdo en que Amazon, Google o Facebook ofrecen servicios mucho peores que hace, por ejemplo, cinco años), nos puede orientar sobre lo que podemos esperar o no de la IA”, afirma Losada López.
*iatrogénico: dicho de una alteración del estado del paciente, producida por el médico
Tratamientos privados caros y listas de espera saturadas en el sistema público
Una de las razones que explicarían el creciente uso de recursos de IA para el abordaje de los trastornos psíquicos y emocionales -tendencia que, por otra parte, conduce inevitablemente a una especie de autodiagnóstico / autotratamiento- es la dificultad que existe para poder acceder a terapias convencionales. El vocal de la Sociedad Española de Psicología Clínica-ANPIR lo tiene claro: “cuesta mucho ir a una consulta porque los tratamientos privados son caros (una psicoterapia breve podría moverse en un abanico de entre 150€ y 1.500€). Y, además, las listas de espera están saturadas, igual que ocurre en el sistema público. Esta dificultad para el acceso a los tratamientos es más preocupante que la posibilidad de que haya cierto estigma hacia participar en los mismos. Quizá los recursos de IA surgen de la dificultad para poder optar a terapias con profesionales cualificados”.
Partiendo de la premisa de que la saturación de los servicios asistenciales ‘humanos’ entorpece y, en algunos casos, impide que los usuarios de la sanidad lleguen a las consultas… ¿la IA podría ser útil para tratar trastornos mentales leves y descargar así a los profesionales de Psicología-Psiquiatría, para que de este modo dichos profesionales puedan centrarse en las personas con trastornos moderados y más graves?
“Desde los servicios públicos, a los profesionales nos preocupa llegar mejor a los pacientes que más lo necesitan. Sin embargo, el eje leve-moderado-grave es sólo una parte de la ecuación. Puede haber pacientes graves que se beneficien de tratamientos de baja intensidad, y sujetos con problemas más leves que necesiten un tratamiento más intensivo para evitar cursos más graves. De todas formas, si lo que queremos es aliviar los servicios públicos de salud mental, no deberíamos empezar por la IA, sino por mejorar, y mucho, las condiciones de trabajo, vivienda y educación, abordar la pobreza infantil…”, argumenta Losada López.
“La IA podría ser una barrera, podría ponernos más difícil escuchar al paciente”
El experto también muestra sus dudas acerca de la posibilidad de que la Inteligencia Artificial pueda servir de apoyo a los profesionales de Psicología-Psiquiatría en lo que es la atención prestada al paciente: “tengo mis dudas sobre esa utilidad, ya que la IA podría ser una barrera. Podría ponernos más difícil escuchar al paciente y explorar soluciones creativas para sus problemas”.
Otro de los aspectos en los que merece la pena detenerse cuando se habla de IA y salud mental es la hipotética adecuación del marco regulatorio a la nueva realidad digital. Ello podría materializarse mediante la elaboración, por parte de las autoridades sanitarias, de una especie de listado en el que figuraran herramientas de Inteligencia Artificial homologadas, es decir, previamente validadas por profesionales de la Medicina. Sería una buena manera de dar cobertura a programas fiables, y alertar sobre los que son de dudosa o bien nula utilidad. A este respecto, Losada López remarca que “ya tenemos agencias estatales y europeas que evalúan y autorizan los medicamentos. No sabría decir si esta u otra es la mejor medida para garantizar que las herramientas digitales son seguras y eficaces”.
“No obstante -agrega-, creo que hay que señalar que el mayor riesgo de la IA es el hecho de alejar el foco de lo que ya sabemos que funciona en salud mental: prevención mediante la promoción de unas condiciones de vida dignas y tratamientos bien dimensionados en intensidad y duración”.