Redacción Farmacosalud.com
La Asociación Española para el Estudio del Hígado (AEEH) se ha convertido en la primera sociedad científica del mundo que incorpora dentro de sus herramientas informáticas de estudios clínicos y comunicación la Inteligencia Artificial (IA). La nueva tecnología de la AEEH, llamada LiverAI, es una IA que tiene la capacidad de generar frases que tienen sentido, como si las hubiera pronunciado “un humano”, explica el Dr. Juan Turnes, responsable de comunicación de la AEEH y jefe de servicio de Aparato Digestivo del Complejo Hospitalario Universitario de Pontevedra. Turnes remarca que asistentes como LiverAI van a ayudar a mejorar los flujos de trabajo “a la hora de catalogar y analizar información, buscar datos y, ¿por qué no?, redactar borradores. Pero la IA no debe ser usada para que redacte por sí misma artículos con el fin de ser publicados”. En este sentido, el facultativo advierte que no hay que caer en la tentación de pensar que este tipo de tecnología “nos sustituye y que toda la información que nos proporciona es 100% correcta y perfecta”, de ahí que los investigadores tengan la obligación de supervisar siempre los contenidos aportados por estos sistemas avanzados y comprobar su validez, manteniendo para ello “la crítica científica como ya hacemos en condiciones normales”.
-La AEEH es la primera sociedad científica que incorpora dentro de sus herramientas informáticas de estudios clínicos y comunicación la Inteligencia Artificial (IA). La nueva tecnología, llamada LiverAI, sirve de apoyo en la redacción de textos científicos, catalogación y comprobación de datos. ¿La AEEH es pionera a nivel mundial?
Creemos que somos pioneros. Por lo que sabemos, no hay ninguna otra sociedad científica que haya incorporado una herramienta de estas características para sus asociados; al menos, en organizaciones médicas de nuestra especialidad. Hasta donde yo sé, en lo relativo a sociedades tanto nacionales como internacionales, somos los primeros.
En nuestro caso en concreto, se trata de una herramienta de Inteligencia Artificial conversacional basada en el popular chatbot, que es un sistema muy reciente. De hecho, es una modificación de chatbot, una metodología que salió a la luz a principios de diciembre de 2022 y que ha supuesto una auténtica revolución: se habla ya de que el salto dado gracias a las IAs conversacionales es un cambio de paradigma comparable a la aparición de internet. Ahora somos pioneros, pero eso no quiere decir que mañana o pasado mañana pueda haber ya 10-15-20 sociedades científicas que hayan incorporado esta nueva tecnología avanzada.
-¿Cuesta mucho ‘enseñar’ a una herramienta de IA de estas características para que sirva de ayuda a los científicos?
Muy buena pregunta. Cuando hablamos de la fase de aprendizaje de estas inteligencias artificiales -como la que está utilizando la AEEH-, hablamos de una inteligencia abierta, es decir, que el código está abierto para que pueda ser utilizado por cualquier organización o persona y ser personalizado para las necesidades particulares de cada uno. Es un proceso que cuesta tiempo y que cuesta dinero, y básicamente cuesta porque la herramienta requiere ser ‘entrenada’. No tanto ser entrenada en el sentido de las IAs que están ya comercializadas y que se están utilizando para otros fines, sino porque hay que ‘alimentarlas’ con información. Para ser más concretos, lo que nuestra Asociación ha puesto en marcha es una modificación de ChatGPT (bot conversacional), sistema que maneja todo el conocimiento humano digitalizado hasta finales del año 2021. Por tanto, todo lo que ha sucedido después de noviembre-diciembre de 2021 no existe a nivel de conocimiento, que no de capacidad de ayuda para analizar información o de apoyo para la redacción de textos o catalogación de dicha información.
La fase de entrenamiento va a depender de los recursos económicos que se inviertan y el tiempo para formar a esta herramienta de IA. Ya estamos dando un primer paso, como es el de recoger toda la documentación generada a lo largo de la historia en la AEEH (artículos científicos, proyectos de investigación) y utilizarla para el entrenamiento de la nueva tecnología, con el propósito de tener una IA que piense como un hepatólogo.
-En cualquier caso, los datos recogidos desde finales de 2021 hasta 2023 también serán introducidos, tarde o temprano, en el sistema…
Por supuesto. Por ejemplo, Bing, el buscador de Microsoft que nadie utilizaba hasta hace apenas unas semanas, aplica ahora la versión 4 de ChatGPT -de momento únicamente accesible para desarrolladores- y maneja información en tiempo real, es decir, maneja información hasta en el mismo segundo en el que le hacemos una pregunta. Y estará disponible para el público general en los próximos días, según ha anunciado Microsoft. O sea, que el problema o el factor limitante del tiempo se va acabar muy pronto.
-Volvamos a la idea de que LiverAI ‘piense como un hepatólogo’. Vale, pero… no es un hepatólogo, es un sistema informático…
Sí, claro. Es un sistema informático que aplica IA para procesar información y que genera respuestas. No es un humano. Pero es sorprendente su capacidad para generar información veraz… aunque también para generar información incorrecta… esto hay que tenerlo muy en cuenta también.
Lo que hace esta Inteligencia Artificial basada en lo que se llama ‘reconocimiento del lenguaje autorregresivo’ es generar palabras, o generar frases que tengan sentido, como si las dijera un humano. Y el mejor modo de entenderlo es utilizar este sistema. La herramienta que ha puesto la AEEH a disposición de sus socios es, por supuesto, imperfecta, pero lo que nos interesa en esta primera fase es que nuestros socios se puedan familiarizar con su funcionamiento.
Estamos habituados a preguntar a los buscadores para buscar información y hacerlo de un modo completamente diferente a cómo lo haríamos con una persona. No obstante, los nuevos sistemas de Inteligencia Artificial son todo lo contrario: es como hablarle a una persona, y esos sistemas te ofrecen una respuesta como si fueran una persona también.
Por decir algo: le preguntas algo acerca de una enfermedad, pongamos por caso sobre la cirrosis hepática, y la IA nos va a dar una respuesta en segundos basada en todo el conocimiento publicado y digitalizado sobre la cirrosis hepática. Puede que la respuesta que nos genere no nos guste porque nos parezca demasiado técnica, ya que quizás estemos buscando una explicación para un paciente… pues se le vuelve a hacer la misma pregunta y se le solicita que genere una nueva respuesta, pero enfocada a una persona sin conocimientos sanitarios. Y es sorprendente como, a medida que se le va exigiendo que se esfuerce, haciéndole preguntas diferentes sobre el mismo tema, esta tecnología va generando respuestas que se adaptan a lo que se le pide.
Si se le solicita un contenido sobre una enfermedad para un hepatólogo, lo que te proporcionará es un contenido mucho más técnico. Si se lo pides para un paciente, te lo dará de una forma más entendible, menos compleja, más adaptada, y lo hace sorprendentemente bien. Y eso que todavía es un sistema inicial, el ChatGPT 3.5, que es al que está accediendo la mayoría de la gente ahora mismo, a la espera de que en los próximos días Microsoft libere la siguiente versión, que no sólo operará con información en tiempo real, sino que funcionará -resulta un poco chocante decirlo así- con personalidades diferentes. La clave es no olvidar que estamos trabajando con un sistema informático, porque podemos llegar a pensar que trabajamos con una persona, y no lo es… es un sistema informático que, no obstante, supone un salto disruptivo muy considerable.
-Usted mismo ha admitido que existe la posibilidad de que la IA pueda dar una ‘información incorrecta’… ¿no sería recomendable esperar un tiempo a que mejoren este tipo de procedimientos avanzados, antes de confiar plenamente en su asistente LiverAI a la hora de guiar la redacción de los textos científicos, textos que no dejan de ser la pauta de actuación para los facultativos?
Es totalmente comprensible que el primer sentimiento que tengamos sea de cautela. Desde luego, no hay que confiar plenamente en estos sistemas, ni en este tipo de asistentes como el ChatGPT ni en los que vayan apareciendo en las próximas semanas -y digo ‘semanas’ porque la velocidad a la que está evolucionando todo esto es increíblemente rápida-. Yo creo que no nos hacemos una idea de los cambios que va a haber en un plazo de tiempo muy corto. ¿Confiar plenamente en estas tecnologías inteligentes? Repito, claro que no; esto es un asistente, tenemos que verlo como lo que es. O sea, nos va a ayudar a mejorar nuestros flujos de trabajo a la hora de catalogar y analizar información, buscar datos y, ¿por qué no?, redactar borradores. Pero la IA no debe ser usada para que redacte por sí misma artículos con el fin de ser publicados. Yo creo que no estamos en esa fase.
Sí estamos en una fase en la que ya hay artículos científicos publicados que, entre sus autores, se incluye tal cual el ChatGPT. Dicho de otro modo, no lo publica ChatGPT, lo publicamos los humanos, aunque reconociendo que para la redacción o análisis se ha recurrido a ChatGPT.
-Sería lo más parecido al hecho de que alguien publique una foto, se deje constancia del nombre del autor de la imagen y se ponga, además, que la imagen es de ‘Archivo’ (no es nueva, sino que se aprovecha de un momento o época anterior). En el caso que usted explica, tras los nombres de los autores humanos del artículo se indicaría que hay una IA, algo así como un ‘Archivo’ cuya función sería la de aportar o sustentar parte del contenido (datos históricos o pretéritos)…
Por analogía, todo esto sería como cuando en un artículo científico hay investigadores que no pertenecen al área precisamente de interés. Por ejemplo, profesionales de la bioestadística que hayan colaborado en la realización de los análisis en un estudio de una enfermedad del hígado, y que constan como autores. Su parte del trabajo no ha sido tanto la redacción del artículo, como el análisis de los datos. De hecho, en algunas revistas piden que se especifique cuál ha sido el papel de cada autor en la elaboración del manuscrito. Algunos han sido los redactores principales, otros los que han analizado los datos, y todo ello es transparente al figurar en el propio paper.
Insisto, este tipo de Inteligencia Artificial o las que están surgiendo no deben ser aplicadas para que escriban textos científicos por sí solas, sino que están ahí para ayudarnos, en este caso a los hepatólogos, a mejorar la calidad y la eficiencia del proceso de redacción. ¿Cómo? Pues sugiriéndonos estructuras, fuentes, citas, gráficas, tablas, etc.
También se ha visto que cuando a estos sistemas de IA -todavía novedosos- les presionas pidiéndoles información, pueden mentir porque, a fin de cuentas, han aprendido en base al conocimiento humano. Y el ser humano miente. De nuevo volviendo a lo que decíamos antes: no hay que confiar plenamente en los que nos dicen estas herramientas.
-Entendemos que siempre tiene que haber una persona supervisando…
Efectivamente.
-¿Así pues, si se equivoca la IA en un texto científico, de quién será la culpa, del programa informático, o del científico que opera con este sistema?
En mi opinión, la responsabilidad recaerá sobre el científico que firma el artículo, independientemente de que aplique o no una herramienta basada en IA. Como digo, sería un mal uso pedir a uno de estos sistemas que escriba un artículo completo a partir de su propio análisis de los datos reales en el marco de un proyecto de investigación… ahora mismo no estamos en esa fase, por lo que el responsable último es la persona, el humano, el científico que realiza la investigación y que elabora el manuscrito.
-¿Dado que el asistente de IA sirve de apoyo, en cierto modo también ayuda a evitar tareas hasta cierto punto engorrosas? ¿O, por otro lado, podría ayudar a ganar tiempo en otro tipo de tareas, como acelerar la recogida de referencias bibliográficas para un artículo?
Y no solamente referencias bibliográficas. Tenemos que ser más ambiciosos. Cuando tenemos un conjunto de datos de un proyecto de investigación, normalmente lo que hacemos es analizarlos mediante programas de análisis estadístico. No quiere decir que, con la IA, no vayamos a recurrir a estos métodos de análisis estadístico. Pero podemos pedir al programa de Inteligencia Artificial que nos estructure la información y que nos dé lo que los científicos denominamos ‘análisis descriptivo’ de los datos, en cuestión de segundos. Y pedírselo, además, empleando un lenguaje humano, no un lenguaje de código como el usado por la mayoría de programas de análisis estadístico.
Los nuevos asistentes de IA, que también resuelven problemas de programación, tienen capacidad para mejorar mucho nuestros flujos y tiempos de trabajo. No los veo como un sustituto, sino como una herramienta que va a cambiar -y que ya está cambiando- nuestros flujos de trabajo. En principio, lo que yo veo son ventajas, si bien también es verdad que cualquier innovación generada por la humanidad tiene, aparte de ventajas, sus inconvenientes. Aquí quizás el inconveniente principal sea el de caer en la tentación de pensar que el asistente nos sustituye y que toda la información que nos proporciona es 100% correcta y perfecta. Pues no, tenemos que supervisar la información que nos dé, no darla por buena, y mantener la crítica científica como ya hacemos en condiciones normales, aunque, eso sí, sin dejar de aprovechar lo que esta novedosa tecnología nos ofrece.