Redacción Farmacosalud.com
Según un artículo publicado en la revista médica 'BMJ' que se centra en el uso de la Inteligencia Artificial (IA) en el contexto de la soledad humana, y que explora la tendencia a convertir los chatbots conversacionales en confesionarios para los usuarios, 'la IA, como cualquier tecnología nueva, podría servir como puente hacia la conexión humana auténtica, en lugar de sustituirla'. De todo ello se deduce que, en el futuro, la Inteligencia Artificial podría tener un papel como asistente, más que como un recurso básico, para combatir la soledad no deseada. De hecho, Tom Vanderschoot, director y psicólogo de Next Step Psicología (Valencia), no cree que esta tecnología superavanzada “pueda sustituir ni a amigos ni a terapeutas. Más allá de sus limitaciones técnicas -como la ausencia de comunicación no verbal- existen cuestiones éticas de gran calado. Por ejemplo: si una recomendación de la IA provoca daño, ¿quién asume la responsabilidad?”

Tom Vanderschoot
Fuente: T. Vanderschoot / Next Step Psicología
“La IA puede desempeñar un papel de apoyo útil. Puede ayudar a formular un mensaje difícil, reflexionar sobre cómo ampliar la red social u ordenar pensamientos. Pero siempre debe utilizarse con espíritu crítico y sin delegar en ella procesos que requieren juicio humano. La IA no debe pensar por nosotros”, agrega. Es decir, que por más que este revolucionario sistema neuroinformático perfeccione sus algoritmos en pro de la amistad, difícilmente podrá llegar a convertirse en un ente propagador de afecto personal, puro y desinteresado que madura y que fortalece su complicidad mediante el trato, como tampoco podrá colocarse al nivel de los terapeutas humanos en lo que es el ejercicio de cuidar de la salud mental de las personas.
“La soledad no deseada es cada vez más frecuente, especialmente entre adolescentes y jóvenes”
El trance de no sentirse acompañado es un problema al alza, propio de la modernidad. El colectivo de menores de 35 años se configura como un perfil emergente de la soledad no deseada, según se desprende del Mapa Nacional de la Soledad no Deseada. Además, el artículo publicado en 'BMJ' establece que, de acuerdo con un trabajo de la BBC, el riesgo de soledad es particularmente alto en las personas más jóvenes (de 16 a 24 años). Paradójicamente, la sociedad actual, la más conectada de la historia, es la más tendente a la sensación de no acompañamiento.
“Efectivamente, los datos apuntan a que la soledad no deseada es cada vez más frecuente, especialmente entre adolescentes y adultos jóvenes, aunque conviene ser prudentes antes de extraer conclusiones categóricas. Las estimaciones de prevalencia de la sensación de soledad oscilan entre el 10% y el 30%, lo que indica que la mayoría de la población se siente razonablemente conectada con los demás”, señala Vanderschoot.
Existen varios factores que pueden contribuir a acrecentar el sentimiento de soledad, particularmente entre los jóvenes. La salud física y mental desempeñan un papel relevante: quienes atraviesan dificultades en estos ámbitos suelen tener menos oportunidades o recursos para relacionarse con sus iguales. “Esto puede derivar en un círculo vicioso, ya que el aislamiento social tiende a agravar el malestar psicológico. Además, influyen otros elementos como la personalidad, experiencias vitales negativas o transiciones importantes (cambios educativos, laborales o vitales)”, subraya el experto.

Autor/a: BiancoBlue
Fuente: depositphotos.com
Un 36% de los padres dicen que sus hijos usan chatbots de IA para recibir apoyo emocional
En el artículo de 'BMJ' se indica, asimismo, que los sistemas de chatbots con IA (aplicaciones conversacionales de Inteligencia Artificial) 'se utilizan cada vez más como confidentes predilectos' y que 'el 36% de los padres informan que sus hijos usan chatbots de IA para apoyo emocional'. Se abre el debate, pues, sobre si tiene sentido o no considerar a una máquina como a una especie de amigo.
“La Inteligencia Artificial puede ser útil en muchos aspectos de la vida cotidiana y, potencialmente, también en el ámbito del bienestar emocional. No hay nada intrínsecamente problemático en utilizarla como una herramienta para reflexionar sobre lo que pensamos o sentimos. De hecho, algunos pacientes refieren haber obtenido nuevas perspectivas a partir de conversaciones con sistemas como ChatGPT”, refiere Vanderschoot.
“El problema surge cuando estas interacciones se convierten en la norma y sustituyen a relaciones reales o a la atención profesional en el ámbito de la salud mental -prosigue el especialista-. En esos casos, el riesgo es considerable. Es fundamental mantener una actitud crítica: la IA no transmite la verdad, comete errores y no posee criterio propio. Además, si las interacciones sociales de las personas -especialmente jóvenes- se limitan en gran medida a conversaciones con chatbots, puede verse afectado el desarrollo de habilidades sociales básicas, lo que a largo plazo podría incrementar el riesgo de soledad. A ello se suma la incertidumbre sobre el uso y la protección de los datos personales compartidos”.
“Un chatbot no puede ofrecer una sonrisa, una mirada de comprensión…”
El caso es que tener como confidente a un programa informático puede generar una sensación inicial de sentirse escuchado y comprendido, pero a medio y largo plazo -con el paso del tiempo y una vez superado el factor de novedad- este vínculo digital podría llegar a alimentar aún más la sensación de no estar realmente acompañado, lo que a su vez podría agravar el sentimiento de soledad. “Exactamente. No se trata de una conexión real. Un chatbot no puede ofrecer elementos esenciales de la interacción humana: una sonrisa, una mirada de comprensión, un gesto de afecto o un abrazo. Muchos de los componentes clave que permiten construir vínculos significativos están ausentes. Además, el uso continuado de estas herramientas puede limitar la oportunidad de practicar habilidades sociales fundamentales para la vida cotidiana”, sostiene el director y psicólogo de Next Step Psicología.

Autor/a: yacobchuk1
Fuente: depositphotos.com
En esta línea, hay que tener muy presente lo que apunta el texto de 'BMJ': 'a diferencia de las interacciones humanas reales, los chatbots ofrecen disponibilidad y paciencia ilimitadas, y es poco probable que presenten a los usuarios contranarrativas desafiantes'. Lógicamente, esa conducta digital desprovista o bien aligerada de enjuiciamientos -por decirlo de algún modo- no está ofreciendo espacio para la réplica, algo que, obviamente, complace al ser humano, ya que no se ve obligado a trabajarse los argumentos ni tener que confrontar opiniones divergentes.
Garbage in, garbage out
Así pues, parece que la IA suele dar la razón al usuario de carne y hueso, siendo precisamente eso -que la persona sienta que no se le contradice y que, por tanto, no tiene que defender sus razonamientos- lo que en realidad, y en virtud de la ley del mínimo esfuerzo, se estaría buscando en los confesionarios virtuales superavanzados. “Sí, es un riesgo real. Los sistemas de IA funcionan a partir de patrones estadísticos derivados de los datos con los que han sido entrenados. No razonan de forma independiente. En análisis de datos se suele decir: garbage in, garbage out. La calidad de las respuestas depende en gran medida de la calidad de los datos y de las preguntas que se les plantean”, remarca Vanderschoot.
Por ello, existe el peligro de que la IA tienda a confirmar lo que el usuario expresa o a ofrecer respuestas alineadas con patrones dominantes, sin evaluar si lo que se dice es correcto, justo o verdadero. “Esto puede reforzar sesgos y evitar el esfuerzo cognitivo que supone contrastar ideas o elaborar argumentos propios”, advierte.
¿Entrenar a la IA para que los humanos aprendan lo que es la tolerancia a la frustración?
Llegados a este punto, ¿habría que entrenar a los chatbots de IA para contradecir a los usuarios en ciertos escenarios, con el fin de que las personas aprendan que hay una cosa que se llama tolerancia a la frustración, que es una herramienta muy necesaria para la supervivencia emocional? ¿O bien replicar o debatir podría generar aún más soledad debido a que el humano, desilusionado por no haber recibido el trato esperado, podría acabar desprendiéndose del amigo chatbot de IA?
“Esta es una cuestión clave -responde Vanderschoot-. En las relaciones humanas sanas es fundamental saber tolerar la discrepancia, aceptar ser cuestionado y aprender a argumentar mejor. Sin esta capacidad, mantener vínculos sociales resulta muy difícil. Es importante que, especialmente los jóvenes, comprendan que empatía y apoyo no equivalen a aprobación incondicional. No necesitamos que nos den siempre la razón para no sentirnos solos. Sin ir más lejos, muchas veces es a través del desacuerdo -cuando se expresa con respeto, empatía y cuidado- como los lazos sociales se fortalecen”.
Bibliografía facilitada por Tom Vanderschoot
• Korzhina Y, Hemberg J, Nyman-Kurkiala P & Fagerström L. Causes of involuntary loneliness among adolescents and young adults: an integrative review, International Journal of Adolescence and Youth. 2022;27(1):493-514, DOI: 10.1080/02673843.2022.2150088
• Buecker, S, Mund M, Chwastek S, Sostmann M, & Luhmann M. Is Loneliness in Emerging Adults Increasing Over Time? A Preregistered Cross-Temporal Meta-Analysis and Systematic Review. Psychological Bulletin. 2021;147(8):787-805.




