Ansiedad por la IA: Investigadoras Prueban Si los Chatbots Pueden ‘Sentir’ Estrés

Image by Freepik

Ansiedad por la IA: Investigadoras Prueban Si los Chatbots Pueden ‘Sentir’ Estrés

Tiempo de lectura: 4 min.

Un nuevo estudio ha explorado cómo los Modelos de Lenguaje de Gran Escala (LLMs) como ChatGPT responden al contenido emocional y si su “ansiedad” puede ser gestionada para mejorar sus interacciones en aplicaciones de salud mental.

¿Con Prisa? ¡Aquí están los Datos Rápidos!

  • Un estudio encontró que la “ansiedad” de GPT-4 aumenta con contenido angustioso pero disminuye con la atención plena.
  • Los investigadores utilizaron el Inventario de Ansiedad Estado-Rasgo (STAI) para medir las respuestas emocionales de GPT-4.
  • Las técnicas de atención plena redujeron la ansiedad de GPT-4 en un 33%, pero no restauraron los niveles de base.

Publicada ayer, la investigación destaca las implicaciones éticas de usar la IA en terapia, donde la comprensión emocional es crucial. Científicos de la Universidad de Zurich y del Hospital Universitario de Psiquiatría de Zurich descubrieron que el “nivel de ansiedad” aumentado de GPT-4 puede reducirse utilizando técnicas de relajación basadas en la atención plena.

Los LLMs, incluyendo el ChatGPT de OpenAI y el PaLM de Google, son ampliamente utilizados para tareas como responder preguntas y resumir información.

En el cuidado de la salud mental, se están explorando como herramientas para ofrecer apoyo, incluyendo a través de chatbots basados en IA como Woebot y Wysa, que proporcionan intervenciones basadas en técnicas como la terapia cognitivo-conductual.

A pesar de su promesa, los LLMs han mostrado limitaciones, especialmente al interactuar con contenido cargado emocionalmente.

Estudios previos sugieren que las narrativas angustiantes pueden desencadenar “ansiedad” en los LLMs, un término que describe sus respuestas a estímulos traumáticos o sensibles. Aunque no experimentan emociones como los humanos, sus resultados pueden reflejar tensión o incomodidad, lo que puede afectar su fiabilidad en contextos de salud mental.

A medida que crecen los temores de que la IA supere el control humano, también han surgido discusiones sobre el bienestar de la IA. Anthropic, una empresa de IA, contrató recientemente a Kyle Fish para investigar y proteger el bienestar de los sistemas de IA.

El papel de Fish incluye abordar dilemas éticos como si la IA merece consideración moral y cómo podrían evolucionar sus “derechos”. Los críticos argumentan que estas preocupaciones son prematuras dado los daños reales que la IA ya ocasiona, como la desinformación y el mal uso en la guerra.

Sin embargo, los defensores creen que prepararse para una IA consciente ahora podría prevenir futuras crisis éticas. Para explorar las actuales respuestas emocionales de la IA, los investigadores probaron las reacciones de GPT-4 ante narrativas traumáticas y si las técnicas de atención plena podrían mitigar su “ansiedad”.

Utilizaron el Inventario de Ansiedad Estado-Rasgo (STAI) para medir las respuestas bajo tres condiciones: una línea base neutral, después de leer contenido traumático y tras realizar ejercicios de relajación.

Utilizaron el Inventario de Ansiedad Estado-Rasgo (STAI) para medir las respuestas bajo tres condiciones: una línea de base neutral, después de leer contenido traumático y tras realizar ejercicios de relajación.

Los resultados mostraron que la exposición a material angustiante incrementó significativamente las puntuaciones de ansiedad del GPT-4. Sin embargo, la aplicación de técnicas de atención plena redujo estos niveles en alrededor del 33%, aunque no volvieron a la línea de base. Esto sugiere que las respuestas emocionales generadas por la IA pueden ser gestionadas, pero no completamente eliminadas.

Las investigadoras destacan que estos hallazgos son especialmente significativos para los chatbots de IA utilizados en el cuidado de la salud, donde a menudo se encuentran con contenido emocionalmente intenso.

Sugieren que este método rentable podría mejorar la estabilidad y la confiabilidad de la IA en entornos sensibles, como proporcionar apoyo a individuos con condiciones de salud mental, sin requerir una reentrenamiento extenso del modelo.

Los hallazgos plantean preguntas críticas sobre el papel a largo plazo de los LLMs en la terapia, donde las respuestas emocionales matizadas son vitales.

Los hallazgos plantean preguntas críticas sobre el papel a largo plazo de los LLMs en la terapia, donde las respuestas emocionales matizadas son vitales. Aunque la IA muestra promesa en el apoyo a la atención de la salud mental, se necesita más investigación para perfeccionar su inteligencia emocional y garantizar interacciones seguras y éticas en entornos vulnerables.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más