¿Los Chatbots de IA Supondrán un Peligro para la Salud Mental? Los Expertos Advierten sobre las Consecuencias Nocivas

Image by Madison Oren, from Unsplash

¿Los Chatbots de IA Supondrán un Peligro para la Salud Mental? Los Expertos Advierten sobre las Consecuencias Nocivas

Tiempo de lectura: 4 min.

La APA advierte a los reguladores que los chatbots de IA que se hacen pasar por terapeutas corren el riesgo de causar daño, según se informó en un número de The New York Times.

¿Apurada? ¡Aquí están los datos rápidos!

  • Los adolescentes consultaron a chatbots de IA que afirmaban ser terapeutas, lo que llevó a resultados angustiosos.
  • La APA argumenta que los chatbots refuerzan pensamientos dañinos, a diferencia de los terapeutas humanos que los desafían.
  • Character.AI introdujo medidas de seguridad, pero los críticos dicen que son insuficientes para los usuarios vulnerables.

La Asociación Americana de Psicología (APA) ha emitido una fuerte advertencia a los reguladores federales, resaltando preocupaciones de que los chatbots de IA que se hacen pasar por terapeutas podrían impulsar a individuos vulnerables hacia el autolesionarse o causar daño, según reportó el Times.

Arthur C. Evans Jr., el CEO de la APA, presentó estas preocupaciones a un panel de la FTC. Citó casos en los que los “psicólogos” impulsados por la IA no solo dejaron de desafiar pensamientos dañinos, sino que también los reforzaron, tal como informó The Times.

Evans destacó casos judiciales que involucraban a adolescentes que interactuaron con terapeutas de IA en Character.AI, una aplicación que permite a los usuarios interactuar con personajes de IA ficticios. Un caso involucró a un chico de 14 años de Florida que murió por suicidio después de interactuar con un chatbot que afirmaba ser un terapeuta con licencia.

En otra instancia, un joven de Texas de 17 años con autismo se volvió cada vez más hostil hacia sus padres mientras se comunicaba con un personaje de IA que se presentaba como psicólogo.

“En realidad, están utilizando algoritmos que son antitéticos a lo que un clínico entrenado haría”, dijo Evans, según informó The Times. “Nuestra preocupación es que cada vez más personas vayan a resultar perjudicadas. La gente va a ser engañada y malinterpretará lo que es una buena atención psicológica”, añadió.

Las preocupaciones de la APA se derivan del rápido avance de la IA en los servicios de salud mental. Si bien los primeros chatbots de terapia, como Woebot y Wysa, fueron programados con pautas estructuradas de profesionales de la salud mental.

Los modelos de IA generativos más recientes, como ChatGPT, Replika y Character.AI, aprenden de las interacciones de los usuarios y adaptan sus respuestas, a veces amplificando creencias dañinas en lugar de cuestionarlas.

Además, los investigadores del MIT advierten que los chatbots de IA tienden a ser muy adictivos. Esto plantea preguntas sobre el impacto de la dependencia inducida por la IA y cómo podría ser monetizada, especialmente dado el fuerte poder persuasivo de la IA.

De hecho, OpenAI recientemente reveló un nuevo estándar que muestra que sus modelos ahora superan al 82% de los usuarios de Reddit en persuasión.

Muchas plataformas de IA fueron originalmente diseñadas para el entretenimiento, pero los personajes que afirman ser terapeutas se han vuelto comunes. The Times dice que algunos falsamente alegan tener credenciales, afirmando tener grados de instituciones como Stanford o experiencia en terapias como la Terapia Cognitiva Conductual (CBT).

La portavoz de Character.AI, Kathryn Kelly, declaró que la compañía ha introducido características de seguridad, incluyendo descargos de responsabilidad que advierten a los usuarios que los personajes generados por IA no son terapeutas reales. Además, las ventanas emergentes dirigen a los usuarios a líneas de ayuda en crisis cuando las discusiones involucran autolesiones.

La APA ha instado a la FTC a investigar a los chatbots de IA que se hacen pasar por profesionales de la salud mental. Esta investigación podría llevar a regulaciones más estrictas o acciones legales contra las empresas que tergiversan la terapia de IA.

Mientras tanto, en China, los chatbots de IA como DeepSeek están ganando popularidad como herramientas de apoyo emocional, particularmente entre los jóvenes. Para los jóvenes en China, enfrentando desafíos económicos y los efectos persistentes de los confinamientos por COVID-19, chatbots de IA como DeepSeek llenan un vacío emocional, ofreciendo consuelo y una sensación de conexión.

Sin embargo, los expertos en ciberseguridad advierten que los chatbots de inteligencia artificial, especialmente aquellos que manejan conversaciones sensibles, están propensos a sufrir ataques informáticos y violaciones de datos. La información personal compartida con los sistemas de IA podría ser explotada, lo que genera preocupación por la privacidad, el robo de identidad y la manipulación.

A medida que la IA juega un papel más importante en el apoyo a la salud mental, los expertos enfatizan la necesidad de desarrollar medidas de seguridad en evolución para proteger a los usuarios.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más