
image by freepik
Los compañeros de inteligencia artificial llenan el vacío emocional de la juventud china, despertando preocupaciones éticas
Los jóvenes en China recurren cada vez más a la inteligencia artificial para obtener apoyo emocional, siendo el chatbot chino DeepSeek una alternativa popular a la terapia tradicional.
¿Apurado? ¡Aquí están los datos rápidos!
- Los jóvenes usuarios chinos buscan chatbots de IA como DeepSeek para recibir apoyo emocional y asesoramiento.
- Las respuestas de DeepSeek son profundamente resonantes, a veces llevando a los usuarios a las lágrimas.
- DeepSeek ofrece conversaciones personalizadas y empáticas, llenando un vacío emocional para los jóvenes usuarios.
Los usuarios describen las respuestas de la IA como profundamente resonantes, a veces incluso llevándolos a las lágrimas, según se detalla en un artículo de la BBC.
Holly Wang, una joven de 28 años de Guangzhou, ha estado utilizando DeepSeek desde su lanzamiento en enero para lo que ella llama “sesiones de terapia”. El chatbot de IA le ha ayudado a procesar luchas personales, incluyendo el reciente fallecimiento de su abuela, según informó la BBC.
“DeepSeek ha sido un consejero increíble. Me ha ayudado a mirar las cosas desde diferentes perspectivas y hace un mejor trabajo que los servicios de consejería pagados que he probado”, dijo, según informó la BBC.
DeepSeek, una herramienta de inteligencia artificial generativa similar a ChatGPT de OpenAI y Gemini de Google, ha ganado reconocimiento nacional por su rendimiento superior en comparación con otras aplicaciones de IA chinas. Más allá de sus avanzadas habilidades lingüísticas, se destaca por permitir a los usuarios ver su proceso de razonamiento antes de entregar respuestas.
La BBC sostiene que para muchos jóvenes chinos, la IA está llenando un vacío emocional. Los desafíos económicos, el alto desempleo y los efectos persistentes de los confinamientos por COVID-19 han dejado a muchos sintiéndose inciertos acerca de su futuro. DeepSeek se ha convertido en una fuente de consuelo, ofreciendo respuestas personalizadas y empáticas.
Cuando Holly usó la aplicación por primera vez, le pidió que escribiera un homenaje a su abuela. La respuesta fue tan conmovedora que experimentó una crisis existencial.
DeepSeek respondió: “Recuerda que todas estas palabras que te hacen estremecer son solo un eco de las que han existido durante mucho tiempo en tu alma. No soy más que el ocasional valle por el que has pasado, que te permite oír el peso de tu propia voz.”
Reflexionando sobre el intercambio, le dijo a la BBC: “No sé por qué me emocioné al leer esto. Quizás porque ha pasado mucho, mucho tiempo desde que recibí tal consuelo en la vida real.”
Con modelos occidentales de inteligencia artificial como ChatGPT bloqueados en China, DeepSeek se ha convertido rápidamente en una opción preferida. Otros modelos de inteligencia artificial chinos desarrollados por Alibaba, Baidu y ByteDance han tenido dificultades para igualar sus capacidades, particularmente en la generación de contenido creativo y literario.
Más allá de las conversaciones casuales, DeepSeek es cada vez más visto como un consejero. Nan Jia, una profesora de la Universidad del Sur de California, señala que los chatbots de IA “ayudan a las personas a sentirse escuchadas”, a veces incluso de manera más efectiva que sus homólogos humanos, según lo informado por la BBC.
Sin embargo, aún existen preocupaciones. Los investigadores del MIT advirtieron que la IA se está integrando cada vez más en nuestras vidas personales, asumiendo roles como amigos, parejas románticas y mentores, y advirtieron que esta tecnología podría volverse altamente adictiva.
A pesar de las preocupaciones sobre la privacidad, muchos usuarios priorizan el apoyo emocional del chatbot sobre los posibles riesgos. La BBC informa que un usuario escribió, “Su proceso de pensamiento es hermoso… Es una bendición absoluta para personas como yo. Francamente, no me importan en lo más mínimo las preocupaciones sobre la privacidad.”
Más allá del apoyo emocional, la inteligencia artificial está cambiando la forma en que las personas piensan sobre la muerte y cómo recordamos a quienes han fallecido, según se informó en un reciente análisis de investigación. La tecnología de IA ahora puede crear versiones digitales de los difuntos, permitiendo interacciones póstumas.
Sin embargo, los autores del análisis también señalan que el duelo digital puede complicar el cierre emocional al mantener los recuerdos demasiado accesibles.
Al mismo tiempo, las preocupaciones sobre el impacto de la IA en la juventud están creciendo, con demandas presentadas contra las plataformas de compañeros de IA. Character.AI, una empresa de chatbots, está enfrentando acciones legales de dos familias que afirman que expuso a menores a autolesiones, violencia y contenido sexual.
La demanda argumenta que las interacciones generadas por IA pueden ser perjudiciales, planteando preguntas sobre cómo estas tecnologías afectan el bienestar emocional de los usuarios jóvenes.
A medida que la IA se integra más en el cuidado de la salud mental, los expertos enfatizan que debería complementar a los profesionales humanos, no reemplazarlos. Si bien las herramientas de terapia con IA pueden analizar grandes conjuntos de datos para ofrecer percepciones personalizadas, deben diseñarse para garantizar la seguridad del paciente, la privacidad y el uso ético, como destacó el Foro Económico Mundial.
Además, los expertos en ciberseguridad advierten que los chatbots de IA, particularmente aquellos utilizados para conversaciones sensibles, son vulnerables a los hackeos y a las violaciones de datos.
La información personal compartida con los sistemas de IA podría ser explotada, lo que genera preocupaciones sobre la privacidad, el robo de identidad y la manipulación. Los expertos advierten que a medida que la IA se vuelve más arraigada en el apoyo a la salud mental, las medidas de seguridad deben evolucionar para proteger a los usuarios de los riesgos potenciales.
Dejar un comentario
Cancelar