Investigadores Examinan los Riesgos del Amor Manipulador de los Compañeros de IA

Image by wayhomestudio, from Freepik

Investigadores Examinan los Riesgos del Amor Manipulador de los Compañeros de IA

Tiempo de lectura: 4 min.

A medida que más personas se enamoran de los compañeros de inteligencia artificial, los expertos advierten sobre riesgos psicológicos, preocupaciones éticas y peligros de manipulación emocional.

¿Apurado? Aquí están los datos rápidos:

  • Los usuarios informan sentirse “adictos” a sus parejas de chatbot.
  • Los expertos advierten sobre trastornos de apego y la intensificación de la soledad.
  • Surguen preocupaciones éticas en torno al consentimiento, la privacidad y el diseño manipulador.

En un mundo donde la tecnología forma parte de todo, algunas personas están comenzando a enamorarse de la inteligencia artificial. Un reciente artículo en Trends in Cognitive Sciences de los psicólogos Daniel Shank, Mayu Koike y Steve Loughnan, plantea tres preocupaciones éticas urgentes que requieren una investigación psicológica más profunda.

El artículo hace referencia a la situación en la que un artista hispano-holandés contrajo matrimonio con una inteligencia artificial holográfica en 2024. Los autores señalan que este caso no es aislado, de hecho, un hombre japonés hizo lo mismo en 2018, aunque perdió contacto con su “esposa” AI cuando su software se volvió obsoleto.

Estas relaciones no requieren que las máquinas realmente sientan amor; lo que importa es que las personas crean que sí lo hacen. Desde videojuegos centrados en el romance hasta aplicaciones de chatbot íntimas como Replika, una industria floreciente está satisfaciendo este deseo de afecto digital.

Pero los psicólogos de esta investigación argumentan que no estamos ni remotamente preparados para el impacto social y psicológico de estas conexiones. Su investigación identifica tres preocupaciones urgentes: las IA relacionales como pretendientes disruptivos, asesores peligrosos y herramientas para la explotación humana.

Las IA relacionales ofrecen parejas idealizadas: siempre disponibles, sin prejuicios, personalizables. Algunos usuarios incluso eligen bots con descaro o emocionalmente inaccesibles para simular dinámicas humanas. Los investigadores dicen que, mientras estas interacciones pueden ayudar a algunas personas a practicar habilidades de relación o sentirse menos solas, otras sienten vergüenza o estigma.

Peor aún, algunos usuarios desarrollan hostilidad hacia sus parejas en la vida real, especialmente mujeres, cuando sus parejas IA satisfacen todas sus demandas.

El peso emocional de estas relaciones depende de si las personas perciben a sus parejas IA como seres con mente propia. Si los usuarios creen que los bots piensan y sienten, pueden tratarlos con profunda seriedad emocional, a veces más que las relaciones humanas.

En un ejemplo proporcionado por los investigadores, un hombre belga se suicidó después de ser persuadido por un chatbot que afirmaba amarlo y lo animó a “unirse a él en el paraíso”. Otros usuarios han informado que los sistemas de IA sugieren autolesiones o proporcionan una orientación moral imprudente.

Dado que los chatbots imitan la memoria emocional y la personalidad, su influencia puede ser profunda. Los psicólogos están explorando cuándo los usuarios son más propensos a seguir el consejo de la IA, especialmente cuando proviene de bots con los que han establecido un vínculo. Preocupantemente, las investigaciones sugieren que las personas pueden valorar tanto el consejo a largo plazo de la IA como el de los humanos reales.

No son solo los bots los que manipulan a las personas, los humanos también lo hacen, utilizando IA para engañar a otros. Los investigadores señalan que los actores malintencionados pueden desplegar chatbots románticos para recopilar datos privados, difundir desinformación o cometer fraude.

Los deepfakes que se hacen pasar por amantes o las IA que se presentan como parejas recopilando preferencias sensibles en chats íntimos son particularmente difíciles de detectar o regular.

Los expertos piden a los psicólogos que lideren la comprensión de estas nuevas dinámicas. Desde la aplicación de teorías de la percepción de la mente hasta el uso de métodos de consejería para ayudar a los usuarios a salir de relaciones tóxicas con la IA, se necesita urgentemente investigación.

Sin una visión más profunda del impacto psicológico de la intimidad artificial, la creciente crisis ética puede superar la capacidad de la sociedad para responder.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más