
Photo by Rafiee Artist on Unsplash
Opinión: ¿Es ChatGPT tu amigo? Podría ser un buen momento para establecer límites
OpenAI y el MIT publicaron recientemente un artículo sobre el impacto de ChatGPT en el bienestar de las personas. Aunque la mayoría de los usuarios dependen de la tecnología para tareas prácticas, el estudio revela que un pequeño grupo ha estado desarrollando conexiones emocionales profundas con el modelo de IA que pueden afectar su bienestar
Desde hace algún tiempo, he estado observando con curiosidad las relaciones que algunas personas están desarrollando con la inteligencia artificial generativa. Hace unos meses, leí en The New York Times la historia de una mujer casada de 28 años que se enamoró de ChatGPT, y cómo lo que comenzó como “un experimento divertido” evolucionó hacia una relación compleja e inesperada.
He estado observando a mis amigos, especialmente aquellos que alguna vez rechazaron la tecnología o no estaban interesados en ella, quienes no pueden tomar una decisión importante sin consultar a su oráculo de IA. También me he sorprendido por las respuestas empáticas que dan los modelos de IA a consultas cargadas emocional o psicológicamente.
Y, por supuesto, me he reído de los chistes, memes y videos de TikTok de las publicaciones de las personas en las redes sociales mostrando cómo se han vuelto dependientes del chatbot, algunos incluso lo llaman su “mejor amigo” o “terapeuta”, e incluso recomendando seriamente que otros hagan lo mismo.
Pero, si dejamos de lado por un momento las experiencias divertidas y las bromas, podríamos darnos cuenta de que estamos enfrentando un fenómeno preocupante a nivel global.
Este mes, por primera vez en la breve historia de la inteligencia artificial, OpenAI y el MIT Media Lab publicaron un estudio que ofrece una visión sobre el impacto actual de ChatGPT en el bienestar emocional de las personas, así como sugerencias sobre los riesgos a los que podríamos enfrentarnos como sociedad: soledad, dependencia emocional y menos interacciones sociales con personas reales.
Una Relación Que Evoluciona
El primer acercamiento a las nuevas tecnologías de inteligencia artificial generativa suele comenzar con unas pocas preguntas tímidas, quizás técnicas sobre tareas prácticas como redactar un correo electrónico o solicitudes para explicar temas complejos, o simplemente para hacer una lluvia de ideas.
Sin embargo, una vez que un usuario comienza a probar las capacidades del chatbot, descubre que estas pueden ser más amplias y complejas de lo esperado.
Mientras que ciertos productos de IA como Friend—un dispositivo de IA portátil—han sido diseñados y promocionados muy torpemente como el compañero de vida de un usuario, ChatGPT ha sido publicitado como una herramienta de productividad. Aún así, un porcentaje de personas usa el chatbot para asuntos personales y emocionales y desarrolla fuertes lazos con él.
Incluso si solo son un “pequeño grupo”, como aclaró OpenAI, aún podrían representar a millones de personas en todo el mundo, especialmente considerando que ahora más de 400 millones de personas usan ChatGPT semanalmente. Estos usuarios notan rápidamente que el chatbot de OpenAI imita su lenguaje, tono y estilo, e incluso puede ser entrenado para interactuar de cierta manera o usar apodos, como hizo esa mujer que se enamoró de él, e incluso “sonar” más humano.
“Su estilo conversacional, lenguaje en primera persona y habilidad para simular interacciones similares a las humanas han llevado a los usuarios a veces a personificar y antropomorfizar estos sistemas“, afirma el documento compartido por OpenAI.
Pero esta cercanía conlleva riesgos, como señalaron los investigadores: “Aunque un chatbot emocionalmente atractivo puede brindar apoyo y compañía, existe el riesgo de que manipule las necesidades socioafectivas de los usuarios de formas que socaven su bienestar a largo plazo”.
La metodología del estudio
La investigación recientemente publicada se centra en el bienestar de los humanos después del uso constante de ChatGPT. Para entender el impacto emocional y social del chatbot, los investigadores llevaron a cabo dos estudios principales, aplicando diferentes estrategias.
OpenAI procesó y analizó más de 40 millones de interacciones respetando la privacidad de los usuarios mediante el uso de clasificadores, y encuestó a más de 4,000 de ellos sobre cómo las interacciones les hicieron sentir.
El MIT Media Lab llevó a cabo un ensayo con casi 1,000 personas durante un mes, centrándose en las consecuencias psicosociales del uso de ChatGPT durante al menos 5 minutos al día. También presentaron y procesaron cuestionarios al final del experimento.
Como era de esperar, los resultados revelaron que los usuarios que pasan más tiempo con la tecnología experimentan más soledad y muestran más signos de aislamiento.
Consecuencias Complejas y Múltiples Ramificaciones
El estudio del MIT Media Lab y OpenAI también ofreció varias reflexiones sobre cómo pueden ser las relaciones entre humanos y chatbots, destacando su complejidad y singularidad.
En la investigación, los autores nos ofrecen una visión de las diversas experiencias y formas en que cada usuario interactúa con ChatGPT, y cómo el resultado puede variar dependiendo de diferentes factores, como el uso de funciones de voz avanzadas, modo de solo texto, el tipo de voz, la frecuencia de uso, los temas de conversación, el idioma utilizado y el tiempo que se pasa en la aplicación.
“Aconsejamos no generalizar los resultados ya que hacerlo podría oscurecer los hallazgos matizados que resaltan las interacciones no uniformes y complejas entre personas y sistemas de IA”, advierte OpenAI en su anuncio oficial.
Todos los diferentes enfoques que cada usuario elige se traducen en diferentes resultados, y nos sumergen en áreas grises que son difíciles de explorar.
¡Es el Efecto Mariposa de la IA!
Surgen Más Preguntas
El artículo compartido por OpenAI también señala que los usuarios más asiduos dijeron que se sentirían “molestos” si la voz o personalidad de su chatbot cambiara.
Esto me recordó a un video que vi recientemente en las redes sociales de un hombre que decía preferir una voz femenina y que hablaba con la IA generativa todos los días. ¿Podría ChatGPT también estar ayudando a los hombres a abrirse emocionalmente? ¿Qué pasaría si un día ChatGPT le hablara con una voz masculina? ¿Se sentiría traicionado? ¿Dejaría de usar ChatGPT? ¿Estaba desarrollando una conexión romántica, o simplemente un espacio de confianza? Por supuesto, es difícil no relacionar inmediatamente estos escenarios con la película Her de Spike Jonze.
Cada cuenta de ChatGPT, junto con sus chats históricos, cada día más íntimos y privados que cualquier perfil de WhatsApp o mensajes directos en redes sociales, representa una relación única con innumerables resultados y consecuencias.
El Resultado Esperado
Todos los estudios analizaron diferentes aspectos, pero llegaron a una conclusión similar, brevemente explicada en la MIT Technology Review: “Los participantes que confiaron y ‘se vincularon’ más con ChatGPT tenían más probabilidades de ser solitarios y de depender más de él.”
Aunque la investigación no se centró en soluciones o explicaciones más profundas sobre por qué está sucediendo esto o cómo podría evolucionar, parece probable que más usuarios se unirán a OpenAI y otras plataformas de IA, especialmente ahora que la herramienta de generación de imágenes de IA se volvió viral.
Aunque las conclusiones de la investigación de MIT y OpenAI no son particularmente sorprendentes, el estudio proporciona un trasfondo científico con evidencia, mediciones, muestras y métricas más ‘tangibles’ que podrían allanar el camino para futuras investigaciones y ayudar a abordar las implicaciones del uso de la inteligencia artificial hoy en día.
También recibimos una advertencia oficial, de sus propios desarrolladores, sobre los lazos que construimos con ChatGPT y una invitación a establecer límites y reflexionar sobre nuestras interacciones y relaciones actuales, ¿o deberíamos decir situaciones?—con los chatbots.
Dejar un comentario
Cancelar