Las Dificultades de ChatGPT con las Citas Precisas, Generando Preocupaciones Para Los Editores
Los frecuentes errores de citación de ChatGPT, incluso con contenido licenciado, socavan la confianza de los editores y resaltan los riesgos de que las herramientas de IA generativa tergiversen el periodismo.
¿Apurado? ¡Aquí están los datos rápidos!
- ChatGPT a menudo fabrica o tergiversa citas, lo que genera preocupaciones para los editores.
- Los investigadores encontraron que 153 de 200 eran citas incorrectas, lo que socava la confianza en ChatGPT.
- ChatGPT a veces cita fuentes plagiadas, premiando el contenido sin licencia sobre el periodismo original.
Un estudio reciente de la Escuela de Periodismo de Columbia, Tow Center for Digital Journalism, ha arrojado una luz crítica sobre las prácticas de citación de ChatGPT, revelando desafíos significativos para los editores que dependen de la herramienta de IA generativa de OpenAI.
Los hallazgos sugieren que los editores enfrentan riesgos potenciales tanto a nivel reputacional como comercial debido a la fuente inconsistente y a menudo incorrecta de ChatGPT, incluso cuando existen acuerdos de licencia.
El estudio puso a prueba la capacidad de ChatGPT para atribuir citas de 200 artículos de 20 editores, incluyendo aquellos con acuerdos de licencia y aquellos en litigio contra OpenAI, tal como se informó esta semana por Columbia Journalism Review (CJR).
A pesar de las afirmaciones de OpenAI de proporcionar citas precisas, el chatbot devolvió respuestas incorrectas o parcialmente incorrectas en 153 casos. Solo siete veces reconoció su incapacidad para localizar la fuente correcta, optando a menudo por fabricar citas en lugar de ello.
Los ejemplos incluyen a ChatGPT atribuyendo falsamente una cita del Orlando Sentinel a Time y referenciando versiones plagiadas del contenido del New York Times de fuentes no autorizadas.
Incluso cuando los editores permitieron el acceso a los rastreadores de OpenAI, las citas a menudo se atribuían incorrectamente, como enlazar versiones sindicadas en lugar de los artículos originales.
Mat Honan, editor en jefe de MIT Tech Review, expresó escepticismo sobre la transparencia de ChatGPT, señalando que sus respuestas podrían confundir a los usuarios no familiarizados con las limitaciones de la IA.
“Desde mi perspectiva, estoy muy familiarizada con las tendencias de los chatbots a alucinar e inventar cosas […] Pero también sé que probablemente la mayoría de la gente no lo sabe. […] No creo que los pequeños descargos de responsabilidad que ves en estos chatbots sean suficientes”, dijo en CJR.
CJR señala que OpenAI defiende sus esfuerzos, destacando herramientas para que los editores gestionen la visibilidad del contenido y se comprometen a mejorar la precisión de las citas.
Sin embargo, el Centro Tow descubrió que permitir el rastreo o licenciar contenido no garantiza una representación precisa, con inconsistencias que abarcan tanto a los editores que participan como a los que no participan.
Las inexactitudes de ChatGPT al referenciar el contenido de los editores pueden erosionar la confianza en el periodismo y dañar la reputación de los editores. Cuando se atribuyen erróneamente o se tergiversan los artículos, las audiencias pueden tener dificultades para identificar las fuentes originales, diluyendo el reconocimiento de la marca.
Incluso los editores que permiten los rastreadores de OpenAI o que tienen acuerdos de licencia no están inmunes a estos errores, lo que destaca las fallas sistémicas. La tendencia de ChatGPT a proporcionar respuestas engañosamente seguras, en lugar de admitir las lagunas en su conocimiento, engaña a los usuarios y socava la transparencia.
Estas prácticas podrían alejar a las audiencias de fuentes de noticias creíbles, incentivar el plagio y debilitar la visibilidad del periodismo de alta calidad. Estas consecuencias ponen en peligro la integridad de la compartición de información y la confianza en las plataformas de medios digitales.
Dejar un comentario
Cancelar