Un estudio de la BBC revela que los asistentes de IA tienen dificultades con la precisión del contenido de noticias

Photo by Roman Kraft on Unsplash

Un estudio de la BBC revela que los asistentes de IA tienen dificultades con la precisión del contenido de noticias

Tiempo de lectura: 3 min.

La BBC ha publicado un nuevo estudio que revela que los asistentes de IA disponibles al público tienen dificultades para proporcionar respuestas precisas a preguntas de expertos sobre noticias publicadas en su sitio web.

¿Apurada? ¡Aquí están los datos rápidos!

  • Periodistas y expertos de la BBC revelaron que el 51% de las respuestas proporcionadas por los populares chatbots de IA contenían problemas significativos.
  • El estudio muestra que el 13% de las citas proporcionadas por los modelos de IA fueron alteradas o inventadas.
  • El 19% de la información proporcionada por las herramientas de IA, a partir del contenido de Noticias de la BBC, era inexacta.

De acuerdo con el estudio compartido por la BBC, los investigadores evaluaron chatbots generativos de IA populares como ChatGPT, Perplexity, Copilot y Gemini. El estudio se llevó a cabo durante un mes—proporcionando acceso al sitio web de la BBC— y mostró que el 51% de las respuestas dadas por las herramientas de IA presentaban problemas significativos.

Las periodistas y expertas consideraron la precisión, imparcialidad y análisis de cómo las tecnologías de IA representaban el contenido proporcionado. Otros hallazgos en el estudio mostraron que el 13% de las citas proporcionadas por los modelos de IA estaban alteradas desde la fuente original o fabricadas, y que el 19% de los resultados referentes al contenido de la BBC contenían errores factuales o inexactitudes, relacionados con números, fechas o declaraciones.

“Estamos emocionados con el futuro de la IA y el valor que puede aportar a las audiencias”, dijo Pete Archer, Director del Programa de IA Generativa en la BBC, en un anuncio público. “Pero la IA también está trayendo desafíos significativos para las audiencias. Las personas pueden pensar que pueden confiar en lo que están leyendo de estos asistentes de IA, pero esta investigación muestra que pueden producir respuestas a preguntas sobre eventos de noticias clave que están distorsionadas, que son factualmente incorrectas o engañosas”.

Las expertas señalaron que la información proporcionada por ChatGPT y Copilot no estaba actualizada. Como ejemplo, mencionaron que ambos chatbots afirmaban que Rishi Sunak y Nicola Sturgeon seguían desempeñándose como Primer Ministro y Primera Ministra respectivamente, después de que ambos dejaron sus cargos.

La BBC también se ha quejado de otras tecnologías que proporcionan información inexacta, como las alertas de noticias resumidas de la Inteligencia de Apple proporcionando declaraciones falsas. El gigante de la tecnología anunció recientemente una nueva actualización de la función de resumen de noticias de IA después de que la revista presentó una queja.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más