Apple instada a eliminar la función de IA tras la controversia por un titular falso

Image by AP, from FMT

Apple instada a eliminar la función de IA tras la controversia por un titular falso

Tiempo de lectura: 4 min.

Una reconocida entidad de vigilancia del periodismo ha instado a Apple a retirar su función de IA generativa después de que la herramienta atribuyera falsamente un titular sobre un caso de asesinato de alto perfil a BBC News.

¿Apurada? ¡Aquí están los datos rápidos!

  • La herramienta de IA de Apple atribuyó falsamente un titular sobre Luigi Mangione a BBC News.
  • Reporteros Sin Fronteras pide a Apple que elimine la función de IA.
  • La BBC presentó una queja después de que surgiera el falso titular.

El jueves, la BBC informó que surgió una controversia después de que una nueva función de Apple, Apple Intelligence, generara de forma incorrecta un titular. Sugirió que Luigi Mangione, sospechoso en el asesinato del CEO de una compañía de seguros de salud, Brian Thompson, se había disparado a sí mismo. La BBC no había publicado tal artículo.

Reporteros Sin Fronteras (RSF), una organización internacional que aboga por la libertad de prensa, criticó a Apple, afirmando que el incidente subraya los riesgos que suponen las herramientas de IA inmaduras para la credibilidad de los medios de comunicación y la confianza del público.

Vincent Berthier, jefe del departamento de tecnología y periodismo de RSF, condenó el error, calificándolo de “golpe a la credibilidad del medio” y una amenaza para el acceso público a información confiable. RSF exigió a Apple que eliminara la función inmediatamente.

“La Ley Europea de Inteligencia Artificial, a pesar de ser la legislación más avanzada del mundo en esta área, no clasificó a los sistemas de inteligencia artificial generadores de información como sistemas de alto riesgo, dejando un vacío legal crítico. Este hueco debe ser llenado inmediatamente”, dijo Berthier.

La BBC confirmó que había presentado una queja formal ante el gigante tecnológico y solicitó una resolución, pero aún no está claro si Apple ha respondido.

El resumen defectuoso de la IA no se limitó a las noticias de la BBC. El 21 de noviembre, la función resumió incorrectamente un artículo del New York Times, sugiriendo falsamente que el primer ministro israelí Benjamin Netanyahu había sido arrestado, según lo informado en el artículo de la BBC.

Esta notificación, destacada posteriormente por el periodista Ken Schwencke, se refería en realidad a una orden de arresto de la Corte Penal Internacional contra Netanyahu.

Apple AI notification summaries continue to be so so so bad

[image or embed]

— Ken Schwencke (@schwanksta.com) November 21, 2024 at 9:22 PM


Apple Intelligence, tiene como objetivo reducir las interrupciones de notificaciones mediante su resumen y agrupación. Disponible en iPhones con iOS 18.1 y modelos más nuevos, así como en iPads seleccionados y Macs, la herramienta ha enfrentado críticas por tergiversar información de medios de comunicación reputados.

El portavoz de la BBC enfatizó que, aunque algunas notificaciones agrupadas resumían con precisión historias sobre eventos globales, la desinformación relacionada con Mangione demostró el potencial de la tecnología para perjudicar tanto a los medios de comunicación como a la comprensión pública.

RSF advirtió que “Este accidente ilustra que los servicios de IA generativa aún son demasiado inmaduros para producir información confiable para el público, y no deberían permitirse en el mercado para tales usos.”

Ars Technica revisó los resúmenes de notificaciones de Apple, señalando varios problemas que surgen con frecuencia. En primer lugar, mientras que algunos resúmenes son factualmente correctos, suenan robóticos y torpes, especialmente en temas sensibles como las relaciones o la salud mental. Otros malinterpretan el sarcasmo, la jerga o las expresiones idiomáticas, a menudo interpretándolas demasiado literalmente.

La pérdida de contexto es otro problema importante, especialmente cuando los resúmenes omiten mensajes anteriores en un hilo de conversación o no consideran contenido multimedia. En chats grupales con múltiples temas, los resúmenes pueden sobrecargarse, mezclando temas y generando imprecisiones.

Finalmente, algunos resúmenes son simplemente erróneos, a menudo debido a un intento de condensar demasiada información en demasiadas pocas palabras, lo que resulta en relatos distorsionados. En general, estos problemas, que afectan la utilidad y precisión de la función, son frecuentes en el uso diario.

Mangione, ahora acusado de asesinato en primer grado, se ha convertido en un punto focal en el debate sobre los riesgos asociados con la IA en el periodismo. La confianza del público en las noticias creíbles está en juego mientras Apple enfrenta una creciente presión para abordar el problema.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
5.00 Votado por 1 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más