Opinión: La Epidemia de Alucinaciones de la IA, Una Crisis para la que No Estamos Preparados

Image generated with DALL·E through ChatGPT

Opinión: La Epidemia de Alucinaciones de la IA, Una Crisis para la que No Estamos Preparados

Tiempo de lectura: 8 min.

A pesar de las promesas continuas de reducir las alucinaciones de la inteligencia artificial, las principales herramientas de AI, desde ChatGPT hasta Perplexity y Gemini, e incluso la Inteligencia de Apple, siguen generando información falsa, a menudo con consecuencias alarmantes. Los expertos, incluyendo aquellos que advierten sobre los riesgos de la AI, han caído en el engaño del contenido fabricado, e incluso herramientas avanzadas como Deep Research están inventando informes. La verdad parece seguir estando en manos humanas

Los chatbots han ido mejorando a lo largo de los años, y mucho. Sin embargo, hay un problema que aún no se ha resuelto del todo y es conocido como “alucinaciones”.

Nuestros queridos chatbots ofrecen respuestas brillantes a nuestras consultas con la determinación y autoridad de un Yoda de ciencia ficción, incluso cuando están terriblemente equivocados. Y les creemos. A veces, ciegamente.

Varios científicos, expertos e incluso desarrolladores de chatbots han estado advirtiendo sobre las alucinaciones durante años. Sin embargo, mientras que la adopción se ha estado propagando rápidamente, –OpenAI reportó 400 millones de usuarios activos semanales hace apenas unos días-, la alfabetización en inteligencia artificial no ha seguido el mismo ritmo.

Estudios recientes, casos judiciales y eventos dramáticos continúan demostrando que la desinformación es incluso más peligrosa de lo que nos damos cuenta.

Es peor de lo que pensamos

Al principio, detectar los grandes errores generados por la IA era bastante divertido, como esas vergonzosas sinopsis generadas por Gemini que sugerían a los usuarios agregar “pegamento no tóxico a la salsa” para una receta de pizza o recomendaban comer “una pequeña piedra al día” el año pasado. Pero, a medida que recuperamos la confianza en la IA, la situación se ha intensificado, volviéndose cada vez más preocupante.

En diciembre, vimos cómo la herramienta de IA de Apple creaba titulares “resumiendo” noticias y generando información falsa y engañosa, como afirmar falsamente que la BBC había anunciado que Luigi Mangione se había disparado a sí mismo. Después de este incidente, la publicación presentó una queja contra Apple y comenzó a investigar la precisión de la IA generativa al analizar contenido de noticias.

Los hallazgos de la BBC, publicados hace solo unos días, revelaron estadísticas alarmantes: el 51% de las respuestas proporcionadas por los populares chatbots de IA contenían problemas significativos, el 13% de las citas proporcionadas por los modelos eran completamente inventadas, y el 19% de los datos eran incorrectos.

Los adolescentes están entre las poblaciones más afectadas, ya que a menudo luchan por distinguir las noticias falsas de las noticias reales, y pueden ser fácilmente influenciados por contenido generado por IA. Un estudio publicado en enero mostró que el 35% de los adolescentes han sido engañados por contenido falso generado por modelos de IA, y el 22% compartió la información falsa.

Pero no son solo los adolescentes y las personas distraídas los que caen en estas alucinaciones. Y no es solo Gemini o Apple Intelligence.

Ningún Modelo de IA Está a Salvo, Ninguna Industria Está Segura

Esa investigación realizada por la BBC confirma otro problema: todos los modelos de IA alucinan. Los expertos consideraron los modelos más populares, ChatGPT, Gemini, Perplexity y Copilot. Ningún modelo de IA está exento de errores. Anthropic tiene una página abordando este problema, sugiriendo ideas sobre cómo reducir las alucinaciones.

“Incluso los modelos de lenguaje más avanzados, como Claude, a veces pueden generar texto que es factualmente incorrecto o inconsistente con el contexto dado,” afirma el documento. Otras compañías de IA han compartido páginas similares con consejos y trucos para evitar contenido falso, pero no es tan fácil y ha sido un problema sin resolver durante bastante tiempo.

Allá por 2023, OpenAI anunció que estaba trabajando en nuevas e innovadoras formas de eliminar las alucinaciones. Alerta de spoiler: sigue siendo un problema enorme hoy en día.

En enero de 2024, hace más de un año, el CEO Aravind Srinivas dijo que las alucinaciones de Perplexity ocurrían principalmente en cuentas no pagadas. “La mayoría de las quejas provienen de la versión gratuita del producto”, explicó Srinivas, añadiendo que ya estaban incorporando más GPUs para solucionar el problema. Sin embargo, para octubre, el New York Post y Dow Jones habían presentado una demanda contra Perplexity, ya que su modelo continuaba atribuyendo noticias falsas a sus publicaciones, y la herramienta de IA desarrollada por la startup para las elecciones de Estados Unidos fue probada por expertos que revelaron inconsistencias, resúmenes inexactos y alucinaciones.

La enfermedad de las alucinaciones está alcanzando niveles científicos y académicos

Una de las mayores preocupaciones actualmente es que incluso los expertos, incluidos aquellos que advierten sobre los riesgos y peligros de la IA, han caído en la trampa de estas herramientas propensas a las alucinaciones.

En diciembre, el profesor de Stanford y experto en tecnología y desinformación Jeff Hancock fue acusado de usar IA para redactar una declaración judicial. Hancock presentó una declaración de 12 páginas defendiendo la ley del estado de 2023 que criminaliza el uso de deepfakes, incluyendo 15 citas. Sin embargo, dos de esas citas no se pudieron encontrar en ningún lugar, porque ChatGPT, la herramienta de IA preferida del experto en desinformación, simplemente las había inventado.

Hancock, programado para enseñar “Verdad, Confianza y Tecnología” este año, explicó que utilizó el chatbot de OpenAI para organizar sus citas, lo que provocó las alucinaciones. La investigadora se disculpó—y respaldó los puntos sustanciales de su declaración—, y nos enseñó a todos la valiosa lección de que incluso los expertos y los que más saben sobre los riesgos de la IA son susceptibles a ella.

El profesor Hancock no ha sido el único en presentar documentos que contienen invenciones generadas por IA en la corte, por supuesto. Otro caso que involucra una demanda contra Walmart recientemente se hizo viral porque los abogados utilizaron casos falsos generados por IA para construir su argumento. De hecho, el problema se ha vuelto tan frecuente en los tribunales de los EE. UU. que el bufete de abogados Morgan & Morgan recientemente envió correos electrónicos a sus más de 1,000 abogados, advirtiéndoles sobre los riesgos de usar citas generadas por IA, y la Asociación Americana de Abogados recordó a sus 400,000 miembros las reglas de ética del abogado —incluyendo la información generada por IA.

Investigación Profunda También

Una de las herramientas de IA más populares en este momento es “Deep Research”, diseñada para expertos y científicos que buscan resultados más complejos en sus investigaciones. Las alucinaciones tampoco están ausentes en esta herramienta, a pesar de que la versión de OpenAI inicialmente requería una suscripción Pro de $200 para acceder.

Los usuarios de Reddit han expresado preocupaciones sobre este problema, informando que todos los modelos populares que cuentan con herramientas de investigación profunda—Perplexity, ChatGPT y DeepSeek—han alucinado. Los investigadores y expertos en IA también han compartido resultados preocupantes en otras plataformas de redes sociales como X.

“La herramienta produjo un informe bellamente escrito y argumentado”, escribió una usuaria que utilizó la herramienta Deep Research de OpenAI para estudiar matemáticas realizadas por jóvenes. “El único problema es que todo es inventado”.

“Deep Research inventó un montón de estadísticas y análisis, mientras afirmaba compilar un conjunto de datos de miles de artículos, y supuestamente recopilaba la información del año de nacimiento de cada autor de fuentes confiables”, compartió otra. “Nada de esto es cierto”.

La Verdad Permanece En Manos Humanas

¿Dejarán los chatbots de alucinar alguna vez? El punto débil de la IA ha sido evidente durante años, lo vimos en podcasts como Planet Money cuando probaron episodios generados por IA en 2023, y lo seguimos viendo en los modelos más avanzados, incluso aquellos diseñados para uso exclusivo de comunidades expertas y conocedoras de la tecnología.

Quizás sea hora de aceptar que esto seguirá siendo un problema y entender que debemos asumir la responsabilidad de lo que creamos y compartimos utilizando herramientas de IA.

El hecho de que, aunque parezca un problema bien conocido, los propios expertos en riesgos de IA se estén dejando convencer por la escritura persuasiva y convincente de la IA es definitivamente preocupante. La situación se vuelve aún más compleja a medida que la adopción continúa acelerándose a toda velocidad, superando la alfabetización digital, mientras las inconsistencias y las citas fabricadas se multiplican.

Los casos en los que se han descubierto alucinaciones de la IA suelen ser aquellos en los que la verificación de hechos es crucial, algo que Zuckerberg debería recordar ahora que ha eliminado su departamento de verificación de hechos. Esto es particularmente evidente en los tribunales, donde abogados y jueces trabajan para verificar hechos y casos, y en los medios de comunicación, donde la precisión y la validación de las fuentes importan.

¿Pero qué pasa con los casos en los que nadie está escudriñando estos detalles? ¿Qué sucede en contextos cotidianos, más personales? En este momento, millones de estudiantes están memorizando respuestas generadas por IA para sus estudios, los usuarios están siguiendo instrucciones proporcionadas por la IA para tratar afecciones, y otros están aprendiendo sobre nuevos temas, confiando plenamente en la tecnología.

Las consecuencias de esta nueva realidad a la que nos enfrentamos son inmensurables e impredecibles, y la verdad —por ahora— está en manos de aquellos que se toman el tiempo para cuestionar y verificar.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
5.00 Votado por 1 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más