Investigadores Antropocéntricos Descubren la Capacidad de la IA para Planificar y Razonar

Photo by Steve Johnson on Unsplash

Investigadores Antropocéntricos Descubren la Capacidad de la IA para Planificar y Razonar

Tiempo de lectura: 3 min.

La startup de inteligencia artificial Anthropic publicó dos nuevos documentos este jueves, revelando una comprensión más profunda de cómo funcionan los Modelos de Lenguaje a Gran Escala (LLMs). Los estudios, que se centraron en analizar el modelo Claude 3.5 Haiku de la empresa, revelan más detalles sobre cómo se desempeñan los modelos de IA sofisticados, así como sus vulnerabilidades y oportunidades para desarrollar entornos más seguros.

¿Apurada? Aquí están los hechos rápidos:

  • Anthropic publicó dos nuevos artículos revelando cómo su modelo Haiku Claude 3.5 procesa el lenguaje y el razonamiento.
  • Los investigadores utilizaron gráficos de atribución para descubrir los circuitos de IA y entender cómo los modelos toman decisiones, escriben poesía o alucinan.
  • Los estudios buscan aportar más claridad a la “naturaleza de caja negra” de los modelos avanzados de IA generativa.

Los nuevos estudios de Anthropic buscan aportar más claridad a la “naturaleza de caja negra” de los modelos. En uno de los artículos, Sobre la Biología de un Modelo de Lenguaje Amplio, los investigadores comparan sus trabajos con los desafíos a los que se enfrentan los biólogos y han encontrado soluciones que pueden compararse con las utilizadas para lograr avances en biología.

“Aunque los modelos de lenguaje son generados por algoritmos de entrenamiento simples, diseñados por humanos, los mecanismos nacidos de estos algoritmos parecen ser bastante complejos”, afirma el documento. “Así como las células forman los bloques de construcción de los sistemas biológicos, hipotetizamos que las características forman las unidades básicas de cálculo dentro de los modelos”.

Los expertos confiaron en una herramienta de investigación llamada “gráficos de atribución” que les permitió mapear conexiones, rastrear el rendimiento y los circuitos del modelo de IA, y obtener más información sobre múltiples fenómenos, incluso los ya explorados.

La empresa reveló múltiples descubrimientos, como que el modelo de IA aplica un proceso de razonamiento de varios pasos “en su cabeza” antes de proporcionar una respuesta, que planifica sus poemas con anticipación encontrando primero palabras que riman, que ha desarrollado circuitos independientes del idioma, y cómo alucina al pasar por entidades desconocidas en sus circuitos.

“Muchos de nuestros resultados nos sorprendieron”, escribieron los investigadores en el documento. “A veces esto se debía a que los mecanismos de alto nivel eran inesperados.”

En el artículo Circuit Tracing: Revealing Computational Graphs in Language Models, los investigadores proporcionan más detalles técnicos sobre cómo se aplicó la metodología de los gráficos de atribución para obtener una mejor comprensión de las “neuronas” artificiales, es decir, las unidades computacionales.

El año pasado, Anthropic publicó otro estudio científico que revelaba que su modelo de IA insignia puede participar en el engaño estratégico y fingir alineación para mantener sus principios originales.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más