Opinión: Los Modelos de IA son “Criaturas” Misteriosas, e Incluso Sus Creadores No los Entienden Completamente

Image generated with OpenAI

Opinión: Los Modelos de IA son “Criaturas” Misteriosas, e Incluso Sus Creadores No los Entienden Completamente

Tiempo de lectura: 6 min.

El reciente estudio de Anthropic sobre cómo funciona su modelo Claude 3.5 Haiku promete revelaciones revolucionarias y un destello de comprensión sobre cómo operan las tecnologías avanzadas de IA. Pero, ¿qué quieren decir cuando afirman que los LLMs son “organismos vivos” que “piensan”?

Hace unos días, Anthropic publicó dos documentos con una investigación revolucionaria sobre cómo funcionan los Modelos de Lenguaje a Gran Escala (LLMs). Aunque los avances técnicos eran interesantes y relevantes, lo que más captó mi atención fue el vocabulario utilizado por los expertos en IA.

En el estudio Sobre la Biología de un Modelo de Lenguaje Grande, los investigadores se compararon a biólogos que estudian complejos “organismos vivos” que han evolucionado durante miles de millones de años.

“De la misma manera, mientras que los modelos de lenguaje son generados por algoritmos de entrenamiento simples, diseñados por humanos, los mecanismos nacidos de estos algoritmos parecen ser bastante complejos”, escribieron los científicos.

En los últimos años, los modelos de IA han evolucionado significativamente. Y hemos estado presenciando su rápida evolución durante los últimos meses. Hemos visto a ChatGPT pasar de ser un modelo de texto a un compañero parlante, y ahora a un agente multidimensional que también puede generar impresionantes imágenes al estilo Studio Ghibli.

Pero, ¿qué pasaría si los actuales modelos de IA de vanguardia están alcanzando ese nivel de ciencia ficción de desarrollar un razonamiento tan avanzado que ni siquiera sus creadores pueden entender sus procesos y sistemas? Existen múltiples misterios en torno a las tecnologías de IA que podrían ser relevantes revisar, o profundizar, en 2025.

El Espeluznante Paradoja de la Caja Negra de los Modelos de IA

Existen múltiples discusiones sobre la adopción de la IA y la alfabetización en IA, y cómo aquellos que comprenden cómo funcionan los modelos generativos de IA son menos propensos a considerar a los chatbots como sus “amigos” o aplicaciones “mágicas”. Sin embargo, hay otro debate, entre expertos y personas más familiarizadas con la tecnología, sobre si comparar o considerar a los LLM como creaciones independientes. Respecto a lo último, hay un ingrediente especial, un misterio conocido como “la paradoja de la caja negra de la IA”, que juega un papel crucial en la discusión.

Los sistemas de aprendizaje profundo son entrenados para reconocer elementos y tendencias de maneras similares a como lo hacen los humanos. Al igual que enseñamos a los niños a reconocer patrones y asignar palabras específicas a diferentes objetos, los LLM han sido entrenados para hacer conexiones únicas y construir redes que se vuelven cada vez más complejas a medida que “crecen”.

Samir Rawashdeh, profesor asociado de Ingeniería Eléctrica y de Computadoras, se especializa en inteligencia artificial y explica que, al igual que sucede cuando estudiamos la inteligencia humana, es casi imposible ver realmente cómo los sistemas de aprendizaje profundo toman decisiones y llegan a conclusiones. Esto es lo que los expertos llaman el “problema de la caja negra”.

Los Modelos de IA Desafían la Comprensión Humana

El estudio reciente de Anthropic arrojó luz sobre la situación de la caja negra de la IA al explicar cómo su modelo “piensa” en ciertos escenarios que anteriormente eran borrosos o incluso completamente incorrectos. Incluso si el estudio se basa en el modelo Claude 3.5 Haiku, permite a los expertos desarrollar herramientas y analizar características similares en otros modelos de IA.

“Entender la naturaleza de esta inteligencia es un profundo desafío científico, que tiene el potencial de remodelar nuestra concepción de lo que significa ‘pensar'”, afirma el artículo compartido por los investigadores de Anthropic.

Sin embargo, el término “pensar”, asignado a las tecnologías de IA, molesta a ciertos expertos en la industria y es parte de la crítica de la investigación. Un usuario de Reddit explicó por qué irrita a un grupo de personas: “Hay un montón de antropomorfización a lo largo del artículo que oscurece el trabajo. Por ejemplo, sigue utilizando la palabra ‘pensar’ cuando debería decir ‘calcular’. Estamos hablando de software de computadora, no de un cerebro biológico.”

Aunque los términos “humanizados” ayudan a las personas no técnicas a entender mejor los modelos de IA y generan debate en la comunidad, la verdad es que, digamos “calcular” o “pensar”, el mismo desafío persiste: no tenemos una comprensión completa ni total transparencia sobre cómo operan los LLM.

Qué esperar de los modelos avanzados de IA en un futuro cercano

¿Puedes imaginar ignorar la existencia de tecnologías de IA avanzadas como ChatGPT, DeepSeek, Perplexity, o Claude—ahora o en un futuro cercano? Todos los signos apuntan al hecho de que no hay vuelta atrás. La IA generativa y de razonamiento ya han transformado nuestras vidas cotidianas, y solo continuarán evolucionando.

Casi todos los días en WizCase informamos sobre un nuevo desarrollo en la industria —un nuevo modelo de IA, una nueva herramienta de IA, una nueva empresa de IA— que tiene el potencial de hacer un gran impacto en nuestra sociedad. La idea de tomarse un descanso para primero ganar un mejor entendimiento de estos modelos avanzados y cómo operan —o incluso ralentizar un poco— parece imposible, dada la rápida velocidad de la carrera de la IA y la participación de los gobiernos y las compañías más poderosas del mundo.

“Los modelos de IA ejercen una creciente influencia en cómo vivimos y trabajamos, debemos entenderlos lo suficientemente bien para asegurar que su impacto sea positivo”, afirma el informe de Anthropic. Aunque pueda sonar un poco irreal, los investigadores permanecen positivos: “Creemos que nuestros resultados aquí, y la trayectoria de progreso sobre la que se construyen, son una emocionante evidencia de que podemos estar a la altura de este desafío.”

¿Pero qué tan rápido pueden avanzar realmente estos descubrimientos? El artículo también señala que los resultados solo cubren unas pocas áreas y casos específicos, y que no es posible construir conclusiones más generales. Por lo tanto, probablemente no sea lo suficientemente rápido.

Mientras los reguladores introducen medidas como la Ley de IA de la UE, para exigir más transparencia, generando acusaciones y quejas de grandes empresas de tecnología por supuestamente frenar el progreso, los poderosos modelos de IA continúan avanzando.

Como sociedad, debemos esforzarnos por encontrar un equilibrio entre profundizar nuestra comprensión de cómo funcionan estas tecnologías y adoptarlas de formas que aporten beneficios significativos y progreso a nuestras comunidades. ¿Es esto posible? La idea de simplemente rezar o esperar que estas “criaturas” permanezcan “éticas” y “buenas” no parece tan descabellada en este momento.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más