OpenAI lanza el nuevo y avanzado GPT-4o: pronto para todos
OpenAI desveló un nuevo modelo de ChatGPT más avanzado llamado GPT-4o durante el evento OpenAI Spring Update la noche del pasado lunes. El nuevo GPT-4o es más rápido que GPT-4 y puede procesar simultáneamente texto, audio e imágenes: en esencia, puede “ver” a través de la cámara de un dispositivo.
Durante el streaming en vivo de 26 minutos, el equipo de OpenAI mostró en tiempo real las novedosas funciones y capacidades del nuevo modelo. También compartieron los detalles de próximas actualizaciones para las versiones anteriores, como la nueva app de escritorio.
“Hoy, la gran noticia es que lanzamos nuestro modelo insignia al que hemos llamado ChatGPT-4o”, declaró Mira Murati, directora jefa de Tecnología de OpenAI.
Murati explicó que el nuevo modelo y las nuevas funciones para las versiones previas pronto estarán disponibles de forma gratuita y para todos, incluso para los usuarios no registrados. “Las pondremos en marcha en las próximas semanas”, aseguró Murati.
Durante la primera demostración, el equipo de OpenAI mostró cómo GPT-4o mantiene conversaciones usando una voz femenina, cómo responde rápidamente y con creatividad cuando es interrumpida (hasta con cierto sentido del humor) e incluso reconoce emociones y ofrece consejo.
Posteriormente, el equipo presentó diferentes escenarios donde se puede usar GPT-4o. Mostraron cómo se puede usar la función “visión” para ayudar a resolver ecuaciones lineales escritas en papel, entender código y gráficos compartiendo la pantalla a través de la versión para escritorio y ayudar en traducciones simultáneas en conversaciones de la vida real. GPT-4o puede hablar en varios idiomas y con distintos tonos y estilos de voz.
Finalmente, los expertos mostraron cómo puede reconocer las emociones humanas, y también comete errores. Durante las demos, GPT-4o falló unas pocas veces, confundiendo a uno de los presentadores con una imagen tallada en madera y creyendo que ya le habían dado el problema de matemáticas cuando el miembro del equipo no había mostrado nada todavía.
Pero GPT-4o se disculpó rápidamente y cautivó a la audiencia con sus respuestas. “¡Para, vas a conseguir que me ruborice!”, repuso cuando uno de los líderes de Investigación, Barret Zoph, le dijo a GPT-4o cuánto la admiraba.
Respuesta a GPT-4o
OpenAI compartió varios vídeos cortos en X para hacer una demostración de las diferentes funciones del nuevo modelo de GPT-4o.
Varias personas los asociaron rápidamente con la película Her, en la que el protagonista Theodore Twombly, interpretado por Joaquin Phoenix, se enamora de una asistente virtual de IA a quien da voz Scarlett Johanson. “Es de locos, en cuanto vi esos videoclips, ¡recordé inmediatamente la película!”, comentó un usuario. “Es literalmente Scarlett Johansson. ¡¿Cómo es posible?!”, escribió otro.
Aunque la mayoría de los usuarios se quedaron impresionados con las nuevas funciones, otros compartieron unas cuantas críticas y aspectos preocupantes. “Querida @openai, tu demo fue súper impresionante y aterradora, pero el acento italiano era horroroso :)”, publicó Massimo Banzi, cofundador del proyecto de automatización robótica Arduino.
“Realmente excelente, pero yo diría que creo que perderás multitud de usuarios de pago si lo único diferente respecto a la versión gratuita es el límite máximo de uso”, apuntó otro usuario.
En los próximos días, el nuevo modelo y las actualizaciones estarán a disposición de más personas para que puedan poner a prueba y experimentar esta tecnología de primera mano.
Dejar un comentario
Cancelar