OpenAI Otorgará al Instituto de Seguridad de EE.UU. Acceso Anticipado a Nuevos Modelos

Photo by Levart_Photographer on Unsplash

OpenAI Otorgará al Instituto de Seguridad de EE.UU. Acceso Anticipado a Nuevos Modelos

Tiempo de lectura: 2 min.

  • Andrea Miliani

    Escrito por: Andrea Miliani Redacción de tecnología

  • El equipo de localización y traducción

    Traducido por El equipo de localización y traducción Servicios de localización y traducción

Sam Altman, el CEO de OpenAI, anunció hoy en X que la compañía proporcionará acceso anticipado al Instituto de Seguridad de Inteligencia Artificial de EE.UU. al próximo modelo fundacional.

“Como dijimos en julio pasado, estamos comprometidos a asignar al menos el 20% de los recursos informáticos a los esfuerzos de seguridad en toda la compañía”, escribió Altman, “Nuestro equipo ha estado trabajando con el Instituto de Seguridad de IA de EE.UU. en un acuerdo donde proporcionaríamos acceso temprano a nuestro próximo modelo fundacional para que podamos trabajar juntos para impulsar la ciencia de las evaluaciones de IA.”

Altman dijo que compartió esta decisión con entusiasmo y agregó que quieren que los empleados actuales y anteriores expresen sus preocupaciones sobre las tecnologías de IA que está desarrollando la empresa. Enfatizó que era importante para la empresa y su plan de seguridad.

Según TechCrunch, el Instituto de Seguridad de Inteligencia Artificial de los EE. UU., parte del Instituto Nacional de Estándares y Tecnología (NIST), aborda y evalúa los riesgos en las plataformas de IA y OpenAI ya ha trabajado en un acuerdo similar con el Reino Unido hace apenas unas semanas.

El anuncio de Altman llega después de que personas y organizaciones hayan criticado las medidas de seguridad de la compañía. En junio, varios empleados actuales y antiguos de OpenAI firmaron una carta abierta para expresar sus preocupaciones y advertir sobre la difusión de desinformación por parte de la IA y el riesgo que esto supone para la sociedad. Varios trabajadores también han abandonado la compañía debido a preocupaciones de seguridad, incluyendo al destacado investigador de OpenAI Jan Leike, después de que OpenAI disolviera el equipo de Superalignment, encargado de abordar los riesgos de la IA.

A pesar de las preocupaciones de seguridad, OpenAI sigue avanzando. La compañía acaba de lanzar la función de voz para ChatGPT Plus, y un nuevo motor de búsqueda impulsado por IA llamado SearchGPT está disponible para usuarios seleccionados.

Los nuevos esfuerzos por añadir medidas de seguridad parecen demostrar que Altman y su equipo no han olvidado los riesgos y preocupaciones relacionados con la IA.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Ver más