Las Empleadas Virtuales Podrían Ingresar a la Fuerza Laboral Este Año, Predice la CEO de OpenAI
Agentes de inteligencia artificial, capaces de realizar tareas de forma autónoma, podrían unirse a la fuerza laboral tan pronto como este año, transformando las operaciones comerciales, según el CEO de OpenAI, Sam Altman.
¿Apurado? ¡Aquí están los datos rápidos!
- El agente de inteligencia artificial de OpenAI, “Operator”, automatizará tareas como la escritura de código y la reserva de viajes.
- McKinsey predice que el 30% de las horas de trabajo en los EE.UU. podrían ser automatizadas para 2030.
- Altman expresa confianza en la construcción de inteligencia artificial general (AGI) y superinteligencia.
En una entrada de blog publicada el lunes, Altman declaró que los empleados virtuales impulsados por la inteligencia artificial podrían revolucionar el rendimiento de la empresa al asumir tareas tradicionalmente realizadas por humanos. The Guardian señala que Microsoft, el principal patrocinador de OpenAI, ya ha introducido agentes de inteligencia artificial, siendo la gigantesca consultora McKinsey una de las primeras en adoptar la tecnología.
“Creemos que, en 2025, podríamos ver a los primeros agentes de IA “unirse a la fuerza laboral” y cambiar materialmente el rendimiento de las empresas. Seguimos creyendo que poner herramientas excelentes en las manos de las personas de manera iterativa conduce a grandes resultados ampliamente distribuidos”, escribió Altman en la publicación del blog.
Se informa que OpenAI está a punto de lanzar un agente de IA, con nombre en clave “Operador“, más adelante este mes. Se espera que la herramienta automatice tareas como escribir código o reservar viajes en nombre de los usuarios. Este movimiento sigue al lanzamiento de Copilot Studio de Microsoft, el Claude 3.5 Sonnet de Anthropic, los agentes de IA de Meta con cuerpos similares a los físicos, y las nuevas funciones de IA en Slack de Salesforce.
McKinsey ya está desarrollando un agente para agilizar las consultas de los clientes, incluyendo la programación de seguimientos. La firma proyecta que para 2030, hasta el 30% de las horas de trabajo en toda la economía de los EE. UU. podrían ser automatizadas, según lo señalado por The Guardian.
El jefe de IA de Microsoft, Mustafa Suleyman, también ha expresado optimismo acerca de los agentes capaces de tomar decisiones de compra. En una entrevista con WIRED describió haber presenciado “demos impresionantes” de IA completando transacciones de manera independiente, pero reconoció los desafíos en el desarrollo. Suleyman predijo que estas capacidades avanzadas podrían surgir “en trimestres, no años”.
El blog de Altman también abordó la confianza de OpenAI en la creación de inteligencia artificial general (AGI, por sus siglas en inglés) – sistemas de IA que superan la inteligencia humana. “Ahora estamos seguros de que sabemos cómo construir AGI tal como tradicionalmente lo hemos entendido”, escribió.
Mirando más allá de la AGI, Altman esbozó las ambiciones de OpenAI para la “superinteligencia”, que describió como herramientas que podrían acelerar significativamente el descubrimiento científico y la innovación.
“Las herramientas superinteligentes podrían acelerar masivamente el descubrimiento científico y la innovación mucho más allá de lo que somos capaces de hacer por nuestra cuenta, y a su vez aumentar masivamente la abundancia y la prosperidad”, escribió Altman, expresando entusiasmo por un futuro donde tales avances remodelen el potencial humano.
El rápido crecimiento de la IA en la fuerza laboral tiene amplias implicaciones para la productividad empresarial y la economía. Sin embargo, a medida que los agentes de IA evolucionan, surgen nuevos riesgos de seguridad.
Una encuesta reciente, publicada por Medium, destacó vulnerabilidades como las entradas de usuario de múltiples pasos impredecibles, las complejidades de ejecución interna, la variabilidad en los entornos operativos y las interacciones con entidades externas no confiables.
Las entradas de usuario poco claras o incompletas pueden desencadenar acciones no deseadas, mientras que los procesos internos de los agentes de IA a menudo carecen de observabilidad en tiempo real, lo que hace que las amenazas de seguridad sean difíciles de detectar. Además, los agentes que operan en entornos diversos pueden exhibir comportamientos inconsistentes, y confiar en entidades externas sin la debida verificación puede exponer a los agentes a ataques.
Estos desafíos subrayan la necesidad de marcos de seguridad robustos para proteger a los agentes de IA y garantizar su despliegue seguro en escenarios del mundo real.
Dejar un comentario
Cancelar