Se ha descubierto un fallo crítico de seguridad en el marco de IA de Meta
Se ha identificado una grave vulnerabilidad de seguridad, CVE-2024-50050, en el marco de trabajo de código abierto de Meta para la inteligencia artificial generativa, conocido como Llama Stack.
¿Apurada? ¡Aquí están los hechos rápidos!
- La vulnerabilidad, CVE-2024-50050, permite la ejecución remota de código a través de datos deserializados no confiables.
- Meta solucionó el problema en la versión 0.0.41 con una implementación de Pydantic JSON más segura.
- La vulnerabilidad obtuvo una puntuación de 9.3 (crítica) en CVSS 4.0 debido a su explotabilidad.
El fallo, revelado por el equipo de investigación de Oligo, podría permitir a los atacantes ejecutar de manera remota código malicioso en servidores que utilizan el marco de trabajo. La vulnerabilidad, causada por el manejo inseguro de los datos serializados, resalta los desafíos constantes de asegurar las herramientas de desarrollo de IA.
Llama Stack, introducido por Meta en julio de 2024, apoya el desarrollo y despliegue de aplicaciones de IA construidas sobre los modelos Llama de Meta. El equipo de investigación explica que el fallo radica en su servidor predeterminado, el cual utiliza la biblioteca pyzmq de Python para manejar datos.
Un método específico, recv_pyobj, procesa automáticamente los datos con el módulo pickle inseguro de Python. Esto posibilita que los atacantes envíen datos perjudiciales que ejecutan código no autorizado. Los investigadores afirman que cuando se exponen en una red, los servidores que ejecutan la configuración predeterminada se vuelven vulnerables a la ejecución remota de código (RCE).
Este tipo de ataques podrían resultar en el robo de recursos, brechas de datos o control no autorizado sobre los sistemas de IA. La vulnerabilidad fue asignada con un puntaje CVSS crítico de 9.3 (sobre 10) por la firma de seguridad Snyk, aunque Meta la calificó como de gravedad media con 6.3, según los informes de Oligo.
Los investigadores de Oligo descubrieron la falla durante su análisis de los marcos de trabajo de IA de código abierto. A pesar del rápido aumento de popularidad de Llama Stack —pasó de 200 estrellas en GitHub a más de 6,000 en cuestión de meses—, el equipo señaló el uso arriesgado de pickle para la deserialización, una causa común de las vulnerabilidades de RCE.
Para aprovechar la falla, los atacantes podrían escanear puertos abiertos, enviar objetos maliciosos al servidor y desencadenar la ejecución de código durante la deserialización. La implementación predeterminada de Meta para el servidor de inferencia de Llama Stack resultó particularmente susceptible.
Meta abordó rápidamente el problema después de la revelación de Oligo en septiembre de 2024. En octubre, se lanzó un parche, reemplazando la deserialización insegura basada en pickle con una implementación JSON más segura y validada por tipo, utilizando la biblioteca Pydantic. Se insta a los usuarios a actualizar a la versión 0.0.41 o superior de Llama Stack para asegurar sus sistemas.
Los responsables de pyzmq, la biblioteca utilizada en Llama Stack, también actualizaron su documentación para advertir contra el uso de recv_pyobj con datos no confiables.
Este incidente subraya los riesgos de utilizar métodos de serialización inseguros en el software. Se anima a los desarrolladores a confiar en alternativas más seguras y a actualizar regularmente las bibliotecas para mitigar las vulnerabilidades. Para herramientas de IA como Llama Stack, las medidas de seguridad robustas siguen siendo vitales a medida que estos marcos continúan impulsando aplicaciones empresariales críticas.
Dejar un comentario
Cancelar