Variantes de Malware Generadas por IA Evaden la Detección en el 88% de los Casos

Image by pvproductions, from Freepi

Variantes de Malware Generadas por IA Evaden la Detección en el 88% de los Casos

Tiempo de lectura: 4 min.

Investigaciones recientes han revelado que la IA podría generar potencialmente hasta 10,000 nuevas variantes de malware, evadiendo la detección en el 88% de los casos, según lo informado por The Hacker News.

¿Apurada? ¡Aquí están los Datos Rápidos!

  • Los LLMs reescriben malware para evadir la detección creando variaciones de código que parecen naturales.
  • El algoritmo de reescritura iterativa de los investigadores mantiene la funcionalidad maliciosa mientras evita los sistemas de detección.
  • La ofuscación de LLM supera a las herramientas tradicionales al imitar el código original de manera más efectiva.

Este avance resalta los crecientes riesgos de usar grandes modelos de lenguaje (LLMs) con fines malintencionados.

La investigación, liderada por expertos en ciberseguridad de Palo Alto Networks, empleó un algoritmo de aprendizaje automático adversario para crear nuevas formas de malware indetectables. Al utilizar LLMs para reescribir código JavaScript malicioso, el equipo pudo generar miles de variantes novedosas sin alterar la funcionalidad principal del malware.

El desafío principal era sortear las limitaciones de las herramientas tradicionales de detección de malware, que a menudo luchan con técnicas de ofuscación como el cambio de nombre de variables o la minificación de código.

Uno de los hallazgos más preocupantes fue que estas variantes generadas por IA podrían evitar fácilmente la detección de herramientas de seguridad como VirusTotal, que solo marcó el 12% de las muestras modificadas como maliciosas.

La capacidad de LLM para realizar múltiples y sutiles transformaciones de código, como la inserción de código muerto, la división de cadenas y la eliminación de espacios en blanco, hizo posible que los atacantes reescribieran el malware existente en una forma que era casi indistinguible del código benigno.

Estas transformaciones fueron tan efectivas que incluso los modelos de aprendizaje profundo no lograron detectarlas, reduciendo la puntuación maliciosa de casi el 100% a menos del 1%.

La investigación también destacó una ventaja significativa de la ofuscación basada en LLM sobre las herramientas tradicionales. Mientras que los ofuscadores de malware existentes son ampliamente conocidos y producen resultados predecibles, los LLM crean un código de apariencia más natural, lo que dificulta mucho más que los sistemas de seguridad identifiquen la actividad maliciosa.

Esta transformación orgánica hace que el malware generado por la IA sea más resistente a la detección, subrayando la importancia de adaptar las estrategias de detección en respuesta a las amenazas en evolución.

Para contrarrestar estos sofisticados ataques basados en LLM, el equipo de investigación implementó una estrategia defensiva reentrenando su clasificador de JavaScript malicioso utilizando decenas de miles de muestras generadas por LLM.

Esta reeducación mejoró las tasas de detección en un 10%, mejorando significativamente la capacidad de identificar nuevas variantes de malware generadas. A pesar de estos esfuerzos, los hallazgos subrayan la necesidad urgente de innovación continua en ciberseguridad para mantener el ritmo con las capacidades en evolución del cibercrimen impulsado por la IA.

Además, un paralelo aumento en el malware dirigido a macOS ha sido impulsado por herramientas generativas de IA. A medida que la participación de mercado de macOS creció un 60% en tres años, el malware como servicio (MaaS) lo hizo más barato y fácil para los atacantes apuntar a datos sensibles, como billeteras de criptomonedas y detalles de Keychain.

Además, los robots impulsados por IA se han convertido en una preocupación de seguridad potencial. Los investigadores descubrieron que el jailbreaking de robots controlados por IA podría llevar a acciones peligrosas, como hacer que los autos autónomos choquen o utilizar robots para el espionaje.

El desarrollo de RoboPAIR, un algoritmo que elude los filtros de seguridad, demostró una tasa de éxito del 100% al manipular robots para realizar tareas dañinas, incluyendo el uso de armas y la localización de dispositivos explosivos.

A medida que los ciberdelincuentes utilizan cada vez más la inteligencia artificial para ataques más sofisticados, tanto las organizaciones como los individuos deben mantenerse vigilantes y actualizar continuamente su defensa.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más