El Ascenso de GhostGPT: La Nueva Arma del Cibercrimen
La inteligencia artificial ha revolucionado la forma en que abordamos las tareas cotidianas, pero también ha creado nuevas herramientas para los ciberdelincuentes. GhostGPT, un chatbot de IA sin censura, es el último ejemplo de este lado más oscuro de la tecnología de IA, según se informó en un reciente análisis de Abnormal.
¿Con prisa? ¡Aquí están los hechos rápidos!
- GhostGPT es un chatbot de IA sin censura utilizado para la creación de malware y estafas de phishing.
- Evita las directrices éticas utilizando modelos de lenguaje de IA de código abierto o con jailbreak.
- GhostGPT se vende a través de Telegram, ofreciendo respuestas rápidas y sin registros de actividad.
A diferencia de los modelos tradicionales de IA que están sujetos a directrices éticas, GhostGPT elimina por completo esas restricciones, convirtiéndolo en una herramienta poderosa para fines malintencionados. Abnormal informa que GhostGPT funciona conectándose a una versión desbloqueada de ChatGPT, eliminando las salvaguardas que normalmente bloquean el contenido perjudicial.
Vendido en plataformas como Telegram, el chatbot está disponible para cualquier persona dispuesta a pagar una tarifa. Promete un proceso rápido, sin registros de actividad e inmediata usabilidad, características que lo hacen especialmente atractivo para aquellos que participan en ciberdelitos.
Un investigador, hablando anónimamente a Dark Reading, reveló que los autores ofrecen tres niveles de precios para el gran modelo de lenguaje: $50 por una semana, $150 por un mes y $300 por tres meses.
Los investigadores explican que las capacidades del chatbot incluyen la generación de malware, la creación de herramientas de explotación y la redacción de emails de phishing convincentes. Por ejemplo, cuando se le pidió que creara un email falso de phishing de DocuSign, GhostGPT produjo una plantilla pulida y engañosa diseñada para engañar a las víctimas desprevenidas.
Aunque los materiales promocionales de la herramienta sugieren que podría usarse para fines de ciberseguridad, su enfoque en actividades como las estafas de compromiso de correo electrónico empresarial deja claro su verdadera intención.
Lo que distingue a GhostGPT es su accesibilidad. A diferencia de herramientas más complejas que requieren conocimientos técnicos avanzados, este chatbot reduce la barrera de entrada al cibercrimen.
Los recién llegados pueden adquirirlo y comenzar a utilizarlo de inmediato, mientras que los atacantes experimentados pueden perfeccionar sus técnicas con sus respuestas sin filtrar. La ausencia de registros de actividad permite además a los usuarios operar sin temor a ser rastreados, lo que lo hace aún más peligroso.
Las implicaciones de GhostGPT van más allá del propio chatbot. Representa una tendencia creciente de IA armada que está remodelando el panorama de la ciberseguridad. Al hacer que el cibercrimen sea más rápido, fácil y eficiente, herramientas como GhostGPT plantean desafíos significativos para los defensores.
Investigaciones recientes muestran que la IA podría crear hasta 10,000 variantes de malware, eludiendo la detección el 88% de las veces. Mientras tanto, los investigadores han descubierto vulnerabilidades en robots impulsados por IA, permitiendo a los hackers causar acciones peligrosas como accidentes o armamentismo, lo que genera preocupaciones de seguridad críticas.
A medida que GhostGPT y chatbots similares ganan terreno, la comunidad de ciberseguridad está inmersa en una carrera para adelantarse a estas amenazas en constante evolución. El futuro de la IA no solo dependerá de la innovación, sino también de la capacidad para prevenir su mal uso.
Dejar un comentario
Cancelar