Vulnerabilidad de Memoria de ChatGPT: Un Riesgo de Seguridad Potencial

Image by Tumisu, from Pixabay

Vulnerabilidad de Memoria de ChatGPT: Un Riesgo de Seguridad Potencial

Tiempo de lectura: 3 min.

¿Apurada? ¡Aquí están los datos rápidos!

  • Identificó una vulnerabilidad en la función de memoria a largo plazo de ChatGPT.
  • El defecto permite la inyección de indicaciones desde fuentes no confiables como los correos electrónicos.
  • ChatGPT puede almacenar información falsa basada en entradas de memoria manipuladas.

ArsTechnica (AT) informó el martes sobre un estudio que muestra una vulnerabilidad en el ChatGPT de OpenAI que permitía a los atacantes manipular las memorias a largo plazo de los usuarios simplemente haciendo que la IA visualizara un enlace web malicioso, el cual luego enviaba todas las interacciones con ChatGPT al sitio web del atacante.

El investigador de seguridad Johann Rehberger demostró este fallo a través de una Prueba de Concepto (PoC), mostrando cómo la vulnerabilidad podría ser explotada para exfiltrar datos de la memoria a largo plazo de ChatGPT.

Rehberger descubrió que la función de memoria a largo plazo de ChatGPT era vulnerable. Esta función ha estado ampliamente disponible desde septiembre.

La vulnerabilidad involucra una técnica conocida como “inserción de indicaciones”. Esta técnica hace que los modelos de lenguaje de gran tamaño (LLMs) como ChatGPT sigan instrucciones incrustadas en fuentes no confiables, como correos electrónicos o sitios web.

El exploit PoC apuntó específicamente a la aplicación ChatGPT para macOS, donde un atacante podría alojar una imagen maliciosa en un enlace web e instruir a la IA para que la visualice.

Una vez que se accedió al enlace, todas las interacciones con ChatGPT se transmitieron al servidor del atacante.

Según AT, Rehberger encontró este defecto en mayo, poco después de que OpenAI comenzara a probar la función de memoria, que almacena detalles del usuario como la edad, el género y las creencias para usarlos en interacciones futuras.

Aunque informó privadamente sobre la vulnerabilidad, OpenAI inicialmente la clasificó como un “problema de seguridad” y cerró el informe.

En junio, Rehberger presentó una revelación de seguimiento, incluyendo el exploit de PoC que permitió la exfiltración continua de la entrada del usuario a un servidor remoto, lo que provocó que los ingenieros de OpenAI emitieran una solución parcial.

Aunque la reciente solución impide este método específico de exfiltración de datos, Rehberger advierte que las inyecciones rápidas aún pueden manipular la herramienta de memoria para almacenar información falsa plantada por los atacantes.

Se aconseja a los usuarios que supervisen sus memorias almacenadas en busca de entradas sospechosas o incorrectas y que revisen regularmente sus ajustes.

OpenAI ha proporcionado directrices para gestionar y eliminar recuerdos o desactivar completamente la función de memoria.

La compañía aún no ha respondido a las consultas sobre medidas más amplias para prevenir ataques similares en el futuro.

Los hallazgos de Rehberger resaltan los posibles riesgos de la memoria a largo plazo en los sistemas de inteligencia artificial, especialmente cuando son vulnerables a inyecciones de comandos y manipulación.

¿Te ha gustado este artículo?
¡Puntúalo!
No me ha gustado nada No me gusta Ha estado bien ¡Muy bueno! ¡Me ha encantado!

¡Nos alegra que te guste nuestro trabajo!

Eres importante para nosotros, por eso, nos gustaría que nos dejaras una opinión en Trustpilot, ¿te animas? Se tarda muy poco y significa mucho para nosotros. ¡Gracias por todo!

Valóranos en Trustpilot
0 Votado por 0 usuarios
Título
Comentar
Gracias por tu opinión
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Dejar un comentario

Loader
Loader Ver más