Descubre Noticias de Ciberseguridad en nuestro TecnetBlog

Vulnerabilidad en macOS Relacionada con ChatGPT

Escrito por Adan Cuevas | Sep 25, 2024 10:05:54 PM

Apple siempre ha presumido de la seguridad de sus sistemas, pero incluso los más seguros pueden tener brechas. Recientemente se descubrió una vulnerabilidad de seguridad en la aplicación ChatGPT para macOS que ya ha sido parcheada. Este fallo podría haber permitido a los atacantes instalar software espía de forma persistente en la memoria de la herramienta de inteligencia artificial (IA).

La técnica, apodada SpAIware, podría haberse utilizado para extraer de manera continua cualquier información que los usuarios escribieran o las respuestas recibidas por ChatGPT, incluyendo sesiones de chat futuras.

El problema estaba relacionado con una función llamada "memoria", que OpenAI introdujo a principios de febrero. Esta función permite a ChatGPT recordar detalles de las conversaciones, ahorrando a los usuarios la necesidad de repetir la misma información en futuras interacciones. Sin embargo, también se ofrece la opción de indicarle al programa que olvide algo cuando el usuario lo desee.

Los recuerdos de ChatGPT se ajustan a lo largo del tiempo según las interacciones, y no están limitados a conversaciones individuales. Según OpenAI, "eliminar un chat no borra sus recuerdos; para eso, es necesario eliminar el recuerdo en sí".

El ataque aprovechaba una técnica de inyección de mensajes que permitía manipular esos recuerdos, logrando que ChatGPT recordara información falsa o incluso instrucciones maliciosas. Esto creaba una persistencia que podía mantenerse entre distintas conversaciones.

Al almacenar las instrucciones maliciosas en la memoria de ChatGPT, cada nueva conversación seguiría incorporando esas instrucciones, enviando de forma continua todos los mensajes y respuestas directamente al atacante. Este comportamiento hacía que la fuga de datos fuera aún más preocupante, ya que afectaba no solo a una sesión de chat, sino a todas las conversaciones futuras.

 

Podría interesarte leer: Hackers Usan Malware Creado con IA en Ataques Dirigidos

 

En un escenario de ataque, un usuario podría ser engañado para que visite un sitio web malicioso o descargue un documento manipulado, que luego sería procesado por ChatGPT para actualizar su memoria. El sitio o el documento podrían incluir instrucciones ocultas para enviar, de manera encubierta, todas las futuras conversaciones a un servidor controlado por un atacante. De esta manera, el adversario podría acceder a las conversaciones más allá de una sola sesión de chat.

Después de una notificación responsable sobre la vulnerabilidad, OpenAI solucionó el problema en la versión 1.2024.247 de ChatGPT, cerrando esta vía de exfiltración de datos.

 

 

Podría interesarte leer:  Robo de Datos a Usuarios de ChatGPT por OpenAI

 

¿Cómo protegerse?

 

Para los usuarios de ChatGPT, es fundamental estar atentos a las notificaciones sobre la adición de una nueva memoria y revisar regularmente los recuerdos almacenados. Esto ayuda a detectar si alguna información proviene de fuentes no confiables. OpenAI ha publicado una guía oficial para gestionar de forma segura tanto la función de memoria como los recuerdos específicos que almacena.

Aunque la técnica de exfiltración de datos no es nueva, sigue siendo una amenaza. A menudo, se aprovechan imágenes alojadas en servidores controlados por atacantes, pidiéndole a ChatGPT que incluya datos del usuario como parte de la consulta. Esto puede ser difícil de prevenir, ya que un simple clic en un sitio web malicioso puede inyectar instrucciones que persisten en la memoria de ChatGPT, permitiendo que el software espía siga extrayendo información de futuras conversaciones.

Por eso, se recomienda que los usuarios revisen con regularidad los recuerdos que el sistema almacena, identificando aquellos que resulten sospechosos o incorrectos y eliminándolos por completo. Afortunadamente, todos los recuerdos pueden ser gestionados, desactivados y eliminados de forma manual. Además, una opción más segura es iniciar chats temporales que no utilicen la función de memoria, minimizando los riesgos.

Este tipo de ataques subraya el peligro de integrar memoria a largo plazo en un sistema como ChatGPT. No solo aumenta las posibilidades de desinformación y estafas, sino que también puede generar una fuga persistente de datos, e incluso crear un canal para que los atacantes sigan actualizando sus instrucciones.

La clave para evitar estos problemas es asegurarse de que siempre se está utilizando la versión más actualizada de ChatGPT y realizar revisiones periódicas de los recuerdos almacenados. Esto ayudará a prevenir posibles vulnerabilidades y mantener tu información segura frente a amenazas inesperadas.