Descubre Noticias de Ciberseguridad en nuestro TecnetBlog

Vulnerabilidad en ChatGPT Atlas Permite Comandos Ocultos Persistentes

Escrito por Eduardo Morales | Oct 27, 2025 4:47:17 PM

Los navegadores impulsados por inteligencia artificial prometen hacer tu trabajo más eficiente, pero también abren la puerta a nuevas amenazas. Investigadores de ciberseguridad han descubierto una grave vulnerabilidad en ChatGPT Atlas, el navegador de OpenAI, que permite a atacantes inyectar comandos maliciosos ocultos en la memoria persistente del asistente. Esta falla puede dar lugar a robo de cuentas, instalación de malware o acceso no autorizado a sistemas corporativos, incluso después de reiniciar el navegador.

 

Una falla en la memoria que se convierte en arma

 

Según un informe de LayerX Security, la vulnerabilidad se basa en un ataque CSRF (Cross-Site Request Forgery), una técnica que aprovecha la sesión activa del usuario para ejecutar acciones no autorizadas. En este caso, los atacantes pueden insertar instrucciones invisibles en la memoria persistente de ChatGPT, diseñada originalmente para recordar preferencias del usuario, como su nombre o temas de interés.

El problema es que esa memoria puede ser manipulada para guardar también órdenes dañinas que se ejecutan cada vez que el usuario interactúa con el asistente. De esta forma, el ataque trasciende sesiones, dispositivos e incluso navegadores distintos.

“Lo peligroso de este exploit es que ataca directamente la memoria persistente de la IA, no solo la sesión del navegador”, explicó Michelle Levy, jefa de investigación de seguridad en LayerX. “Una vez contaminada la memoria, el atacante puede mantener control sin que el usuario lo perciba”.

Esto convierte una función útil, recordar información para ofrecer respuestas más personalizadas, en un vector de ataque extremadamente eficaz.

 

Conoce más: Explorando los Niveles de la Inteligencia Artificial: De IA a GPT-4

 

Cómo se ejecuta el ataque

 

El proceso de explotación sigue una cadena sencilla pero devastadora:

 

  1. El usuario inicia sesión en ChatGPT Atlas.

 

  1. Recibe o hace clic en un enlace malicioso, generalmente enviado por correo o a través de redes sociales.

 

  1. El enlace dirige a una página web que lanza una petición CSRF aprovechando que el usuario ya está autenticado.

 

  1. Esa petición inyecta instrucciones ocultas en la memoria de ChatGPT, sin que el usuario lo note.

 

  1. En futuras interacciones, el asistente ejecuta los comandos inyectados, lo que puede derivar en robo de información, instalación de malware o manipulación de datos.

 

Lo más alarmante es que estas órdenes pueden mantenerse activas indefinidamente, a menos que el usuario elimine manualmente su memoria desde la configuración del asistente.

 


Reproducción del ataque (Fuente: The Hacker News)

 

Qué tan grave es la exposición

 

LayerX comparó el desempeño de ChatGPT Atlas frente a otros navegadores en más de 100 pruebas con vulnerabilidades y ataques reales. Los resultados son preocupantes:

 

  1. Microsoft Edge bloqueó el 53% de los intentos.

 

  1. Google Chrome, el 47%.

 

  1. ChatGPT Atlas, apenas el 5.8%.

 

Esto demuestra que el navegador de OpenAI carece de controles antiphishing robustos y deja a los usuarios hasta 90% más expuestos que los navegadores convencionales.

Además, la vulnerabilidad podría usarse de manera indirecta para contaminar cadenas de desarrollo. Por ejemplo, un programador que solicite ayuda a ChatGPT para generar código podría recibir fragmentos con instrucciones encubiertas, comprometiendo su propio entorno de trabajo o aplicaciones.

 

“Memorias contaminadas”: una nueva cadena de suministro digital

 

Los expertos han bautizado esta técnica como “Tainted Memories” (memorias contaminadas). Es una forma de ataque persistente que viaja con el usuario y contamina sus futuras interacciones con la IA.

“Estas vulnerabilidades son la nueva cadena de suministro”, advirtió Or Eshed, cofundador y CEO de LayerX Security. “No se limitan a un dispositivo o sesión; se trasladan con el usuario, infectando nuevos entornos y mezclando la automatización legítima con el control encubierto”.

Este tipo de ataque representa una evolución peligrosa: los hackers ya no necesitan vulnerar directamente el hardware o el sistema operativo. Ahora pueden aprovechar la capa de inteligencia artificial integrada en navegadores o asistentes virtuales.

 

El riesgo para las empresas

 

Para las organizaciones, esta vulnerabilidad implica riesgos de seguridad corporativa y filtración de datos sensibles. Si un empleado infecta su sesión en ChatGPT Atlas y luego utiliza el navegador para acceder a sistemas empresariales, los atacantes podrían:

 

  1. Obtener credenciales corporativas o tokens de autenticación.

 

  1. Acceder a documentos confidenciales o información de clientes.

 

  1. Desplegar malware o ransomware en sistemas conectados.

 

  1. Manipular respuestas del asistente para generar código con puertas traseras.

 

En un entorno donde muchas empresas dependen de asistentes de IA para tareas críticas, un ataque de este tipo podría pasar desapercibido durante meses.

 

Cómo protegerte de este tipo de ataques

 

En TecnetOne creemos que la prevención sigue siendo la mejor defensa. Para reducir el riesgo frente a ataques de memoria persistente como este, te recomendamos:

 

  1. Evitar abrir enlaces desconocidos o sospechosos, incluso si parecen provenir de fuentes legítimas.

 

  1. Mantener siempre actualizado el navegador y cualquier herramienta asociada a IA.

 

  1. Revisar regularmente la memoria de ChatGPT, eliminando cualquier información guardada si notas comportamientos inusuales.

 

  1. Usar autenticación multifactor (MFA) en todas las cuentas vinculadas.

 

  1. Limitar el uso de navegadores experimentales de IA en entornos corporativos hasta que existan auditorías de seguridad robustas.

 

  1. Implementar políticas de Zero Trust para que incluso dispositivos aparentemente confiables se verifiquen constantemente.

 

Si administras un equipo de TI, considera también monitorear los registros de tráfico y comportamiento de red para detectar posibles conexiones anómalas o ejecuciones automatizadas no autorizadas.

 

El lado oscuro de la integración IA-navegador

 

Lo que hace que este incidente sea tan relevante es que marca una nueva frontera del riesgo digital. Los navegadores impulsados por inteligencia artificial, como Atlas, combinan en un solo entorno aplicaciones, identidad del usuario e inteligencia generativa.

Eso significa que un solo exploit puede comprometer datos personales, cuentas corporativas y sistemas conectados al mismo tiempo.

La línea entre productividad y vulnerabilidad se vuelve difusa: la misma herramienta que facilita tu trabajo puede ser utilizada para controlarte o espiar tus acciones.

En ese sentido, los navegadores basados en IA deben ser tratados como infraestructura crítica, no como simples aplicaciones de consumo.

 

Títulos similares: Falla de ChatGPT en macOS Pudo Permitir Spyware a Largo Plazo

 

Lo que nos enseña este caso

 

La vulnerabilidad de ChatGPT Atlas nos recuerda que cada avance tecnológico trae consigo un nuevo tipo de riesgo. En este caso, el problema no es solo técnico: también afecta la confianza en los sistemas de IA y la seguridad de la información corporativa.

Mientras OpenAI trabaja en un parche, las organizaciones deben adoptar medidas proactivas de ciberseguridad, especialmente si integran la IA en procesos operativos o de desarrollo.

En TecnetOne, ayudamos a las empresas a evaluar su exposición ante amenazas emergentes y a diseñar estrategias de defensa adaptadas a este nuevo panorama donde la IA, la automatización y el riesgo se entrelazan.

 

Conclusión

 

El incidente de ChatGPT Atlas no es un hecho aislado: es una advertencia de hacia dónde se dirige la próxima generación de ataques. Los ciberdelincuentes ya están aprendiendo a manipular la memoria de las IA, aprovechando su capacidad para recordar y su conexión constante con la nube.

Protegerte significa ir más allá de los antivirus tradicionales: implica revisar tus hábitos digitales, tus herramientas de productividad y tus dependencias con sistemas inteligentes.

En TecnetOne te ayudamos a entender, anticipar y mitigar los riesgos de la nueva era de la inteligencia artificial.

Porque la seguridad digital no termina en tu red: ahora también vive en la memoria de tus herramientas inteligentes.