Descubre Noticias de Ciberseguridad en nuestro TecnetBlog

Microsoft Bloquea Red de Hackers que Explotaba Azure OpenAI

Escrito por Zoilijee Quero | Mar 3, 2025 7:37:31 PM

Los hackers siempre encuentran la manera de meterse donde no deben, y esta vez le tocó a Microsoft Azure. Un grupo de ciberdelincuentes estuvo abusando de la plataforma en la nube para acceder ilegalmente a herramientas de inteligencia artificial generativa (GenAI) y crear contenido dañino. Pero Microsoft no se quedó de brazos cruzados: expuso a los responsables, desmanteló su operación y ahora está tomando medidas legales contra ellos.

Los implicados son cuatro desarrolladores de distintas partes del mundo: Arian Yadegarnia ("Fiz") de Irán, Alan Krysiak ("Drago") del Reino Unido, Ricky Yuen ("cg-dot") de Hong Kong y Phát Phùng Tấn ("Asakuri") de Vietnam. Todos ellos forman parte de una red de cibercrimen conocida como Storm-2139, que se especializa en evadir las barreras de seguridad de servicios como Azure OpenAI Service para explotar la inteligencia artificial con fines maliciosos.

 

¿Cómo operaba Storm-2139 para explotar la inteligencia artificial?

 

Los hackers detrás de este esquema usaron credenciales filtradas de clientes, obtenidas de fuentes públicas, para colarse en cuentas con acceso a herramientas de inteligencia artificial generativa. Una vez dentro, manipularon estos servicios, revendieron el acceso y hasta compartieron guías para generar contenido ilegal, incluyendo imágenes íntimas falsas de celebridades, sin su consentimiento.

Esta actividad viola nuestros términos de uso y requirió esfuerzos deliberados para burlar nuestras medidas de seguridad”, explicó Microsoft en su comunicado. También aclararon que no revelarán los nombres de las celebridades afectadas para proteger su privacidad y han eliminado de sus registros cualquier contenido dañino generado en este esquema.

Todo esto salió a la luz gracias a una investigación iniciada en diciembre de 2024, cuando la Unidad de Delitos Digitales (DCU) de Microsoft presentó una demanda en Virginia contra 10 individuos no identificados, acusándolos de violar la ley de EE. UU. y las políticas de uso de la compañía.

Los investigadores descubrieron que el grupo Storm-2139 operaba en tres niveles: creadores, proveedores y usuarios. Los creadores diseñaban las herramientas para manipular la IA, los proveedores las ajustaban y vendían, y los usuarios finales las utilizaban para generar contenido ilegal, muchas veces con imágenes de celebridades en situaciones comprometedoras.

Microsoft está tomando medidas legales para frenar estas prácticas y proteger la seguridad de sus plataformas, dejando claro que el uso indebido de la inteligencia artificial no quedará impune.

 

 

Las acciones legales de Microsoft golpearon fuerte a Storm-2139, afectando su infraestructura y desatando un caos interno. Con la presión encima, los propios miembros del grupo empezaron a acusarse entre ellos, filtrar información y especular sobre sus identidades.

Este caso deja claro que las acciones legales pueden ser una herramienta poderosa para desmantelar redes de ciberdelincuentes.

Nos tomamos muy en serio el uso indebido de la IA y el daño que este tipo de contenido causa a las víctimas”, señaló Microsoft en su comunicado. “Sabemos que frenar estas actividades no ocurre de la noche a la mañana. Se necesita persistencia y vigilancia constante. Al exponer a estos individuos y revelar cómo operan, queremos marcar un precedente en la lucha contra el abuso de la IA”.

 

Podría interesarte leer:  Conflictos Internos Destruyen al Grupo de Ransomware Black Basta

 

La demanda y el caos que desató en Storm-2139

 

Microsoft no se quedó de brazos cruzados y llevó el caso a los tribunales. La Unidad de Delitos Digitales (DCU) presentó una demanda en el Distrito Este de Virginia, apuntando inicialmente a diez hackers desconocidos, los llamados “John Doe”. Gracias a esta acción, la compañía logró que el tribunal aprobara una orden de restricción temporal y una medida cautelar, lo que le permitió tomar el control de un sitio web clave que Storm-2139 usaba para sus operaciones. Este golpe desestabilizó seriamente al grupo.

Pero lo más interesante vino después. Cuando los documentos legales salieron a la luz en enero de 2025, dentro de la comunidad de ciberdelincuentes se desató el caos. Los miembros de Storm-2139 empezaron a especular sobre quiénes eran los “John Doe”, algunos tratando de desviar la culpa y otros señalando a sus propios compañeros. En cuestión de días, la confianza dentro del grupo se resquebrajó, dejando claro que la presión legal puede ser una herramienta poderosa contra el cibercrimen.

 

 

Represalias de Storm-2139 y la respuesta de Microsoft

 

El golpe legal de Microsoft no solo desmanteló parte de la operación de Storm-2139, sino que también puso nerviosos a sus miembros. Tanto así que algunos intentaron lavarse las manos enviando correos al equipo legal de la compañía, tratando de culpar a otros dentro del grupo.

Pero la cosa no quedó ahí. En un intento de contraataque, se reportaron casos de doxing contra uno de los abogados de Microsoft, publicando en línea su información personal e incluso fotos. Este tipo de tácticas pueden ser peligrosas, ya que abren la puerta al robo de identidad, acoso y amenazas reales fuera del mundo digital. Aun así, Microsoft no ha dado señales de retroceder. Su mensaje es claro: seguirán tomando medidas para frenar el abuso de sus plataformas y exponer a quienes intenten usarlas con fines maliciosos.

 

 

Conclusión: Un golpe contra el cibercrimen y el abuso de la IA

 

El caso de Storm-2139 deja una lección clara: las plataformas de inteligencia artificial no están exentas de abuso, y los ciberdelincuentes seguirán buscando formas de explotarlas si no se toman medidas firmes. Microsoft no solo logró desmantelar parte de esta red, sino que también expuso a los responsables y dejó claro que el uso indebido de la IA tendrá consecuencias.

Pero esta batalla no termina aquí. La seguridad digital es un esfuerzo constante que requiere vigilancia, innovación y, sobre todo, colaboración entre empresas tecnológicas, gobiernos y usuarios. Proteger la integridad de la inteligencia artificial no solo es responsabilidad de las grandes compañías, sino también de quienes la usamos día a día. A medida que la IA sigue evolucionando, también lo harán las amenazas. Lo importante es estar un paso adelante, fortalecer las defensas y asegurarnos de que esta tecnología se utilice para construir, no para destruir.