Imagina recibir un correo electrónico aparentemente de tu banco, solicitando urgentemente que verifiques tu cuenta. Todo parece legítimo, desde el logotipo hasta el tono del mensaje, pero algo no cuadra. Este tipo de engaño, conocido como phishing, se ha vuelto cada vez más sofisticado y peligroso gracias al uso de la inteligencia artificial (IA).
La IA no solo ha facilitado la personalización y el realismo de estos ataques, sino que también ha permitido a los ciberdelincuentes operar a una escala sin precedentes. En este artículo, exploraremos cómo la combinación de IA y phishing constituye una amenaza significativa y qué medidas se pueden tomar para protegerse de esta creciente vulnerabilidad.
En los últimos 20 años, los avances tecnológicos en hardware y dispositivos son innegablemente visibles en comparación con los puntos finales de años anteriores. Sin embargo, menos obvios y frecuentemente pasados por alto son los significativos progresos digitales que han realizado los ciberatacantes para perfeccionar sus métodos de ataque. Reflejando los tiempos, las medidas de protección que antes eran efectivas, como los SEG (puerta de enlace de correo electrónico segura) , ya no pueden competir con los ataques basados en IA.
Las medidas de ciberseguridad deben mejorar en paralelo con el cambio tecnológico para proteger el mundo digital de manera efectiva. El desafío de proteger las bandejas de entrada y los entornos de aplicaciones de productividad contra ataques impulsados por IA se ha multiplicado significativamente.
El método más común que utilizan los atacantes para escalar los ataques de phishing es abusar de herramientas de IA generativas, como ChatGPT y Google Gemini (anteriormente Google Bard). No obstante, también hay tácticas sorprendentes en las que los delincuentes emplean la inteligencia artificial, las cuales las empresas deben tener en cuenta. Dado que los atacantes aprovechan tanto los métodos de phishing comunes impulsados por IA como tácticas menos populares para llevar a cabo ataques, es crucial comprender ambas caras de la moneda para reforzar mejor la protección.
Conoce más sobre: Inteligencia Artificial en 2024: Espada doble filo en Ciberseguridad
Ataque Común: Phishing Impulsado por IA
El phishing impulsado por inteligencia artificial se ha convertido en una técnica común y efectiva utilizada por los cibercriminales. Gracias a herramientas avanzadas de procesamiento del lenguaje natural, los atacantes pueden crear mensajes de phishing que imitan el tono y estilo de personas de confianza, aumentando la probabilidad de engañar a las víctimas. Servicios como WormGPT y FraudGPT facilitan que incluso los hackers novatos redacten correos electrónicos convincentes y gramaticalmente correctos.
Además, los cibercriminales están utilizando herramientas de IA como ChatGPT para generar malware. Estas herramientas pueden ser manipuladas para crear código malicioso, revelar información o realizar actividades poco éticas. Aunque las empresas de inteligencia artificial han implementado medidas de seguridad para evitar la creación de malware, los atacantes encuentran maneras de eludir estas restricciones, formulando indicaciones específicas que pasan desapercibidas para las soluciones de detección.
La IA también permite el desarrollo de malware adaptable. Los atacantes pueden introducir código malicioso en una herramienta de IA genérica y pedirle que lo modifique ligeramente, lo que permite evadir la detección basada en el comportamiento. Este pequeño cambio es suficiente para que las reglas de seguridad no reconozcan el malware modificado como una amenaza.
Te podrá interesar leer: Combate el Fraude con Inteligencia de Amenazas
Falsificación con la Ayuda de Servicios Deepfake
Los deepfakes, otra forma extendida de ataque basado en IA, representan un peligro significativo debido a la accesibilidad de los servicios que permiten su creación a bajo coste. Estos servicios de deepfakes maliciosos no requieren habilidades especiales y son accesibles para cualquiera, necesitando pocos recursos para generar ataques altamente engañosos.
Con una breve grabación de audio o una muestra de voz, es posible crear deepfakes en minutos. Es un error común pensar que se necesita una gran cantidad de datos para crear imitaciones convincentes; alarmantemente, incluso con datos mínimos de voz o vídeo, se pueden producir resultados indiscernibles de los reales.
El phishing, las falsificaciones profundas y la generación de malware mediante IA son métodos a los que recurren los cibercriminales debido a la mínima inversión, habilidades y tiempo que requieren. Sin embargo, no se pueden descartar las formas más complejas en las que los adversarios utilizan la IA para eludir las medidas de seguridad. Aunque es menos frecuente, la posibilidad de ataques sofisticados impulsados por IA es inminente y representa un riesgo significativo.
Conoce más sobre: Entendiendo los Desafíos de los Deepfakes
Envenenamiento del Entrenamiento de Modelos de IA
Los ataques de envenenamiento de IA, aunque infrecuentes, son posibles y requieren recursos y experiencia significativos. En estos ataques, los adversarios contaminan datos específicos para sabotear modelos de IA y hacer que lleguen a conclusiones erróneas. Los datos falsos presentados como verdaderos pueden ser adquiridos por los ciberdelincuentes.
En ciberseguridad, el envenenamiento de IA es una preocupación creciente para los proveedores que recopilan muestras de la red para desarrollar sus herramientas de protección. Según Alexander Ivanyuk, director sénior de tecnología de Acronis, los atacantes compran muestras de malware falsas o semi-maliciosas disfrazadas de altamente maliciosas con el objetivo de engañar a las empresas de seguridad. Estas muestras contaminadas se utilizan para construir herramientas de seguridad, disminuyendo la efectividad de las detecciones.
"Las muestras no son altamente maliciosas, pero tampoco inofensivas", explica Ivanyuk. "Los atacantes buscan eliminar las diferencias claras entre muestras benignas y maliciosas, complicando la identificación de malware y aumentando los falsos positivos".
Otro ejemplo es cuando las empresas de seguridad, sin saberlo, compran conjuntos de datos envenenados. Estas empresas creen que los datos son legítimos y que la IA replica buen comportamiento. Sin embargo, los datos de entrada comprometidos provocan que el modelo resultante funcione incorrectamente. En situaciones reales, la IA no detectará las ciberamenazas correctamente.
Te podrá interesar leer: 7 Usos de IA Generativa para Seguridad Operativa
Raro pero Posible: Ataques Directos a Productos de Seguridad de IA
Aunque infrecuentes, los ataques directos a productos de seguridad de IA son posibles si los adversarios cuentan con los fondos necesarios. Estos ataques requieren una inversión considerable y una gran habilidad para comprometer la infraestructura del proveedor de seguridad, manipular su modelo de IA y desactivar el producto de seguridad, evitando que detecte amenazas.
Lo alarmante de estos ataques es que pueden pasar desapercibidos durante un tiempo, hasta que los usuarios finales del producto informan sobre fallos en las detecciones a la empresa de seguridad. La única manera de identificar si están ocurriendo ataques directos a la IA de seguridad es a través de pruebas independientes y un análisis detallado de las tasas de detección.
Vencer a los Ataques Basados en IA en su Propio Terreno
Es esencial que tanto las empresas como sus clientes estén atentos a las formas en que los cibercriminales explotan las herramientas y servicios de IA para lanzar ataques sofisticados. La IA se utiliza para crear deepfakes, envenenar modelos de IA y atacar directamente productos de seguridad basados en IA, lo que demuestra los continuos avances de los atacantes con la ayuda de esta tecnología. La naturaleza sigilosa de estas infracciones significa que a menudo pasan desapercibidas hasta que los usuarios finales informan de fallos de detección.
La seguridad del correo electrónico y la protección de las aplicaciones de colaboración requieren un refuerzo en medio del phishing habilitado por la IA. A pesar de los esfuerzos de formación en materia de seguridad y antiphishing, las soluciones de seguridad avanzadas son esenciales para revelar información crítica y proporcionar contexto sobre las ciberamenazas.
Estas soluciones ayudan a los técnicos de TI a determinar el origen de una amenaza, descubrir parámetros específicos utilizados en las transmisiones de correo electrónico y ofrecer capacidades de protección web y sandbox para garantizar que los hipervínculos dañinos se detecten antes de que lleguen a los destinatarios.
Asegura tu organización frente a las ciberamenazas avanzadas con nuestro TecnetProtect. Nuestra solución integral de ciberprotección incluye detección y respuesta de endpoint (EDR), copias de seguridad seguras, protección de correo electrónico avanzada y más. No dejes que los cibercriminales saquen ventaja de la IA; fortalece tus defensas y protege tu infraestructura digital hoy mismo.