Las estafas han existido desde tiempos inmemoriales, pero ahora, con la irrupción de la inteligencia artificial, los delincuentes han encontrado nuevas y sofisticadas formas de engañar. ¿Sabías que hoy en día un video completamente falso puede hacerte creer que alguien cercano te está hablando? O que un perfil en redes sociales puede parecer tan real que ni siquiera sospecharías que es controlado por un bot.
La inteligencia artificial, además de sus usos positivos, está siendo aprovechada para crear fraudes que parecen salidos de una película de ciencia ficción. Un buen ejemplo de lo grave que se ha vuelto este tema lo estamos viendo en América Latina, donde las estafas en línea están disparándose a niveles preocupantes. Solo en 2024, los intentos de fraude a través de mensajes falsos han subido un 140%, según datos de Kaspersky.
Una de las razones detrás de este aumento es el uso de inteligencia artificial, que ahora permite crear deepfakes, audios y videos manipulados que hacen que detectar fraudes sea mucho más complicado. Estos avances tecnológicos les están dando a los estafadores herramientas más sofisticadas para afinar sus engaños, lo que representa un gran reto para la seguridad digital de todos. En este artículo, vamos a explorar las cinco estafas con IA más ingeniosas y peligrosas que están afectando a miles de personas, y te mostraremos cómo protegerte de caer en estas trampas.
Uno de los usos más comunes de la IA generativa entre los delincuentes hoy en día es el phishing, esa táctica en la que intentan engañarte para que entregues información personal o confidencial. Según un informe reciente, se ha visto un aumento considerable en los correos de phishing desde que herramientas como ChatGPT se han popularizado.
Plataformas que generan spam, como GoMail Pro, están aprovechando la IA para mejorar y traducir los mensajes que envían a las víctimas, haciendo que estos correos fraudulentos suenen más convincentes y menos sospechosos.
Aunque OpenAI tiene políticas estrictas que prohíben el uso de sus herramientas para actividades ilegales, controlar su mal uso no es tan sencillo. Muchas veces, los mensajes parecen inofensivos a simple vista, pero pueden ser utilizados con malas intenciones.
La empresa asegura que combina la revisión humana y sistemas automatizados para identificar y frenar los abusos. Las sanciones pueden incluir advertencias, suspensiones temporales e incluso prohibiciones permanentes para quienes no cumplan con las reglas.
Conoce más sobre: Nueva Era de Ciberataques: IA y el Phishing como Protagonistas
La inteligencia artificial ha llevado los deepfakes a un nivel completamente nuevo. Ahora, los audios, videos e imágenes generados por IA son tan realistas que los estafadores están aprovechando esta tecnología para engañar a personas y empresas.
Un caso que dejó a muchos con la boca abierta fue el de un trabajador en Hong Kong que, a principios de 2024, cayó en una estafa y terminó transfiriendo 26 millones de dólares a los delincuentes. ¿Cómo lo hicieron? Los estafadores usaron un deepfake de audio del director financiero de la empresa para convencerlo de que enviara el dinero a la cuenta equivocada. Suena a película, pero es la realidad a la que nos enfrentamos con los avances de la IA.
Otra forma en la que los delincuentes están utilizando los deepfakes es para saltarse los sistemas de verificación de identidad. Muchas plataformas financieras, como los bancos y los intercambios de criptomonedas, requieren que los nuevos usuarios se tomen una foto con su identificación para asegurarse de que son personas reales. Sin embargo, los ciberdelincuentes han comenzado a vender herramientas en lugares como Telegram que permiten burlar este proceso.
Estas herramientas les permiten usar identidades falsas o robadas, combinadas con una imagen deepfake del rostro de otra persona, engañando así al sistema de verificación de las cámaras. Lo que solía ser una barrera de seguridad fiable, ahora está siendo vulnerada con tecnología más accesible.
Normalmente, si le preguntas a una IA cómo fabricar una bomba o algo ilegal, no te dará una respuesta útil. Las empresas de IA han implementado barreras para que sus modelos no se usen con fines malintencionados. Pero eso no ha detenido a los delincuentes.
Como crear modelos de IA sin estas protecciones es costoso y complicado, los ciberdelincuentes están recurriendo al "jailbreak-as-a-service". Básicamente, esto consiste en manipular o "hackear" el sistema para saltarse estas restricciones. A través del jailbreaking, los estafadores pueden generar código para ransomware o crear contenido fraudulento para correos electrónicos, rompiendo las barreras impuestas por los desarrolladores de IA.
Podría interesarte leer: Tailgating: ¿Qué es y cómo evitar que afecte a tu empresa?
Los modelos de lenguaje de IA no solo se están utilizando para estafas como el phishing, también son una herramienta poderosa para el doxing. Esta práctica consiste en divulgar información personal de una persona en línea sin su consentimiento, lo que puede tener consecuencias graves para la privacidad y seguridad de las víctimas.
Una de las formas en que esto puede funcionar es pidiéndole a un chatbot que actúe como si fuera un "investigador privado", para ayudar a perfilar a una persona. Usando los datos que la víctima ha compartido en línea, la IA puede deducir detalles como su edad, en función de cuándo se graduó, o su ubicación, basándose en las referencias que haga a lugares cercanos. Cuanto más abierta esté una persona en Internet, más expuesta queda a que alguien con malas intenciones use estos datos para identificarla y ponerla en riesgo.
Las estafas con IA están más avanzadas que nunca, pero no es tan difícil protegerse si sabes qué hacer. Aquí te dejamos algunos consejos súper sencillos para mantenerte a salvo:
1. Sospecha de cualquier cosa rara: Si alguien te pide dinero o información de manera urgente, respira hondo y no te apresures. Verifica primero llamando a esa persona o contactándola por otro medio para asegurarte de que todo es real.
2. Activa la verificación en dos pasos (2FA): Esto añade una capa extra de seguridad en tus cuentas. Incluso si alguien roba tu contraseña, necesitarán un código adicional que se envía solo a ti.
3. No confíes en correos que suenan demasiado formales: Con IA, los correos fraudulentos son cada vez más convincentes. Siempre revisa bien el remitente y no te fíes ciegamente de enlaces o archivos adjuntos.
4. Ten cuidado con lo que compartes en redes: No publiques demasiados detalles personales. Los estafadores pueden usar esa información para hacerte caer. Revisa la privacidad de tus perfiles y limita lo que los demás pueden ver.
5. Cuestiona audios y videos: Los deepfakes pueden ser muy reales, pero si notas algo raro en un video o audio, no dudes en pedir una videollamada para confirmar que hablas con la persona correcta.
6. Mantén tus dispositivos al día: Las actualizaciones son súper importantes para proteger tu seguridad. Asegúrate de tener todo actualizado, desde el sistema operativo hasta tu antivirus.
7. Mantente informado y usa herramientas seguras: Tener un buen antivirus y estar al tanto de las últimas estafas te ayudará a mantenerte protegido.
No hace falta ser un experto en tecnología para evitar caer en estas estafas. Solo sé un poco escéptico, verifica las cosas antes de actuar y ajusta algunas configuraciones de seguridad. Con un poco de cuidado, puedes mantenerte fuera de peligro. ¡No te dejes engañar!