¿Qué pasaría si pudieras crear mensajes de phishing, código malicioso y otras actividades maliciosas con solo escribir unas pocas palabras en una caja de chat? Eso es lo que promete FraudGPT, una herramienta de inteligencia artificial (IA) que se ofrece en los mercados de la Deep Web y en Telegram.
FraudGPT es un clon de ChatGPT, un modelo generativo de IA que puede crear chatbots con respuestas humanas a partir de grandes cantidades de datos de texto. ChatGPT se ha utilizado para fines educativos, de entretenimiento y de investigación, pero también ha llamado la atención de los cibercriminales, que han visto en él una oportunidad para facilitar sus actividades ilícitas.
Actualmente, los delincuentes cibernéticos alardean de aprovechar las amplias capacidades de la inteligencia artificial generativa para desarrollar modelos similares a ChatGPT y Bard de Google, pero diseñados específicamente para actividades ilícitas, como la suplantación de identidad de bancos o la creación de sitios web susceptibles de ser utilizados en estafas.
Entre estos nuevos sistemas maliciosos se encuentran FraudGPT y WormGPT, que están emergiendo en la Deep Web. Según una plataforma de análisis de datos, estos sistemas permiten la creación de correos electrónicos fraudulentos y la ejecución de ataques de phishing extremadamente convincentes. También es posible que se utilicen para crear deepfakes y llevar a cabo campañas de desinformación.
De hecho, el primer chatbot se considera por algunos como el "gemelo malévolo de ChatGPT". No está disponible de forma gratuita y ninguna de sus funciones lo es. Ofrece dos tipos de planes de suscripción: uno mensual por 100 dólares y otro privado que tiene un costo de 500 dólares.
Te podrá interesar leer: WormGPT: La Inteligencia Artificial que Impulsa Ataques Cibernéticos.
La aparición de estas herramientas representa un cambio significativo en el ámbito de la cibercriminalidad, ya que su uso está en constante evolución y se ha vuelto altamente especializado. Los expertos advierten sobre la posibilidad de que la inteligencia artificial generativa contribuya al desarrollo de malware más sofisticado.
Esta tecnología facilita a los atacantes la capacidad de generar correos maliciosos en varios idiomas sin los errores típicos que antes solían delatarlos fácilmente.
Para los expertos, estas herramientas delictivas plantean un serio problema para el futuro, ya que incluso aquellos con conocimientos técnicos limitados pueden utilizarlas para llevar a cabo campañas maliciosas con una alta probabilidad de éxito.
Conoce más sobre: Descubriendo los canales en Telegram de la Dark Web
Una empresa de seguridad cibernética ha detectado un aumento en el uso de la inteligencia artificial para ejecutar estafas avanzadas, como la conocida como "pig butchering (carnicería de cerdos)", en la que los estafadores ganan la confianza de sus víctimas antes de despojarlas de sus activos.
Esta técnica ha evolucionado y ahora incluye el uso de deepfakes, videos y audios manipulados, que suelen afectar principalmente a funcionarios gubernamentales, empresarios y celebridades, especialmente aquellas vinculadas al mundo de las inversiones en criptomonedas.
Los investigadores han observado cómo el grupo delictivo cibernético TA499 recurre a videollamadas falsificadas mediante IA para suplantar a políticos y otras figuras públicas. El objetivo de esta suplantación es obtener información confidencial o comprometedora de las víctimas para luego difundirla en redes sociales con fines de ridiculización.
Podría interesarte: Voces clonadas con IA: La creciente amenaza de las estafas telefónicas
Además de las preocupaciones en el ámbito de la ciberseguridad, el abuso de la inteligencia artificial en la creación de contenido engañoso y material sensible, como la pornografía no consensuada, genera inquietudes entre los expertos en derecho y ética digital.
Estas técnicas de IA también se han utilizado para fines de manipulación política y social, como la creación de imágenes falsas de inmigrantes con el propósito de influir en la opinión pública y en los resultados electorales.
Además, se ha identificado el riesgo de que la IA pueda contribuir a la creación de armas bioquímicas y pueda infiltrarse en software de infraestructuras críticas, lo que plantea problemas significativos. Mientras tanto, las regulaciones existentes no logran abordar de manera efectiva el amplio espectro de amenazas que surgen con la inteligencia artificial generativa.
Conoce más sobre: Entendiendo los Desafíos de los Deepfakes
FraudGPT es un ejemplo más de cómo la IA puede ser utilizada para fines maliciosos, y de cómo los cibercriminales se adaptan y aprovechan las nuevas tecnologías para mejorar sus capacidades. Por eso, es importante estar alerta y protegido ante estas amenazas, que pueden tener consecuencias graves para la privacidad, la seguridad y la economía de las personas y las empresas.
No obstante, el desafío para prevenir los daños causados por FraudGPT y herramientas similares radica en encontrar un equilibrio entre los principios éticos de la inteligencia artificial y la aplicación práctica de medidas de seguridad y regulación.