¿Puede un texto común ser realmente peligroso o dañino para las personas o las cosas, excepto en casos de supuesta magia negra que despliega su poder al ser leído o pronunciado, o un texto que desafíe los paradigmas de la Inquisición en la Edad Media?
Responder a esta pregunta era más complicado antes de la era moderna, que ha transformado las palabras comunes en algo casi mágico. Este cambio no ha ocurrido a través de hechizos, sino gracias a la llegada de la tecnología GPT.
La tecnología GPT ha causado un gran impacto en todo el mundo, superando incluso incidentes como el despido de CEOs de grandes corporaciones. Su logro más notable es la difuminación de las líneas entre los lenguajes naturales humanos y los lenguajes de programación. Interactuar con estos sistemas es tan fácil como dar instrucciones en lenguaje coloquial. En este nuevo contexto, incluso un mono, siguiendo la idea del teorema del mono infinito, podría lograr más que solo escribir texto significativo al azar al interactuar con modelos de lenguaje de gran escala (LLM).
Te podrá interesar leer: Seguridad en Modelos de Lenguaje: Retos y Soluciones
En la última edición de tmp.0ut, una revista digital conocida por su enfoque alternativo en temas de piratería, programación y tecnología, un autor bajo el seudónimo Second Part to Hell presentó una teoría intrigante. Esta teoría consiste en escribir virus en lenguaje natural y luego convertirlos en código de programación ejecutable en tiempo real utilizando la API de OpenAI. tmp.0ut, disponible gratuitamente en línea, es famosa por su contenido innovador.
La idea de Second Part to Hell no es completamente nueva. Como antiguo escritor de virus, él desarrolló un código que infectaba archivos de ADN (descrito en otra revista electrónica clandestina, Valhalla #4). Este código, diseñado para propagarse digitalmente, buscaba archivos .fasta, un formato para almacenar información genética. La idea era revolucionaria: si este código llegaba a un laboratorio capaz de generar ADN en células (como los de Craig Venter), podría fusionar los mundos digital y biológico con nuevas técnicas de mutación de código.
Tras una década de inactividad, la creatividad del autor se reactivó en febrero de 2023 al acceder a las API GPT de OpenAI. Esto condujo al desarrollo del "Metamorfismo vía GPT". Según él, “Puedo convertir un lenguaje a código, así que puedo describir un código en lenguaje natural y obtener un código Python. Ahora, el virus no necesita contener código Python, sino solo texto en inglés que se envía a GPT, se traduce allí a Python y luego ejecuto el código compilado desde GPT”.
Este método supera el metamorfismo tradicional, introduciendo el concepto de lingüistomorfismo. Aunque aún no es ampliamente adoptado, su potencial de impacto a largo plazo es considerable.
Estas ideas se detallan en el último número de tmp.0ut, bajo el título "Uso de GPT para codificar y mutar virus informáticos completamente en lenguaje natural". El artículo, con tres ejemplos de código progresivamente más avanzados, muestra cómo el virus entiende oraciones en inglés y luego GPT genera códigos con comportamientos idénticos, explotando la ambigüedad del lenguaje natural para reformular las instrucciones en inglés que definen el código del virus. Esta técnica de mutación se llama "lingüistomorfismo".
Este avance representa un desafío preocupante para los sistemas antivirus y de detección y respuesta a endpoints (EDR) tradicionales, ya que un texto en cualquier lenguaje natural ahora puede convertirse en instrucciones ejecutables al instante. Considerando que GPT de OpenAI puede entender y responder en más de 50 idiomas y generar código en múltiples lenguajes de programación, los mecanismos de defensa tradicionales parecen cada vez más obsoletos.
Te podrá interesar: Detección y Respuesta en Endpoints EDR con Wazuh
El autor sugiere que estos códigos son un ejemplo temprano de una nueva clase de virus informáticos que aprovechan el poder de sistemas avanzados de inteligencia artificial.
Para usar la API de OpenAI, el llamado LLMorpher necesita una clave API. Puede llevar esta clave en su código, lo que lo hace un objetivo fácil para ser bloqueado, o puede infectar archivos que ya tienen una clave API. El autor eligió este último enfoque, y los foros de hackers ya están llenos de ofertas de claves OpenAI robadas.
Así, estamos entrando en una nueva era donde los virus informáticos, conceptualizados en lenguaje natural y capaces de reformular estas ideas sin cambiar su intención principal, podrían convertirse en una amenaza inquietante y algo enigmática en nuestro futuro.
Podría interesarte: Ataque de Virus Informático: ¿Qué son y cómo prevenirlos?
Código fuente de LLMorpher
Introducido en marzo de 2023, LLMorpher marca un hito en la creación de virus informáticos. Este artículo explora en detalle las intrincadas características de LLMorpher y su significado en el ámbito de la seguridad cibernética.
Compuesto por 114 líneas de código, incluyendo instrucciones, LLMorpher está escrito en Python. Lo notable es cómo el autor ha organizado estas instrucciones en secciones específicas. Este enfoque estratégico ayuda a evitar confusiones o errores, conocidos como alucinaciones, que pueden surgir cuando se procesan instrucciones largas en modelos de lenguaje de gran escala (LLM).
El corazón de LLMorpher nace en una serie de frases cuidadosamente redactadas en inglés. Utilizando las capacidades avanzadas de la tecnología GPT, capaz de codificar un virus informático por completo, LLMorpher convierte estas instrucciones en inglés en código ejecutable. A diferencia de los virus convencionales, que se programan en lenguajes de programación específicos, LLMorpher emplea el lenguaje natural.
Te podrá interesar leer: WormGPT: La Inteligencia Artificial que Impulsa Ataques Cibernéticos.
Esta característica clave del lenguaje natural, su ambigüedad, permite que el código informático generado por GPT varíe en cada ejecución. Tal variabilidad convierte a GPT en una herramienta óptima para la creación de virus informáticos metamórficos, esencialmente inconstantes y evolutivos. Además, la habilidad de GPT para reformular instrucciones en inglés amplía aún más su potencial.
LLMorpher representa una de las primeras instancias de una nueva categoría de virus informáticos que se benefician del poder de los sistemas avanzados de inteligencia artificial. Estos sistemas de IA, que han estado operativos solo por unos pocos meses, ya están causando un impacto revolucionario en nuestra sociedad. LLMorpher es solo un ejemplo de las capacidades y las posibles implicaciones de esta emergente tecnología.
LLMorpher, a pesar de ser un proyecto innovador y experimental, confronta algunas limitaciones y desafíos que necesitan atención. Un obstáculo significativo es su dependencia de la API de OpenAI.
Inicialmente, el desarrollador de LLMorpher intentó eludir la necesidad de una clave API de OpenAI, apuntando a archivos que ya contenían la variable openai.api_key. Sin embargo, esta estrategia presupone que las computadoras infectadas tendrán tanto openai.api_key como la biblioteca OpenAI instalada, lo cual es poco común fuera del campo de aprendizaje automático (ML).
Para superar esta limitación, un enfoque alternativo parece viable. En lugar de depender exclusivamente del GPT de OpenAI para la generación de código, el virus podría aprovechar otros modelos de lenguaje grande (LLM) de código abierto, como el Code LLama 2 de Meta AI, que es más ligero y está diseñado específicamente para la generación de código. Estos modelos están disponibles en plataformas como Model Hub y Replicate de Hugging Face, y pueden incluso ejecutarse en computadoras portátiles estándar. Implementar estos modelos en un servicio en la nube y utilizar una API de inferencia podría proporcionar una alternativa más flexible. Optar por servicios comúnmente utilizados como Hugging Face o Replicate podría dificultar el bloqueo de los endpoints de comando y control (C&C) del virus..
Te podrá interesar leer: Desentrañando el Mundo de la Ciberseguridad C2
La detección de malware generado por LLMorpher requiere un enfoque más sofisticado. Las soluciones de seguridad deben integrar sistemas de aprendizaje automático y análisis heurístico para identificar patrones anómalos y comportamientos sospechosos. Además, la educación y concienciación sobre ciberseguridad se vuelven fundamentales para prevenir ataques.
El uso de tecnologías como LLMorpher plantea importantes cuestiones éticas y legales. El desarrollo de malware es, en muchas jurisdicciones, una actividad ilegal. Sin embargo, la investigación en este campo puede ayudar a comprender mejor cómo contrarrestar las amenazas cibernéticas. Es crucial encontrar un equilibrio entre la innovación tecnológica y la responsabilidad ética.
La evolución del malware con herramientas como LLMorpher sugiere un futuro donde los ataques cibernéticos serán más difíciles de predecir y contrarrestar. Esto implica la necesidad de una investigación continua y el desarrollo de nuevas estrategias de seguridad cibernética.
En conclusión, LLMorpher representa un avance significativo en el desarrollo de malware, con el potencial de cambiar radicalmente el panorama de la seguridad cibernética. Aunque ofrece desafíos significativos, también brinda la oportunidad de desarrollar defensas más robustas y efectivas. Es esencial que los profesionales de la ciberseguridad estén al tanto de estas innovaciones y trabajen continuamente para proteger contra las amenazas emergentes.