La inteligencia artificial nos está haciendo la vida más fácil en muchísimos sentidos: escribir textos, resumir documentos, planificar tareas… Hasta ahí, todo bien. Pero hay algo muy importante que no deberíamos dejar en manos de un chatbot: nuestras contraseñas.
Aunque suene cómodo, dejar que una IA elija tu clave de acceso puede salirte caro. Estudios recientes muestran que las contraseñas generadas por estos sistemas no son tan seguras como parecen. Suelen seguir ciertos patrones que, aunque a simple vista parecen únicos o complejos, pueden ser identificados por programas diseñados para descifrarlas. Es decir, no son tan aleatorias como uno pensaría.
Y eso es un gran problema, porque las contraseñas son básicamente la cerradura de nuestras vidas digitales. Protegen desde nuestras redes sociales hasta las cuentas bancarias. Confiar en una IA para algo tan delicado es arriesgado. Lo curioso es que cada vez más gente lo está haciendo sin saber los riesgos. Por eso, en este artículo vamos a explicarte por qué esta práctica no es nada recomendable, qué peligros puede implicar y, sobre todo, qué hacer para crear contraseñas realmente seguras sin complicarte la vida.
¿Por qué no es buena idea pedirle a la inteligencia artificial que cree tus contraseñas seguras?
Puede que modelos como ChatGPT, LLaMA o DeepSeek sepan la teoría de memoria: una buena contraseña debe tener al menos 12 caracteres, mezclar mayúsculas, minúsculas, números y símbolos. Pero una cosa es saberlo y otra muy distinta es aplicarlo bien. Y ahí es donde empiezan los problemas.
En la práctica, estas IA tienden a caer en patrones que se repiten. No es que generen contraseñas completamente al azar, sino que usan combinaciones que siguen ciertas “reglas del lenguaje”. Por ejemplo, LLaMA y DeepSeek suelen usar palabras del diccionario con pequeños cambios, como reemplazar letras por símbolos que se les parecen.
Seguro has visto cosas como B@n@n@7 o S1mP1eL1on. Parecen creativas, pero no lo son tanto. De hecho, este tipo de contraseñas son bastante fáciles de descifrar para las herramientas que usan los hackers, sobre todo las que aplican ataques de fuerza bruta o pruebas masivas de combinaciones conocidas.
Lo más preocupante es que muchas veces estas IA caen en la trampa de siempre: usar variaciones de la palabra más obvia de todas, "Password". Así terminan generando claves como P@ssw0rd, P@ssw0rd!23 o P@ssw0rdV, que aunque parezcan “disfrazadas”, están entre las primeras que prueban los atacantes porque son demasiado comunes.
Ahora bien, ChatGPT parece hacerlo un poco mejor. Sus contraseñas pueden verse más elaboradas, con combinaciones como qLUx@^9Wp#YZ o YLU@x#Wp9q^Z. Pero si se analizan con calma, se nota que hay patrones: repite letras como “W”, “p”, “x”, “L” y números como el “9” en diferentes lugares. Esa repetición constante también puede convertirse en una debilidad.
El gran problema es que estas IA no generan contraseñas con verdadera aleatoriedad. Lo que hacen es reproducir patrones aprendidos del lenguaje, y eso las hace predecibles. ¿Y qué pasa cuando algo se puede predecir? Que alguien puede anticiparse y romper la clave.
Y lo más irónico de todo es que esos mismos modelos pueden ser usados por los ciberdelincuentes para entrenarse y anticipar las combinaciones que otros usuarios piden a la IA. En resumen: si una IA puede inventarlas, otra IA puede adivinarlas.
Así que, aunque parezca práctico o ingenioso, pedirle a un modelo de inteligencia artificial que cree tu contraseña no es nada recomendable. No porque no pueda hacerlo, sino porque no lo hace bien. Y en cuestiones de seguridad, eso puede hacer toda la diferencia.
Podría interesarte leer: ¿Cuánto tardan los hackers en romper algoritmos de hashing modernos?
¿Cómo se descubrieron las debilidades en las contraseñas generadas por IA?
Para ver qué tan seguras eran las contraseñas creadas por inteligencia artificial, investigadores de Kaspersky analizaron unas 3.000 generadas por distintos modelos. Y los resultados no fueron nada alentadores: el 88% de las de DeepSeek, el 87% de LLaMA y el 33% de ChatGPT resultaron demasiado débiles como para resistir un ataque bien hecho.
Aunque muchas se veían complicadas a simple vista, en la práctica no daban la talla. La mayoría compartía patrones o faltaban elementos clave que hacen a una contraseña más resistente.
Uno de los fallos más comunes fue la ausencia de caracteres especiales o números. Nada de símbolos raros, nada que realmente sume dificultad. En concreto, el 26% de las contraseñas de ChatGPT, el 32% de LLaMA y el 29% de DeepSeek no incluían ni uno solo. Eso hace que sean mucho más fáciles de adivinar con programas que prueban combinaciones hasta acertar.
Con lo fácil que es hoy que se filtre una contraseña o que alguien intente meterse donde no debe, usar claves débiles (y encima generadas por IA) es apostar a perder. Estos modelos todavía no están listos para ofrecernos el nivel de seguridad que necesitamos.
¿Cómo crear contraseñas realmente seguras?
Aunque la tecnología ha avanzado muchísimo, cuando se trata de crear contraseñas seguras, los expertos recomiendan no dejarle esa tarea a la inteligencia artificial. ¿Por qué? Porque todavía no es lo suficientemente confiable y puede terminar generando claves que no son tan seguras como parecen.
Lo mejor que puedes hacer es usar un gestor de contraseñas. Son aplicaciones diseñadas para generar contraseñas fuertes (de verdad) y guardarlas por ti. Así no tienes que andar inventando claves raras ni memorizando cada una.
Estos gestores guardan todas tus contraseñas en una especie de “caja fuerte digital”, protegida por una sola contraseña maestra (esa sí la tienes que recordar). Lo demás se queda guardado de forma segura.
Además, tienen funciones bien útiles: rellenan automáticamente tus datos al iniciar sesión, se sincronizan entre tus dispositivos, y hasta te avisan si alguna de tus contraseñas se filtró en alguna brecha de seguridad. En pocas palabras: te hacen la vida más fácil y te protegen como se debe. Mucho mejor que confiar en una IA que aún no tiene claro cómo hacer una contraseña verdaderamente segura.