La inteligencia artificial (IA) nos ha cambiado la vida. Desde recomendarnos qué serie ver hasta ayudarnos a automatizar tareas, esta tecnología ha transformado industrias enteras y ha optimizado procesos en prácticamente todos los ámbitos. Pero, como suele pasar con cualquier avance tecnológico, no todo son buenas noticias. Así como la IA se usa para resolver problemas complejos, también se ha convertido en una herramienta muy poderosa para quienes tienen intenciones menos nobles: los cibercriminales.
Hasta hace poco, los ciberdelincuentes usaban métodos ya conocidos, como el phishing o el malware, para hacer de las suyas. Pero la IA está cambiando las reglas del juego. Ahora, los hackers no solo pueden automatizar ataques o crear malware más sofisticado, sino que también son capaces de generar deepfakes hiperrealistas, lanzar campañas masivas de desinformación o incluso personalizar mensajes de phishing tan bien elaborados que es difícil distinguirlos de una conversación legítima.
Todo esto con menos esfuerzo y a mayor escala. Y lo más inquietante es que esta tecnología ya no está reservada para grandes grupos criminales con recursos ilimitados: hoy en día, cualquier persona con acceso a ciertas herramientas de IA podría llevar a cabo un ataque sofisticado. La pregunta clave que surge ahora es: ¿será la inteligencia artificial la próxima gran aliada de los cibercriminales?
La Inteligencia Artificial: ¿Una herramienta poderosa o un riesgo para la ciberseguridad?
1. ¿Demasiada IA en el desarrollo de software? Eso podría ser un problema.
Hoy en día, prácticamente todas las empresas de tecnología están usando herramientas basadas en inteligencia artificial para desarrollar software más rápido y eficiente. De hecho, según datos recientes, un 95.5% de los desarrolladores afirma que sus empresas ya emplean soluciones de IA en sus procesos de creación de aplicaciones. Y no es solo algo ocasional: el 80.2% dice que sus equipos de desarrollo las usan regularmente.
Hasta aquí todo parece positivo, ¿verdad? Menos tiempo de desarrollo, más automatización, todo bien… ¿o no? Pues no del todo. Muchos desarrolladores están empezando a preocuparse por algo importante: la pérdida de pensamiento crítico. Confiar demasiado en la IA podría hacer que los desarrolladores dejen de pensar por sí mismos y se limiten a seguir lo que las máquinas les dicen, lo cual podría afectar la calidad del código y, sobre todo, la seguridad.
Porque, seamos sinceros, una cosa es usar la IA para agilizar procesos y otra muy distinta es depender completamente de ella sin cuestionar nada.
2. La IA también podría poner en peligro tu código (y tus datos)
Los sistemas de inteligencia artificial que ayudan a los desarrolladores a escribir código son una maravilla… hasta que dejan de serlo. Porque, como todo en tecnología, no vienen sin riesgos. Uno de los problemas más preocupantes es el riesgo de filtraciones de información sensible dentro del código.
Según un estudio de SILIKN, el 53.9% de los desarrolladores está preocupado por la posibilidad de que la IA replique patrones que incluyan datos confidenciales. Básicamente, la IA podría, sin querer, meter información privada o clave en el código que luego queda expuesto.
¿El problema? Muchas empresas no tienen claro cómo manejar la información sensible que pasa por estas herramientas de IA. Y el 44.2% de los encuestados ve esto como un punto crítico de vulnerabilidad en toda la cadena de suministro de software. Es decir, mientras la IA automatiza el trabajo, también podría estar dejando puertas abiertas para que alguien se cuele… y no precisamente para arreglar bugs.
Podría interesarte leer: Inteligencia Artificial: Nuevo motor detrás del Auge de Ransomware
3. Los cibercriminales también están sacándole partido a la IA (y eso es preocupante)
No son solo los desarrolladores los que están usando IA para agilizar sus procesos. Los cibercriminales también están subidos a este tren tecnológico, y el panorama no pinta nada bien.
Si bien solo el 32.6% de los expertos pensaba que la IA incrementaría el impacto de los ciberataques en 2024, esa percepción ha cambiado rápidamente. Para 2025, el 77.4% de los encuestados cree que la IA jugará un papel clave en los ataques informáticos. Y no es para menos: el uso de IA por parte de los ciberatacantes ha aumentado un 39.8% respecto al año pasado, lo que significa que el 82.1% de ellos ya está utilizando IA en sus ataques.
¿Para qué? Para cosas como automatizar ataques, identificar vulnerabilidades más rápido y crear campañas de phishing cada vez más convincentes. En otras palabras, la IA les está facilitando la vida… y eso no es una buena noticia para el resto de nosotros.
El problema con todo esto es que los atacantes no necesitan ser genios de la programación. Con las herramientas de IA cada vez más accesibles, prácticamente cualquier persona con un ordenador y un poco de motivación puede lanzar un ataque sofisticado sin mucho esfuerzo. Y esa es una tendencia que está lejos de detenerse.
4. ¿Prohibir la IA para escribir código? Parece extremo, pero…
Cada vez más equipos de ciberseguridad están empezando a preguntarse si la IA es más un problema que una solución. La razón: el 96.6% de estos equipos está preocupado por los riesgos que implica usar código generado por IA en sus sistemas.
El dilema es que los desarrolladores están usando estas herramientas a toda velocidad, mientras los equipos de seguridad no logran seguirles el ritmo. Según los datos, el 71.2% de los encuestados cree que los equipos de seguridad están quedándose atrás, y eso genera un efecto preocupante: las empresas sienten que están perdiendo el control sobre la seguridad de sus propios sistemas.
¿La consecuencia? El 85.6% piensa que el código generado por IA podría traer problemas serios. Lo ven como una bomba de tiempo: algo que, por muy útil que sea para los desarrolladores, podría abrir puertas peligrosas que nadie está vigilando del todo.
5. ¿Las herramientas de IA son hackeables? Mala noticia: sí, y muy fácil.
Si creías que las herramientas de inteligencia artificial eran súper seguras, es hora de replantearlo. Según los expertos en ciberseguridad, los modelos de IA son mucho más vulnerables de lo que parece. De hecho, el 98.8% de los especialistas desconfía de las medidas de seguridad de estas herramientas.
Y no es paranoia. Los datos del Red Team de SILIKN confirman que los modelos de IA pueden ser hackeados con relativa facilidad. Esto preocupa especialmente cuando hablamos de LLMs (modelos de lenguaje de gran escala), como los que generan texto o código, ya que el 45.3% de los encuestados duda de su fiabilidad y precisión, y el 46.7% teme por la privacidad y seguridad de los datos que pasan por ellos.
Y como si eso fuera poco, el 81.7% de los especialistas cree que uno de los mayores problemas es la falta de personal capacitado para manejar los riesgos que vienen con la IA. Es decir, hay demasiadas herramientas nuevas y muy pocos expertos que sepan cómo protegerlas correctamente.
Conoce más sobre: Nueva Era de Ciberataques: IA y el Phishing como Protagonistas
6. Las empresas están usando más IA que nunca, pero… ¿a qué costo?
El uso de inteligencia artificial en las empresas se ha disparado. Según un estudio, el 87.3% de las compañías ya están utilizando IA, y esa cifra se ha triplicado en solo un año. Pero no hablamos solo de una o dos herramientas: en promedio, las empresas usan casi 20 aplicaciones de IA, comparadas con las tres que usaban el año pasado.
Y eso no es todo. El 2.1% de los principales usuarios de IA asegura que emplea unas 100 aplicaciones diferentes. Sí, 100. Eso significa que la gestión de datos se está volviendo mucho más compleja… y mucho más arriesgada.
¿El problema? El manejo de datos sigue siendo el mayor punto débil de la IA. Cuantos más sistemas y aplicaciones usen las empresas, más información sensible circula por esas plataformas. Y, si esos datos no están bien protegidos, el riesgo de brechas de seguridad aumenta exponencialmente.
7. El uso irresponsable de la IA está complicando la seguridad en las empresas
El uso de herramientas de inteligencia artificial en las empresas está creciendo a pasos agigantados, pero no siempre de la manera más segura. ¿El problema? Muchos trabajadores están usando herramientas de IA no autorizadas, lo que puede abrir nuevas puertas a los ciberataques sin que nadie lo note hasta que sea demasiado tarde.
Según un estudio reciente, el 44.5% de los trabajadores admiten usar herramientas de IA no aprobadas por su empresa, y no es porque lo hagan a propósito para poner en riesgo a la organización, sino porque el 91.5% de ellos ni siquiera ha recibido capacitación sobre IA. Es decir, están experimentando con estas herramientas sin saber exactamente qué riesgos implican.
Pero aquí viene lo preocupante: el 55.7% de los profesionales de TI y ciberseguridad tampoco tienen una estrategia documentada para gestionar los riesgos de estas herramientas. Esto significa que, mientras los empleados se lanzan a usar IA sin supervisión, los responsables de proteger los sistemas no tienen claro cómo manejar esta situación.
¿La consecuencia? La superficie de ataque de la empresa se amplía sin que nadie lo esté vigilando. Y ya sabemos lo que pasa cuando hay puertas abiertas sin control: los ciberdelincuentes las encuentran.
8. La IA tiene a los expertos en ciberseguridad viviendo con estrés constante
No solo los trabajadpres están impulsando el riesgo; los ciberdelincuentes también están utilizando IA para llevar sus ataques a otro nivel, y eso está dejando a los profesionales de la ciberseguridad agotados y, en algunos casos, al borde del colapso.
Cuando se les preguntó a los expertos sobre el nivel de amenaza que representa la IA, el 98.8% dijo que la considera un riesgo real, y más de dos tercios (66.6%) cree que los deepfakes y otros contenidos manipulados son una amenaza significativa. La capacidad de la IA para crear contenido falso, manipular videos o audios y automatizar ataques hace que los defensores tengan que estar en alerta constante.
El 80.9% de los expertos en seguridad ha tenido que ajustar sus estrategias en el último año debido a la creciente cantidad de ataques basados en IA, y el 77.1% ha priorizado medidas preventivas para intentar adelantarse a las amenazas.
Pero no es fácil mantenerse a la par. El 70.8% de los profesionales de ciberseguridad asegura que sus niveles de estrés han aumentado en comparación con el año pasado, y el 72.3% culpa directamente a la IA. Básicamente, los atacantes tienen más herramientas y los equipos de seguridad no paran de apagar incendios.
9. Una nueva era de ciberataques impulsados por IA: más rápidos, más peligrosos
La inteligencia artificial ha llegado al mundo del cibercrimen para quedarse, y los expertos están convencidos de que los ataques impulsados por IA serán la nueva norma en poco tiempo. De hecho, el 95.5% de los responsables de seguridad espera enfrentar ataques diarios basados en IA en los próximos años.
¿Qué significa esto? Que ya no hablamos de ataques manuales o “artesanales” realizados por hackers individuales, sino de sistemas automatizados que pueden lanzar ciberataques masivos, más rápidos y mucho más difíciles de detectar.
Podría interesarte leer: Alianzas de Grupos de Ransomware: ¿Cómo aumentan los ciberataques?
Conclusión: La inteligencia artificial: ¿aliada o arma de los cibercriminales?
Todo apunta a que, si no se toman medidas rápidas, la IA será la herramienta favorita de los cibercriminales en 2025. Y no es que los atacantes vayan a desaparecer o bajar el ritmo; lo preocupante es que sus ataques serán más complejos, automatizados y difíciles de detectar.
La única forma de mitigar estos riesgos es adoptar un enfoque mucho más proactivo, invirtiendo en tecnologías avanzadas de ciberseguridad que puedan estar a la altura de las amenazas basadas en IA. Además, será fundamental fomentar una colaboración más estrecha entre gobiernos, empresas y expertos en ciberseguridad.
En TecnetOne sabemos que las amenazas digitales no paran de evolucionar, y por eso te ofrecemos soluciones de ciberseguridad que te ayudan a proteger tus sistemas y datos frente a los riesgos más actuales, incluidos los ataques impulsados por inteligencia artificial.
Te ayudamos a detectar vulnerabilidades, prevenir riesgos y fortalecer tu seguridad para que siempre vayas un paso por delante de los cibercriminales. ¿Nuestro objetivo? Que tu negocio esté protegido, sin complicaciones ni sorpresas. La seguridad no es algo que puedas dejar para después.