Descubre Noticias de Ciberseguridad en nuestro TecnetBlog

IA y Privacidad: El Dilema de Seguridad en Chatbots

Escrito por Gustavo Sánchez | Nov 19, 2023 3:30:00 PM

En el mundo acelerado de la tecnología, la inteligencia artificial (IA) ha revolucionado la manera en que interactuamos en el espacio digital. Particularmente, los chatbots de IA, como ChatGPT, han ganado popularidad por su capacidad para simular conversaciones humanas, ofreciendo desde servicio al cliente hasta interacciones personales. Sin embargo, surge una preocupación crítica: la seguridad de nuestros datos. Investigadores han encendido una señal de alarma sobre la capacidad de estas inteligencias para revelar datos privados, poniendo en jaque conceptos fundamentales de ciberseguridad.

 

Ciberseguridad, una Prioridad en la Conversación con IA

 

La ciberseguridad, tradicionalmente, se ha ocupado de proteger dispositivos y redes de intrusos malintencionados. Con IA, el juego ha cambiado. Los chatbots, entrenados para recopilar, analizar y procesar datos a una escala masiva, pueden acumular inadvertidamente información sensible de usuarios y lo que es más preocupante, tener la capacidad de revelar esos datos durante las interacciones.

¿Cómo sucede esto? Durante las conversaciones, los chatbots pueden ser persuadidos, bajo ciertas circunstancias, para regurgitar información que han aprendido durante su entrenamiento, que podría incluir datos extraídos de interacciones previas con usuarios o incluso información sensible incrustada en sus modelos de datos. Esto, claramente, plantea riesgos de privacidad y seguridad, creando un campo fértil para actores maliciosos que buscan explotar vulnerabilidades en sistemas basados en IA.

 

Te podría interesar leer:  ¿Cómo ayuda IA a la Ciberseguridad?

 

Desenmascarando el Problema: Investigaciones Recientes

 

Un reciente análisis científico ha sacado a la luz hallazgos alarmantes: la inteligencia artificial (IA) posee una habilidad sorprendente para desentrañar detalles privados sobre individuos basándose en sus actividades en línea. Este descubrimiento incluye la capacidad de la IA para deducir aspectos como género, localización geográfica, edad y hasta el lugar de nacimiento de alguien.

Los investigadores involucrados en este estudio subrayan la preocupante realidad de que la IA ahora puede "deducir información personal a un nivel que antes era imposible", presentando un desafío significativo para la protección de la privacidad y la seguridad en el mundo digital.

Además, un aspecto que intensifica la preocupación es que, según se informa, estas técnicas podrían ser adoptadas por actores malintencionados en el ciberespacio para extraer información delicada de usuarios no sospechosos. Esto se haría mediante el planteamiento de interrogantes aparentemente inocuas a los chatbots, aprovechando sus capacidades de inferencia para obtener datos que los individuos probablemente no compartirían de forma voluntaria. Este escenario resalta una necesidad urgente de mejorar las medidas de seguridad aplicadas en el ámbito de la inteligencia artificial.

 

Te podrá interesar leer:  IA y Machine Learning en el Cloud Computing

 

Prudencia online: Chatbots, posible herramienta para ciberdelincuentes

 

Este análisis reciente pone el foco en la destreza de avanzados modelos de lenguaje, específicamente aquellos en la línea de GPT-4, que están en la base de chatbots como ChatGPT, demostrando cómo pueden discernir datos privados de 520 participantes reales basándose en sus interacciones en Reddit entre los años 2012 y 2016.

Según se reporta, los expertos cotejaron las inferencias del modelo de IA con las descripciones que los usuarios habían proporcionado en sus perfiles. De todos los sistemas examinados, GPT-4 sobresalió por su precisión, alcanzando un notable 84,6% de acierto.

Si bien no es la primera vez que se señalan los riesgos de la IA respecto a la privacidad, este estudio es particularmente inquietante. Otros informes, incluido uno publicado en agosto, han mostrado la habilidad de la IA para decodificar texto, como contraseñas, a partir de sonidos de tecleo capturados en plataformas de videoconferencia, con una exactitud que llega al 93%.

En esencia, el dilema surge durante la fase de aprendizaje de estos sistemas de IA. Adquieren su competencia lingüística mediante el análisis de volúmenes masivos de datos recogidos de la web, lo que les permite interactuar de manera casi humana. Sin embargo, la información utilizada para entrenarlos frecuentemente incluye detalles personales y diálogos confidenciales, potencialmente resultando en que un chatbot revele tu posición geográfica o información privada.

La IA, a través de una simple charla, puede terminar divulgando aspectos de la vida de alguien basándose en diálogos que parecen triviales. Por ejemplo, una mención casual de coger "el tren matutino" podría permitirle a un sistema de IA deducir que el usuario está en Europa, dado que los trenes son ampliamente utilizados allí. Pero la IA va más allá, usando una multitud de indicadores sutiles para adivinar desde la ciudad hasta aspectos demográficos del individuo.

Naturalmente, estos hallazgos han encendido nuevas alarmas entre profesionales y empresas, que ya están buscando soluciones. Se ha expresado una preocupación creciente sobre la vasta cantidad de datos que las personas comparten inadvertidamente, erosionando su anonimato.

Aunque el alcance de lo que se puede deducir sigue siendo incierto, hay una especulación razonable de que los modelos de lenguaje podrían ser empleados para destapar secretos personales, convirtiéndose así en un recurso valioso para delincuentes cibernéticos.

Los defraudadores podrían explotar esta facultad de la IA para acumular información sensible, y lo que es más, existe el riesgo de que las corporaciones usen los datos recogidos por chatbots para construir perfiles detallados de consumidores para propósitos mercadotécnicos.

 

Podría interesarte leer: WormGPT: La Inteligencia Artificial que Impulsa Ataques Cibernéticos.

 

La Línea de Defensa: Soluciones y Estrategias de Protección

 

Entonces, ¿cómo se protegen los usuarios y las empresas? La clave está en adoptar una postura proactiva. Aquí hay varias estrategias que están siendo exploradas y adoptadas en la industria:

 

  1. Políticas de Datos Robustas: Las empresas deben implementar políticas estrictas sobre cómo se recopilan, almacenan y utilizan los datos. Esto incluye la purga regular de información sensible que ya no es necesaria.
  2. Transparencia y Consentimiento: Debe haber una comunicación clara con los usuarios sobre cómo se manejan sus datos, asegurándose de obtener un consentimiento informado para su uso.
  3. Capacitación y Restricciones de IA: Limitar lo que los chatbots pueden aprender y retener, implementando barreras que restrinjan el acceso y recuperación de datos privados.
  4. Pruebas de Seguridad Continuas: Realizar pruebas periódicas en los chatbots para identificar posibles brechas de seguridad, garantizando que no se filtren datos confidenciales.
  5. Regulaciones y Cumplimiento: Abogar por regulaciones gubernamentales que impongan medidas de seguridad estándar en sistemas de IA, protegiendo así los derechos y la privacidad de los individuos.

 

La coexistencia de chatbots de inteligencia artificial y la privacidad de los datos no es un camino fácil, pero es esencial. A medida que estos sistemas se vuelven más avanzados, también deben evolucionar nuestras medidas de seguridad. La ciberseguridad ya no es solo sobre firewalls y antivirus, se trata de salvaguardar nuestra humanidad frente a algoritmos en constante aprendizaje.

La educación continua, tanto para profesionales en tecnología como para usuarios generales, la colaboración entre sectores y una reflexión ética profunda, son vitales para avanzar. En esta era digital, todos somos guardianes de nuestra propia seguridad y colectivamente, del bienestar de nuestra sociedad.