El uso de la inteligencia artificial (IA) está revolucionando la forma en que las empresas manejan sus datos y optimizan sus procesos. Sin embargo, con esta poderosa herramienta también vienen nuevos riesgos, siendo uno de los más críticos la fuga de datos. En la era de la IA, un escenario cada vez más frecuente es cuando un competidor obtiene acceso a información confidencial de una cuenta y utiliza esos datos para dirigir campañas publicitarias a los clientes de una organización.
La organización no tenía idea de cómo se había filtrado la información. Era una pesadilla en términos de seguridad, que amenazaba con socavar la confianza de sus clientes. Finalmente, la empresa logró identificar la fuente de la filtración: un ex empleado había utilizado un copiloto de inteligencia artificial (asistente predictivo y generativo basado en IA) para acceder a una base de datos interna repleta de datos de cuentas. Este individuo copió información sensible, como los gastos de los clientes y los productos adquiridos, y la transfirió a un competidor.
Este caso subraya un problema cada vez más alarmante: la adopción masiva de copilotos de IA de última generación está incrementando el riesgo de violaciones de datos. Según una encuesta reciente de Gartner, los casos de uso más comunes de IA incluyen aplicaciones basadas en IA generativa, como Microsoft 365 Copilot y Einstein Copilot de Salesforce. Aunque estas herramientas son una excelente manera de mejorar la productividad en las organizaciones, también presentan importantes retos en cuanto a la seguridad de los datos.
Casi el 99 % de los permisos otorgados en las organizaciones no se utilizan, y más de la mitad de estos permisos representan un alto riesgo. El acceso innecesario y excesivamente permisivo a los datos siempre ha sido un desafío para la seguridad de la información, pero la inteligencia artificial avanzada amplifica este problema.
Cuando un usuario hace una pregunta a un copiloto de IA generativa, la herramienta responde en lenguaje natural basándose en contenido de Internet y fuentes comerciales, utilizando tecnología de gráficos para formular la respuesta. Dado que muchos usuarios cuentan con permisos excesivos, el copiloto de IA puede exponer fácilmente información sensible, incluso si el usuario no era consciente de que tenía acceso a esos datos.
La IA generativa ha traído consigo nuevos desafíos en cuanto a la seguridad de los datos. Con la capacidad de acceder y procesar información de manera autónoma, las herramientas basadas en esta tecnología pueden exponer datos sensibles si los usuarios cuentan con permisos innecesarios o excesivos. Esto representa un grave riesgo para las organizaciones, ya que un simple error en la configuración de accesos puede resultar en la filtración de información confidencial. A continuación, conoce algunos riesgos de la IA Gen:
Te podrá interesar leer: Implementación de RBAC: Gestión de Accesos por Roles