Otorgar permisos en una app parece una decisión simple: un toque, un “permitir” o “denegar”, y listo. Pero sabemos que muchas veces lo haces con prisa, sin leer, o porque la notificación te interrumpe justo cuando necesitas abrir algo rápido. Ese momento aparentemente insignificante puede abrir la puerta a qué tanto acceso tendrá la aplicación a tus datos personales.
Cada día más apps piden más permisos, y tú, como usuario, estás saturado. Por eso, un grupo de investigadores quiso responder una pregunta muy interesante:
¿podría una IA ayudarte a tomar mejores decisiones?
¿O peor aún, podría tomar decisiones que te pongan en riesgo?
En TecnetOne revisamos los hallazgos para explicarte, sin tecnicismos, qué significa esto para tu privacidad.
Los investigadores hicieron un experimento en línea con más de 300 participantes, quienes evaluaron más de 14,000 solicitudes de acceso de aplicaciones móviles basadas en el sistema de permisos de Android.
El proceso fue así:
La comparación permitió ver si los modelos coincidían con el criterio humano y si las explicaciones de la IA influían en las decisiones de los participantes.
Los resultados iniciales fueron sorprendentemente altos.
Dependiendo del modelo y del tipo de tarea, la IA coincidió con la decisión mayoritaria de los participantes.
Es decir, tomando como referencia lo que “la mayoría de las personas haría”, la IA respondió de forma razonable.
En permisos sensibles como: ubicación precisa, micrófono, cámara o lectura de contactos; la IA tendía a denegar más que los humanos.
Ese exceso de prudencia puede sonar exagerado, pero en temas de privacidad suele ser mejor pasarse de cuidadoso que quedarse corto.
Esto es clave. Cuando un usuario primero no estaba de acuerdo con la decisión del modelo, pero luego leía su explicación, casi la mitad terminaba cambiando de opinión.
Esto sugiere que:
Desde TecnetOne lo vemos como una potencial herramienta para educar a los usuarios en privacidad, siempre y cuando esté bien implementada.
El estudio también probó modelos “personalizados”, es decir, aquellos que recibían una copia de la declaración del usuario para adaptar sus decisiones.
Y aquí es donde empezaron los problemas.
Muchos participantes escribieron declaraciones inconsistentes con su comportamiento real.
Ejemplos comunes:
Cuando la IA intentaba personalizar sus decisiones usando declaraciones confusas, empeoraba su precisión.
Este es un riesgo serio.
Un modelo genérico que normalmente denegaría un permiso peligroso, al combinarse con una declaración permisiva del usuario, podía terminar permitiendo accesos sensibles.
Esto abre la puerta a situaciones como:
“Yo dije que no me importa compartir datos pero no quería decir que acepto cualquier cosa sin control”.
En otras palabras, personalizar sin entender el contexto puede debilitar las decisiones de seguridad.
Un hallazgo inquietante: Cuando la IA justificaba sus decisiones incorrectas o inseguras, muchos usuarios igual cambiaban de opinión para alinearse con el modelo.
Esto demuestra un riesgo psicológico: la autoridad percibida de la IA puede inducirte a aceptar decisiones equivocadas.
También podría interesarte: IA contra ciberamenazas: Navegando en su auge
Hay que ser justos: este experimento se hizo en condiciones controladas, no en la vida real.
Podrían haber prestado más atención de la que normalmente tendrían al instalar una app en su día a día.
En la vida real, permitir un acceso indebido podría exponer tus fotos, contactos o ubicación.
En el estudio, todo era hipotético.
El experimento no puso a prueba:
Y cualquier sistema automatizado de permisos debe tener defensas contra eso.
Los modelos pueden:
Cualquier sistema que dependa de LLM tiene que balancear velocidad, costo y seguridad.
Después de analizar el estudio, en TecnetOne vemos un panorama con matices:
Especialmente cuando estás cansado, distraído o saturado de notificaciones.
En permisos sensibles, un error puede costarte mucho.
La IA podría volverse demasiado permisiva si malinterpreta tu nivel de tolerancia al riesgo.
No cualquier modelo es apto para educar al usuario.
Pero solo con salvaguardas muy claras:
Este estudio abre una discusión importante: ¿dejaremos que la IA decida por nosotros en temas de privacidad?
La respuesta honesta es: todavía no.
Pero estamos avanzando hacia un futuro donde podría acompañarte, corregirte, educarte y evitar que un toque impulsivo exponga tus datos.
En TecnetOne creemos que el equilibrio ideal es este: La IA te guía. Tú decides.
Y ambos necesitan herramientas transparentes, seguras y bien diseñadas para protegerte.