Otorgar permisos en una app parece una decisión simple: un toque, un “permitir” o “denegar”, y listo. Pero sabemos que muchas veces lo haces con prisa, sin leer, o porque la notificación te interrumpe justo cuando necesitas abrir algo rápido. Ese momento aparentemente insignificante puede abrir la puerta a qué tanto acceso tendrá la aplicación a tus datos personales.
Cada día más apps piden más permisos, y tú, como usuario, estás saturado. Por eso, un grupo de investigadores quiso responder una pregunta muy interesante:
¿podría una IA ayudarte a tomar mejores decisiones?
¿O peor aún, podría tomar decisiones que te pongan en riesgo?
En TecnetOne revisamos los hallazgos para explicarte, sin tecnicismos, qué significa esto para tu privacidad.
Cómo se hizo el estudio: más de 300 personas vs. modelos de IA
Los investigadores hicieron un experimento en línea con más de 300 participantes, quienes evaluaron más de 14,000 solicitudes de acceso de aplicaciones móviles basadas en el sistema de permisos de Android.
El proceso fue así:
- Los participantes escribieron una declaración sobre cómo manejan sus datos.
Por ejemplo: “Soy muy cuidadoso con mi privacidad” o “No me importa compartir ciertos datos si la app lo necesita”. - Luego analizaron solicitudes de permisos con y sin contexto.
Por ejemplo:
- “Acceder a tu ubicación”.
- “Acceder a tu ubicación para mostrar restaurantes cercanos”.
- Después, los investigadores pidieron a varios modelos de IA (LLM genéricos y personalizados) que tomaran decisiones sobre las mismas solicitudes.
- Finalmente, los usuarios evaluaron si estaban de acuerdo o no con las decisiones tomadas por la IA.
La comparación permitió ver si los modelos coincidían con el criterio humano y si las explicaciones de la IA influían en las decisiones de los participantes.
Lo que la IA hace realmente bien: prudencia y coherencia
Los resultados iniciales fueron sorprendentemente altos.
- Los modelos genéricos acertaron entre el 70 % y 86 % de las veces
Dependiendo del modelo y del tipo de tarea, la IA coincidió con la decisión mayoritaria de los participantes.
Es decir, tomando como referencia lo que “la mayoría de las personas haría”, la IA respondió de forma razonable.
- La IA fue más cautelosa que la mayoría de los usuarios
En permisos sensibles como: ubicación precisa, micrófono, cámara o lectura de contactos; la IA tendía a denegar más que los humanos.
Ese exceso de prudencia puede sonar exagerado, pero en temas de privacidad suele ser mejor pasarse de cuidadoso que quedarse corto.
- Las explicaciones de la IA convencieron a los usuarios
Esto es clave. Cuando un usuario primero no estaba de acuerdo con la decisión del modelo, pero luego leía su explicación, casi la mitad terminaba cambiando de opinión.
Esto sugiere que:
- La gente suele tomar decisiones rápidas e impulsivas.
- Las explicaciones claras pueden mejorar tu criterio.
- La IA puede ayudarte a reconsiderar permisos que das sin pensar.
Desde TecnetOne lo vemos como una potencial herramienta para educar a los usuarios en privacidad, siempre y cuando esté bien implementada.
Dónde fallan los modelos: personalizar no siempre es mejorar
El estudio también probó modelos “personalizados”, es decir, aquellos que recibían una copia de la declaración del usuario para adaptar sus decisiones.
Y aquí es donde empezaron los problemas.
Las personas no son coherentes con lo que dicen
Muchos participantes escribieron declaraciones inconsistentes con su comportamiento real.
Ejemplos comunes:
- Usuarios que decían ser estrictos pero luego permitían casi todo.
- Otros que aseguraban no tener problema en compartir datos pero luego rechazaban muchas solicitudes.
Cuando la IA intentaba personalizar sus decisiones usando declaraciones confusas, empeoraba su precisión.
La personalización puede volver a la IA más permisiva
Este es un riesgo serio.
Un modelo genérico que normalmente denegaría un permiso peligroso, al combinarse con una declaración permisiva del usuario, podía terminar permitiendo accesos sensibles.
Esto abre la puerta a situaciones como:
“Yo dije que no me importa compartir datos pero no quería decir que acepto cualquier cosa sin control”.
En otras palabras, personalizar sin entender el contexto puede debilitar las decisiones de seguridad.
Las explicaciones pueden manipular al usuario
Un hallazgo inquietante: Cuando la IA justificaba sus decisiones incorrectas o inseguras, muchos usuarios igual cambiaban de opinión para alinearse con el modelo.
Esto demuestra un riesgo psicológico: la autoridad percibida de la IA puede inducirte a aceptar decisiones equivocadas.
También podría interesarte: IA contra ciberamenazas: Navegando en su auge
Limitaciones del estudio: lo que aún no sabemos
Hay que ser justos: este experimento se hizo en condiciones controladas, no en la vida real.
- Los participantes estaban en “modo estudio”
Podrían haber prestado más atención de la que normalmente tendrían al instalar una app en su día a día.
- No existían consecuencias reales
En la vida real, permitir un acceso indebido podría exponer tus fotos, contactos o ubicación.
En el estudio, todo era hipotético.
- No se probaron ataques o prompts maliciosos
El experimento no puso a prueba:
- manipulación de instrucciones
- intentos de forzar decisiones inseguras
- ejemplos adversarios diseñados para confundir modelos
Y cualquier sistema automatizado de permisos debe tener defensas contra eso.
- Los LLM siguen teniendo riesgos propios
Los modelos pueden:
- Variar en su respuesta de una ejecución a otra
- Agregar costos computacionales
- Introducir retrasos
- Requerir energía y recursos
- Cometer errores lógicos sutiles
Cualquier sistema que dependa de LLM tiene que balancear velocidad, costo y seguridad.
¿Qué significa esto para ti? Las conclusiones clave
Después de analizar el estudio, en TecnetOne vemos un panorama con matices:
- La IA puede ayudarte a tomar mejores decisiones
Especialmente cuando estás cansado, distraído o saturado de notificaciones.
- Pero no es infalible
En permisos sensibles, un error puede costarte mucho.
- Personalizar sin supervisión puede ser contraproducente
La IA podría volverse demasiado permisiva si malinterpreta tu nivel de tolerancia al riesgo.
- Necesitas explicaciones que sean confiables
No cualquier modelo es apto para educar al usuario.
- El futuro de los permisos podría incluir IA
Pero solo con salvaguardas muy claras:
- Límites estrictos en permisos sensibles
- Revisiones humanas periódicas
- Trazabilidad de decisiones
- Controles contra manipulación de prompts
- Auditoría independiente
Conclusión: la IA puede ser tu aliada, pero aún no es tu mejor guardián
Este estudio abre una discusión importante: ¿dejaremos que la IA decida por nosotros en temas de privacidad?
La respuesta honesta es: todavía no.
Pero estamos avanzando hacia un futuro donde podría acompañarte, corregirte, educarte y evitar que un toque impulsivo exponga tus datos.
En TecnetOne creemos que el equilibrio ideal es este: La IA te guía. Tú decides.
Y ambos necesitan herramientas transparentes, seguras y bien diseñadas para protegerte.

