Microsoft ha dado un paso relevante en materia de seguridad y privacidad dentro de Windows 11 al introducir un marco de consentimiento obligatorio para los agentes de IA. Según la documentación actualizada de las funciones agentic AI en versiones experimentales de prueba, los asistentes inteligentes no podrán acceder libremente a los archivos personales del usuario sin una autorización explícita y controlada.
Por defecto, el sistema bloquea el acceso a seis carpetas consideradas sensibles: Escritorio, Documentos, Descargas, Música, Imágenes y Vídeos. Estas rutas quedan completamente protegidas salvo que el usuario decida activar manualmente la función y conceder permisos específicos, garantizando que una instalación estándar de Windows 11 permanezca intacta si no se hace uso de estas capacidades avanzadas.
Permisos individuales para cada agente de IA
Uno de los aspectos clave del nuevo diseño es que los permisos se gestionan por agente, no de forma global. Esto significa que autorizar a un asistente de IA concreto no implica que otros agentes instalados hereden automáticamente ese acceso. Cada herramienta debe solicitar permiso de manera independiente, reforzando el aislamiento entre aplicaciones con capacidades autónomas.
Cuando un agente intenta acceder a una carpeta protegida, Windows 11 muestra una interfaz de consentimiento clara y directa. El usuario puede elegir entre autorizar el acceso de forma permanente, exigir revalidación en cada interacción o denegar completamente la solicitud. Además, cada asistente cuenta con su propio panel de configuración, desde el que es posible revisar, modificar o revocar los permisos concedidos en cualquier momento.
Conectores separados para funciones del sistema
Microsoft también está probando un enfoque modular mediante conectores discretos que regulan cómo los agentes interactúan con aplicaciones del sistema como Explorador de archivos o Configuración. Estos conectores funcionan de manera independiente a los permisos de carpetas, permitiendo escenarios más granulares.
Por ejemplo, un usuario podría permitir que un agente ajuste parámetros del sistema o gestione opciones de configuración, mientras mantiene completamente restringido el acceso a fotos personales o documentos privados. Este enfoque busca equilibrar utilidad práctica y control del usuario, evitando accesos innecesarios a datos sensibles.
Riesgos reales más allá de los errores de la IA
La propia Microsoft ha advertido en ocasiones anteriores que los agentes de IA pueden alucinar, generar resultados incorrectos o comportarse de forma inesperada. Sin embargo, el riesgo más preocupante es el de seguridad, especialmente ante nuevas técnicas de ataque asociadas a sistemas autónomos.
Entre ellas destaca la inyección cruzada de prompts, una técnica en la que instrucciones maliciosas se ocultan dentro de documentos aparentemente inocuos o elementos de la interfaz. Si un agente las interpreta como órdenes válidas, podría instalar malware, filtrar datos de pago o ejecutar acciones no autorizadas. Por ello, antes de activar estas funciones experimentales, conviene valorar cuidadosamente el impacto en seguridad y el nivel de confianza depositado en cada asistente.
Vía: TechPowerUp


















