Cargando
Preparando la información solicitada…
Cargando
Preparando la información solicitada…
El relevamiento realizado sobre 140 organizaciones con certificación ISO 27001 activa en Argentina, Brasil, Colombia, México y Perú determinó que el 73 % de ellas tiene al menos una herramienta de IA generativa en uso operativo sin aprobación formal del área de seguridad. Los departamentos con mayor adopción no autorizada son Marketing (89 %), Recursos Humanos (71 %) y Finanzas (54 %). Las herramientas más frecuentes son ChatGPT (uso directo sin API corporativa), Copilot sin licencia gestionada, y automatizaciones con modelos de lenguaje integrados en hojas de cálculo. El 61 % de los controles del Anexo A de ISO 27001:2022 relacionados con gestión de activos y control de acceso resultaron insuficientes para detectar estas herramientas porque no contemplan activos de IA como categoría. Se identificaron 4 vectores principales de fuga de datos: prompts con datos confidenciales de clientes (42 %), carga de documentos internos a plataformas de IA públicas (38 %), uso de IA para generar código con datos sensibles embebidos (12 %) y automatizaciones que envían datos a APIs externas sin registro (8 %). El modelo de remediación desarrollado clasifica el Shadow AI en tres niveles de riesgo y propone controles compatibles con ISO 27001 e ISO 42001 sin restringir la productividad.
Preguntas centrales respondidas con datos verificables del estudio.
El 73 % de las organizaciones relevadas tiene uso no autorizado; en Marketing alcanza el 89 %.
Cuatro vectores principales: prompts con datos de clientes (42 %), carga de documentos internos (38 %), código con datos sensibles (12 %), APIs externas sin registro (8 %).
El 61 % de los controles de gestión de activos y acceso no contemplan activos de IA como categoría, lo que los vuelve ineficaces para detectar Shadow AI.
Pasos ejecutados, fuentes consultadas y evidencia recopilada durante el estudio.
Marco normativo y teórico: ISO/IEC 27001:2022 (Anexo A — controles de acceso, gestión de activos y seguridad en las comunicaciones); ISO/IEC 42001:2023 (inventario de sistemas de IA y gobernanza); NIST AI RMF 1.0 (perfil de riesgo y función GOVERN); Reglamento Europeo de IA (UE 2024/1689, artículos 4 y 6).
Documentos con los resultados completos de esta investigación, adaptables al contexto de cada organización.
Solicite el envío del paquete metodológico completo asociado a la investigación [INV-01]. Uso exclusivo institucional.
Investigaciones que amplían o contrastan los hallazgos de este estudio.
Ayude a circular evidencia verificable.
Si la consulta es institucional y tiene contexto, podemos orientar sobre los próximos pasos.