El 73% de las organizaciones certificadas opera Shadow AI. El que no la ve no la puede gobernar.
El primer paso no es bloquear. Es ver. Marco operativo en tres niveles y siete dominios.
Audiencia: CIO, CISO, Comité IA
La investigación propia publicada en este sitio documenta que el 73% de las organizaciones con certificación ISO de seguridad de la información o calidad opera al menos una instancia de IA sin gobierno formal — Shadow AI. La cifra no es ideológica: es resultado de muestreo en organizaciones reales. La conclusión operativa: el primer paso de cualquier programa serio de gobernanza de IA no es escribir política — es ver qué hay.
Esta guía describe Shadow AI en tres niveles operativos, los siete dominios típicos donde aparece, las técnicas no invasivas de detección, y cómo se lee el inventario resultante desde ISO 42001.
Nivel 1 — Shadow AI individual: empleados usando herramientas de IA generativa (ChatGPT, Claude, Gemini, Copilot personal) en cuentas no corporativas para tareas laborales. Sin política de uso, sin auditoría, sin clasificación de datos compartidos.
Nivel 2 — Shadow AI de equipo: un área funcional ha adoptado una herramienta SaaS con componente de IA (Notion AI, Jasper, copilots verticales) sin pasar por el proceso de aprobación de seguridad o de procurement formal.
Nivel 3 — Shadow AI sistémica: producto interno o customer-facing con componente de IA desarrollado o integrado por un equipo técnico sin involucrar al comité de IA (si existe), sin documentación de modelo, sin evaluación de riesgo.
Los tres niveles requieren respuestas distintas. Bloquear Nivel 1 con prohibición frontal típicamente genera rebote — los empleados encuentran formas de uso aún más opacas. Bloquear Nivel 3 sin marco de transición compromete entregas en producción.
Dominio 1 — RRHH: revisión de CVs asistida por IA, screening automatizado de candidatos, evaluación de desempeño con componentes algorítmicos. Riesgo: sesgo discriminatorio y posible alta clasificación bajo Anexo III AI Act (punto 4).
Dominio 2 — Marketing: generación de contenido, segmentación de audiencias, optimización de campañas. Riesgo: contenido difícil de trazar, posibles infracciones de derechos de imagen o copyright.
Dominio 3 — Desarrollo (engineering): asistentes de código (Copilot, Cursor), generación de tests, revisión de pull requests. Riesgo: ingreso de código generado sin revisión humana sustantiva, posibles vulnerabilidades de seguridad o licencias problemáticas.
Dominio 4 — Finance: análisis de gastos, conciliación, scoring de proveedores. Riesgo: decisiones financieras con baja trazabilidad, posible exposición fiscal por errores no detectados.
Dominio 5 — Legal: análisis de contratos, resumen de regulación, asistencia para redacción. Riesgo: dependencia en modelos sin validación jurídica + información confidencial enviada a servicios externos.
Dominio 6 — Operaciones: predicción de demanda, optimización logística, atención al cliente automatizada. Riesgo: decisiones operativas sin supervisión humana significativa.
Dominio 7 — Customer support: chatbots, generación de respuestas, clasificación de tickets. Riesgo: alta visibilidad externa, posible discriminación o información incorrecta entregada a clientes.
Técnica 1 — análisis de tráfico de red saliente. Identificar destinos a APIs de proveedores de IA (api.openai.com, claude.ai, gemini.google.com, etc.) desde el perímetro corporativo. Esto detecta Nivel 1 y Nivel 2. No detecta uso en dispositivos personales o conexiones no corporativas.
Técnica 2 — auditoría de billing en plataformas SaaS. Las plataformas con módulos de IA típicamente listan el módulo en la factura. Revisar facturación de los últimos seis meses identifica adopción de IA en SaaS contratado.
Técnica 3 — encuesta interna estructurada. Encuesta anónima en cada uno de los siete dominios con preguntas operativas específicas ("¿usaste IA generativa para alguna tarea laboral en el último mes?", "¿qué herramienta?", "¿con qué tipo de información?"). La anonimato reduce el sesgo de desincentivo a responder.
Técnica 4 — entrevistas con dueños funcionales. Conversación dirigida con el responsable de cada uno de los siete dominios sobre qué herramientas operan actualmente y cuáles tienen componente de IA. Más eficiente que encuesta global, especialmente para Nivel 2 y Nivel 3.
Técnica 5 — revisión de repositorios de código. Para Nivel 3, búsqueda en repositorios internos de claves API, llamadas a librerías de IA, modelos integrados. Identificación de productos con IA documentada y no documentada.
ISO/IEC 42001:2023 cláusula 7.4 (concienciación) exige que las personas que trabajan bajo el control de la organización conozcan la política de IA y las implicaciones de no cumplirla. Cuando la organización no tiene política, esta cláusula es estructuralmente difícil de satisfacer.
ISO 42001 cláusula 9.1 (monitoreo, medición, análisis y evaluación) exige procesos para evaluar el desempeño del sistema de gestión de IA y la efectividad del SGI-IA. El inventario de Shadow AI es input directo a esta cláusula.
En auditoría preliminar bajo 42001, la ausencia de inventario actualizado de sistemas de IA — incluyendo los del Shadow AI inventariado — es típicamente no conformidad mayor. Y un inventario que solo lista los sistemas formales y declara que "no hay otros" sin evidencia de búsqueda es no conformidad mayor también.
Fase 1 — inventario y clasificación (0-30 días). Aplicar las cinco técnicas anteriores. Producir inventario clasificado por nivel (1/2/3) y por dominio. No tomar acción de bloqueo en esta fase.
Fase 2 — análisis de riesgo (30-60 días). Para cada elemento del inventario, evaluar riesgo (información sensible expuesta, decisión consecuente, cliente afectado, regulación aplicable).
Fase 3 — política y enablement (60-90 días). Política de uso de IA específica por nivel. Habilitación de herramientas corporativas que sustituyan el uso individual no controlado (Nivel 1). Aprobación retroactiva o sustitución de herramientas de Nivel 2.
Fase 4 — formalización (90-120 días). Para Nivel 3, formalización dentro del SGI-IA bajo 42001: documentación de modelo, evaluación de riesgo, supervisión humana, monitoreo.
Fase 5 — monitoreo continuo (continuo). Inventario revisado trimestralmente. Nuevas adopciones canalizadas por el proceso aprobado.
Prohibición frontal sin alternativa
Bloquear ChatGPT a nivel firewall sin habilitar Copilot corporativo o equivalente desplaza el uso a dispositivos personales — peor visibilidad.
Encuesta sin anonimato
Si los empleados temen sanción por reportar uso, la tasa de respuesta cae al 10-20% y el inventario resultante es inútil. Anonimato es operativo, no ceremonial.
Inventario inicial sin actualización
Shadow AI es estado de flujo, no de stock. Un inventario hecho una vez y archivado es obsoleto en seis meses. Revisión trimestral es realista.
La gobernanza de IA empieza por ver. Una política de IA escrita antes de un inventario es texto sin tracción. El inventario, ejecutado con las cinco técnicas, suele revelar entre 8 y 20 herramientas o usos no documentados en una organización mediana — y entre 30 y 80 en una grande. Lo que se gobierna después es decisión consciente. Lo que no se inventaría sigue operando, simplemente sin marco.
Evaluación preliminar bajo criterio ISO 19011, sin venta de implementación ni de certificación.
Solicitar diagnóstico