Cargando
Preparando la información solicitada…
Cargando
Preparando la información solicitada…
Avaliação independente de governança de IA. Inventário de sistemas, rastreabilidade, riscos algorítmicos e plano de remediação com evidência. Não opinião: evidência auditável.

«Auditar IA não é opinar sobre algoritmos. É verificar governança, riscos e rastreabilidade com evidência.»Fernando Arrieta — Lead Auditor ISO/IEC 42001
Toda organização que use, desenvolva ou contrate sistemas de inteligência artificial e precise demonstrar controle, conformidade ou prestação de contas.
Precisam de evidência de que a IA está governada: riscos identificados, controles implementados e supervisão humana operacional.
A IA introduz novos vetores de risco: acesso a dados, dependência de fornecedores, Shadow AI. Precisam de um mapa verificável.
O Regulamento (UE) 2024/1689 exige documentação, classificação de risco e supervisão. A auditoria gera a evidência de conformidade.
Política de IA, papéis e responsabilidades (RACI), supervisão humana, prestação de contas e alinhamento com a estratégia organizacional.
Identificação e avaliação de riscos: viés, opacidade, explicabilidade, dependência de fornecedor, impacto em direitos fundamentais.
Qualidade dos dados de treinamento, linhagem, versionamento, titularidade, consentimento, anonimização e controles de acesso.
Monitoramento em produção, gestão de incidentes, rollback, logging, alertas e procedimentos de escalonamento.
Avaliação de fornecedores de IA, contratos, SLAs, portabilidade, dependência e risco de concentração.
Ciclo PDCA aplicado à IA: métricas de desempenho, revisão pela direção, ações corretivas e lições aprendidas documentadas.
ISO/IEC 42001:2023 — Sistema de Gestão de Inteligência Artificial (AIMS). Requisitos, controles e objetivos de controle do Anexo A. O padrão internacional de referência para governança auditável de IA.
ISO/IEC 23894:2023 — Guia de gestão de riscos em IA. Complementa a ISO 31000 com critérios específicos para riscos algorítmicos, de dados e de impacto social.
Regulamento (UE) 2024/1689 — Regulamento europeu de inteligência artificial. Classificação de risco, obrigações de documentação, supervisão humana e transparência. Referência regulatória global.
ISO/IEC 27001 + 27701 — Segurança da informação e privacidade. A IA não opera no vácuo: os controles de acesso, criptografia e rastreabilidade da ISO 27001 são pré-requisito para IA governada.
Cada entregável é uma ferramenta de governança, não um documento para arquivar.
Registro completo de todos os sistemas de IA em uso: propósito, dados, fornecedores, responsáveis e nível de risco.
Avaliação de riscos por sistema: viés, opacidade, dependência de fornecedor, qualidade de dados e exposição regulatória.
Achados priorizados por severidade com evidência documental, critério de avaliação e prazo de remediação.
Resumo para direção e conselho: estado de governança, riscos críticos e ações recomendadas.
Plano de ação priorizado com responsáveis, prazos, recursos e critérios de verificação de encerramento.
Roadmap de evolução do sistema de gestão de IA: do estado atual até a conformidade com a ISO/IEC 42001.
Faça esta breve avaliação para entender a exposição da sua organização aos riscos de IA sob a ISO/IEC 42001 e o Regulamento Europeu de IA (AI Act).
Step 1 of 4
É uma avaliação sistemática e independente do uso de inteligência artificial em uma organização. Revisa inventário de sistemas de IA, governança, riscos algorítmicos, qualidade de dados, vieses, transparência e controles. O marco de referência principal é a ISO/IEC 42001 (AIMS).
A ISO/IEC 42001 estabelece os requisitos para um Sistema de Gestão de Inteligência Artificial (AIMS). Define como uma organização deve governar, gerenciar riscos e melhorar continuamente o uso de IA. É o padrão internacional de referência para governança auditável de IA.
O Regulamento europeu de IA classifica os sistemas por nível de risco e exige documentação, supervisão humana, transparência e gestão de riscos. A auditoria sob a ISO/IEC 42001 gera evidência compatível com esses requisitos regulatórios.
Inventário de sistemas de IA, mapa de riscos algorítmicos, matriz de achados com severidade, relatório executivo para a direção, backlog priorizado de remediação e roteiro de maturidade do AIMS.
Sim. A auditoria pode funcionar como diagnóstico de lacunas (gap assessment): avalia o estado atual contra os requisitos da ISO/IEC 42001 e gera um roadmap de implementação priorizado por risco.
O diagnóstico preliminar leva 72 horas úteis. Uma auditoria completa de governança de IA varia entre 3 e 8 semanas conforme escopo, quantidade de sistemas e maturidade organizacional.
Se sua organização precisa avaliar seus sistemas de IA contra a ISO/IEC 42001, este é o canal para discutir escopo e metodologia. Todas as consultas são tratadas sob confidencialidade.
Os serviços de consultoria e implementação descritos neste site são fornecidos de forma independente. Conforme a ISO/IEC 17021-1 §5.2, aplicam-se restrições de imparcialidade e períodos de resfriamento.