Cargando
Preparando la información solicitada…
Cargando
Preparando la información solicitada…

"审计AI不是对算法发表意见。而是用证据验证治理、风险和可追溯性。"Fernando Arrieta — ISO/IEC 42001 首席审计师
任何使用、开发或外包人工智能系统并需要展示控制力、合规性或问责制的组织。
他们需要AI已被治理的证据:风险已识别、控制已实施、人工监督正常运作。
AI引入了新的风险向量:数据访问、供应商依赖、影子AI。他们需要一个可验证的地图。
欧盟法规(EU) 2024/1689要求文档化、风险分类和监督。审计生成合规证据。
AI政策、角色与职责(RACI)、人工监督、问责制以及与组织战略的一致性。
风险识别与评估:偏差、不透明性、可解释性、供应商依赖、对基本权利的影响。
训练数据质量、数据血缘、版本控制、数据所有权、知情同意、匿名化和访问控制。
生产监控、事件管理、回滚、日志记录、告警和升级程序。
AI供应商评估、合同、SLA、可移植性、依赖性和集中风险。
PDCA循环应用于AI:绩效指标、管理层审查、纠正措施和文档化的经验教训。
ISO/IEC 42001:2023 — 人工智能管理系统(AIMS)。要求、控制和附录A控制目标。可审计AI治理的国际参考标准。
ISO/IEC 23894:2023 — AI风险管理指南。补充ISO 31000,提供算法、数据和社会影响风险的具体标准。
欧盟法规(EU) 2024/1689 — 欧洲人工智能法规。风险分类、文档化义务、人工监督和透明度。全球监管基准。
ISO/IEC 27001 + 27701 — 信息安全与隐私。AI不是在真空中运行:ISO 27001的访问控制、加密和可追溯性是AI治理的前提条件。
每个交付成果都是治理工具,而非归档文件。
所有正在使用的AI系统的完整登记:目的、数据、供应商、负责人和风险级别。
按系统的风险评估:偏差、不透明性、供应商依赖、数据质量和监管暴露。
按严重程度优先排序的发现,附有文档证据、评估标准和整改时间表。
为管理层和董事会提供的摘要:治理状态、关键风险和建议行动。
优先排序的行动计划,包含负责人、时间表、资源和关闭验证标准。
AI管理系统演进路线图:从当前状态到ISO/IEC 42001合规。
进行此快速评估,了解您的组织在ISO/IEC 42001和欧盟AI法规下面临的AI风险敞口。
Step 1 of 4
这是对组织中人工智能使用情况的系统性独立评估。审查AI系统清单、治理、算法风险、数据质量、偏差、透明度和控制措施。主要参考框架是ISO/IEC 42001(AIMS)。
ISO/IEC 42001确立了人工智能管理系统(AIMS)的要求。它定义了组织如何治理、管理风险并持续改进AI的使用。这是可审计AI治理的国际参考标准。
欧洲AI法规按风险级别对系统进行分类,并要求文档化、人工监督、透明度和风险管理。基于ISO/IEC 42001的审计生成与这些监管要求兼容的证据。
AI系统清单、算法风险地图、按严重性排列的发现矩阵、管理层高管报告、优先排序的整改待办清单和AIMS成熟度路线图。
可以。审计可以作为差距评估使用:评估当前状态与ISO/IEC 42001要求的差距,并生成按风险优先排序的实施路线图。
初步诊断需要72个工作小时。完整的AI治理审计根据范围、系统数量和组织成熟度,通常需要3到8周。