ISO/IEC 23894提供与人工智能系统开发和使用相关的风险管理指南。
ISO/IEC 23894:2023将ISO 31000框架应用于人工智能的特定背景。涵盖AI系统在整个生命周期中的技术、伦理、社会和治理风险。
识别算法偏见、缺乏可解释性、数据依赖、无监督自主性和新兴风险等类别。
必须在所有阶段评估风险:设计、开发、训练、验证、部署、运行和退役。
ISO 42001建立AI管理体系,而ISO 23894深化了评估和处理AI特定风险的方法论。
不可以。它是补充ISO 42001(可认证)的指南标准。提供风险方法论但非可审核要求。
提供结构化框架以满足欧盟AI法案对高风险AI系统的风险评估要求。
需要此领域的评估?