
对阿根廷、巴西、哥伦比亚和墨西哥组织中生产环境下的78个AI模型进行的审计发现,64%的模型至少存在一种未管理的、可验证的偏见。最常见的偏见包括:训练数据中农村人口代表性不足(51%的含人口统计数据的模型)、性别信用审批率差异(金融模型中差异高达23个百分点),以及招聘选择结果与邮政编码作为社会经济代理指标相关联(38%的人力资源模型)。82%的受审计组织未实施任何公平性指标。仅11%按照ISO 42001附录B进行了AI影响评估。开发的框架建立了6个适应拉美监管背景的公平性指标,一个在不中断生产的情况下适用的审计协议,以及允许持续监控的行业特定警报阈值。



规范框架
ISO/IEC 42001:2023(附录B — AI影响评估);ISO/IEC 24027:2021(AI系统中的偏见);NIST AI RMF 1.0(MAP功能);IEEE 7010-2020;欧盟《人工智能法案》(第10条和第9条)。
研究方案
对80个生产环境中的AI模型进行技术评估,包含公平性分析和差异偏差指标。
此材料仅可申请获取。请发送邮件,我们将回复报告与附件。
拉美公平性框架 — 6项指标
生产系统偏见审计协议
行业预警阈值矩阵