Cargando
Preparando la información solicitada…
Cargando
Preparando la información solicitada…
La auditoría de 78 modelos de IA en producción en organizaciones de Argentina, Brasil, Colombia y México encontró que el 64 % presenta al menos un tipo de sesgo verificable no gestionado. Los sesgos más frecuentes son: subrepresentación de poblaciones rurales en datos de entrenamiento (51 % de los modelos con datos demográficos), disparidad en tasas de aprobación crediticia por género (hasta 23 puntos de diferencia en modelos financieros), y resultados de selección laboral correlacionados con código postal como proxy socioeconómico (38 % de los modelos de RRHH). El 82 % de las organizaciones auditadas no cuenta con ninguna métrica de equidad implementada. Solo el 11 % realizó una evaluación de impacto de IA conforme a ISO 42001 Anexo B. El framework desarrollado establece 6 métricas de equidad adaptadas al contexto regulatorio latinoamericano, un protocolo de auditoría aplicable sin interrumpir producción, y umbrales de alerta por sector que permiten monitoreo continuo.
Preguntas centrales respondidas con datos verificables del estudio.
Pasos ejecutados, fuentes consultadas y evidencia recopilada durante el estudio.
Marco normativo y teórico: ISO/IEC 42001:2023 (Anexo B — evaluación de impacto de IA); ISO/IEC 24027:2021 (sesgo en sistemas de IA); NIST AI RMF 1.0 (función MAP); IEEE 7010-2020; Reglamento Europeo de IA (Art. 10 y Art. 9).
Investigaciones que amplían o contrastan los hallazgos de este estudio.
Ayude a circular evidencia verificable.
Si la consulta es institucional y tiene contexto, podemos orientar sobre los próximos pasos.