ISO/IEC 23894 proporciona directrices para la gestion de riesgos asociados al desarrollo y uso de sistemas de inteligencia artificial.
ISO/IEC 23894:2023 aplica el marco de ISO 31000 al contexto especifico de la inteligencia artificial. Aborda riesgos tecnicos, eticos, sociales y de gobernanza propios de los sistemas de IA a lo largo de su ciclo de vida.
No. Es una norma de directrices que complementa a ISO 42001 (que si es certificable). Proporciona metodologia de riesgo pero no requisitos auditables.
Proporciona un marco estructurado para cumplir con los requisitos de evaluacion de riesgos que exige el EU AI Act para sistemas de IA de alto riesgo.
¿Necesitas una evaluacion en este ambito?