AI Risk Management: ISO/IEC 42001, the EU AI Act, and ISO/IEC 23894

Resumen en español sobre ISO 42001, ISO 23894 y la Ley de IA de la UE

Este resumen describe cómo ISO 42001 e ISO 23894, junto con la Ley de IA de la UE, pueden ayudar a gestionar los sistemas de inteligencia artificial (IA) de forma segura, transparente y responsable.

Ley de IA de la UE: un enfoque basado en el riesgo para la regulación de la IA

  • La Ley de IA de la UE es una regulación basada en el riesgo que clasifica los sistemas de IA en sistemas prohibidos, sistemas de alto riesgo y sistemas de riesgo mínimo según su impacto potencial en los derechos fundamentales, la seguridad y la salud.
  • Los sistemas de IA prohibidos, como la puntuación social para un trato negativo o el reconocimiento de emociones en lugares de trabajo e instituciones educativas, están prohibidos debido a sus posibles impactos negativos en los derechos fundamentales. Sin embargo, existen excepciones cuando el sistema se utiliza por razones de seguridad, como la supervisión del cansancio de un piloto.
  • Los sistemas de IA de alto riesgo están permitidos, pero deben cumplir con los requisitos de la Ley de IA, incluidas las obligaciones previas y posteriores a la comercialización para los proveedores.
  • Los sistemas de IA de riesgo mínimo generalmente están permitidos y tienen menos obligaciones.
  • La Ley de IA de la UE se aplica a todos los sistemas de IA utilizados en el mercado europeo, incluso si se desarrollan o producen fuera de la UE.
  • La Ley establece sanciones por incumplimiento, que varían según la gravedad del incumplimiento y el tamaño de la empresa.
  • Incluye disposiciones para apoyar la innovación, en particular para pequeñas empresas y nuevas empresas, al ofrecer un registro simplificado, documentación técnica y acceso a entornos de prueba regulatorios de IA.
  • La Ley de responsabilidad de la IA trabaja en conjunto con la Ley de IA para abordar la responsabilidad de los desarrolladores de sistemas de IA de alto riesgo en los casos en que el sistema de IA cause daños. Esta ley traslada la carga de la prueba al desarrollador en determinadas situaciones, lo que facilita que las personas busquen una indemnización por daños y perjuicios.

ISO 42001: un marco para una gobernanza de la IA ética y responsable

  • ISO 42001 proporciona un marco estructurado para la gestión de sistemas de IA a lo largo de su ciclo de vida, desde el desarrollo y la implementación hasta la supervisión continua.
  • Esta norma se alinea con los requisitos de gobernanza de la Ley de IA de la UE al enfatizar una gobernanza sólida, una gestión de riesgos eficaz y un compromiso con la mejora continua.
  • ISO 42001 aborda componentes clave como la planificación de objetivos de IA, la formulación de políticas, los procedimientos de evaluación de riesgos, las evaluaciones de impacto, el soporte del sistema y la supervisión y revisión continuas.
  • Los beneficios de implementar ISO 42001 incluyen la gestión sistemática de riesgos, una mayor confianza de las partes interesadas y un marco ético claro.

ISO 23894: un enfoque detallado para la gestión de riesgos de la IA

  • Mientras que ISO 42001 se centra en integrar la gestión de riesgos en el marco más amplio de gobernanza de la IA, ISO 23894 proporciona un marco más detallado específicamente para gestionar los riesgos de la IA.
  • Se alinea con el enfoque de la Ley de IA de la UE en la evaluación y mitigación de riesgos al ofrecer un enfoque estructurado para identificar, evaluar y mitigar los riesgos.
  • ISO 23894 describe un proceso cíclico de gestión de riesgos que abarca la identificación, el análisis, la evaluación, el tratamiento, la supervisión y la revisión.
  • Esta norma requiere la documentación de las actividades de gestión de riesgos, la implementación de controles y el establecimiento de funciones y responsabilidades claras para las tareas de gestión de riesgos, lo que garantiza la transparencia y la responsabilidad.

Beneficios de integrar ISO 42001 e ISO 23894

  • Integrar estas normas en una organización ayuda a garantizar el cumplimiento sistemático de la Ley de IA de la UE, ya que proporcionan un enfoque estructurado para abordar los requisitos de la Ley.
  • Promueven la gestión proactiva de riesgos al alentar a las organizaciones a identificar, evaluar y mitigar los riesgos potenciales de forma continua, lo que ayuda a mantener el cumplimiento continuo de la Ley de IA de la UE.
  • Las normas mejoran la transparencia y la rendición de cuentas al requerir documentación detallada e informes periódicos, lo que genera confianza entre las partes interesadas.
  • Su énfasis en la mejora continua y la revisión periódica garantiza que las prácticas de gestión de IA y gestión de riesgos se mantengan alineadas con los requisitos reglamentarios en evolución y los estándares éticos.
  • Las organizaciones pueden lograr la certificación ISO 42001 e ISO 23894 para demostrar su compromiso con las prácticas de IA éticas y responsables, lo que puede obtener una ventaja competitiva.

En conclusión, ISO 42001 e ISO 23894 complementan la Ley de IA de la UE al brindar orientación práctica a las organizaciones para que gestionen los sistemas de IA de forma segura, transparente y responsable. La implementación de estas normas demuestra un compromiso con las prácticas de IA éticas y facilita el cumplimiento de la Ley de IA de la UE, promoviendo la confianza en las tecnologías de IA.

Avatar de Desconocido

About Néstor Reverón

Cloud Instructor
Esta entrada fue publicada en IT. Guarda el enlace permanente.

1 Response to AI Risk Management: ISO/IEC 42001, the EU AI Act, and ISO/IEC 23894

  1. ISO/IEC 42001:2023

    ISO/IEC 42001 is an international standard that specifies requirements for establishing, implementing, maintaining, and continually improving an Artificial Intelligence Management System (AIMS) within organizations. It is designed for entities providing or utilizing AI-based products or services, ensuring responsible development and use of AI systems.

    https://www.iso.org/standard/81230.html 

    ISO/IEC 42001:2023

    Information technology — Artificial intelligence — Management system

    ISO/IEC 23894:2023

    This document provides guidance on how organizations that develop, produce, deploy or use products, systems and services that utilize artificial intelligence (AI) can manage risk specifically related to AI. The guidance also aims to assist organizations to integrate risk management into their AI-related activities and functions. It moreover describes processes for the effective implementation and integration of AI risk management.

    https://www.iso.org/standard/77304.html 

    ISO/IEC 23894:2023

    Information technology — Artificial intelligence — Guidance on risk management

    La Ley de Inteligencia Artificial de la UE

    ¿Qué es la Ley de Inteligencia Artificial de la UE?

    La Ley de IA es un reglamento europeo sobre inteligencia artificial (IA), el primer reglamento exhaustivo sobre IA de un regulador importante en cualquier lugar. La Ley clasifica las aplicaciones de IA en tres categorías de riesgo. En primer lugar, se prohíben las aplicaciones y sistemas que supongan un riesgo inaceptable, como los sistemas de puntuación social gestionados por el gobierno, como los que se utilizan en China. En segundo lugar, las aplicaciones de alto riesgo, como una herramienta de escaneo de CV que clasifica a los solicitantes de empleo, están sujetas a requisitos legales específicos. Por último, las aplicaciones que no están explícitamente prohibidas o catalogadas como de alto riesgo quedan en gran medida sin regular.

    https://artificialintelligenceact.eu/es/ 

    A post on EU Artificial Intelligence Act provided by: https://artificialintelligenceact.eu

    Me gusta

Replica a Néstor Reverón Cancelar la respuesta

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.