Contáctanos

Inteligencia Artificial

Ley sobre inteligencia artificial: el Consejo y el Parlamento llegan a un acuerdo sobre las primeras normas para la IA en el mundo

COMPARTIR:

Publicado

on

Usamos su registro para proporcionar contenido en las formas en que usted ha dado su consentimiento y para mejorar nuestra comprensión de usted. Puede darse de baja en cualquier momento.

Tras unas conversaciones "maratonianas" de tres días, la presidencia del Consejo y los negociadores del Parlamento Europeo han llegado a un acuerdo provisional sobre la propuesta de normas armonizadas sobre inteligencia artificial (IA), la llamada ley de inteligencia artificial. El proyecto de reglamento tiene como objetivo garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE. Esta propuesta histórica también tiene como objetivo estimular la inversión y la innovación en IA en Europa.

Carme Artigas, secretaria de Estado española de Digitalización e Inteligencia Artificial

¡Este es un logro histórico y un gran hito hacia el futuro! El acuerdo de hoy aborda efectivamente un desafío global en un entorno tecnológico en rápida evolución en un área clave para el futuro de nuestras sociedades y economías. Y en este esfuerzo, logramos mantener un equilibrio extremadamente delicado: impulsar la innovación y la adopción de la inteligencia artificial en toda Europa, respetando plenamente los derechos fundamentales de nuestros ciudadanos. Carme Artigas, secretaria de Estado española de Digitalización e Inteligencia Artificial.

La ley de IA es una buque insignia Iniciativa legislativa con potencial para fomentar el desarrollo y la adopción de una IA segura y fiable en todo el mercado único de la UE por parte de agentes públicos y privados. La idea principal es regular la IA en función de su capacidad de causar daño a la sociedad tras un 'basado en riesgo' enfoque: cuanto mayor es el riesgo, más estrictas son las reglas. Al ser la primera propuesta legislativa de este tipo en el mundo, puede establecer un Estandar global para la regulación de la IA en otras jurisdicciones, tal como lo ha hecho el GDPR, promoviendo así el enfoque europeo de la regulación tecnológica en el escenario mundial.

Los principales elementos del acuerdo provisional

En comparación con la propuesta inicial de la Comisión, los principales elementos nuevos del acuerdo provisional pueden resumirse como sigue:

  • reglas sobre modelos de IA de propósito general de alto impacto que pueden causar riesgo sistémico en el futuro, así como en países de alto riesgo. Sistemas de IA
  • un sistema revisado de gobierno con algunos poderes de ejecución a nivel de la UE
  • ampliación de la lista de prohibiciones pero con la posibilidad de utilizar identificación biométrica remota por las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias
  • una mejor protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo lleven a cabo una evaluación de impacto sobre derechos fundamentales antes de poner en uso un sistema de IA.

En términos más concretos, el acuerdo provisional cubre los siguientes aspectos:

Definiciones y alcance

Para asegurar que el definición de un sistema de IA proporciona criterios suficientemente claros para distinguir la IA de sistemas de software más simples, el acuerdo de compromiso alinea la definición con el enfoque propuesto por la OCDE.

El acuerdo provisional también aclara que el reglamento no se aplica a áreas fuera del ámbito de aplicación de la legislación de la UE y no debería, en ningún caso, afectar las competencias de los Estados miembros en seguridad nacional o cualquier entidad a la que se le encomienden tareas en este ámbito. Además, la ley de IA no se aplicará a los sistemas que se utilizan exclusivamente para militar or defensa propósitos. De manera similar, el acuerdo establece que la regulación no se aplicaría a los sistemas de IA utilizados con el único propósito de investigación e innovación, o para personas que utilizan la IA por motivos no profesionales.

Anuncio

Clasificación de los sistemas de IA como prácticas de IA prohibidas y de alto riesgo

El acuerdo de compromiso prevé un capa horizontal de protección, incluida una clasificación de alto riesgo, para garantizar que no se capturen los sistemas de IA que probablemente no causen violaciones graves de los derechos fundamentales u otros riesgos importantes. Sistemas de IA que se presentan únicamente riesgo limitado estaría sujeto a muy ligera obligaciones de transparencia, por ejemplo, revelando que el contenido fue generado por IA para que los usuarios puedan tomar decisiones informadas sobre su uso posterior.

Una amplia gama de alto riesgo Los sistemas de IA estarían autorizados, pero sujetos a una serie de requisitos y obligaciones para acceder al mercado de la UE. Estos requisitos han sido aclarados y adaptados por los colegisladores de tal manera que sean más técnicamente viable y menos gravoso que deben cumplir las partes interesadas, por ejemplo en lo que respecta a la calidad de los datos, o en relación con la documentación técnica que deben elaborar las pymes para demostrar que sus sistemas de IA de alto riesgo cumplen los requisitos.

Dado que los sistemas de IA se desarrollan y distribuyen a través de cadenas de valor complejas, el acuerdo de compromiso incluye cambios que aclaran el asignación de responsabilidades y roles de los distintos actores en esas cadenas, en particular los proveedores y usuarios de sistemas de IA. También aclara la relación entre las responsabilidades en virtud de la Ley de IA y las responsabilidades que ya existen en virtud de otra legislación, como la legislación sectorial o de protección de datos de la UE pertinente.

Para algunos usos de la IA, se considera riesgo inaceptable y, por lo tanto, estos sistemas serán prohibidos en la UE. El acuerdo provisional prohíbe, por ejemplo, las prácticas cognitivas. manipulación conductual, el no objetivo desguace de imágenes faciales de Internet o imágenes de CCTV, reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas, puntuación social, categorización biométrica inferir datos sensibles, como la orientación sexual o las creencias religiosas, y algunos casos de control predictivo para individuos.

Excepciones de aplicación de la ley

Teniendo en cuenta las especificidades de las autoridades policiales y la necesidad de preservar su capacidad de utilizar la IA en su trabajo vital, se acordaron varios cambios en la propuesta de la Comisión en relación con el uso de sistemas de IA con fines policiales. Sujeto a apropiada salvaguardias, estos cambios pretenden reflejar la necesidad de respetar la confidencialidad de los datos operativos sensibles en relación con sus actividades. Por ejemplo, se introdujo un procedimiento de emergencia que permite a los organismos encargados de hacer cumplir la ley desplegar una herramienta de inteligencia artificial de alto riesgo que no haya pasado las pruebas. evaluación de la conformidad procedimiento en caso de urgencia. Sin embargo, también se ha introducido un mecanismo específico para garantizar que derechos fundamentales estará suficientemente protegido contra cualquier posible uso indebido de los sistemas de IA.

Además, en lo que respecta al uso de tiempo real identificación biométrica remota sistemas en espacios de acceso público, el acuerdo provisional aclara los objetivos cuando dicho uso es estrictamente necesario para fines de aplicación de la ley y para los cuales, por lo tanto, se debe permitir excepcionalmente a las autoridades encargadas de hacer cumplir la ley el uso de tales sistemas. El acuerdo de compromiso prevé salvaguardas adicionales y limita estas excepciones a los casos de víctimas de ciertos delitos, la prevención de amenazas genuinas, presentes o previsibles, como ataques terroristas, y la búsqueda de personas sospechosas de los delitos más graves.

Sistemas de IA de propósito general y modelos básicos

Se han añadido nuevas disposiciones para tener en cuenta situaciones en las que los sistemas de IA pueden utilizarse para muchos fines diferentes (IA de propósito general), y donde la tecnología de IA de uso general se integra posteriormente en otro sistema de alto riesgo. El acuerdo provisional también aborda los casos específicos de los sistemas de IA de propósito general (GPAI).

También se han acordado normas específicas para modelos de cimientos, grandes sistemas capaces de realizar de manera competente una amplia gama de tareas distintivas, como generar video, texto, imágenes, conversar en lenguaje lateral, informática o generar código informático. El acuerdo provisional establece que los modelos de cimentación deben cumplir con requisitos específicos obligaciones de transparencia antes de su comercialización. Se introdujo un régimen más estricto para 'alto impacto' modelos de fundaciones. Se trata de modelos básicos entrenados con una gran cantidad de datos y con una complejidad, capacidades y rendimiento avanzados muy por encima del promedio, que pueden difundir riesgos sistémicos a lo largo de la cadena de valor.

Una nueva arquitectura de gobernanza

Tras las nuevas normas sobre los modelos GPAI y la evidente necesidad de su aplicación a nivel de la UE, Oficina de IA Dentro de la Comisión se ha creado la tarea de supervisar estos modelos de IA más avanzados, contribuir a fomentar estándares y prácticas de prueba, y hacer cumplir las reglas comunes en todos los estados miembros. A panel científico de expertos independientes asesorará a la Oficina de AI sobre los modelos GPAI, contribuyendo al desarrollo de metodologías para evaluar las capacidades de los modelos de cimientos, asesorando sobre la designación y el surgimiento de modelos de cimientos de alto impacto y monitoreando posibles riesgos de seguridad de materiales relacionados con los modelos de cimientos.

El tablero de IA, que estaría integrado por representantes de los Estados miembros, seguirá siendo una plataforma de coordinación y un órgano asesor de la Comisión y otorgará un papel importante a los Estados miembros en la implementación del reglamento, incluido el diseño de códigos de prácticas para los modelos de fundación. Finalmente, un foro asesor Se creará un foro para las partes interesadas, como representantes de la industria, pymes, empresas emergentes, la sociedad civil y el mundo académico, para proporcionar experiencia técnica a la Junta de IA.

Multas

Las multas por violaciones de la ley de IA se establecieron como un porcentaje de la facturación anual global de la empresa infractora en el año financiero anterior o una cantidad predeterminada, lo que sea mayor. Esto equivaldría a 35 millones de euros o el 7% por violaciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3% por violaciones de las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el suministro de información incorrecta. Sin embargo, el acuerdo provisional prevé límites más proporcionados sobre multas administrativas para pymes y empresas de nueva creación en caso de infracción de las disposiciones de la Ley de IA.

El acuerdo de transacción también deja claro que una persona física o jurídica puede presentar una queja ante la autoridad competente. autoridad de vigilancia del mercado en relación con el incumplimiento de la Ley de IA y puede esperar que dicha queja se tramite de acuerdo con los procedimientos específicos de esa autoridad.

Transparencia y protección de los derechos fundamentales

El acuerdo provisional prevé un evaluación de impacto sobre derechos fundamentales antes de que sus implementadores pongan en el mercado un sistema de IA de alto riesgo. El acuerdo provisional también prevé un aumento transparencia sobre el uso de sistemas de IA de alto riesgo. En particular, se han modificado algunas disposiciones de la propuesta de la Comisión para indicar que ciertos usuarios de un sistema de IA de alto riesgo que sean entidades públicas también estarán obligados a registrarse en el base de datos de la UE para sistemas de IA de alto riesgo. Además, las disposiciones recientemente añadidas hacen hincapié en la obligación de los usuarios de un sistema de reconocimiento de emociones informar a las personas físicas cuando estén expuestas a dicho sistema.

Medidas de apoyo a la innovación

Con vistas a crear un marco jurídico que sea más favorable a la innovación y promover el aprendizaje regulatorio basado en evidencia, las disposiciones relativas medidas de apoyo a la innovación se han modificado sustancialmente en comparación con la propuesta de la Comisión.

En particular, se ha aclarado que la IA cajas de arena reglamentarias, que se supone que establecen un entorno controlado para el desarrollo, prueba y validación de sistemas de IA innovadores, también deberían permitir probar sistemas de IA innovadores en condiciones del mundo real. Además, se han añadido nuevas disposiciones que permiten las pruebas de sistemas de IA en condiciones del mundo real, bajo condiciones y salvaguardias específicas. Para aliviar la carga administrativa para las empresas más pequeñas, el acuerdo provisional incluye una lista de acciones que deben emprenderse para apoyar a dichos operadores y prevé algunas derogaciones limitadas y claramente especificadas.

Entrada en vigor

El acuerdo provisional establece que se aplicará la ley sobre IA dos años después de su entrada en vigor, con algunas excepciones para disposiciones específicas.

Próximos pasos

Tras el acuerdo provisional de hoy, en las próximas semanas se seguirá trabajando a nivel técnico para ultimar los detalles del nuevo reglamento. La Presidencia presentará el texto transaccional a los representantes de los Estados miembros (Coreper) para su aprobación una vez concluido este trabajo.

El texto completo deberá ser confirmado por ambas instituciones y sometido a una revisión jurídico-lingüística antes de su adopción formal por los colegisladores.

Información general

La propuesta de la Comisión, presentada en abril de 2021, es un elemento clave de la política de la UE para fomentar el desarrollo y la adopción en todo el mercado único de una IA segura y legal que respete los derechos fundamentales.

La propuesta sigue un enfoque basado en el riesgo y establece un marco jurídico uniforme y horizontal para la IA cuyo objetivo es garantizar la seguridad jurídica. El proyecto de reglamento tiene como objetivo promover la inversión y la innovación en IA, mejorar la gobernanza y la aplicación efectiva de la legislación existente sobre derechos fundamentales y seguridad, y facilitar el desarrollo de un mercado único para las aplicaciones de IA. Va de la mano de otras iniciativas, incluido el plan coordinado sobre inteligencia artificial que tiene como objetivo acelerar la inversión en IA en Europa. El 6 de diciembre de 2022, el Consejo alcanzó un acuerdo sobre una orientación general (mandato de negociación) sobre este expediente y entabló conversaciones interinstitucionales con el Parlamento Europeo («diálogos tripartitos») a mediados de junio de 2023.

Comparte este artículo:

EU Reporter publica artículos de una variedad de fuentes externas que expresan una amplia gama de puntos de vista. Las posiciones adoptadas en estos artículos no son necesariamente las de EU Reporter.

Tendencias