Inteligencia Artificial
EU AI Act: Primer reglamento sobre inteligencia artificial
El uso de la inteligencia artificial en la UE estará regulado por la Ley de IA, la primera ley integral de IA del mundo. Descubre cómo te protegerá, Sociedades.
Como parte de su estrategia digital, la UE quiere regular la inteligencia artificial (IA) para garantizar mejores condiciones para el desarrollo y uso de esta tecnología innovadora. La IA puede generar muchos beneficios, como una mejor atención médica; transporte más seguro y limpio; fabricación más eficiente; y energía más barata y sostenible.
En abril de 2021, la Comisión Europea propuso el primer marco regulatorio de la UE para la IA. Dice que los sistemas de IA que se pueden usar en diferentes aplicaciones se analizan y clasifican según el riesgo que representan para los usuarios. Los diferentes niveles de riesgo supondrán más o menos regulación. Una vez aprobadas, estas serán las primeras reglas del mundo sobre IA.
Aprenda más sobre Qué es la inteligencia artificial y cómo se utiliza.
Lo que el Parlamento quiere en la legislación sobre IA
prioridad del parlamento es garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente. Los sistemas de IA deben ser supervisados por personas, en lugar de por la automatización, para evitar resultados dañinos.
El parlamento también quiere establecer una definición uniforme y neutral desde el punto de vista tecnológico para la IA que podría aplicarse a los futuros sistemas de IA.
Aprenda más sobre El trabajo del Parlamento sobre la IA y su visión para el futuro de la IA.
Ley AI: diferentes reglas para diferentes niveles de riesgo
La nueva normativa establece obligaciones para proveedores y usuarios en función del nivel de riesgo de la inteligencia artificial. Si bien muchos sistemas de IA presentan un riesgo mínimo, deben evaluarse.
Riesgo inaceptable
Los sistemas de IA de riesgo inaceptable son sistemas considerados una amenaza para las personas y serán prohibidos. Incluyen:
- Manipulación cognitiva conductual de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños
- Puntuación social: clasificar a las personas según su comportamiento, estatus socioeconómico o características personales
- Sistemas de identificación biométrica remota y en tiempo real, como el reconocimiento facial
Se pueden permitir algunas excepciones: por ejemplo, los sistemas de identificación biométrica remota "post" donde la identificación ocurre después de un retraso significativo se permitirán para enjuiciar delitos graves, pero solo después de la aprobación del tribunal.
Alto riesgo
Los sistemas de IA que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías:
1) Sistemas de IA que se utilizan en productos incluidos en la legislación de seguridad de los productos de la UE. Esto incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
2) Sistemas de IA que se clasifiquen en ocho áreas específicas que deberán registrarse en una base de datos de la UE:
- Identificación biométrica y categorización de personas físicas
- Gestión y operación de infraestructuras críticas
- Educación y formación profesional
- Empleo, gestión de trabajadores y acceso al autoempleo
- Acceso y disfrute de los servicios privados esenciales y de los servicios y prestaciones públicos
- Cumplimiento de la ley
- Gestión de migraciones, asilo y control de fronteras
- Asistencia en la interpretación jurídica y aplicación de la ley.
Todos los sistemas de IA de alto riesgo se evaluarán antes de su puesta en el mercado y también a lo largo de su ciclo de vida.
IA generativa
La IA generativa, como ChatGPT, tendría que cumplir con los requisitos de transparencia:
- Revelar que el contenido fue generado por IA
- Diseñar el modelo para evitar que genere contenidos ilegales
- Publicación de resúmenes de datos protegidos por derechos de autor utilizados para capacitación
Riesgo limitado
Los sistemas de IA de riesgo limitado deben cumplir con requisitos mínimos de transparencia que permitan a los usuarios tomar decisiones informadas. Después de interactuar con las aplicaciones, el usuario puede decidir si desea continuar usándolas. Los usuarios deben saber cuándo interactúan con la IA. Esto incluye sistemas de IA que generan o manipulan contenido de imagen, audio o video, por ejemplo, deepfakes.
Próximos pasos
El 14 de junio de 2023, los eurodiputados adoptaron Posición de negociación de los parlamentos sobre la Ley de IA. Las conversaciones comenzarán ahora con los países de la UE en el Consejo sobre la forma final de la ley.
El objetivo es llegar a un acuerdo a finales de este año.
Más sobre las medidas digitales de la UE
- Los peligros de las criptomonedas y los beneficios de la legislación de la UE
- Lucha contra la ciberdelincuencia: explicación de las nuevas leyes de ciberseguridad de la UE
- Impulsar el intercambio de datos en la UE: ¿cuáles son los beneficios?
- Ley de Mercados Digitales de la UE y Ley de Servicios Digitalest
- Cinco formas en que el Parlamento Europeo quiere proteger a los jugadores en línea
Briefing
Comparte este artículo:
-
BrexitHace 2 días
Un nuevo puente para los jóvenes europeos a ambos lados del Canal
-
Kazajistán Hace 2 días
Coventry University Group explora el potencial para abrir un campus de marca en Kazajstán
-
UcraniaHace 2 días
La UE y Ucrania impulsan la cooperación en el Foro de Industrias de Defensa
-
GeneralHace 2 días
El auge de la IA en el póquer online