¿Qué es la Ley de IA de la UE? Resumen en 5 minutos

what-is-the-eu-ai-act-summarizing-takeaways-in-5-minutes.jpg

La Unión Europea (UE) introdujo una directiva integral sobre el uso de la inteligencia artificial (IA), conocida como la Ley de IA de la UE.

Fomenta que los europeos confíen en los sistemas de IA y en los modelos de IA de propósito general (GPAI) que representan un riesgo comparativamente menor. Este artículo resume la Ley y facilita su comprensión para profesionales y personas comunes.

Aviso legal: Expertise AI complementa las obligaciones de la Ley de IA de la UE pero no ofrece asesoramiento legal. Consulte a un abogado si necesita algún consejo o sugerencia relacionado con la ley, o refiérase a la propia Ley de Inteligencia Artificial de la Unión Europea. Ley.

¿Qué es la Ley de IA de la UE?

La Ley de Inteligencia Artificial de la Unión Europea regulará el desarrollo y/o uso de la IA. Aplica diferentes reglas y regulaciones a la inteligencia artificial según el riesgo que represente.

Se aplica a proveedores, implementadores, importadores, distribuidores y fabricantes de productos involucrados en IA y comprende a todas las partes que desarrollan, usan, importan, distribuyen o fabrican sistemas de IA. La ley no se limita a las fronteras de la UE. Si alguna región produce un resultado fuera de la UE, la ley será aplicable cuando dicho resultado esté destinado a ser utilizado en la región de la UE.

Es un marco regulatorio integral para la IA que implementa una gobernanza estricta para gestionar el riesgo y la transparencia para las partes involucradas en IA. Dependiendo del tipo de incumplimiento, las sanciones por no cumplir con la ley pueden variar entre 7,5 millones de euros o el 1,5% de la facturación anual mundial, y 35 millones de euros o el 7% de la facturación.

Explorando la necesidad de la Ley de Inteligencia Artificial de la UE

Invertir la ingeniería de las predicciones que hace la IA es complicado. Es posible que no puedas identificar exactamente por qué se tomó una determinada decisión. Aunque la mayoría de los sistemas de IA representan un riesgo limitado o nulo, puede haber algunos riesgosos en los que no puedas confiar al tomar decisiones críticas. Por ejemplo, en una decisión de contratación, sería difícil entender el motivo detrás de la selección de un candidato en particular. No sabrás con certeza si alguien fue injustamente desfavorecido.

La Ley de IA ayuda a los europeos a confiar en los sistemas de IA con riesgo mínimo o limitado y a valorar sus contribuciones deseables a las operaciones humanas y de máquinas. La ley aclara qué prácticas y sistemas de IA son aceptados y cuáles están prohibidos.

La Ley de IA ayuda a empresas e instituciones con

  • Prohibiendo prácticas de IA que representen riesgos inaceptables
  • Determinando sistemas de IA de alto riesgo y estableciendo requisitos precisos para ellos
  • Definiendo obligaciones para los proveedores y implementadores de sistemas de IA de alto riesgo
  • Requiriendo evaluación de conformidad antes de poner en servicio o en el mercado el sistema de IA.
  • Estableciendo una estructura de gobernanza a nivel nacional y europeo.

Esta gobernanza ayuda a los europeos a confiar en los sistemas de IA y usarlos con confianza. A nivel europeo, la Junta Europea de Inteligencia Artificial asesorará y asistirá a la Comisión y a los Estados miembros para garantizar que las regulaciones se apliquen de manera coherente.

La Junta asesorará y asistirá a la Comisión y a los Estados miembros para facilitar la aplicación coherente y efectiva de este Reglamento.

¿Quiénes serían afectados por la Ley de IA de la UE?

Las obligaciones de la Ley de IA de la UE serán aplicables a:

  • Cualquier proveedor establecido o ubicado dentro de la UE o en un país tercero que ponga en servicio o comercialice un sistema de IA o un modelo de IA de propósito general (GPAI) en el mercado de la UE es un proveedor.
  • Cualquier implementador de sistemas de IA con un lugar de establecimiento o en la UE. Pueden estar ubicados en la UE.
  • Si el proveedor o implementador de un sistema de IA tiene su lugar de establecimiento en un país tercero (o está ubicado allí) y produce un resultado del sistema de IA que será utilizado en la UE.

¿Qué requiere la Ley de IA?

La Ley de Inteligencia Artificial de la Unión Europea requiere que las empresas e instituciones:

Comprendan el estado actual

Verifiquen si ya tienen sistemas de IA en uso o en desarrollo. Comprueben si pronto podrán adquirir algún sistema de IA de un proveedor externo. Si es así, añadan estos sistemas a su repositorio de modelos.

Si no tienen un repositorio de modelos, consideren crear uno después de entender su exposición a los sistemas de IA. Incluso si actualmente no usan sistemas de IA, probablemente los usarán en un futuro cercano, considerando la creciente adopción de IA. Es mejor preparar el repositorio de modelos considerando la exposición presente y potencial a los sistemas de IA.

Clasificar riesgos en sus sistemas de IA

Bajo la Ley de IA de la UE, hay cuatro categorías de riesgo: Riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.

Fuente: EY

Riesgos inaceptables

Los sistemas de IA que representan riesgos inaceptables están prohibidos. Estos sistemas podrían usar:

  • Identificación biométrica remota (RBI) en espacios públicos. Estos sistemas usan IA para reconocer personas mediante sus datos biométricos en espacios públicos. La reconocimiento facial es el más común, pero puede incluir identificación basada en características físicas, fisiológicas o conductuales.
  • Vulnerabilidades de una persona natural. Estos sistemas explotan a una persona o grupo debido a su edad, discapacidad o condición social o económica. Están prohibidos bajo la Ley de IA de la UE.
  • Técnicas de influencia subliminal. Los sistemas que explotan las vulnerabilidades de un grupo específico a un nivel por debajo de su reconocimiento consciente están prohibidos. Esto incluye técnicas engañosas que buscan distorsionar el comportamiento de una persona o grupo afectando su capacidad de decisión.
  • Sistema de puntuación social. Tales sistemas asignan una puntuación a cada ciudadano basada en sus acciones positivas y negativas. Las acciones positivas son deseables, como pagar impuestos, mientras que las acciones negativas incluyen delitos.

Altos riesgos:

La Ley de IA de la UE permite riesgos altos, pero deben cumplir con múltiples requisitos y someterse a una evaluación de conformidad. Debes completar la evaluación antes de lanzar el producto al mercado.

Deberás registrar dichos sistemas en una base de datos de la UE. Estos sistemas pueden incluir:

  • Infraestructuras que pueden poner en riesgo la vida y la salud de los ciudadanos.
  • La educación o formación profesional determina el acceso de las personas a la educación y cursos profesionales. Por ejemplo, exámenes.
  • Productos con componentes de seguridad que utilizan IA
  • Sistemas que trabajan con empleo o controlan el acceso de alguien al empleo.
  • Servicios públicos y privados esenciales como sistemas de puntuación crediticia que gestionan la posibilidad de que alguien obtenga un préstamo.
  • Sistemas que controlan y gestionan la migración de individuos o les brindan asilo.
  • Sistemas administrativos que trabajan con justicia y procesos democráticos.

Estos sistemas están sujetos a obligaciones estrictas como evaluación y mitigación de riesgos. Requieren alimentación de conjuntos de datos de alta calidad y mantener un registro de las actividades de registro. Cuando trabajes con sistemas de IA de alto riesgo, mantén todo documentado y asegura un alto nivel de seguridad y precisión.

Riesgo limitado o mínimo:

Para sistemas de riesgo limitado, debes mantener la transparencia con el usuario. Deben saber que están interactuando con IA. Ejemplos comunes incluyen chatbots que no son de alto riesgo. Deben informar a los usuarios que están trabajando con IA.

En cuanto al riesgo mínimo, la Ley de IA de la UE permite su uso libre. Estos sistemas pueden incluir filtros de spam o juegos habilitados con IA.

Cumplir con la Ley de IA

Si el sistema está en la categoría de alto riesgo, asegúrate de que tus prácticas de IA complementen la Ley de IA y sigan las regulaciones necesarias.

¿Cuándo entra en vigor la Ley de IA de la UE?

El Parlamento Europeo y los Estados miembros de la UE aprobaron la Ley el 22 de abril de 2024 y el 21 de mayo de 2024, respectivamente. Después de que la ley se publique en el Diario Oficial de la UE, entrará en vigor después de 20 días.

  • Después de seis meses, entrarán en vigor las prohibiciones sobre sistemas de riesgo inaceptable.
  • Los sistemas de IA de propósito general (GPAI) que hayan estado en el mercado durante los últimos 12 meses desde la promulgación de la Ley tendrán 36 meses para cumplir.
  • Después de 12 meses, entrarán en vigor las reglas relacionadas con los sistemas de IA de alto riesgo.
  • Al final de 36 meses, los sistemas de IA que sean productos o componentes de seguridad de un producto serán regulados bajo la Ley de IA de la UE.

Aplicación de la Ley de IA de la UE

Diferentes autoridades hacen cumplir la Ley de IA. Cada Estado miembro de la UE establece o designa al menos una autoridad de notificación y una autoridad de vigilancia del mercado, asegurando que tengan los recursos adecuados para cumplir con sus funciones.

La autoridad de notificación establece y realiza de manera imparcial los procedimientos de evaluación y designación requeridos. Por otro lado, la autoridad de vigilancia del mercado hace cumplir la Ley a nivel nacional. Este organismo puede variar para sistemas de IA de alto riesgo. Cuando un sistema de IA no cumple, la autoridad de vigilancia del mercado informará a la Comisión y a las autoridades nacionales relevantes anualmente.

Si hay incumplimiento de la obligación de la Ley de IA de la UE o un sistema de IA de alto riesgo cumple con la Ley pero aún representa un riesgo para la salud y seguridad de las personas, la autoridad de vigilancia del mercado puede:

  • Requerir que un operador relevante tome medidas correctivas, asegurando que los sistemas de IA no presenten riesgos similares.
  • Si el operador no cumple, el sistema de IA en cuestión puede ser retirado del mercado.

A nivel de la UE, una Oficina de IA dentro de la Comisión hace cumplir las regulaciones. Esta comisión es asesorada y asistida por el Estado miembro para hacer cumplir eficazmente la Ley de IA. La comisión y la Junta de IA obtienen experiencia técnica de un foro de partes interesadas asesoras. Los tribunales nacionales de los Estados miembros de la UE implementarán la Directiva de Responsabilidad de IA si se presentan reclamaciones civiles por culpa no contractual.

Los tribunales nacionales también pueden solicitar evidencia sobre sistemas de IA de alto riesgo sospechosos de causar daño.

Uso de IA que cumple con la Ley

Experiencia, un agente de ventas de IA para tu sitio web, cumple con las obligaciones de la Ley de IA de la UE. Si deseas agregar capacidades de venta de IA a tu sitio web, prueba Expertise AI sin preocuparte por el cumplimiento con la nueva Ley de IA en la región de la UE.

Con un agente de ventas de IA de Expertise, puedes:

  • Interactuar con cada visitante con IA para ayudarlos a encontrar respuestas en segundos.
  • Reducir la tasa de rebote mientras construyes confianza y credibilidad.
  • Incrementar la generación de leads y programar reuniones con leads calificados de manera sencilla.

Expertise AI es segura y efectiva bajo la Ley de IA de la UE.

Establecer 30 minutos para entender cómo aprovecharlo al máximo en tu negocio.