La Unión Europea (UE) introdujo una directiva integral sobre el uso de la inteligencia artificial (IA), conocida como la Ley de IA de la UE.
Fomenta que los europeos confíen en los sistemas de IA y en los modelos de IA de propósito general (GPAI) que representan un riesgo comparativamente menor. Este artículo resume la Ley y facilita su comprensión para profesionales y personas comunes.
Aviso legal: Expertise AI complementa las obligaciones de la Ley de IA de la UE pero no ofrece asesoramiento legal. Consulte a un abogado si necesita algún consejo o sugerencia relacionado con la ley, o refiérase a la propia Ley de Inteligencia Artificial de la Unión Europea. Ley.
La Ley de Inteligencia Artificial de la Unión Europea regulará el desarrollo y/o uso de la IA. Aplica diferentes reglas y regulaciones a la inteligencia artificial según el riesgo que represente.
Se aplica a proveedores, implementadores, importadores, distribuidores y fabricantes de productos involucrados en IA y comprende a todas las partes que desarrollan, usan, importan, distribuyen o fabrican sistemas de IA. La ley no se limita a las fronteras de la UE. Si alguna región produce un resultado fuera de la UE, la ley será aplicable cuando dicho resultado esté destinado a ser utilizado en la región de la UE.
Es un marco regulatorio integral para la IA que implementa una gobernanza estricta para gestionar el riesgo y la transparencia para las partes involucradas en IA. Dependiendo del tipo de incumplimiento, las sanciones por no cumplir con la ley pueden variar entre 7,5 millones de euros o el 1,5% de la facturación anual mundial, y 35 millones de euros o el 7% de la facturación.
Invertir la ingeniería de las predicciones que hace la IA es complicado. Es posible que no puedas identificar exactamente por qué se tomó una determinada decisión. Aunque la mayoría de los sistemas de IA representan un riesgo limitado o nulo, puede haber algunos riesgosos en los que no puedas confiar al tomar decisiones críticas. Por ejemplo, en una decisión de contratación, sería difícil entender el motivo detrás de la selección de un candidato en particular. No sabrás con certeza si alguien fue injustamente desfavorecido.
La Ley de IA ayuda a los europeos a confiar en los sistemas de IA con riesgo mínimo o limitado y a valorar sus contribuciones deseables a las operaciones humanas y de máquinas. La ley aclara qué prácticas y sistemas de IA son aceptados y cuáles están prohibidos.
La Ley de IA ayuda a empresas e instituciones con
Esta gobernanza ayuda a los europeos a confiar en los sistemas de IA y usarlos con confianza. A nivel europeo, la Junta Europea de Inteligencia Artificial asesorará y asistirá a la Comisión y a los Estados miembros para garantizar que las regulaciones se apliquen de manera coherente.
La Junta asesorará y asistirá a la Comisión y a los Estados miembros para facilitar la aplicación coherente y efectiva de este Reglamento.
Las obligaciones de la Ley de IA de la UE serán aplicables a:
La Ley de Inteligencia Artificial de la Unión Europea requiere que las empresas e instituciones:
Verifiquen si ya tienen sistemas de IA en uso o en desarrollo. Comprueben si pronto podrán adquirir algún sistema de IA de un proveedor externo. Si es así, añadan estos sistemas a su repositorio de modelos.
Si no tienen un repositorio de modelos, consideren crear uno después de entender su exposición a los sistemas de IA. Incluso si actualmente no usan sistemas de IA, probablemente los usarán en un futuro cercano, considerando la creciente adopción de IA. Es mejor preparar el repositorio de modelos considerando la exposición presente y potencial a los sistemas de IA.
Bajo la Ley de IA de la UE, hay cuatro categorías de riesgo: Riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.
Fuente: EY
Riesgos inaceptables
Los sistemas de IA que representan riesgos inaceptables están prohibidos. Estos sistemas podrían usar:
Altos riesgos:
La Ley de IA de la UE permite riesgos altos, pero deben cumplir con múltiples requisitos y someterse a una evaluación de conformidad. Debes completar la evaluación antes de lanzar el producto al mercado.
Deberás registrar dichos sistemas en una base de datos de la UE. Estos sistemas pueden incluir:
Estos sistemas están sujetos a obligaciones estrictas como evaluación y mitigación de riesgos. Requieren alimentación de conjuntos de datos de alta calidad y mantener un registro de las actividades de registro. Cuando trabajes con sistemas de IA de alto riesgo, mantén todo documentado y asegura un alto nivel de seguridad y precisión.
Riesgo limitado o mínimo:
Para sistemas de riesgo limitado, debes mantener la transparencia con el usuario. Deben saber que están interactuando con IA. Ejemplos comunes incluyen chatbots que no son de alto riesgo. Deben informar a los usuarios que están trabajando con IA.
En cuanto al riesgo mínimo, la Ley de IA de la UE permite su uso libre. Estos sistemas pueden incluir filtros de spam o juegos habilitados con IA.
Si el sistema está en la categoría de alto riesgo, asegúrate de que tus prácticas de IA complementen la Ley de IA y sigan las regulaciones necesarias.
¿Cuándo entra en vigor la Ley de IA de la UE?
El Parlamento Europeo y los Estados miembros de la UE aprobaron la Ley el 22 de abril de 2024 y el 21 de mayo de 2024, respectivamente. Después de que la ley se publique en el Diario Oficial de la UE, entrará en vigor después de 20 días.
Diferentes autoridades hacen cumplir la Ley de IA. Cada Estado miembro de la UE establece o designa al menos una autoridad de notificación y una autoridad de vigilancia del mercado, asegurando que tengan los recursos adecuados para cumplir con sus funciones.
La autoridad de notificación establece y realiza de manera imparcial los procedimientos de evaluación y designación requeridos. Por otro lado, la autoridad de vigilancia del mercado hace cumplir la Ley a nivel nacional. Este organismo puede variar para sistemas de IA de alto riesgo. Cuando un sistema de IA no cumple, la autoridad de vigilancia del mercado informará a la Comisión y a las autoridades nacionales relevantes anualmente.
Si hay incumplimiento de la obligación de la Ley de IA de la UE o un sistema de IA de alto riesgo cumple con la Ley pero aún representa un riesgo para la salud y seguridad de las personas, la autoridad de vigilancia del mercado puede:
A nivel de la UE, una Oficina de IA dentro de la Comisión hace cumplir las regulaciones. Esta comisión es asesorada y asistida por el Estado miembro para hacer cumplir eficazmente la Ley de IA. La comisión y la Junta de IA obtienen experiencia técnica de un foro de partes interesadas asesoras. Los tribunales nacionales de los Estados miembros de la UE implementarán la Directiva de Responsabilidad de IA si se presentan reclamaciones civiles por culpa no contractual.
Los tribunales nacionales también pueden solicitar evidencia sobre sistemas de IA de alto riesgo sospechosos de causar daño.
Experiencia, un agente de ventas de IA para tu sitio web, cumple con las obligaciones de la Ley de IA de la UE. Si deseas agregar capacidades de venta de IA a tu sitio web, prueba Expertise AI sin preocuparte por el cumplimiento con la nueva Ley de IA en la región de la UE.
Con un agente de ventas de IA de Expertise, puedes:
Expertise AI es segura y efectiva bajo la Ley de IA de la UE.
Establecer 30 minutos para entender cómo aprovecharlo al máximo en tu negocio.