L'Union européenne (UE) a introduit une directive globale sur l'utilisation de l'intelligence artificielle (IA), connue sous le nom de Loi sur l'IA de l'UE.
Elle encourage les Européens à faire confiance aux systèmes d'IA et aux modèles d'IA à usage général (GPAI) qui présentent un risque relativement moindre. Cet article résume la Loi et facilite la compréhension pour les professionnels et le grand public.
Avertissement : Expertise IA complète les obligations de la Loi sur l'IA de l'UE mais ne constitue pas un conseil juridique. Consultez un avocat si vous avez besoin de conseils ou de suggestions concernant la loi, ou référez-vous à la véritable Loi sur l'intelligence artificielle de l'Union européenne. Loi sur l'IA.
La Loi sur l'intelligence artificielle de l'Union européenne régira le développement et/ou l'utilisation de l'IA. Elle applique différentes règles et réglementations à l'intelligence artificielle en fonction du risque qu'elle présente.
Elle s'applique aux fournisseurs, déployeurs, importateurs, distributeurs et fabricants de produits impliqués dans l'IA et concerne toutes les parties qui développent, utilisent, importent, distribuent ou fabriquent des systèmes d'IA. La loi ne se limite pas aux frontières de l'UE. Si une région produit un résultat en dehors de l'UE, la loi sera applicable lorsque ce résultat est destiné à être utilisé dans la région de l'UE.
Il s'agit d'un cadre réglementaire complet pour l'IA qui met en œuvre une gouvernance stricte pour gérer le risque et la transparence pour les parties impliquées dans l'IA. Selon le type de non-conformité, les sanctions pour non-respect de la loi peuvent aller de 7,5 millions d'euros ou 1,5 % du chiffre d'affaires annuel mondial, à 35 millions d'euros ou 7 % du chiffre d'affaires.
Il est difficile de rétroconcevoir les prédictions faites par l'IA. Vous ne pourrez peut-être pas déterminer exactement pourquoi une décision particulière a été prise. Bien que la plupart des systèmes d'IA présentent peu ou pas de risque, certains peuvent être risqués et ne pas être fiables pour prendre des décisions critiques. Par exemple, dans une décision d'embauche, il serait difficile de comprendre le pourquoi derrière la sélection d'un candidat en particulier. Vous ne saurez pas avec certitude si quelqu'un a été désavantagé de manière injuste.
La Loi sur l'IA aide les Européens à faire confiance aux systèmes d'IA avec un risque minimal ou limité et à valoriser leurs contributions souhaitables aux opérations humaines et machine. La loi clarifie ce qui est accepté et ce qui est interdit dans les pratiques et systèmes d'IA.
La Loi sur l'IA aide les entreprises et les institutions à
Cette gouvernance aide les Européens à faire confiance aux systèmes d'IA et à les utiliser en toute confiance. Au niveau européen, le Conseil européen de l'intelligence artificielle conseillera et assistera la Commission et les États membres pour assurer une application cohérente des règlements.
Le Conseil conseillera et assistera la Commission et les États membres afin de faciliter une application cohérente et efficace de ce règlement.
Les obligations de la Loi sur l'IA de l'UE s'appliqueront à :
La Loi sur l'intelligence artificielle de l'Union européenne exige que les entreprises et institutions :
Vérifient si elles ont déjà des systèmes d'IA en utilisation ou en développement. Vérifiez si vous pourrez bientôt vous procurer un système d'IA auprès d'un fournisseur tiers. Si oui, ajoutez ces systèmes à votre référentiel de modèles.
Si vous ne disposez pas d'un référentiel de modèles, envisagez d'en créer un après avoir compris votre exposition aux systèmes d'IA. Même si vous n'utilisez pas actuellement de systèmes d'IA, vous les utiliserez probablement dans un avenir proche, compte tenu de l'adoption croissante de l'IA. Il est préférable de préparer le référentiel de modèles en tenant compte de l'exposition présente et potentielle aux systèmes d'IA.
Selon la Loi sur l'IA de l'UE, il existe quatre catégories de risques : Risque inacceptable, risque élevé, risque limité et risque minimal.
Source : EY
Risques inacceptables
Les systèmes d'IA qui présentent des risques inacceptables sont interdits. Ces systèmes pourraient utiliser :
Risques élevés:
La loi sur l'IA de l'UE permet des risques élevés, mais ils doivent respecter plusieurs exigences tout en subissant une évaluation de conformité. Vous devez compléter l'évaluation avant de mettre le produit sur le marché.
Vous devrez enregistrer de tels systèmes dans une base de données de l'UE. Ces systèmes peuvent inclure :
Ces systèmes sont soumis à des obligations strictes telles que l'évaluation et la mitigation des risques. Ils nécessitent l'alimentation par des ensembles de données de haute qualité et la tenue d'une trace des activités de journalisation. Lorsque vous travaillez avec des systèmes d'IA à haut risque, documentez tout et assurez un niveau élevé de sécurité et de précision.
Risque limité ou minimal :
Pour les systèmes à risque limité, vous devez maintenir la transparence avec l'utilisateur. Il doit savoir qu'il interagit avec une IA. Des exemples courants incluent les chatbots qui ne présentent pas de risque élevé. Ils doivent informer les utilisateurs qu'ils travaillent avec une IA.
En ce qui concerne le risque minimal, la loi sur l'IA de l'UE permet son utilisation libre. Ces systèmes peuvent inclure des filtres anti-spam ou des jeux alimentés par l'IA.
Si le système est dans la catégorie à risque élevé, assurez-vous que vos pratiques en matière d'IA complètent la loi sur l'IA et respectent les réglementations nécessaires.
Quand la loi sur l'IA de l'UE entre-t-elle en vigueur ?
Le Parlement européen et les États membres de l'UE ont approuvé la loi respectivement le 22 avril 2024 et le 21 mai 2024. Après la publication de la loi au Journal officiel de l'UE, elle entrera en vigueur 20 jours plus tard.
Différentes autorités appliquent la loi sur l'IA. Chaque État membre de l'UE établit ou désigne au moins une autorité de notification et une autorité de surveillance du marché, en veillant à disposer des ressources nécessaires pour remplir leurs missions.
L'autorité de notification établit et mène de manière impartiale les procédures d'évaluation et de désignation requises. D'autre part, l'autorité de surveillance du marché applique la loi au niveau national. Cette entité peut varier pour les systèmes d'IA à risque élevé. Lorsqu'un système d'IA n'est pas conforme, l'autorité de surveillance du marché en informera la Commission et les autorités nationales concernées chaque année.
En cas de non-conformité à une obligation de la loi sur l'IA de l'UE ou si un système d'IA à risque élevé est conforme à la loi mais pose toujours un risque pour la santé et la sécurité des personnes, l'autorité de surveillance du marché peut :
Au niveau de l'UE, un Bureau de l'IA au sein de la Commission fait respecter les réglementations. Cette commission est conseillée et assistée par l'État membre pour faire respecter efficacement la loi sur l'IA. La commission et le Conseil de l'IA reçoivent une expertise technique d'un forum de parties prenantes consultatives. Les tribunaux nationaux des États membres de l'UE appliqueront la directive sur la responsabilité de l'IA si des réclamations civiles non contractuelles basées sur une faute leur sont présentées.
Les tribunaux nationaux peuvent également demander des preuves concernant les systèmes d'IA à risque élevé suspectés de causer des dommages.
Expertise, un agent commercial d'IA pour votre site web, respecte les obligations de la loi sur l'IA de l'UE. Si vous souhaitez ajouter des capacités de vente par IA à votre site, essayez Expertise AI sans vous soucier de la conformité avec la nouvelle loi sur l'IA dans la région de l'UE.
Avec un agent de vente IA d'Expertise, vous pouvez :
L'IA d'Expertise est sûre et efficace selon la loi sur l'IA de l'UE.
Fixez 30 minutes pour comprendre comment en tirer le meilleur parti dans votre entreprise.