A União Europeia (UE) introduziu uma diretiva abrangente sobre o uso de inteligência artificial (IA), conhecida como Lei de IA da UE.
Ela incentiva os europeus a confiarem nos sistemas de IA e nos modelos de IA de propósito geral (GPAI) que apresentam risco relativamente menor. Este artigo resume a Lei e torna mais fácil para profissionais e pessoas comuns entenderem.
Aviso legal: Expertise IA complementa as obrigações da Lei de IA da UE, mas não oferece aconselhamento jurídico. Consulte um advogado se precisar de algum conselho ou sugestão relacionado à lei, ou consulte a própria Lei de Inteligência Artificial da União Europeia. Lei de IA da UE.
A Lei de Inteligência Artificial da União Europeia regulamentará o desenvolvimento e/ou uso de IA. Ela aplica regras e regulamentos diferentes à inteligência artificial com base no risco que ela apresenta.
Ela se aplica a provedores, implantadores, importadores, distribuidores e fabricantes de produtos envolvidos em IA e inclui todas as partes que desenvolvem, usam, importam, distribuem ou fabricam sistemas de IA. A lei não se limita às fronteiras da UE. Se qualquer região produzir um resultado fora da UE, a lei será aplicável quando o resultado for destinado a ser usado na região da UE.
É uma estrutura regulatória abrangente para IA que implementa uma governança rigorosa para gerenciar riscos e transparência para as partes envolvidas em IA. Dependendo do tipo de não conformidade, as penalidades por não cumprir a lei podem variar entre 7,5 milhões de euros, ou 1,5% do faturamento anual mundial, e 35 milhões de euros, ou 7% do faturamento.
Reversar as previsões feitas pela IA é complicado. Você pode não conseguir identificar exatamente por que uma determinada decisão foi tomada. Embora a maioria dos sistemas de IA apresente risco limitado ou nenhum risco, alguns podem ser perigosos e você não pode confiar neles ao tomar decisões críticas. Por exemplo, em uma decisão de contratação, seria difícil entender o motivo por trás da seleção de um candidato específico. Você não saberá ao certo se alguém foi injustamente prejudicado.
A Lei de IA ajuda os europeus a confiarem nos sistemas de IA com risco mínimo ou limitado e valorizar suas contribuições desejáveis para operações humanas e de máquinas. A lei esclarece o que é aceito e o que é proibido nas práticas e sistemas de IA.
A Lei de IA ajuda empresas e instituições com
Essa governança ajuda os europeus a confiarem nos sistemas de IA e a usá-los com confiança. A nível europeu, o Conselho Europeu de Inteligência Artificial aconselhará e auxiliará a Comissão e os Estados-Membros a garantir que as regulamentações sejam aplicadas de forma consistente.
O Conselho deverá aconselhar e auxiliar a Comissão e os Estados-Membros para facilitar a aplicação consistente e eficaz deste Regulamento.
As obrigações da Lei de IA da UE serão aplicáveis a:
A Lei de Inteligência Artificial da União Europeia exige que empresas e instituições:
Verifiquem se já possuem sistemas de IA em uso ou desenvolvimento. Verifique se em breve poderá adquirir algum sistema de IA de um fornecedor externo. Se sim, adicione esses sistemas ao seu repositório de modelos.
Se você não tiver um repositório de modelos, considere criar um após entender sua exposição a sistemas de IA. Mesmo que atualmente não utilize sistemas de IA, provavelmente os usará em um futuro próximo, considerando a crescente adoção de IA. É melhor preparar o repositório de modelos considerando a exposição presente e potencial a sistemas de IA.
Sob a Lei de IA da UE, existem quatro categorias de risco: Risco inaceitável, alto risco, risco limitado e risco mínimo.
Fonte: EY
Riscos inaceitáveis
Sistemas de IA que apresentam riscos inaceitáveis são proibidos. Esses sistemas podem usar:
Riscos elevados:
A Lei de IA da UE permite riscos elevados, mas eles devem cumprir múltiplos requisitos enquanto passam por avaliação de conformidade. Você deve completar a avaliação antes de lançar o produto no mercado.
Você precisará registrar esses sistemas em um banco de dados da UE. Esses sistemas podem incluir:
Estes sistemas estão sujeitos a obrigações rigorosas, como avaliação e mitigação de riscos. Requerem alimentação de conjuntos de dados de alta qualidade e manutenção de registros de atividades de log. Quando você trabalha com sistemas de IA de alto risco, mantenha tudo documentado e garanta um alto nível de segurança e precisão.
Risco limitado ou mínimo:
Para sistemas de risco limitado, você precisa manter transparência com o usuário. Eles devem saber que estão interagindo com IA. Exemplos comuns incluem chatbots que não representam risco elevado. Devem informar aos usuários que estão trabalhando com IA.
No que diz respeito ao risco mínimo, a Lei de IA da UE permite seu uso livre. Esses sistemas podem incluir filtros de spam ou jogos habilitados por IA.
Se o sistema estiver na categoria de alto risco, certifique-se de que suas práticas de IA complementem a Lei de IA e sigam as regulações necessárias.
Quando entra em vigor a Lei de IA da UE?
O Parlamento Europeu e os Estados-Membros da UE aprovaram a Lei em 22 de abril de 2024 e 21 de maio de 2024, respectivamente. Após a publicação no Jornal Oficial da UE, ela entrará em vigor após 20 dias.
Diferentes autoridades aplicam a Lei de IA. Cada Estado-Membro da UE estabelece ou designa pelo menos uma autoridade notificadora e uma autoridade de vigilância de mercado, garantindo que tenham os recursos adequados para desempenhar suas funções.
A autoridade notificadora define e conduz de forma imparcial os procedimentos de avaliação e designação necessários. Por outro lado, a autoridade de vigilância de mercado aplica a Lei a nível nacional. Este órgão pode variar para sistemas de IA de alto risco. Quando um sistema de IA não estiver em conformidade, a autoridade de vigilância de mercado reportará à Comissão e às autoridades nacionais relevantes anualmente.
Se houver não conformidade com a obrigação da Lei de IA da UE ou um sistema de IA de alto risco cumprir a Lei mas ainda representar risco à saúde e segurança das pessoas, a autoridade de vigilância de mercado pode:
A nível da UE, um Escritório de IA dentro da Comissão aplica as regulações. Essa comissão é aconselhada e assistida pelo Estado-Membro para aplicar efetivamente a Lei de IA. A comissão e o Conselho de IA obtêm expertise técnica de um fórum de stakeholders consultivos. Os tribunais nacionais dos Estados-Membros da UE irão implementar a Diretiva de Responsabilidade de IA se reivindicações civis por culpa não contratual forem apresentadas.
Os tribunais nacionais também podem exigir provas sobre sistemas de IA de alto risco suspeitos de causar danos.
Especialização, um agente de vendas de IA para seu site, cumpre as obrigações da Lei de IA da UE. Se você deseja adicionar capacidades de venda de IA ao seu site, experimente o Expertise AI sem se preocupar com a conformidade com a nova Lei de IA na região da UE.
Com um agente de vendas de IA do Expertise, você pode:
O Expertise AI é seguro e eficaz sob a Lei de IA da UE.
Defina 30 minutos para entender como aproveitá-lo ao máximo em seu negócio.