O que é a Lei de IA da UE? Resumo em 5 minutos

what-is-the-eu-ai-act-summarizing-takeaways-in-5-minutes.jpg

A União Europeia (UE) introduziu uma diretiva abrangente sobre o uso de inteligência artificial (IA), conhecida como Lei de IA da UE.

Ela incentiva os europeus a confiarem nos sistemas de IA e nos modelos de IA de propósito geral (GPAI) que apresentam risco relativamente menor. Este artigo resume a Lei e torna mais fácil para profissionais e pessoas comuns entenderem.

Aviso legal: Expertise IA complementa as obrigações da Lei de IA da UE, mas não oferece aconselhamento jurídico. Consulte um advogado se precisar de algum conselho ou sugestão relacionado à lei, ou consulte a própria Lei de Inteligência Artificial da União Europeia. Lei de IA da UE.

O que é a Lei de IA da UE?

A Lei de Inteligência Artificial da União Europeia regulamentará o desenvolvimento e/ou uso de IA. Ela aplica regras e regulamentos diferentes à inteligência artificial com base no risco que ela apresenta.

Ela se aplica a provedores, implantadores, importadores, distribuidores e fabricantes de produtos envolvidos em IA e inclui todas as partes que desenvolvem, usam, importam, distribuem ou fabricam sistemas de IA. A lei não se limita às fronteiras da UE. Se qualquer região produzir um resultado fora da UE, a lei será aplicável quando o resultado for destinado a ser usado na região da UE.

É uma estrutura regulatória abrangente para IA que implementa uma governança rigorosa para gerenciar riscos e transparência para as partes envolvidas em IA. Dependendo do tipo de não conformidade, as penalidades por não cumprir a lei podem variar entre 7,5 milhões de euros, ou 1,5% do faturamento anual mundial, e 35 milhões de euros, ou 7% do faturamento.

Explorando a necessidade da Lei de Inteligência Artificial da UE

Reversar as previsões feitas pela IA é complicado. Você pode não conseguir identificar exatamente por que uma determinada decisão foi tomada. Embora a maioria dos sistemas de IA apresente risco limitado ou nenhum risco, alguns podem ser perigosos e você não pode confiar neles ao tomar decisões críticas. Por exemplo, em uma decisão de contratação, seria difícil entender o motivo por trás da seleção de um candidato específico. Você não saberá ao certo se alguém foi injustamente prejudicado.

A Lei de IA ajuda os europeus a confiarem nos sistemas de IA com risco mínimo ou limitado e valorizar suas contribuições desejáveis para operações humanas e de máquinas. A lei esclarece o que é aceito e o que é proibido nas práticas e sistemas de IA.

A Lei de IA ajuda empresas e instituições com

  • Proibição de práticas de IA que apresentam riscos inaceitáveis
  • Determinação de sistemas de IA de alto risco e definição de requisitos precisos para eles
  • Definição de obrigações para provedores e implantadores de sistemas de IA de alto risco
  • Exigência de avaliação de conformidade antes de colocar o sistema de IA em serviço ou no mercado.
  • Estabelecimento de uma estrutura de governança a nível nacional e europeu.

Essa governança ajuda os europeus a confiarem nos sistemas de IA e a usá-los com confiança. A nível europeu, o Conselho Europeu de Inteligência Artificial aconselhará e auxiliará a Comissão e os Estados-Membros a garantir que as regulamentações sejam aplicadas de forma consistente.

O Conselho deverá aconselhar e auxiliar a Comissão e os Estados-Membros para facilitar a aplicação consistente e eficaz deste Regulamento.

Quem seria afetado pela Lei de IA da UE?

As obrigações da Lei de IA da UE serão aplicáveis a:

  • Qualquer provedor estabelecido ou localizado dentro da UE ou em um país terceiro que coloque ou coloque em serviço um sistema de IA ou modelo de IA de propósito geral (GPAI) no mercado da UE é um provedor.
  • Qualquer implantador de sistemas de IA com estabelecimento ou localizado na UE. Eles podem estar na UE.
  • Se o provedor ou implantador de um sistema de IA tiver seu estabelecimento em um país terceiro (ou estiver localizado lá) e produzir um resultado do sistema de IA que será usado na UE.

O que a Lei de IA exige?

A Lei de Inteligência Artificial da União Europeia exige que empresas e instituições:

Entendam o estado atual

Verifiquem se já possuem sistemas de IA em uso ou desenvolvimento. Verifique se em breve poderá adquirir algum sistema de IA de um fornecedor externo. Se sim, adicione esses sistemas ao seu repositório de modelos.

Se você não tiver um repositório de modelos, considere criar um após entender sua exposição a sistemas de IA. Mesmo que atualmente não utilize sistemas de IA, provavelmente os usará em um futuro próximo, considerando a crescente adoção de IA. É melhor preparar o repositório de modelos considerando a exposição presente e potencial a sistemas de IA.

Classifique os riscos em seus sistemas de IA

Sob a Lei de IA da UE, existem quatro categorias de risco: Risco inaceitável, alto risco, risco limitado e risco mínimo.

Fonte: EY

Riscos inaceitáveis

Sistemas de IA que apresentam riscos inaceitáveis são proibidos. Esses sistemas podem usar:

  • Identificação biométrica remota (RBI) em espaço público. Esses sistemas usam IA para reconhecer pessoas usando seus dados biométricos em espaços públicos. O reconhecimento facial é o mais comum, mas pode incluir identificação com base em características físicas, fisiológicas ou comportamentais.
  • Vulnerabilidades de uma pessoa natural. Esses sistemas exploram uma pessoa ou um grupo por causa de sua idade, deficiência ou condição social ou econômica. Eles são proibidos sob a Lei de IA da UE.
  • Técnicas de influência subliminar. Sistemas que exploram as vulnerabilidades de um grupo específico em um nível abaixo do reconhecimento consciente deles são proibidos. Isso inclui técnicas enganosas que visam distorcer o comportamento de uma pessoa ou de um grupo, prejudicando suas habilidades de tomada de decisão.
  • Sistema de pontuação social. Esses sistemas atribuem uma pontuação a cada cidadão com base em suas ações positivas e negativas. Ações positivas são desejáveis, como pagar impostos, enquanto ações negativas incluem delitos criminais.

Riscos elevados:

A Lei de IA da UE permite riscos elevados, mas eles devem cumprir múltiplos requisitos enquanto passam por avaliação de conformidade. Você deve completar a avaliação antes de lançar o produto no mercado.

Você precisará registrar esses sistemas em um banco de dados da UE. Esses sistemas podem incluir:

  • Infraestruturas que podem colocar em risco a vida e a saúde dos cidadãos.
  • A educação ou formação profissional determina o acesso das pessoas à educação e cursos profissionais. Por exemplo, exames.
  • Produtos com componentes de segurança que usam IA
  • Sistemas que trabalham com emprego ou controlam o acesso de alguém ao emprego.
  • Serviços públicos e privados essenciais, como sistemas de pontuação de crédito que gerenciam a chance de alguém obter um empréstimo.
  • Sistemas que controlam e gerenciam a migração de indivíduos ou fornecem asilo.
  • Sistemas administrativos que trabalham com justiça e processos democráticos.

Estes sistemas estão sujeitos a obrigações rigorosas, como avaliação e mitigação de riscos. Requerem alimentação de conjuntos de dados de alta qualidade e manutenção de registros de atividades de log. Quando você trabalha com sistemas de IA de alto risco, mantenha tudo documentado e garanta um alto nível de segurança e precisão.

Risco limitado ou mínimo:

Para sistemas de risco limitado, você precisa manter transparência com o usuário. Eles devem saber que estão interagindo com IA. Exemplos comuns incluem chatbots que não representam risco elevado. Devem informar aos usuários que estão trabalhando com IA.

No que diz respeito ao risco mínimo, a Lei de IA da UE permite seu uso livre. Esses sistemas podem incluir filtros de spam ou jogos habilitados por IA.

Conformidade com a Lei de IA

Se o sistema estiver na categoria de alto risco, certifique-se de que suas práticas de IA complementem a Lei de IA e sigam as regulações necessárias.

Quando entra em vigor a Lei de IA da UE?

O Parlamento Europeu e os Estados-Membros da UE aprovaram a Lei em 22 de abril de 2024 e 21 de maio de 2024, respectivamente. Após a publicação no Jornal Oficial da UE, ela entrará em vigor após 20 dias.

  • Após seis meses, as proibições sobre sistemas de risco inaceitável entrarão em vigor.
  • Sistemas de IA de propósito geral (GPAI) que estiverem no mercado há 12 meses desde a promulgação da Lei terão 36 meses para se adequar.
  • Após 12 meses, as regras relacionadas a sistemas de IA de alto risco entrarão em vigor.
  • Ao final de 36 meses, sistemas de IA que são produtos ou componentes de segurança de um produto passarão a ser regulados pela Lei de IA da UE.

Aplicação da Lei de IA da UE

Diferentes autoridades aplicam a Lei de IA. Cada Estado-Membro da UE estabelece ou designa pelo menos uma autoridade notificadora e uma autoridade de vigilância de mercado, garantindo que tenham os recursos adequados para desempenhar suas funções.

A autoridade notificadora define e conduz de forma imparcial os procedimentos de avaliação e designação necessários. Por outro lado, a autoridade de vigilância de mercado aplica a Lei a nível nacional. Este órgão pode variar para sistemas de IA de alto risco. Quando um sistema de IA não estiver em conformidade, a autoridade de vigilância de mercado reportará à Comissão e às autoridades nacionais relevantes anualmente.

Se houver não conformidade com a obrigação da Lei de IA da UE ou um sistema de IA de alto risco cumprir a Lei mas ainda representar risco à saúde e segurança das pessoas, a autoridade de vigilância de mercado pode:

  • Exigir que um operador relevante tome medidas corretivas, garantindo que os sistemas de IA não apresentem riscos semelhantes.
  • Se o operador falhar, o sistema de IA em questão pode ser retirado do mercado.

A nível da UE, um Escritório de IA dentro da Comissão aplica as regulações. Essa comissão é aconselhada e assistida pelo Estado-Membro para aplicar efetivamente a Lei de IA. A comissão e o Conselho de IA obtêm expertise técnica de um fórum de stakeholders consultivos. Os tribunais nacionais dos Estados-Membros da UE irão implementar a Diretiva de Responsabilidade de IA se reivindicações civis por culpa não contratual forem apresentadas.

Os tribunais nacionais também podem exigir provas sobre sistemas de IA de alto risco suspeitos de causar danos.

Usando IA que cumpre a Lei

Especialização, um agente de vendas de IA para seu site, cumpre as obrigações da Lei de IA da UE. Se você deseja adicionar capacidades de venda de IA ao seu site, experimente o Expertise AI sem se preocupar com a conformidade com a nova Lei de IA na região da UE.

Com um agente de vendas de IA do Expertise, você pode:

  • Engajar cada visitante com IA para ajudá-los a encontrar respostas em segundos.
  • Reduzir a taxa de rejeição enquanto constrói confiança e credibilidade.
  • Aumentar a geração de leads e agendar reuniões com leads qualificados de forma fácil.

O Expertise AI é seguro e eficaz sob a Lei de IA da UE.

Defina 30 minutos para entender como aproveitá-lo ao máximo em seu negócio.