Em 03/07/2023

Lei da UE sobre IA: primeira regulamentação de inteligência artificial


A utilização da inteligência artificial na UE será regulada pela lei da IA, a primeira lei abrangente do mundo sobre a IA. Sabe como esta lei te vai proteger.


Esta ilustração de inteligência artificial foi de fato gerada pela IA 

No âmbito da sua estratégia digital, a União Europeia (UE) pretende regulamentar a inteligência artificial (IA) para garantir melhores condições para o desenvolvimento e a utilização desta tecnologia inovadora.

IA pode trazer muitos benefícios, como melhores cuidados de saúde, transportes mais seguros e mais limpos, produções mais eficientse e energia mais barata e mais sustentável.

Em abril de 2021, a Comissão Europeia propôs o primeiro quadro regulamentar da UE para a IA. Propõe que os sistemas de IA, que podem ser utilizados em diferentes setores, sejam analisados e classificados de acordo com o risco que representam para os utilizadores.

Os diferentes níveis de risco implicarão mais ou menos regulamentação. Uma vez aprovadas, estas serão as primeiras regras do mundo sobre a IA.

Sabe mais sobre o que é a inteligência artificial e como é utilizada.

O que o Parlamento pretende com a legislação sobre IA

prioridade do Parlamento é garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Os sistemas de IA devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais.

O Parlamento quer também estabelecer uma definição uniforme e neutra em termos tecnológicos para a IA, de modo a ser aplicada em futuros sistemas de IA.

Conhece melhor o trabalho do Parlamento no que diz respeito à Inteligência Artificial e a sua visão para o futuro nesta área.

Lei da inteligência artificial: regras diferentes consoante os níveis de risco

As novas regras estabelecem obrigações para os fornecedores e utilizadores em função do nível de risco da IA. Embora muitos sistemas de IA representem um risco mínimo, é necessário avaliá-los.

Risco inaceitável

Os sistemas de IA de risco inaceitável são sistemas considerados uma ameaça para as pessoas e serão proibidos. Estes sistemas incluem:

  • manipulação cognitivo-comportamental de pessoas ou grupos vulneráveis específicos: por exemplo, brinquedos ativados por voz que incentivam comportamentos perigosos nas crianças
  • pontuação social: classificação de pessoas com base no comportamento, estatuto socioeconómico, caraterísticas pessoais
  • sistemas de identificação biométrica em tempo real e à distância, como o reconhecimento facial

Podem ser permitidas algumas exceções. Por exemplo, os sistemas de pós-identificação biométrica à distância, em que a identificação ocorre após um atraso significativo, só serão permitidos para a repressão de crimes graves e após aprovação do tribunal.

Risco elevado

Os sistemas de IA que afetam negativamente a segurança ou os direitos fundamentais serão considerados de elevado risco e serão divididos em duas categorias.

1. Sistemas de IA que são utilizados em produtos abrangidos pela legislação da UE em matéria de segurança dos produtos. Isto inclui brinquedos, aviação, automóveis, dispositivos médicos e elevadores.

2. Sistemas de IA que se enquadram em oito áreas específicas que terão de ser registados numa base de dados da UE:

  • identificação biométrica e categorização de pessoas singulares
     
  • gestão e funcionamento de infraestruturas essenciais
     
  • educação e formação profissional
     
  • emprego, gestão dos trabalhadores e acesso ao trabalho por conta própria
     
  • acesso e usufruto de serviços privados essenciais e de serviços e benefícios públicos
     
  • aplicação da lei
     
  • gestão da migração, do asilo e do controlo das fronteiras
     
  • assistência na interpretação jurídica e na aplicação da lei.

Todos os sistemas de IA de risco elevado serão avaliados tanto antes de serem colocados no mercado como durante todo o seu ciclo de vida.

Inteligência artificial generativa

A IA generativa, tal como o ChatGPT, teria de cumprir os requisitos de transparência:

  • divulgar que o conteúdo foi gerado pela IA
  • conceber o modelo para evitar que este gere conteúdos ilegais
  • publicar resumos dos dados protegidos por direitos de autor utilizados para a formação

Risco limitado

Os sistemas de inteligência artificial de risco limitado devem cumprir requisitos mínimos de transparência que permitam aos utilizadores tomar decisões informadas. Depois de interagir com as aplicações, o utilizador pode decidir se quer continuar a utilizá-las.

Os utilizadores devem ser alertados para o facto de estarem a interagir com a IA. Isto diz respeito também aos sistemas de IA que geram ou manipulam conteúdos de imagem, áudio ou vídeo (por exemplo, os deepfakes).

Próximas etapas

A 14 de junho de 2023, os eurodeputados adotaram a sua posição de negociação sobre a legislação em matéria de inteligência artificial. Em breve terão início as conversações com os países da UE no Conselho sobre a forma final da lei.

O objetivo é chegar a um acordo até ao final deste ano.

Mais sobre a ação digital da UE:

Os perigos da criptomoeda e as vantagens da legislação da UE
Luta contra a cibercriminalidade: explicação da nova legislação da UE em matéria de cibersegurança
Aumentar a partilha de dados na UE: quais são os benefícios?
Lei dos Mercados Digitais e Lei dos Serviços Digitais da UE
Cinco formas de o Parlamento Europeu proteger os jogadores de vídeo em linha

Para mais informações

Fonte: Parlamento Europeu.



Compartilhe