Skip to main content

Artigo 7.º do AI Act: Alterações ao Anexo III dos Sistemas de IA de Alto Risco

O Artigo 7.º - Alterações ao anexo III do Regulamento da Inteligência Artificial (UE) 2024/1689 permite à Comissão Europeia modificar o Anexo III, que lista os sistemas de IA de risco elevado. Essas alterações podem incluir a adição ou modificação de casos de utilização, desde que os novos sistemas representem riscos equivalentes ou superiores aos já identificados. A avaliação considera fatores como a finalidade do sistema, a quantidade de dados tratados, o grau de autonomia e o impacto potencial na saúde, segurança e direitos fundamentais.

O Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. O seu objetivo é garantir que a IA seja segura, transparente e centrada no ser humano, protegendo os direitos fundamentais, a segurança e a privacidade dos cidadãos. Além disso, impõe restrições a práticas de IA consideradas de risco elevado e incentiva a inovação responsável, promovendo um equilíbrio entre progresso tecnológico e proteção social.


Capítulo III - Sistemas de IA de Risco Elevado

Secção I - Classificação de sistemas de IA com sendo de risco elevado

Artigo 7.º - Alterações ao anexo III

1. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar o anexo III, aditando ou modificando casos de utilização de sistemas de IA de risco elevado sempre que estejam preenchidas ambas as seguintes condições:

a) Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III;

b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou de repercussões negativas nos direitos fundamentais, e esse risco é equivalente ou superior ao risco de danos ou repercussões negativas representado pelos sistemas de IA de risco elevado já referidos no anexo III.

2. Ao avaliar a condição prevista no n.o 1, alínea b), a Comissão tem em conta os seguintes critérios:

a) A finalidade prevista do sistema de IA;

b) O grau de utilização efetiva ou a probabilidade de utilização de um sistema de IA;

c) A natureza e a quantidade dos dados tratados e utilizados pelo sistema de IA e, em particular, o facto de serem tratadas categorias especiais de dados pessoais;

d) A medida em que o sistema de IA atua de forma autónoma e a possibilidade de um ser humano anular decisões ou recomendações que possam causar danos;

e) A medida em que a utilização de um sistema de IA já tenha causado danos para a saúde e a segurança, tenha tido repercussões negativas nos direitos fundamentais ou tenha suscitado preocupações significativas quanto à probabilidade de esses danos ou essas repercussões negativas ocorrerem, conforme demonstrado, por exemplo, por relatórios ou alegações documentadas apresentados às autoridades nacionais competentes, ou por outros relatórios, consoante o caso;

f) A potencial dimensão desses danos ou dessas repercussões negativas, nomeadamente em termos de intensidade e de capacidade para afetar várias pessoas, ou para afetar de forma desproporcionada um determinado grupo de pessoas;

g) A medida em que as pessoas que sofreram potenciais danos ou repercussões negativas dependem dos resultados produzidos por um sistema de IA, em especial se, por razões práticas ou jurídicas, não lhes for razoavelmente possível autoexcluir-se desse resultado;

h) A medida em que existe um desequilíbrio em termos de poder ou em que as pessoas que sofreram potenciais danos ou repercussões negativas se encontram numa posição vulnerável em relação ao responsável pela implantação de um sistema de IA, em particular por motivos relacionados com o estatuto, a autoridade, o conhecimento, as circunstâncias económicas ou sociais, ou a idade;

i) A medida em que os resultados produzidos com o envolvimento de um sistema de IA são facilmente corrigíveis ou reversíveis, tendo em conta as soluções técnicas disponíveis para os corrigir ou reverter, sendo que os resultados com uma repercussão negativa na saúde, na segurança ou nos direitos fundamentais não podem ser considerados como facilmente corrigíveis ou reversíveis;

j) A magnitude e a probabilidade dos benefícios da implantação do sistema de IA para as pessoas, os grupos ou a sociedade em geral, incluindo possíveis melhorias na segurança dos produtos;

k) A medida em que o direito da União em vigor prevê:

i) medidas de reparação eficazes em relação aos riscos representados por um sistema de IA, com exclusão de pedidos de indemnização,

ii) medidas eficazes para prevenir ou minimizar substancialmente esses riscos.

3. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 97.o para alterar a lista do anexo III suprimindo sistemas de IA de risco elevado sempre que estejam preenchidas ambas as seguintes condições:

a) O sistema de IA de risco elevado em causa deixa de representar um risco significativo para os direitos fundamentais, a saúde ou a segurança, tendo em conta os critérios enumerados no n.o 2;

b) A supressão não diminui o nível geral de proteção da saúde, da segurança e dos direitos fundamentais ao abrigo do direito da União.

Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical

  • Criado em .

1000 carateres remanescentes