
Artigo 6.º do AI Act: Classificação de Sistemas de IA de Alto Risco
O Artigo 6.º - Regras para a classificação de sistemas de IA de risco elevado do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece critérios para identificar sistemas de IA que representam riscos significativos para a saúde, segurança ou direitos fundamentais. Ele define que um sistema de IA é considerado de risco elevado se for utilizado como componente de segurança de um produto sujeito a avaliação de conformidade ou se estiver listado no Anexo III do regulamento. No entanto, há exceções para sistemas que não influenciem significativamente decisões humanas ou que desempenhem funções auxiliares sem impacto direto na segurança ou nos direitos fundamentais.
O Regulamento da Inteligência Artificial (UE) 2024/1689 cria um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. O seu objetivo é garantir que a IA seja segura, transparente e centrada no ser humano, protegendo os direitos fundamentais, a segurança e a privacidade dos cidadãos. Além disso, impõe restrições a práticas de IA consideradas de risco elevado e incentiva a inovação responsável, promovendo um equilíbrio entre progresso tecnológico e proteção social.
Capítulo III - Sistemas de IA de Risco Elevado
Secção I - Classificação de sistemas de IA com sendo de risco elevado
Artigo 6.º - Regras para a classificação de sistemas de IA de risco elevado
1. Independentemente de a colocação no mercado ou a colocação em serviço de um sistema de IA ser feita separadamente dos produtos a que se referem as alíneas a) e b), esse sistema de IA é considerado de risco elevado sempre que se estejam preenchidas ambas as seguintes condições:
a) O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou o sistema de IA é, ele próprio, um produto abrangido pelos atos enumerados na lista da legislação de harmonização da União constante do anexo I;
b) O produto cujo componente de segurança nos termos da alínea a) é o sistema de IA, ou o próprio sistema de IA enquanto produto, tem de ser sujeito a uma avaliação da conformidade por terceiros com vista à sua colocação no mercado ou colocação em serviço nos termos dos atos enumerados na lista da legislação de harmonização da União constante do anexo I.
2. Além dos sistemas de IA de risco elevado a que se refere o n.o 1, os sistemas de IA a que se refere o anexo III são também considerados de risco elevado.
3. Em derrogação do n.o 2, um sistema de IA a que se refere o Anexo III não pode ser considerado de risco elevado se não representar um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, nomeadamente se não influenciarem de forma significativa o resultado da tomada de decisões.
O primeiro parágrafo aplica-se nos casos em que estiverem preenchidas quaisquer das seguintes condições:
a) O sistema de IA destina-se a desempenhar uma tarefa processual restrita;
b) O sistema de IA destina-se a melhorar o resultado de uma atividade humana previamente concluída;
c) O sistema de IA destina-se a detetar padrões de tomada de decisões ou desvios em relação a padrões de tomada de decisões anteriores e não se destina a substituir nem influenciar uma avaliação humana previamente concluída, sem que se proceda a uma verificação adequada por um ser humano; ou
d) O sistema de IA destina-se a executar uma tarefa preparatória no contexto de uma avaliação pertinente para efeitos dos casos de utilização enumerados no anexo III.
Não obstante o primeiro parágrafo, os sistemas de IA a que se refere o anexo III devem ser sempre considerados de risco elevado nos casos em que executarem a definição de perfis de pessoas singulares.
4. Um prestador que considere que um dos sistemas de IA a que se refere o anexo III não é de risco elevado deve documentar a sua avaliação antes de esse sistema ser colocado no mercado ou colocado em serviço. Esse prestador está sujeito à obrigação de registo prevista no artigo 49.o, n.o 2. A pedido das autoridades nacionais competentes, o prestador deve facultar a documentação da avaliação.
5. Após consulta do Comité Europeu para a Inteligência Artificial («Comité»), e o mais tardar até 2 de fevereiro de 2026, a Comissão disponibiliza orientações que especifiquem a aplicação prática do presente artigo em conformidade com o artigo 96.o, juntamente com uma lista exaustiva de exemplos práticos de casos de utilização de sistemas de IA de risco elevado e de risco não elevado.
6. A Comissão fica habilitada a adotar atos delegados os termos do artigo 97.o para alterar o n.o 3, segundo parágrafo, do presente artigo no que diz respeito a aditar novas condições para além das que aí se encontram previstas, ou a alterar essas condições, se existirem provas concretas e fiáveis da existência de sistemas de IA que sejam abrangidos pelo âmbito de aplicação do anexo III mas não apresentem um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares.
7. A Comissão adota atos delegados nos termos do artigo 97.o no que diz respeito à alteração do n.o 3, segundo parágrafo, do presente artigo, para suprimir qualquer uma das condições aí previstas, caso existam provas concretas e fiáveis de que tal é necessário para manter o nível de proteção da saúde, da segurança e dos direitos fundamentais previsto no presente regulamento.
8. Qualquer alteração às condições estabelecidas no n.o 3, segundo parágrafo, adotadas nos termos dos n.os 6 e 7 do presente artigo, não pode diminuir o nível geral de proteção da saúde, da segurança e dos direitos fundamentais previsto no presente regulamento e assegura a coerência com os atos delegados adotados nos termos do artigo 7.o, n.o 1, e tem em conta a evolução tecnológica e do mercado.
Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical
- Criado em .
Termos e condições
Receber notificações de novos comentários por email
Avisar
Os meus comentários