Skip to main content

Artigo 27.º do AI Act: Avaliação de Impacto dos Sistemas de IA sobre Direitos Fundamentais

O Artigo 27.º - Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais do Regulamento da Inteligência Artificial (UE) 2024/1689 exige que, antes da sua primeira utilização, determinados responsáveis pela implantação de sistemas de IA de risco elevado realizem uma avaliação de impacto sobre os direitos fundamentais. Esta avaliação deve identificar os riscos que o sistema pode representar para pessoas singulares ou grupos, descrever os contextos de utilização, a duração prevista, as medidas de supervisão humana e os mecanismos de mitigação. A obrigação aplica-se especialmente a entidades públicas ou privadas que prestem serviços públicos, e deve ser atualizada sempre que ocorram alterações relevantes. A avaliação pode complementar outras já exigidas por legislação europeia, como a proteção de dados.

O Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. O seu objetivo é garantir que a IA seja segura, transparente e centrada no ser humano, protegendo os direitos fundamentais, a segurança e a privacidade dos cidadãos. Além disso, impõe restrições a práticas de IA consideradas de risco elevado e incentiva a inovação responsável, promovendo um equilíbrio entre progresso tecnológico e proteção social.


Capítulo III - Sistemas de IA de Risco Elevado

Secção 3 - Obrigações dos prestadores e dos responsáveis pela implantação de sistemas de IA de risco elevado e de outras partes

Artigo 27.º - Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais

1. Antes de implementarem um sistema de IA de risco elevado a que se refere o artigo 6.o, n.o 2, à exceção dos sistemas de IA de risco elevado destinados a ser utilizados nos domínios enumerados no anexo III, ponto 2, os responsáveis pela implantação que sejam organismos de direito público, ou entidades privadas que prestam serviços públicos e responsáveis pela implantação de sistemas de IA de risco elevado a que se refere o anexo III, ponto 5, alíneas b) e c), devem executar uma avaliação do impacto que a utilização desse sistema possa ter nos direitos fundamentais. Para o efeito, os responsáveis pela implantação executam uma avaliação que inclua:

a) Uma descrição dos processos do responsável pela implantação em que o sistema de IA de risco elevado seja utilizado de acordo com a sua finalidade prevista;

b) Uma descrição do período em que o sistema de IA de risco elevado se destina a ser utilizado e com que frequência;

c) As categorias de pessoas singulares e grupos suscetíveis de serem afetados no contexto específico de utilização do sistema;

d) Os riscos específicos de danos suscetíveis de terem impacto nas categorias de pessoas singulares ou grupos de pessoas identificadas nos termos da alínea c) do presente número, tendo em conta as informações facultadas pelo prestador nos termos do artigo 13.o;

e) Uma descrição da aplicação das medidas de supervisão humana de acordo com as instruções de utilização;

f) As medidas a tomar caso esses riscos se materializem, incluindo as disposições relativas à governação interna e aos mecanismos de apresentação de queixas.

2. A obrigação estabelecida no n.o 1 aplica-se à primeira utilização do sistema de IA de risco elevado. O responsável pela implantação pode, em casos semelhantes, basear-se em avaliações de impacto sobre os direitos fundamentais efetuadas anteriormente ou em avaliações de impacto existentes realizadas pelo prestador. Se, durante a utilização do sistema de IA de risco elevado, o responsável pela implantação considerar que algum dos elementos enumerados no n.o 1 se alterou ou deixou de estar atualizado, deve tomar as medidas necessárias para atualizar as informações.

3. Uma vez realizada a avaliação de impacto a que se refere o n.o 1 do presente artigo, o responsável pela implantação deve notificar a autoridade de fiscalização do mercado dos resultados da avaliação, apresentando o modelo preenchido a que se refere o n.o 5 do presente artigo como parte da notificação. No caso referido no artigo 46.o, n.o 1, os responsáveis pela implantação podem ser dispensados desta obrigação de notificação.

4. Se alguma das obrigações previstas no presente artigo já tiver sido cumprida através da avaliação de impacto sobre a proteção de dados realizada nos termos do artigo 35.o do Regulamento (UE) 2016/679 ou do artigo 27.o da Diretiva (UE) 2016/680, a avaliação de impacto sobre os direitos fundamentais a que se refere o n.o 1 do presente artigo deve complementar essa avaliação de impacto sobre a proteção de dados.

5. O Serviço para a IA deve desenvolver um modelo para um questionário, nomeadamente através de um sistema automatizado, a fim de facilitar aos responsáveis pela implantação o cumprimento simplificado das obrigações do presente artigo.

Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical

  • Criado em .

1000 carateres remanescentes