Skip to main content

Artigo 15.º do AI Act: Exatidão, Solidez e Cibersegurança em Sistemas de IA

O Artigo 15.º - Exatidão, solidez e cibersegurança do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece que os sistemas de IA de risco elevado devem ser concebidos para garantir um nível apropriado de exatidão, robustez e segurança cibernética ao longo do seu ciclo de vida. Isso inclui medidas para minimizar erros, falhas e vulnerabilidades, assegurando que os sistemas operem de forma confiável e resistente a manipulações externas. Além disso, impõe requisitos para que os sistemas que continuam a aprender após a sua implantação sejam desenvolvidos de forma a evitar enviesamentos e garantir a integridade dos seus resultados.

O Regulamento da Inteligência Artificial (UE) 2024/1689 cria um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. O seu objetivo é garantir que a IA seja segura, transparente e centrada no ser humano, protegendo os direitos fundamentais, a segurança e a privacidade dos cidadãos. Além disso, impõe restrições a práticas de IA consideradas de risco elevado e incentiva a inovação responsável, promovendo um equilíbrio entre progresso tecnológico e proteção social.


Capítulo III - Sistemas de IA de Risco Elevado

Secção 2 - Requisitos aplicáveis aos sistemas de IA de risco elevado

Artigo 15.º - Exatidão, solidez e cibersegurança

1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o seu ciclo de vida.

2. A fim de abordar os aspetos técnicos relativos à forma de medir os níveis adequados de exatidão e solidez estabelecidos no n.o 1, bem como quaisquer outros parâmetros de desempenho pertinentes, a Comissão, em cooperação com as partes interessadas e as organizações pertinentes, tais como as autoridades responsáveis pela metrologia e pela avaliação comparativa, incentiva, conforme adequado, o desenvolvimento de parâmetros de referência e metodologias de medição.

3. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e os parâmetros de exatidão aplicáveis.

4. Os sistemas de IA de risco elevado devem ser tão resistentes quanto possível a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. A este respeito, devem ser tomadas medidas técnicas e organizativas.

A solidez dos sistemas de IA de risco elevado pode ser alcançada por via de soluções de redundância técnica, que podem incluir planos de reserva ou planos de segurança à prova de falhas.

Os sistemas de IA de risco elevado que continuam a aprender após serem colocados no mercado ou colocados em serviço são desenvolvidos de forma a eliminar ou reduzir, tanto quanto possível, o risco de resultados possivelmente enviesados que influenciem os dados de entrada de futuras operações (circuitos de realimentação), bem como a assegurar que esses resultados possivelmente enviesados sejam objeto de medidas de atenuação adequadas.

5. Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização, os seus resultados ou seu desempenho explorando as vulnerabilidades do sistema.

As soluções técnicas destinadas a assegurar a cibersegurança dos sistemas de IA de risco elevado devem ser adequadas às circunstâncias e aos riscos de cada caso.

As soluções técnicas para resolver vulnerabilidades específicas da IA devem incluir, se for caso disso, medidas para prevenir, detetar, resolver e controlar, bem como dar resposta a ataques que visem manipular o conjunto de dados de treino (contaminação de dados) ou componentes pré-treinados utilizados no treino (contaminação de modelos), dados de entrada concebidos para fazer com que o modelo de IA cometa um erro (exemplos antagónicos ou evasão de modelos), ataques de confidencialidade ou falhas do modelo.

Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical

  • Criado em .

1000 carateres remanescentes