Skip to main content
Regulamento da Inteligência Artificial

Anexo XIII do AI Act: Critérios para Designação de Modelos de IA de Finalidade Geral com Risco Sistémico

O Anexo XIII do Regulamento da Inteligência Artificial (UE) 2024/1689 define os critérios técnicos e operacionais que a Comissão Europeia deve considerar ao designar um modelo de IA de finalidade geral como tendo risco sistémico, nos termos do artigo 51.º. Esses critérios incluem o número de parâmetros do modelo, a qualidade e o volume dos dados de treino, o poder computacional utilizado, os tipos de entrada e saída, o desempenho em tarefas diversas, a escalabilidade, o grau de autonomia e o impacto no mercado — presumido, por exemplo, quando o modelo é utilizado por mais de 10.000 empresas na UE. O objetivo é identificar modelos que, pela sua capacidade ou difusão, possam gerar riscos significativos para a segurança pública, os direitos fundamentais ou a estabilidade social, exigindo medidas adicionais de avaliação, mitigação e supervisão.

O Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. Com uma abordagem baseada no risco, proíbe práticas inaceitáveis, impõe obrigações rigorosas para sistemas de risco elevado e define requisitos específicos para modelos de IA de finalidade geral , incluindo os de risco sistémico. O regulamento promove a transparência, supervisão humana e responsabilidade, assegurando que a IA seja segura, ética e centrada no ser humano, protegendo os direitos fundamentais e incentivando a inovação responsável em todo o território europeu.


Anexos

ANEXO XIII - Critérios para a designação de modelos de IA de finalidade geral com risco sistémico a que se refere o artigo 51.o

A fim de determinar que um modelo de IA de finalidade geral tem capacidades ou um impacto equivalentes aos previstos no artigo 51.o, n.o 1, alínea a), a Comissão deve ter em conta os seguintes critérios:

a) O número de parâmetros do modelo;

b) A qualidade ou dimensão do conjunto de dados, por exemplo, medida através de tokens;

c) A quantidade de cálculo utilizada para o treino do modelo, medida em operações de vírgula flutuante ou indicada por uma combinação de outras variáveis, como o custo estimado do treino, o tempo estimado necessário para o treino ou o consumo estimado de energia para o treino;

d) As modalidades de entrada e de saída do modelo, tais como texto para texto (grandes modelos linguísticos), texto para imagem, multimodalidade e limiares de ponta para determinar as capacidades de elevado impacto para cada modalidade, bem como o tipo específico de entradas e saídas (por exemplo, sequências biológicas);

e) Os parâmetros de referência e avaliações das capacidades do modelo, nomeadamente tendo em conta o número de tarefas sem treino adicional, a adaptabilidade à aprendizagem de tarefas novas e distintas, o seu nível de autonomia e escalabilidade e as ferramentas a que tem acesso;

f) Se tem um elevado impacto no mercado interno devido ao seu alcance, o que se presume quando tiver sido disponibilizado a, pelo menos, 10 000 utilizadores empresariais registados estabelecidos na União;

g) O número de utilizadores finais registados.

Como os critérios do Anexo XIII são aplicados a modelos generativos

  • Número de parâmetros e escala computacional: Modelos generativos de larga escala, como os de linguagem ou imagem, com bilhões de parâmetros e uso intensivo de recursos computacionais, são candidatos à designação de risco sistémico.

  • Difusão no mercado: Se um modelo é utilizado por mais de 10.000 empresas na UE, presume-se que tem impacto sistémico. Plataformas que oferecem IA generativa como serviço (por exemplo, APIs de texto ou imagem) devem monitorar essa métrica.

  • Capacidade multitarefa e autonomia: Modelos que realizam múltiplas tarefas (tradução, programação, geração de conteúdo) com alto grau de autonomia são considerados mais suscetíveis a riscos sistémicos, especialmente se forem integrados em sistemas críticos.

  • Impacto nos direitos fundamentais: Se o modelo pode ser usado para gerar conteúdo enganoso, manipular decisões ou afetar processos democráticos, deve ser avaliado com maior rigor.

Medidas de mitigação exigidas para modelos com risco sistémico:

  • Avaliações regulares de segurança e impacto ético.
  • Testagens antagónicas para identificar vulnerabilidades.
  • Supervisão humana obrigatória em contextos críticos.
  • Transparência reforçada sobre dados de treino, arquitetura e limitações.
  • Registo obrigatório na base de dados da UE com documentação técnica completa.

Segundo o AI Act Explorer e o RGPD.com, estes critérios ajudam a garantir que modelos fundacionais sejam usados de forma segura, ética e auditável, protegendo os utilizadores e a sociedade.

Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical

  • Criado em .

1000 carateres remanescentes