
Artigo 92.º do AI Act: Avaliações de Modelos de IA de Finalidade Geral pela Comissão Europeia
O Artigo 92.º - Poder para realizar avaliações do Regulamento da Inteligência Artificial (UE) 2024/1689 permite que o Serviço para a IA, após consulta ao Comité, realize avaliações técnicas aprofundadas de modelos de IA de finalidade geral. Estas avaliações podem ser desencadeadas quando as informações recolhidas anteriormente forem insuficientes para verificar a conformidade com o regulamento ou quando houver indícios de riscos sistémicos, especialmente após alertas do painel científico. A Comissão Europeia pode nomear peritos independentes, incluindo membros do painel científico, para conduzir estas avaliações, podendo solicitar acesso direto ao modelo, incluindo ao código-fonte, mediante justificação legal e técnica. O artigo também prevê um diálogo estruturado com os prestadores antes de qualquer pedido formal de acesso, promovendo a cooperação e a transparência.
O Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece um quadro jurídico uniforme para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. Com uma abordagem baseada no risco, o regulamento proíbe práticas inaceitáveis, impõe obrigações rigorosas para sistemas de risco elevado e promove a transparência e responsabilidade nos modelos de IA de finalidade geral. O seu objetivo é garantir que a IA seja segura, ética e centrada no ser humano, protegendo os direitos fundamentais e incentivando a inovação responsável em todo o território europeu.
Capítulo IX - Acompanhamento Pós-Comercialização, Partilha de Informações e Fiscalização do Mercado
Secção 5 - Supervisão, investigação, execução e controlo no que respeita a prestadores de modelos de IA de finalidade geral
Artigo 92.º - Poder para realizar avaliações
1. O Serviço para a IA, após consulta do Comité, pode realizar avaliações do modelo de IA de finalidade geral em causa para:
a) Avaliar o cumprimento, por parte do prestador, das obrigações decorrentes do presente regulamento, caso as informações recolhidas nos termos do artigo 91.o sejam insuficientes; ou,
b) Investigar os riscos sistémicos a nível da União de modelos de IA de finalidade geral com risco sistémico, em especial na sequência de um alerta qualificado do painel científico em conformidade com o artigo 90.o, n.o 1, alínea a).
2. A Comissão pode decidir nomear peritos independentes para realizar avaliações em seu nome, incluindo peritos do painel científico criado nos termos do artigo 68.o. Os peritos independentes nomeados para exercer esta atribuição devem satisfazer os critérios enunciados no artigo 68.o, n.o 2.
3. Para efeitos do n.o 1, a Comissão pode solicitar o acesso ao modelo de IA de finalidade geral em causa através IPA ou de outros meios e ferramentas técnicas adequadas, incluindo o código-fonte.
4. O pedido de acesso indica a base jurídica, a finalidade e os motivos do pedido e fixa o prazo em que o acesso deve ser concedido, e as coimas previstas no artigo 101.o por não disponibilização do acesso.
5. Os prestadores do modelo de IA de finalidade geral em causa ou o seu representante, presta as informações solicitadas. No caso de pessoas coletivas, empresas ou associações de empresas, ou, caso os prestadores não tenham personalidade jurídica, as pessoas autorizadas a representá-las nos termos da lei ou dos respetivos estatutos, disponibilizam o acesso solicitado em nome do prestador do modelo de IA de finalidade geral em causa.
6. A Comissão adota atos de execução que estabelecem as modalidades pormenorizadas e as condições das avaliações, incluindo as modalidades pormenorizadas da participação de peritos independentes, e o procedimento de seleção destes últimos. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 98.o, n.o 2.
7. Antes de solicitar o acesso ao modelo de IA de finalidade geral em causa, o Serviço para a IA pode iniciar um diálogo estruturado com o prestador do modelo de IA de finalidade geral para recolher mais informações sobre as testagens internas do modelo, as salvaguardas internas para prevenir riscos sistémicos e outros procedimentos e medidas internos que o prestador tenha tomado para atenuar esses riscos.
Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical
- Criado em .
Termos e condições
Receber notificações de novos comentários por email
Avisar
Os meus comentários