Skip to main content

Inteligência Artificial

Artigo 37.º do AI Act: Contestação da Competência dos Organismos Notificados

O Artigo 37.º - Contestação da competência dos organismos notificados do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece que a Comissão Europeia deve investigar sempre que existam dúvidas fundamentadas sobre a competência ou o cumprimento contínuo dos requisitos legais por parte de um organismo notificado. A autoridade notificadora do Estado-Membro em causa deve fornecer todas as informações relevantes à Comissão, que deve tratar os dados sensíveis com confidencialidade. Se a Comissão concluir que o organismo não cumpre os requisitos, pode solicitar ao Estado-Membro que tome medidas corretivas, como a suspensão ou retirada da notificação. Caso o Estado-Membro não atue, a Comissão pode intervir diretamente através de um ato de execução, garantindo a integridade do sistema de avaliação da conformidade na UE.

Artigo 39.º do AI Act: Organismos de Avaliação da Conformidade de Países Terceiros

O Artigo 39.º - Organismos de avaliação da conformidade de países terceiros do Regulamento da Inteligência Artificial (UE) 2024/1689 permite que organismos estabelecidos em países terceiros — ou seja, fora da União Europeia — possam ser autorizados a atuar como organismos notificados para sistemas de IA de risco elevado, desde que exista um acordo internacional entre a UE e o país em questão. Esses organismos devem cumprir os requisitos estabelecidos no artigo 31.º ou demonstrar que oferecem um nível de conformidade equivalente, garantindo assim que os padrões europeus de segurança, imparcialidade e competência técnica sejam respeitados mesmo fora do território da União.

Artigo 4.º do AI Act: Literacia em Inteligência Artificial e Obrigações das Empresas

O Artigo 4.º - Literacia no domínio da IA do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece a obrigação dos prestadores e responsáveis pela implantação de sistemas de IA de garantir que o seu pessoal e outras pessoas envolvidas na operação e utilização desses sistemas possuam um nível adequado de literacia em IA. Isso inclui conhecimentos técnicos, experiência e formação, assegurando que os sistemas sejam utilizados de forma ética, segura e alinhada com os direitos fundamentais dos cidadãos.

Artigo 40.º do AI Act: Normas Harmonizadas e Produtos de Normalização em IA

O Artigo 40.º - Normas harmonizadas e produtos de normalização do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece que os sistemas de IA de risco elevado ou os modelos de IA de finalidade geral que estejam em conformidade com normas harmonizadas publicadas no Jornal Oficial da União Europeia são presumidos como estando em conformidade com os requisitos legais aplicáveis. A Comissão Europeia é responsável por emitir pedidos de normalização que cubram todos os requisitos técnicos e operacionais, incluindo aspetos como eficiência energética, documentação e comunicação. O artigo também incentiva a cooperação internacional em matéria de normalização, promovendo a segurança jurídica, a inovação e a competitividade, e assegurando que as normas estejam alinhadas com os valores e direitos fundamentais da União.

Artigo 42.º do AI Act: Presunção de Conformidade em Sistemas de IA de Alto Risco

O Artigo 42.º - Presunção de conformidade com determinados requisitos do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece que certos sistemas de IA de risco elevado são considerados automaticamente conformes com requisitos específicos do regulamento, desde que cumpram determinadas condições. Por exemplo, presume-se conformidade com os requisitos de qualidade dos dados (artigo 10.º, n.º 4) quando os sistemas forem treinados e testados com dados representativos do contexto geográfico, comportamental ou funcional em que serão utilizados. Além disso, presume-se conformidade com os requisitos de cibersegurança (artigo 15.º) quando os sistemas tiverem sido certificados ou declarados conformes ao abrigo de um sistema de certificação de cibersegurança reconhecido pela UE, desde que essa certificação cubra os requisitos relevantes.

Artigo 43.º do AI Act: Avaliação de Conformidade de Sistemas de IA de Alto Risco

O Artigo 43.º - Avaliação da conformidade do Regulamento da Inteligência Artificial (UE) 2024/1689 define os procedimentos que os prestadores de sistemas de IA de risco elevado devem seguir para demonstrar que os seus sistemas cumprem os requisitos legais. Dependendo do tipo de sistema e da aplicação de normas harmonizadas (artigo 40.º) ou especificações comuns (artigo 41.º), os prestadores podem optar entre um controlo interno (anexo VI) ou uma avaliação com participação de um organismo notificado (anexo VII). Quando não existirem normas harmonizadas ou estas não forem aplicadas, a avaliação com organismo notificado torna-se obrigatória. O artigo também prevê procedimentos específicos para sistemas utilizados por autoridades públicas e para aqueles abrangidos por legislação europeia setorial.

Artigo 44.º do AI Act: Certificados de Conformidade para Sistemas de IA de Alto Risco

O Artigo 44.º - Certificados do Regulamento da Inteligência Artificial (UE) 2024/1689 define as regras aplicáveis aos certificados emitidos pelos organismos notificados após a avaliação da conformidade dos sistemas de IA de risco elevado. Estes certificados devem ser redigidos numa língua compreensível pelas autoridades competentes do Estado-Membro e têm validade máxima de cinco anos (ou quatro anos, consoante o tipo de sistema). A validade pode ser prorrogada mediante nova avaliação. Caso um sistema deixe de cumprir os requisitos legais, o organismo notificado pode suspender, restringir ou retirar o certificado, devendo justificar a decisão e garantir o direito de recurso por parte do prestador.

Artigo 45.º do AI Act: Deveres de Informação dos Organismos Notificados na Avaliação de IA

O Artigo 45.º - Obrigações de informação dos organismos notificados do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece que os organismos notificados devem manter uma comunicação contínua e transparente com as autoridades notificadoras e com outros organismos notificados. Devem informar sobre certificados emitidos, recusados, suspensos ou retirados, bem como sobre aprovações de sistemas de gestão da qualidade. Também devem partilhar informações relevantes sobre avaliações de conformidade, incluindo atividades transfronteiriças ou subcontratadas, e cooperar com outros organismos para garantir coerência nas decisões. Todas as informações devem ser tratadas com confidencialidade, conforme previsto no artigo 78.º.

Artigo 46.º do AI Act: Derrogação do Procedimento de Avaliação de Conformidade

O Artigo 46.º - Derrogação do procedimento de avaliação da conformidade do Regulamento da Inteligência Artificial (UE) 2024/1689 permite, em situações excecionais e devidamente justificadas, que as autoridades de fiscalização do mercado autorizem a colocação no mercado ou em serviço de sistemas de IA de risco elevado sem que estes tenham ainda concluído o procedimento formal de avaliação da conformidade. Esta derrogação aplica-se, por exemplo, em casos de ameaças iminentes à segurança pública, à vida humana, ao ambiente ou a infraestruturas críticas. A autorização é temporária e deve ser acompanhada da conclusão célere dos procedimentos em falta. Em situações de urgência extrema, as autoridades policiais ou de proteção civil podem utilizar o sistema antes mesmo da autorização formal, desde que esta seja solicitada logo após a utilização. A Comissão Europeia e os outros Estados-Membros devem ser informados, podendo contestar a decisão se considerarem que não está justificada.

Artigo 47.º do AI Act: Declaração UE de Conformidade para Sistemas de IA de Alto Risco

O Artigo 47.º - Declaração UE de conformidade do Regulamento da Inteligência Artificial (UE) 2024/1689 exige que os prestadores de sistemas de IA de risco elevado elaborem uma declaração UE de conformidade, assinada manual ou eletronicamente, que comprove que o sistema cumpre os requisitos legais aplicáveis. Esta declaração deve ser legível por máquina, conter as informações do Anexo V, estar disponível por pelo menos 10 anos e ser apresentada às autoridades competentes sempre que solicitado. Quando o sistema estiver sujeito a outras legislações da UE que também exijam declarações semelhantes, deve ser elaborada uma declaração única que abranja todas as obrigações relevantes. Ao emitir esta declaração, o prestador assume total responsabilidade pela conformidade do sistema e deve mantê-la atualizada sempre que necessário.

Artigo 48.º do AI Act: Marcação CE em Sistemas de IA de Alto Risco

O Artigo 48.º - Marcação CE do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece as regras para a aposição da marcação CE nos sistemas de IA de risco elevado, indicando que estes cumprem os requisitos legais aplicáveis. A marcação deve ser visível, legível e indelével, podendo ser digital quando o sistema for disponibilizado online, desde que seja facilmente acessível. Quando aplicável, deve incluir o número de identificação do organismo notificado responsável pela avaliação da conformidade. Caso o sistema esteja sujeito a outras legislações da UE que também exijam a marcação CE, esta deve indicar que o sistema cumpre todos os requisitos relevantes.

Artigo 49.º do AI Act: Registo de Sistemas de IA de Alto Risco na Base de Dados da UE

O Artigo 49.º - Registo do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece a obrigação de registar os sistemas de IA de risco elevado numa base de dados da União Europeia antes da sua colocação no mercado ou em serviço. Esta obrigação aplica-se tanto aos prestadores como, em certos casos, aos responsáveis pela implantação, incluindo autoridades públicas. O registo deve conter informações específicas sobre o sistema, conforme definido nos anexos do regulamento, e, em situações sensíveis como aplicação da lei ou controlo de fronteiras, deve ser feito numa secção segura e não pública da base de dados. O objetivo é garantir transparência, rastreabilidade e supervisão eficaz dos sistemas de IA de risco elevado em toda a UE.

Artigo 5.º do AI Act: Práticas de Inteligência Artificial Proibidas pela UE

O Artigo 5.º - Práticas de IA proibidas do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece restrições rigorosas para evitar o uso de IA de forma manipuladora ou prejudicial. Ele proíbe sistemas que explorem vulnerabilidades humanas, distorçam comportamentos, realizem avaliações sociais discriminatórias ou utilizem reconhecimento facial sem consentimento adequado. Essas medidas visam proteger os direitos fundamentais dos cidadãos e garantir que a IA seja utilizada de maneira ética e segura.

Artigo 50.º do AI Act: Transparência em Sistemas de IA e Conteúdos Gerados Artificialmente

O Artigo 50.º - Obrigações de transparência aplicáveis aos prestadores e responsáveis pela implantação de determinados sistemas de inteligência artificial do Regulamento da Inteligência Artificial (UE) 2024/1689 impõe que os prestadores informem claramente os utilizadores quando estão a interagir com um sistema de IA, exceto se isso for óbvio para uma pessoa razoavelmente informada. Exige também que conteúdos sintéticos (como texto, imagem, áudio ou vídeo) gerados por IA sejam identificáveis como tal, através de marcações legíveis por máquina. Além disso, obriga os responsáveis pela implantação de sistemas de reconhecimento de emoções, categorização biométrica ou geração de falsificações profundas a informar os indivíduos afetados e a garantir o cumprimento das normas de proteção de dados. Estas medidas visam assegurar a transparência, confiança e proteção dos direitos fundamentais dos cidadãos.

Artigo 51.º do AI Act: Classificação de Modelos de IA de Finalidade Geral com Risco Sistémico

O Artigo 51.º - Classificação de modelos de IA de finalidade geral como modelos de IA de finalidade geral com risco sistémico do Regulamento da Inteligência Artificial (UE) 2024/1689 define os critérios para identificar quando um modelo de IA de finalidade geral representa um risco sistémico. Um modelo é classificado como tal se tiver capacidades de elevado impacto, avaliadas com base em metodologias técnicas e parâmetros de referência, ou se atingir determinados limiares de capacidade computacional — como, por exemplo, um volume de treino superior a 10²⁵ operações de vírgula flutuante por segundo. A Comissão Europeia pode atualizar estes limiares e critérios através de atos delegados, tendo em conta a evolução tecnológica e científica. Esta classificação visa garantir uma vigilância reforçada sobre modelos com potencial de causar efeitos amplos e significativos na sociedade.

Artigo 52.º do AI Act: Procedimento para Classificação de Modelos de IA com Risco Sistémico

O Artigo 52.º - Procedimento do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece o processo formal para a classificação de modelos de IA de finalidade geral como modelos com risco sistémico, conforme previsto no artigo 51.º. A Comissão Europeia é responsável por notificar o fornecedor do modelo em questão, fornecendo uma justificação técnica detalhada e concedendo-lhe a oportunidade de apresentar observações. Após considerar essas observações, a Comissão pode adotar um ato de execução para formalizar a classificação. Este procedimento visa garantir transparência, imparcialidade e base científica na identificação de modelos com impacto significativo na sociedade.

Artigo 53.º do AI Act: Obrigações dos Prestadores de Modelos de IA de Finalidade Geral

O Artigo 53.º - Obrigações dos prestadores de modelos de IA de finalidade geral do Regulamento da Inteligência Artificial (UE) 2024/1689 define um conjunto de deveres para garantir a transparência, responsabilidade e segurança desses modelos. Os prestadores devem elaborar e manter atualizada a documentação técnica do modelo, fornecer informações claras aos integradores sobre as capacidades e limitações do modelo, cumprir a legislação da UE em matéria de direitos de autor e publicar um resumo dos dados utilizados no treino. Estas obrigações não se aplicam a modelos disponibilizados sob licenças abertas, exceto se forem classificados como modelos com risco sistémico. Além disso, os prestadores devem cooperar com as autoridades competentes e podem recorrer a códigos de conduta ou normas harmonizadas para demonstrar conformidade.

Artigo 54.º do AI Act: Mandatários dos Prestadores de Modelos de IA de Finalidade Geral

O Artigo 54.º - Mandatários dos prestadores de modelos de IA de finalidade geral do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece que os prestadores estabelecidos fora da União Europeia devem designar um mandatário legalmente estabelecido na UE antes de colocarem os seus modelos de IA de finalidade geral no mercado europeu. Este mandatário atua como ponto de contacto com as autoridades da UE, sendo responsável por verificar a conformidade documental, conservar registos técnicos por pelo menos 10 anos, cooperar com o Serviço para a IA e as autoridades competentes, e fornecer informações sempre que solicitado. O mandato deve ser formalizado por escrito e pode ser revogado se o mandatário considerar que o prestador está a violar o regulamento. Esta obrigação não se aplica a modelos de código aberto, salvo se forem classificados como de risco sistémico.

Artigo 55.º do AI Act: Regras para Prestadores de Modelos de IA com Risco Sistémico

O Artigo 55.º - Obrigações dos prestadores de modelos de IA de finalidade geral com risco sistémico do Regulamento da Inteligência Artificial (UE) 2024/1689 impõe requisitos reforçados aos prestadores desses modelos, dada a sua capacidade de gerar impactos significativos na sociedade e no mercado interno. Estes prestadores devem realizar avaliações técnicas rigorosas, identificar e mitigar riscos sistémicos, garantir cibersegurança robusta, comunicar incidentes graves às autoridades competentes e manter documentação técnica atualizada. Devem ainda permitir auditorias independentes, publicar resumos dos dados de treino e assegurar que os modelos não violam direitos fundamentais. Estas obrigações visam garantir que modelos altamente poderosos sejam desenvolvidos e utilizados de forma segura, ética e responsável.

Artigo 56.º do AI Act: Códigos de Prática para Modelos de IA de Finalidade Geral

O Artigo 56.º - Códigos de práticas do Regulamento da Inteligência Artificial (UE) 2024/1689 promove a criação de códigos de práticas voluntários para apoiar a aplicação eficaz do regulamento, especialmente no que diz respeito aos modelos de IA de finalidade geral e aos de risco sistémico. O Serviço para a IA e o Comité incentivam a participação de prestadores, autoridades nacionais, sociedade civil, academia e indústria na elaboração desses códigos, que devem abranger aspetos como a atualização da documentação técnica, a gestão de riscos sistémicos, a transparência dos dados de treino e a definição de objetivos claros com indicadores de desempenho. Estes códigos podem ser aprovados pela Comissão Europeia e ganhar validade geral na União, promovendo autorregulação responsável e alinhada com os valores da UE.