
Anexo VI do AI Act: Avaliação de Conformidade Baseada no Controlo Interno para Sistemas de IA
O Anexo VI - Procedimento de avaliação da conformidade baseado no controlo interno do Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece um método simplificado para que os fornecedores de sistemas de IA de risco elevado possam demonstrar conformidade sem recorrer a organismos externos. Este procedimento exige que o fornecedor verifique se o seu sistema de gestão da qualidade cumpre os requisitos do artigo 17.º, analise a documentação técnica para garantir que o sistema respeita os requisitos essenciais definidos no Capítulo III, Secção 2, e assegure que o processo de conceção, desenvolvimento e acompanhamento pós-comercialização está alinhado com os padrões exigidos. O objetivo é permitir uma autoavaliação estruturada e responsável, promovendo a conformidade regulatória com eficiência e rigor.
O Regulamento da Inteligência Artificial (UE) 2024/1689 estabelece um quadro jurídico harmonizado para o desenvolvimento, comercialização e utilização de sistemas de IA na União Europeia. Com uma abordagem baseada no risco, proíbe práticas inaceitáveis, impõe obrigações rigorosas para sistemas de risco elevado e promove a transparência, supervisão humana e responsabilidade nos modelos de IA de finalidade geral. O regulamento visa garantir que a IA seja segura, ética e centrada no ser humano, protegendo os direitos fundamentais e incentivando a inovação responsável em todo o território europeu.
Anexos
ANEXO VI - Procedimento de avaliação da conformidade baseado no controlo interno
1. O procedimento de avaliação da conformidade baseado no controlo interno é o descrito nos pontos 2, 3 e 4.
2. O prestador verifica se o sistema de gestão da qualidade aplicado se encontra em conformidade com os requisitos do artigo 17.o.
3. O prestador analisa as informações contidas na documentação técnica para determinar a conformidade do sistema de IA com os requisitos essenciais aplicáveis estabelecidos no capítulo III, secção 2.
4. O prestador também verifica se o processo de conceção e desenvolvimento do sistema de IA e do seu acompanhamento pós-comercialização a que se refere o artigo 72.o estão de acordo com a documentação técnica.
Como startups aplicam este procedimento na prática
- Integração com sistemas de gestão da qualidade existentes: Startups adaptam metodologias ágeis (como Scrum ou DevOps) para incluir checkpoints de conformidade com os requisitos do regulamento, como supervisão humana e explicabilidade algorítmica.
- Documentação técnica simplificada: Utilizam ferramentas como Notion, GitHub ou Confluence para manter registos claros sobre arquitetura do sistema, dados de treino, testes e medidas de mitigação de risco.
- Auditorias internas regulares: Pequenas equipas realizam revisões mensais dos sistemas de IA, verificando se continuam a cumprir os requisitos do Capítulo III, Secção 2 — como robustez, segurança e proteção de dados.
- Monitorização pós-comercialização automatizada: Startups implementam dashboards com métricas de desempenho e alertas para identificar falhas ou desvios éticos, facilitando a correção rápida e a rastreabilidade.
- Formação interna sobre conformidade: Algumas recorrem a cursos online ou parcerias com universidades para capacitar a equipa sobre os requisitos legais e éticos da IA.
Um exemplo útil é o guia user-friendly do Regulamento da IA, que ajuda startups a interpretar os anexos e artigos de forma acessível, incluindo o Anexo VI. Além disso, programas como o Microsoft for Startups Founders Hub oferecem apoio técnico e orientação para startups que querem desenvolver IA responsável e conforme.
Inteligência Artificial, AI Act, Regulamento da Inteligência Artifical
- Criado em .
Termos e condições
Receber notificações de novos comentários por email
Avisar
Os meus comentários