Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » Manual de Uso do AI Act para Empresas
    Regulamentação

    Manual de Uso do AI Act para Empresas

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoJaneiro 28, 2026Updated:Março 31, 2026Sem comentários34 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    Fonte: Governo dos Países Baixos (2025), “AI Act Guide – Version 1.1”, setembro de 2025. https://www.government.nl/binaries/government/documenten/publications/2025/09/04/ai-act-guide/ai-act-guide.pdf Este artigo é uma síntese comentada do documento original. O conteúdo integral pertence ao Governo dos Países Baixos.

    Disclaimer do documento original:

    “Este guia foi preparado como uma ferramenta para fornecer uma visão fácil dos principais aspectos do AI Act. Nenhum direito pode ser derivado do conteúdo deste guia. O texto legal do AI Act sempre prevalece.

    Este guia foi elaborado pelo Ministério dos Assuntos Económicos dos Países Baixos. Versão 1.1, SET/2025.”

    Por Luís Nuno Perdigão

    28/JAN/2026

    Sobre este Guia

    Objetivo

    Se desenvolve sistemas de IA ou está a considerar utilizá-los na sua organização, provavelmente entrará em contacto com o AI Act. Este guia foi preparado para fornecer uma visão clara dos aspectos-chave da regulamentação.

    Feedback

    Por favor, envie qualquer feedback sobre este guia para ai-verordening@minezk.nl. O seu feedback será utilizado para melhorar futuras edições do guia.

    Versão Atualizada

    Se está a ler uma versão em papel deste guia, visite ondernemersplein.nl para a versão mais recente. O site também fornece referências às mais recentes orientações da Comissão Europeia.

    O AI Act

    O AI Act é um extenso documento legal que regula a Inteligência Artificial (IA) para toda a União Europeia (UE). Contém regras para o desenvolvimento e uso responsáveis de IA por empresas, governos e outras organizações.

    Objetivo

    Proteger a segurança, saúde e direitos fundamentais das pessoas naturais, garantindo que as organizações possam ter certeza de que a IA que utilizam é responsável.

    Implementação

    A regulamentação será introduzida em fases, com a maioria aplicável a partir de meados de 2026. Alguns sistemas de IA já foram proibidos desde fevereiro de 2025.

    Texto Completo

    Este guia lista as disposições mais importantes do AI Act, mas o texto completo da regulamentação está disponível online.

    O que significa o AI Act para a sua organização?

    Dependendo do tipo de sistema de IA e do uso que a organização faz desse sistema, serão impostos requisitos ao seu desenvolvimento e uso. Se os requisitos são impostos dependerá, entre outros, do risco que o sistema de IA representa para a segurança, saúde e direitos fundamentais.

    Requisitos diferentes serão impostos às organizações que desenvolvem um sistema de IA ou o têm desenvolvido em comparação com organizações que utilizam IA.

    Risco

    O nosso sistema (de IA) está abrangido por uma das categorias de risco?

    IA

    O nosso sistema é classificado como ‘IA’ de acordo com o AI Act?

    Papel

    Somos o fornecedor ou utilizador do sistema de IA?

    Obrigações

    Que obrigações devemos cumprir?

    Nota: Muitos outros guias e planos passo a passo começam no passo 2 (o nosso sistema é ‘IA’) em vez do passo 1 (categorias de risco). Afinal, se um sistema de IA não se qualifica como ‘IA’, não há requisitos sujeitos ao AI Act. No entanto, mesmo para sistemas que não são categorizados como IA de acordo com o AI Act, é importante ter uma ideia clara dos riscos dos propósitos para os quais são utilizados. É por isso que neste Guia do AI Act, optámos por começar com as categorias de risco.

    Passo 1. (Risco) O nosso sistema (de IA) está abrangido por uma das categorias de risco?

    Todos os sistemas de IA estão sujeitos ao AI Act, mas dependendo do risco, diferentes requisitos são impostos a diferentes categorias de sistema. O risco é determinado pela aplicação pretendida ou pelo produto para o qual o sistema de IA está a ser desenvolvido, vendido e utilizado:

    Práticas de IA Proibidas

    Estes sistemas de IA não podem ser colocados no mercado, postos em serviço ou utilizados para determinadas práticas.

    Sistemas de IA de Alto Risco

    Estes sistemas de IA devem satisfazer uma série de requisitos para mitigar os riscos antes de poderem ser colocados no mercado ou utilizados.

    Outros requisitos também se aplicarão a modelos e sistemas de IA capazes de realizar determinadas tarefas:

    Modelos e sistemas de IA de uso geral

    Estes modelos e sistemas estarão sujeitos a requisitos específicos de informação. Em certos casos, outros requisitos devem ser cumpridos para mitigar riscos.

    IA Generativa e Chatbots

    Estas aplicações estarão sujeitas a requisitos específicos de transparência, dependendo se o sistema é ou não um sistema de alto risco.

    O mesmo sistema de IA pode, por vezes, ser abrangido por múltiplas categorias. Um chatbot, por exemplo, pode ser implementado para uma aplicação de alto risco e/ou baseado num modelo de IA de uso geral.

    1.1. Sistemas de IA Proibidos

    Certas práticas de IA trazem um risco inaceitável para as pessoas e a sociedade. Estas práticas foram, portanto, proibidas desde fevereiro de 2025. Isto significa que estes sistemas não podem ser colocados no mercado, postos em serviço ou utilizados para estas práticas. Estas proibições aplicam-se tanto aos fornecedores como aos utilizadores desde 2 de fevereiro de 2025.

    Manipulação do comportamento humano

    Sistemas destinados a manipular o comportamento humano com vista a restringir a livre escolha dos indivíduos e que podem resultar em danos significativos para essas pessoas.

    Exploração de vulnerabilidades

    Sistemas que exploram as vulnerabilidades das pessoas devido à sua idade, deficiência ou situação social ou económica específica e que são suscetíveis de causar danos significativos a essas pessoas.

    Pontuação social

    Sistemas que elaboram um sistema de pontos de recompensas e punições baseado no comportamento social ou traços de personalidade, conhecidos como “pontuação social”, que podem levar a tratamento prejudicial ou desfavorável.

    Avaliações de risco criminal

    Proibição de sistemas para fazer avaliações de risco para prever o risco de uma pessoa cometer um crime, baseado apenas em perfis ou personalidade ou outros traços.

    Sistemas de IA Proibidos (continuação)

    Bases de dados de reconhecimento facial

    Sistemas que criam ou expandem bases de dados de reconhecimento facial através da raspagem não direcionada de imagens faciais da internet ou filmagens de CCTV.

    Reconhecimento de emoções

    Sistemas para reconhecimento de emoções no local de trabalho e em instituições de ensino, exceto quando destinados a razões médicas ou de segurança.

    Categorização biométrica

    Sistemas utilizados para categorizar pessoas individuais usando sistemas de categorização biométrica em certas categorias sensíveis como raça e orientação sexual.

    Identificação biométrica remota em tempo real

    O uso de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei. Existem algumas exceções em casos em que o uso é estritamente necessário.

    1.2. Sistemas de IA de Alto Risco

    Sistemas de IA de alto risco podem resultar em riscos para a saúde, segurança ou direitos fundamentais das pessoas naturais, como o direito à privacidade e o direito de não ser discriminado. Ao mesmo tempo, estes sistemas também podem ter um impacto positivo nas pessoas naturais e organizações, se forem confiáveis e os riscos forem mitigados.

    A partir de agosto de 2026, os sistemas de IA de alto risco devem cumprir uma variedade de requisitos antes de serem colocados no mercado, utilizados ou postos em serviço. Isto significa que durante o desenvolvimento do sistema, os fornecedores devem garantir que o sistema satisfaz estes requisitos antes de ser colocado no mercado ou utilizado pela primeira vez.

    Uma parte profissional que utiliza o sistema de IA sujeito à sua responsabilidade pessoal é considerada um utilizador. Os utilizadores também estão sujeitos a obrigações com o objetivo de mitigar riscos resultantes do uso específico do sistema.

    Produtos de Alto Risco

    Sistemas de IA que estão direta ou indiretamente também sujeitos a uma seleção de regulamentos de produtos existentes. Por exemplo, um sistema de IA como componente de segurança de um elevador ou um sistema de IA que em si mesmo é um dispositivo médico.

    Aplicações de Alto Risco

    Sistemas de IA desenvolvidos e implementados para aplicações específicas em “áreas de aplicação de alto risco”. Estas são oito áreas de aplicação para IA que vão desde IA para aplicação da lei até IA na educação.

    As obrigações para esta categoria também se aplicam a produtos de alto risco a partir de 2 de agosto de 2027 e a áreas de aplicação de alto risco a partir de 2 de agosto de 2026.

    IA de Alto Risco como (elemento de segurança de) produtos existentes

    Estes são produtos já regulamentados na UE. Um produto é considerado como representando um risco se, de acordo com os regulamentos de produtos existentes, for necessária a aprovação de terceiros antes de o produto poder ser colocado no mercado (avaliação de conformidade). Se a IA for um componente relacionado com a segurança do produto de risco ou se o próprio produto de risco for um sistema de IA, é considerado como IA de alto risco.

    Produtos Regulamentados

    Além disso, o AI Act contém uma lista adicional de produtos também considerados como IA de alto risco, mas que não estão sujeitos a quaisquer requisitos diretos sob o AI Act. No entanto, num momento posterior, os requisitos do AI Act serão utilizados para esclarecer a legislação específica de produtos aplicável a estes produtos.

    Produtos Adicionais Considerados IA de Alto Risco

    Estes produtos estão sujeitos à seguinte legislação de produtos:

    Segurança da Aviação Civil

    Regulamento (CE) 300/2008 e Regulamento (UE) 2018/1139

    Veículos de Duas ou Três Rodas e Quadriciclos

    Regulamento (UE) 168/2013

    Veículos Agrícolas e Florestais

    Regulamento (UE) 167/2013

    Equipamentos Marítimos

    Diretiva 2014/90/UE

    Interoperabilidade do Sistema Ferroviário na UE

    Diretiva (UE) 2016/797

    Veículos a Motor e Reboques

    Regulamento (UE) 2018/858 e Regulamento (UE) 2019/2144

    Ainda não se sabe quando isto terá lugar, e será diferente de produto para produto.

    Áreas de Aplicação de Alto Risco

    Um sistema de IA está no âmbito de uma das áreas de aplicação de alto risco se o fornecedor pretendeu o uso do sistema de IA numa dessas áreas. Na documentação do sistema de IA, o fornecedor deve declarar explicitamente o propósito, incluindo as instruções de uso, materiais publicitários e qualquer outra documentação técnica.

    Nota: Mesmo que o fornecedor não tenha pretendido que o sistema de IA fosse de alto risco quando foi colocado no mercado, pode ainda acontecer que, na prática, um utilizador use o sistema para uma das áreas de aplicação de alto risco. Nesse caso, o utilizador é visto como o fornecedor, e como tal torna-se responsável pelos requisitos impostos aos sistemas de IA de alto risco.

    Existem oito áreas de aplicação de alto risco. Isto não significa que todos os sistemas de IA abrangidos pelas áreas de aplicação muitas vezes descritas de forma abstrata sejam necessariamente de alto risco. Um número de aplicações específicas está listado para cada área.

    Dica: Primeiro verifique se o seu sistema de IA está abrangido por uma das oito áreas de aplicação e depois determine se o seu sistema de IA é um dos sistemas de IA descritos nessa categoria. Só nesse caso está a lidar com um sistema de IA de alto risco que deve cumprir os requisitos.

    Áreas de Aplicação de Alto Risco – Biometria e Infraestrutura Crítica

    1. Biometria

    2. Infraestrutura Crítica

    Áreas de Aplicação de Alto Risco – Educação e Emprego

    3. Educação e formação profissional

    4. Emprego, gestão de trabalhadores e acesso ao autoemprego

    Áreas de Aplicação de Alto Risco – Serviços Essenciais

    5. Serviços privados essenciais e serviços públicos e benefícios

    Assistência Pública

    Sistemas para avaliar a elegibilidade para benefícios e serviços de assistência pública essenciais.

    Avaliação de Crédito

    Sistemas para avaliar a credibilidade ou pontuação de crédito de pessoas naturais, a menos que usados para fins de deteção de fraude financeira.

    Seguros

    Sistemas para avaliação de risco e precificação em relação a seguros de vida e saúde.

    Emergências

    Sistemas para avaliar chamadas de emergência e priorizar o envio de serviços de primeiros socorros de emergência e sistemas de triagem de pacientes de cuidados de saúde de emergência.

    Áreas de Aplicação de Alto Risco – Aplicação da Lei

    6. Aplicação da lei

    Sistemas para aplicação da lei para avaliar o risco de uma pessoa natural se tornar vítima de crimes.

    Sistemas para aplicação da lei a serem implementados como polígrafos ou ferramentas similares.

    Sistemas para aplicação da lei para avaliar a confiabilidade das evidências.

    Sistemas para aplicação da lei para avaliar ou prever o risco de uma pessoa natural cometer crimes ou para avaliar comportamento criminal passado de pessoas naturais ou grupos.

    Sistemas para aplicação da lei para a criação de perfis de pessoas naturais no curso de deteção, investigação ou acusação de crimes.

    Áreas de Aplicação de Alto Risco – Migração e Justiça

    7. Migração, asilo e controle de fronteiras

    8. Administração da justiça e processos democráticos

    Exceções às áreas de aplicação de alto risco

    Existem algumas exceções específicas em que os sistemas de IA são abrangidos por uma das áreas de aplicação, mas que não são vistos como IA de alto risco. Isto aplica-se quando não há risco significativo para a saúde, segurança ou direitos humanos fundamentais.

    Por exemplo, aplica-se se um sistema de IA não tem impacto significativo no resultado de uma decisão, por exemplo porque o sistema se destina a:

    Tarefas Processuais

    Realizar uma tarefa processual estreita

    Melhoria de Resultados

    Melhorar o resultado de uma atividade humana previamente concluída

    Deteção de Padrões

    Detetar padrões de tomada de decisão ou desvios de padrões de tomada de decisão anteriores e não destinado a substituir ou influenciar a avaliação humana previamente concluída

    Tarefas Preparatórias

    Realizar uma tarefa preparatória para uma avaliação relevante para uma das áreas de aplicação de alto risco

    Deve-se notar que um sistema de IA usado para criação de perfis de pessoas naturais não pode fazer uso desta exceção. Se determinou que o seu sistema de IA (não de criação de perfis) está sujeito a uma das exceções, deve registar este facto e registar o sistema de IA na base de dados da UE para sistemas de IA de alto risco.

    1.3. Modelos e sistemas de IA de uso geral

    Um modelo de IA é um componente essencial de um sistema de IA, mas não é um sistema de IA em si. Isto requer mais elementos, por exemplo, uma interface de utilizador.

    Modelo de IA de uso geral

    Um modelo de IA de uso geral (General Purpose AI) pode realizar com sucesso uma ampla gama de tarefas diferentes e, como tal, pode ser integrado numa variedade de sistemas de IA. Estes modelos são frequentemente treinados em grandes volumes de dados usando técnicas de auto-supervisão.

    Impacto Potencial

    A ampla implementabilidade destes modelos através de sistemas de IA específicos significa que são usados para uma ampla gama de aplicações. Estas podem incluir aplicações de alto risco. Devido ao potencial grande impacto destes modelos, a partir de agosto de 2025, devem cumprir vários requisitos.

    Sistema de IA de uso geral

    Se um sistema de IA é baseado num modelo de IA de uso geral que em si pode realmente servir múltiplos propósitos, então é um sistema de IA de uso geral.

    As obrigações aplicáveis a esta categoria aplicam-se a partir de 2 de agosto de 2025.

    1.4. IA Generativa e Chatbots

    Certos sistemas de IA estão sujeitos a obrigações de transparência. Estes são sistemas com os quais as pessoas naturais frequentemente interagem diretamente. Deve, portanto, ficar claro para estas pessoas naturais que estão a interagir com IA ou que o conteúdo foi manipulado ou gerado.

    IA Generativa

    Sistemas usados para gerar áudio, imagens, vídeo ou texto.

    Chatbots

    Sistemas feitos para interação.

    As obrigações aplicáveis a esta categoria aplicam-se a partir de 2 de agosto de 2026.

    1.5. Outra IA

    Os sistemas de IA além das categorias referidas acima não são obrigados a cumprir requisitos de acordo com o AI Act.

    Mas note: se como utilizador fizer uso de sistemas de IA de “outra categoria” para uma aplicação de alto risco conforme referido no AI Act, automaticamente torna-se um sistema de IA de alto risco e deve cumprir os requisitos do AI Act como fornecedor do sistema.

    É importante estar ciente de que mesmo sistemas que não se enquadram nas categorias específicas do AI Act podem ainda representar riscos e devem ser geridos adequadamente.

    Passo 2. O nosso sistema é classificado como ‘IA’ de acordo com o AI Act?

    O AI Act impõe regulamentos aos sistemas de IA. Existem diferentes ideias sobre o que é IA e o que não é IA. O AI Act oferece a seguinte definição, que se destina a demarcar a natureza da IA como um produto no mercado:

    “Um sistema de IA significa um sistema baseado em máquina que é projetado para operar com níveis variáveis de autonomia e que pode exibir adaptabilidade após a implementação e que, para objetivos explícitos ou implícitos, infere, a partir da entrada que recebe, como gerar saídas como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.”

    Estes diferentes elementos podem estar presentes tanto na fase de desenvolvimento quanto na fase de uso.

    O que significa a definição de IA?

    Autonomia

    Este elemento é satisfeito se a autonomia estiver presente num sistema até certo ponto, mesmo que muito limitada. Sistemas sem qualquer forma de autonomia são sistemas que só operam se ações humanas ou intervenções forem necessárias para todas as ações desse sistema.

    Adaptabilidade

    Afirma-se que um sistema “pode” exibir adaptabilidade após a implementação. Embora a adaptabilidade não seja, portanto, identificada como um elemento decisivo, sua presença é uma indicação de que o sistema é um sistema de IA.

    Capacidade de inferir

    Isto refere-se não apenas à geração de saída durante a “fase de uso”, mas também à capacidade de um sistema de IA inferir modelos e/ou algoritmos a partir de dados durante a fase de desenvolvimento.

    A Comissão Europeia emitiu uma diretriz para esclarecer ainda mais a definição de IA. Pode encontrar a versão mais recente desta diretriz em ondernemersplein.nl.

    O que está abrangido pela definição de IA?

    Sistemas que utilizam aprendizagem automática

    Sistemas em que o sistema aprende como certos objetivos podem ser alcançados com base em dados. Exemplos de aprendizagem automática são:

    Sistemas que utilizam abordagens baseadas em conhecimento e lógica

    Sistemas que possibilitam a aprendizagem, raciocínio ou modelagem com base em conhecimento determinado ou uma representação simbólica de uma tarefa a ser resolvida. Exemplos destas abordagens são:

    O que NÃO está abrangido pela definição de IA?

    Sistemas baseados em regras

    Sistemas baseados em regras estabelecidas exclusivamente por pessoas naturais para conduzir ações automáticas. Alguns destes sistemas podem, até certo ponto, derivar como gerar saída a partir da entrada recebida, mas ainda estão além da definição porque só são capazes de analisar padrões até um ponto limitado ou são incapazes de adaptar autonomamente a sua saída.

    Exemplos podem ser sistemas para otimização matemática melhorada, processamento de dados padrão, sistemas baseados em heurísticas clássicas e sistemas de previsão simples.

    Sistemas com intervenção humana total

    Sistemas projetados para serem usados com intervenção humana total. Estes sistemas não operam com um nível mínimo de autonomia.

    Se o seu sistema não é considerado IA sob o AI Act, mas está abrangido por uma das categorias de risco, é importante ter uma discussão dentro da sua organização sobre até que ponto o sistema ainda representa riscos e mitigar estes riscos cumprindo com (específicos) requisitos do AI Act.

    Sistemas fora do âmbito do AI Act podem, no entanto, ainda ter que cumprir requisitos de outra legislação e regulamentos.

    Passo 3. Somos o fornecedor ou utilizador do sistema de IA?

    Uma vez que tenha determinado a categoria de risco que abrange o seu sistema de IA e se o seu sistema de IA está de facto sujeito ao AI Act, deve então determinar se é o fornecedor ou utilizador.

    Fornecedor

    Uma pessoa ou organização que desenvolve ou encomenda o desenvolvimento de um sistema ou modelo de IA e o coloca no mercado ou coloca o sistema de IA em serviço.

    Utilizador

    Uma pessoa ou organização que usa um sistema de IA sob sua autoridade pessoal. Isto não inclui uso não profissional.

    A descrição dos requisitos no passo 4 descreve para cada categoria de risco quais obrigações se aplicam aos fornecedores e utilizadores. Cada um é obrigado a cumprir outras obrigações. As obrigações mais rigorosas aplicam-se aos fornecedores.

    Nota: Como utilizador, em certos casos, também pode tornar-se fornecedor de um sistema de IA de alto risco, de modo que é obrigado a cumprir as obrigações de alto risco para fornecedores. Isto é explicado mais detalhadamente nos passos 4.2. IA de alto risco e 4.3. Modelos e sistemas de IA de uso geral.

    Passo 4. Que obrigações devemos cumprir?

    4.1. Práticas de IA Proibidas

    Estas práticas de IA resultam em risco inaceitável e, portanto, foram proibidas desde 2 de fevereiro de 2025. Isto significa que os sistemas de IA não podem ser colocados no mercado ou usados para estas práticas. Estas proibições aplicam-se tanto aos fornecedores quanto aos utilizadores.

    Existem exceções claramente demarcadas à proibição do uso de sistemas de identificação biométrica remota em tempo real em espaços acessíveis ao público para fins de aplicação da lei, e o uso desses sistemas deve ser fornecido com uma base na legislação nacional. Também existem garantias adicionais relacionadas com a implementação destes sistemas.

    4.2. IA de Alto Risco

    A maioria dos requisitos do AI Act aplicar-se-á a sistemas de IA de alto risco. Os fornecedores devem cumprir várias obrigações, tais como:

    Sistema de gestão de risco

    Dados e governança de dados

    Documentação técnica

    Manutenção de registos (logs)

    Transparência e informação

    Supervisão humana

    Precisão, robustez e cibersegurança

    Sistema de gestão de qualidade

    Monitorização

    Se como fornecedor cumprir ou acreditar que cumpre todas estas obrigações, será obrigado a realizar uma avaliação de conformidade. Em certos casos, pode realizar esta avaliação por si mesmo, enquanto em outros casos deve ser realizada por terceiros em seu nome.

    Os utilizadores também devem cumprir várias obrigações. Obrigações adicionais aplicam-se a organizações governamentais que usam sistemas de IA.

    Requisitos para sistemas de IA de alto risco – Gestão de Risco

    1. Sistema de gestão de risco

    Várias etapas devem ser tomadas para este sistema:

    Identificação e análise de riscos previsíveis que o sistema pode representar para a saúde, segurança ou direitos fundamentais.

    Tomar medidas adequadas de gestão de risco para garantir que os riscos que permanecem após a implementação destas medidas sejam aceitáveis.

    Os seguintes pontos devem ser levados em consideração:

    Requisitos para sistemas de IA de alto risco – Dados

    2. Dados e governança de dados

    Diferentes requisitos são impostos aos conjuntos de dados usados para treinar, validar e testar sistemas de IA de alto risco.

    Gestão de dados

    Gestão de dados apropriada ao propósito do sistema de IA, incluindo:

    Representatividade

    Para o propósito para o qual são usados, os conjuntos de dados devem ser suficientemente representativos e, tanto quanto possível, livres de erros. O contexto em que o sistema de IA será usado também deve ser levado em consideração; por exemplo, o contexto geográfico ou social.

    Dados pessoais sensíveis

    Sujeito a uma série de condições rigorosas, categorias especiais de dados pessoais (um termo do Regulamento Geral de Proteção de Dados) podem ser processadas como meio de lidar com vieses.

    Requisitos para sistemas de IA de alto risco – Documentação

    3. Documentação técnica

    A documentação técnica deve demonstrar que o sistema de IA de alto risco cumpre os requisitos estabelecidos no AI Act. A documentação técnica deve, entre outros, incluir:

    Uma descrição geral do sistema de IA, incluindo o propósito pretendido do sistema, o nome do fornecedor e instruções de uso;

    Uma descrição detalhada dos elementos do sistema de IA e do processo de desenvolvimento para esse sistema, incluindo as etapas no desenvolvimento, as escolhas de design, a saída esperada do sistema, o sistema de gestão de risco e os conjuntos de dados usados;

    Informações detalhadas sobre a monitorização, operação e controle do sistema de IA, incluindo o grau de precisão a nível individual e geral, riscos, o sistema de avaliação durante o uso e medidas para monitorização e supervisão humana;

    Uma visão geral das normas aplicáveis;

    A declaração de conformidade da UE (a marca CE).

    Empresas PME podem registar a sua documentação técnica de forma simplificada. Num momento futuro, a Comissão Europeia emitirá um formulário relevante.

    Requisitos para sistemas de IA de alto risco – Registos e Transparência

    4. Manutenção de registos (logs)

    Logs automáticos devem ser mantidos durante o ciclo de vida do sistema de IA para que os riscos possam ser rastreados em tempo hábil e a operação do sistema possa ser monitorizada.

    Estes logs devem ser armazenados por pelo menos seis meses. Pelo menos os seguintes eventos devem ser registados:

    5. Transparência e informação

    O fornecedor do sistema de IA sabe como o sistema opera e como deve ser usado. Por essa razão, o fornecedor deve garantir que o sistema de IA seja suficientemente transparente para que os utilizadores entendam como podem usar corretamente a saída do sistema.

    Com isso em mente, instruções de uso devem ser elaboradas, que incluam pelo menos os seguintes pontos:

    Requisitos para sistemas de IA de alto risco – Supervisão Humana

    6. Supervisão humana

    Os sistemas de IA de alto risco devem ser projetados pelo fornecedor de tal forma que durante o uso possam ser efetivamente supervisionados por pessoas naturais para mitigar os riscos para as pessoas naturais. A supervisão humana deve ser dependente do contexto – quanto maiores os riscos, mais rigorosa deve ser a supervisão.

    As medidas para supervisão podem ser de natureza técnica (por exemplo, uma interface homem-máquina clara), ou medidas que devem ser realizadas pelo utilizador (por exemplo, um curso obrigatório para o seu pessoal).

    O objetivo final destas medidas é garantir que as pessoas naturais que usam o sistema de IA sejam capazes do seguinte:

    Compreensão

    Elas entendem as capacidades do sistema e podem monitorizar o seu funcionamento;

    Consciência

    Elas estão cientes do viés de automação;

    Interpretação

    Elas podem interpretar corretamente e, se necessário, ignorar ou substituir a saída;

    Controle

    Elas podem interromper o sistema.

    Requisitos para sistemas de IA de alto risco – Segurança

    7. Precisão, robustez e cibersegurança

    Os sistemas de IA de alto risco devem oferecer um nível apropriado de precisão, robustez e cibersegurança. Para alcançar isso, benchmarks e métodos de medição são desenvolvidos pela Comissão Europeia.

    Pelo menos as seguintes medidas devem ser mencionadas:

    Prevenção de Erros

    Medidas técnicas e organizacionais para prevenir erros que ocorrem na interação entre o sistema de IA e pessoas naturais;

    Robustez

    Soluções para robustez, como backups ou medidas de segurança no caso de defeitos;

    Mitigação de Influências

    Remoção ou mitigação de influências negativas do sistema, limitando loops de feedback;

    Cibersegurança

    Cibersegurança que impede o acesso não autorizado de terceiros, rastreando, respondendo e lidando com ataques. Estes são ataques destinados a envenenamento de dados, envenenamento de modelos, adaptação de entrada ou obtenção de dados confidenciais.

    Requisitos para sistemas de IA de alto risco – Qualidade e Monitorização

    8. Sistema de gestão de qualidade

    O sistema de gestão de qualidade deve garantir que os requisitos do AI Act sejam cumpridos. Quão extenso o sistema de gestão de qualidade deve ser dependerá do tamanho da organização. Por exemplo, documentando o seguinte:

    9. Monitorização

    Assim que um sistema de IA tenha sido colocado no mercado ou esteja em uso, os fornecedores devem monitorizar o sistema com base em dados de uso, determinando assim se o sistema continua a cumprir os requisitos do AI Act. Para este fim, os fornecedores devem elaborar um plano de monitorização.

    Se o fornecedor de um sistema de IA de alto risco descobrir que o sistema já não funciona em conformidade com o AI Act, medidas corretivas devem ser tomadas imediatamente para corrigir a situação. Isto pode até incluir a retirada do sistema, se necessário.

    Incidentes graves envolvendo o sistema de IA devem ser relatados às autoridades de vigilância.

    Obrigações adicionais para fornecedores de IA de alto risco

    Registo

    O registo do sistema de IA de alto risco na base de dados da UE.

    Contacto

    Os detalhes de contacto do fornecedor devem ser registados com o sistema de IA.

    Documentação

    A documentação técnica, documentação relativa ao sistema de gestão de qualidade e documentação relativa à avaliação de conformidade devem ser mantidas por 10 anos.

    Obrigações para utilizadores de sistemas de IA de alto risco

    Não só os fornecedores, mas também os utilizadores de sistemas de IA de alto risco estão sujeitos a obrigações. Afinal, eles são as partes que controlam como o sistema de IA é usado na prática e, como tal, têm um grande impacto nos riscos que podem ocorrer.

    Os utilizadores devem:

    Mais obrigações para utilizadores de IA de alto risco

    Se o utilizador tiver razão para acreditar que o sistema já não cumpre os requisitos do AI Act, o utilizador deve informar devidamente o fornecedor e cessar o uso do sistema;

    Informar o fornecedor e as autoridades de vigilância de possíveis riscos e incidentes graves que tenham ocorrido;

    Manter o livro de registo sob seu controle por pelo menos seis meses;

    Informar a representação dos trabalhadores se o sistema de IA for implementado no local de trabalho;

    Informar devidamente as pessoas se decisões forem tomadas sobre pessoas naturais usando o sistema de IA de alto risco;

    Se for feito uso de IA para reconhecimento de emoções ou categorização biométrica, as pessoas naturais em relação às quais o sistema é usado devem ser devidamente informadas.

    Obrigações específicas para organizações governamentais como utilizadores

    Além das obrigações descritas acima, as organizações governamentais devem cumprir uma série de obrigações adicionais:

    4.3. Modelos e sistemas de IA de uso geral

    Obrigações para fornecedores de modelos de IA de uso geral

    Modelos de IA de uso geral podem ser integrados em todos os tipos de diferentes sistemas de IA. É essencial que os fornecedores destes sistemas de IA saibam o que o modelo de IA é e não é capaz de fazer. Requisitos específicos também são impostos ao treinamento destes modelos porque o treinamento frequentemente faz uso de grandes conjuntos de dados. Os fornecedores destes modelos devem:

    Documentação

    Elaborar documentação técnica do modelo, incluindo o processo de treinamento e teste e os resultados e avaliação;

    Informação

    Elaborar e manter atualizada informação e documentação para fornecedores de sistemas de IA que pretendam integrar o modelo no seu sistema de IA. A informação deve fornecer uma boa compreensão das capacidades e limitações do modelo de IA e deve permitir que o fornecedor do sistema de IA cumpra as obrigações do AI Act.

    Direitos Autorais

    Elaborar uma política para garantir que treinem o modelo sem infringir os direitos autorais de pessoas naturais e organizações;

    Transparência

    Elaborar e publicar um resumo suficientemente detalhado sobre o conteúdo usado para treinar o modelo de IA.

    Fornecedores de modelos de código aberto não são obrigados a cumprir as duas primeiras obrigações (documentação técnica e elaboração de informações para fornecedores a jusante).

    Obrigações para fornecedores de modelos de IA de uso geral com riscos sistémicos

    Em certos casos, modelos de IA de uso geral podem gerar riscos sistémicos. Isto aplica-se se o modelo tiver alta capacidade de impacto, por exemplo devido ao escopo do modelo ou devido a impacto negativo (potencial) na saúde pública, segurança, direitos fundamentais ou sociedade como um todo.

    Isto é pelo menos assumido se pelo menos 1025 operações de ponto flutuante (FLOPs) forem usadas para treinar o modelo. Com base em critérios específicos, a Comissão Europeia também pode determinar que o modelo tem um impacto importante similar de alguma outra forma.

    Estes modelos devem:

    Cumprir as obrigações para modelos de IA de uso geral;

    Implementar avaliações de modelo para mapear os riscos sistémicos;

    Mitigar riscos sistémicos;

    Registar informações sobre incidentes graves e relatar esses incidentes ao Gabinete de IA;

    Garantir cibersegurança apropriada.

    Nota: estas obrigações só se aplicam aos maiores modelos de IA. Fornecedores destes modelos com riscos sistémicos não podem apelar a uma exceção para código aberto.

    Direitos ao integrar modelos de IA de uso geral

    Que direitos tem se integrar um modelo de IA de uso geral no seu sistema de IA (de alto risco)?

    Como indicado anteriormente, deve pelo menos receber informações e documentação para permitir que determine por si mesmo como pode fazer uso do modelo no seu sistema de IA para o propósito escolhido. Se incluir o modelo num sistema de IA de alto risco, como fornecedor, deve então ainda cumprir as obrigações do AI Act.

    Como deve lidar com sistemas de IA de uso geral?

    Como indicado em 1.3. Modelos de IA de uso geral e sistemas de IA, também existem sistemas de IA que podem servir múltiplos propósitos. Tome, por exemplo, os amplamente conhecidos chatbots de IA.

    Nota: Se implementar estes sistemas para propósitos de alto risco, de acordo com o AI Act, você mesmo se torna um fornecedor de um sistema de IA de alto risco. Então, cabe a si cumprir as obrigações aplicáveis. Nesta situação, é muito difícil cumprir as obrigações para um sistema de IA de alto risco, o que significa que pode correr o risco de receber uma penalidade.

    4.4. IA Generativa e Chatbots

    Para garantir que as pessoas naturais saibam se estão a falar com um sistema de IA ou estão a ver conteúdo gerado por IA, obrigações de transparência são impostas à IA generativa e chatbots.

    Regras para fornecedores de chatbots

    Fornecedores de sistemas projetados para interação direta com pessoas naturais devem garantir que estas pessoas sejam informadas de que estão a interagir com um sistema de IA.

    Regras para fornecedores de IA generativa

    Fornecedores de sistemas que geram áudio, imagem, vídeo ou conteúdo de texto devem garantir que a saída seja marcada num formato legível por máquina para que a saída possa ser detetada como artificialmente gerada ou manipulada.

    Regras para utilizadores de IA generativa

    Utilizadores de sistemas que geram conteúdo de áudio, imagem ou vídeo devem garantir que fique claro que o conteúdo é artificialmente gerado ou manipulado. Isto pode, por exemplo, ser alcançado aplicando uma marca d’água. Para trabalho criativo, satírico, ficcional ou analógico, isto pode ser realizado de uma forma que não arruíne o trabalho.

    Regras para utilizadores de sistemas de reconhecimento de emoções ou sistemas para categorização biométrica

    Os utilizadores destes sistemas de IA devem informar as pessoas naturais expostas a estes sistemas sobre como o sistema funciona.

    Regime especial para texto gerado por IA

    Um regime especial aplica-se a texto artificialmente gerado. Apenas nos casos em que textos são usados com o propósito de “informar o público sobre assuntos de interesse público”, o facto deve ser divulgado de que o texto foi artificialmente gerado ou manipulado.

    Se houver revisão editorial e responsabilidade, isto não precisa ser realizado.

    Exemplos de textos que requerem divulgação:

    Exemplos que podem ser isentos com revisão editorial:

    4.5. Outra IA

    Sistemas de IA além das categorias referidas acima não são obrigados a cumprir requisitos de acordo com o AI Act.

    Mas note: se como utilizador fizer uso de sistemas de IA de “outra categoria” para uma aplicação de alto risco conforme referido no AI Act, automaticamente torna-se um sistema de IA de alto risco e deve cumprir os requisitos do AI Act como fornecedor do sistema.

    Sistemas de Baixo Risco

    Sistemas de IA que não se enquadram nas categorias de alto risco ou proibidas têm menos obrigações regulatórias, mas ainda devem seguir as melhores práticas da indústria.

    Conformidade Voluntária

    Mesmo para sistemas não regulamentados, pode ser benéfico seguir voluntariamente os princípios do AI Act para construir confiança e preparar-se para futuras regulamentações.

    Outras Regulamentações

    Lembre-se que outros regulamentos como o GDPR ainda se aplicam a todos os sistemas que processam dados pessoais, independentemente da classificação no AI Act.

    Cronograma de Implementação do AI Act

    O AI Act será implementado em fases, com diferentes requisitos entrando em vigor em momentos diferentes. É importante estar ciente destas datas para garantir a conformidade atempada.

    Fevereiro 2025

    Proibições de práticas de IA inaceitáveis entram em vigor. Sistemas de IA proibidos não podem mais ser colocados no mercado ou usados.

    Agosto 2025

    Requisitos para modelos de IA de uso geral entram em vigor. Fornecedores devem cumprir obrigações de documentação, transparência e mitigação de riscos.

    Agosto 2026

    Requisitos para sistemas de IA de alto risco em áreas de aplicação específicas e obrigações de transparência para IA generativa e chatbots entram em vigor.

    Agosto 2027

    Requisitos para produtos de alto risco com componentes de IA entram em vigor, alinhando-se com a legislação de produtos existente.

    Preparando-se para o AI Act

    Dada a implementação faseada do AI Act, as organizações devem começar a preparar-se agora para garantir a conformidade quando os requisitos entrarem em vigor.

    Inventário de IA

    Faça um inventário de todos os sistemas de IA na sua organização e classifique-os de acordo com as categorias de risco do AI Act.

    Análise de Lacunas

    Identifique lacunas entre as suas práticas atuais e os requisitos do AI Act para cada sistema.

    Roteiro de Conformidade

    Desenvolva um roteiro para abordar lacunas e implementar os requisitos necessários antes dos prazos aplicáveis.

    Governança de IA

    Estabeleça uma estrutura de governança para supervisionar a conformidade com o AI Act e gerir riscos de IA.

    Documentação

    Comece a preparar a documentação técnica necessária para sistemas de alto risco.

    Formação

    Eduque a equipa sobre os requisitos do AI Act e suas implicações para o desenvolvimento e uso de IA.

    Benefícios da Conformidade com o AI Act

    Embora a conformidade com o AI Act possa exigir investimento significativo, também oferece vários benefícios para as organizações:

    Confiança

    Aumenta a confiança dos clientes e utilizadores nos seus sistemas de IA.

    Qualidade

    Melhora a qualidade e confiabilidade dos sistemas de IA através de práticas rigorosas de desenvolvimento.

    Redução de Risco

    Reduz o risco de danos, responsabilidade legal e danos à reputação.

    Acesso ao Mercado

    Garante acesso contínuo ao mercado da UE para produtos e serviços de IA.

    Inovação Responsável

    Promove uma cultura de inovação responsável e centrada no ser humano.

    Vantagem Competitiva

    Pode fornecer uma vantagem competitiva sobre organizações menos preparadas.

    Desafios Comuns na Implementação do AI Act

    As organizações podem enfrentar vários desafios ao implementar os requisitos do AI Act:

    Desafios Técnicos

    Desafios Organizacionais

    Recursos para Conformidade com o AI Act

    Várias organizações e recursos estão disponíveis para ajudar na conformidade com o AI Act:

    Comissão Europeia

    Fornece diretrizes oficiais sobre a interpretação e implementação do AI Act, incluindo orientações sobre a definição de IA, práticas proibidas e modelos de IA de uso geral.

    Institutos de Padronização

    Organizações como o NEN na Holanda estão desenvolvendo padrões europeus para ajudar na implementação dos requisitos do AI Act.

    Associações da Indústria

    Muitas associações da indústria estão desenvolvendo recursos específicos do setor para ajudar os membros a navegar pelos requisitos do AI Act.

    Consultores Especializados

    Consultores com expertise em conformidade regulatória de IA podem fornecer orientação personalizada para a sua organização.

    Recursos Online

    Websites como ondernemersplein.nl fornecem informações atualizadas e recursos para ajudar na conformidade com o AI Act.

    Redes de Pares

    Conecte-se com outras organizações enfrentando desafios semelhantes para compartilhar melhores práticas e lições aprendidas.

    Interação com Outras Regulamentações

    O AI Act não existe isoladamente, mas interage com várias outras regulamentações da UE:

    GDPR

    O Regulamento Geral de Proteção de Dados continua a aplicar-se ao processamento de dados pessoais por sistemas de IA. As organizações devem cumprir ambos os regulamentos quando aplicável.

    Legislação de Produtos

    O AI Act complementa a legislação de produtos existente para produtos que incorporam IA. As organizações devem cumprir ambos os conjuntos de requisitos.

    Diretiva de Responsabilidade do Produto

    Esta diretiva está sendo atualizada para abordar questões de responsabilidade relacionadas a produtos com IA. As organizações devem estar cientes das implicações de responsabilidade.

    Regulamento de Serviços Digitais

    Este regulamento impõe obrigações a plataformas online, incluindo aquelas que usam sistemas de IA para moderação de conteúdo ou recomendações.

    É importante adotar uma abordagem holística para conformidade regulatória, considerando todas as regulamentações aplicáveis em conjunto.

    Próximos Passos para a sua Organização

    Com base nas informações neste guia, aqui estão os próximos passos recomendados para a sua organização:

    Avaliação

    Avalie todos os sistemas de IA existentes e planejados de acordo com as categorias de risco do AI Act.

    Priorização

    Priorize ações com base nos prazos de implementação e no nível de risco.

    Planeamento

    Desenvolva um plano detalhado para implementar os requisitos aplicáveis.

    Implementação

    Implemente as medidas necessárias para garantir a conformidade antes dos prazos aplicáveis.

    Monitorização

    Estabeleça processos contínuos para monitorizar a conformidade e adaptar-se a mudanças regulatórias.

    Lembre-se de que a conformidade com o AI Act é uma jornada, não um destino. À medida que a tecnologia de IA e o cenário regulatório evoluem, a sua abordagem à conformidade também deve evoluir.

    Contacto e Recursos Adicionais

    Para obter mais informações sobre o AI Act e sua implementação, consulte os seguintes recursos:

    Feedback sobre este Guia

    Envie qualquer feedback sobre este guia para ai-verordening@minezk.nl. O seu feedback será usado para melhorar futuras edições do guia.

    Versão Mais Recente

    Visite ondernemersplein.nl para a versão mais recente deste guia e referências às mais recentes orientações da Comissão Europeia.

    Texto Completo do AI Act

    O texto completo do AI Act está disponível no site oficial da UE.

    Padrões Europeus

    Informações sobre o desenvolvimento de padrões europeus para o AI Act estão disponíveis através do NEN na Holanda.

    Este é um guia publicado pelo Ministério da Economia dos Países Baixos.
    Postbus 20901 | 2500 EX Den Haag
    www.rijksoverheid.nl

    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    Glossário Bilingue das Definições do AI Act

    Abril 8, 2026

    O Ecossistema Regulatório da Inteligência Artificial no Brasil

    Fevereiro 15, 2026

    Notas Práticas de Compliance Decreto-Lei n.º 25/2026

    Janeiro 30, 2026

    Uma análise do Decreto-Lei n.º 25/2026, de 28 de janeiro

    Janeiro 30, 2026

    Regulação de Inteligência Artificial nos Tribunais

    Janeiro 28, 2026

    Diretrizes sobre o Uso de IA Generativa em Tribunais

    Janeiro 28, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}