As 68 Definições do EU AI Act: Texto Integral Bilingue (PT-EN)
Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024
Introdução
O artigo 3.º do Regulamento (UE) 2024/1689 — o Regulamento da Inteligência Artificial (AI Act) — constitui a pedra angular terminológica de todo o regime jurídico europeu em matéria de IA. Este artigo lista as 68 definições oficiais que delimitam com precisão os conceitos fundamentais utilizados ao longo dos 113 artigos e 13 anexos do Regulamento e dele extraídas.
A importância destas definições não pode ser subestimada: é a partir delas que se determina quem é «prestador» e quem é «responsável pela implantação»; o que constitui um «sistema de IA» e o que fica fora do âmbito do Regulamento; qual a fronteira entre «colocação no mercado» e «colocação em serviço»; e como se distingue um «modelo de IA de finalidade geral» de um «sistema de IA de finalidade geral».
Para advogados, compliance officers, responsáveis de proteção de dados e todos os profissionais que necessitam de interpretar e aplicar o AI Act, o domínio rigoroso destas definições é um pré-requisito incontornável. Uma imprecisão terminológica pode significar a diferença entre a sujeição a obrigações de alto risco ou a isenção das mesmas, entre a aplicabilidade de uma proibição ou a sua irrelevância. Por vezes ouço falar, a propósito deste Regulamento, em “alto risco”. Esta terminologia, em termos rigorosos e legais, não existe. Existe, sim, por exemplo, “risco elevado”, na versão portuguesa oficial do Regulamento.
Estrutura deste artigo
Este artigo está organizado em duas partes:
-
Tabela de referência rápida — Quadro comparativo com os nomes das 68 definições em português e inglês, pela ordem do artigo 3.º, para consulta expedita.
-
Texto integral das definições — Cada uma das 68 definições com o seu conteúdo completo em português e inglês, anotada com o respetivo número de ordem.
Fontes
-
Versão portuguesa: Regulamento (UE) 2024/1689, JO L, 12.7.2024 — texto em Língua Portuguesa
-
Versão inglesa: Regulation (EU) 2024/1689, OJ L, 12.7.2024 — texto em Língua Inglesa
As duas versões linguísticas são juridicamente equivalentes e autênticas, nos termos do artigo 55.º do Tratado da União Europeia (TFUE).
Parte I — Tabela de Referência Rápida das Definições do Artigo 3.º
| N.º | Definição (PT) | Definition (EN) |
|---|---|---|
| 1 | Sistema de IA | AI system |
| 2 | Risco | Risk |
| 3 | Prestador | Provider |
| 4 | Responsável pela implantação | Deployer |
| 5 | Mandatário | Authorised representative |
| 6 | Importador | Importer |
| 7 | Distribuidor | Distributor |
| 8 | Operador | Operator |
| 9 | Colocação no mercado | Placing on the market |
| 10 | Disponibilização no mercado | Making available on the market |
| 11 | Colocação em serviço | Putting into service |
| 12 | Finalidade prevista | Intended purpose |
| 13 | Utilização indevida razoavelmente previsível | Reasonably foreseeable misuse |
| 14 | Componente de segurança | Safety component |
| 15 | Instruções de utilização | Instructions for use |
| 16 | Recolha de um sistema de IA | Recall of an AI system |
| 17 | Retirada de um sistema de IA | Withdrawal of an AI system |
| 18 | Desempenho de um sistema de IA | Performance of an AI system |
| 19 | Autoridade notificadora | Notifying authority |
| 20 | Avaliação da conformidade | Conformity assessment |
| 21 | Organismo de avaliação da conformidade | Conformity assessment body |
| 22 | Organismo notificado | Notified body |
| 23 | Modificação substancial | Substantial modification |
| 24 | Marcação CE | CE marking |
| 25 | Sistema de acompanhamento pós-comercialização | Post-market monitoring system |
| 26 | Autoridade de fiscalização do mercado | Market surveillance authority |
| 27 | Norma harmonizada | Harmonised standard |
| 28 | Especificação comum | Common specification |
| 29 | Dados de treino | Training data |
| 30 | Dados de validação | Validation data |
| 31 | Conjunto de dados de validação | Validation data set |
| 32 | Dados de teste | Testing data |
| 33 | Dados de entrada | Input data |
| 34 | Dados biométricos | Biometric data |
| 35 | Identificação biométrica | Biometric identification |
| 36 | Verificação biométrica | Biometric verification |
| 37 | Categorias especiais de dados pessoais | Special categories of personal data |
| 38 | Dados operacionais sensíveis | Sensitive operational data |
| 39 | Sistema de reconhecimento de emoções | Emotion recognition system |
| 40 | Sistema de categorização biométrica | Biometric categorisation system |
| 41 | Sistema de identificação biométrica à distância | Remote biometric identification system |
| 42 | Sistema de identificação biométrica à distância em tempo real | Real-time remote biometric identification system |
| 43 | Sistema de identificação biométrica à distância em diferido | Post-remote biometric identification system |
| 44 | Espaço acessível ao público | Publicly accessible space |
| 45 | Autoridade responsável pela aplicação da lei | Law enforcement authority |
| 46 | Aplicação da lei | Law enforcement |
| 47 | Serviço para a IA | AI Office |
| 48 | Autoridade nacional competente | National competent authority |
| 49 | Incidente grave | Serious incident |
| 50 | Dados pessoais | Personal data |
| 51 | Dados não pessoais | Non-personal data |
| 52 | Definição de perfis | Profiling |
| 53 | Plano de testagem em condições reais | Real-world testing plan |
| 54 | Plano do ambiente de testagem | Sandbox plan |
| 55 | Ambiente de testagem da regulamentação da IA | AI regulatory sandbox |
| 56 | Literacia no domínio da IA | AI literacy |
| 57 | Testagem em condições reais | Testing in real-world conditions |
| 58 | Participante | Subject |
| 59 | Consentimento informado | Informed consent |
| 60 | Falsificações profundas | Deep fake |
| 61 | Infração generalizada | Widespread infringement |
| 62 | Infraestrutura crítica | Critical infrastructure |
| 63 | Modelo de IA de finalidade geral | General-purpose AI model |
| 64 | Capacidades de elevado impacto | High-impact capabilities |
| 65 | Risco sistémico | Systemic risk |
| 66 | Sistema de IA de finalidade geral | General-purpose AI system |
| 67 | Operação de vírgula flutuante | Floating-point operation |
| 68 | Prestador a jusante | Downstream provider |
Parte II — Texto Integral das Definições
A seguir, apresenta-se o texto integral de cada uma das 68 definições do artigo 3.º do Regulamento (UE) 2024/1689, pela ordem em que surgem no diploma. Para cada definição, é indicado o termo em Português, seguido do equivalente Inglês entre parênteses, e o texto completo em ambas as Línguas.
Fica aqui, assim, este guia de referência, extenso como não poderia dexar de ser.
1) «Sistema de IA» (AI system)
PT: «Sistema de IA», um sistema baseado em máquinas concebido para funcionar com níveis de autonomia variáveis, e que pode apresentar capacidade de adaptação após a implantação e que, para objetivos explícitos ou implícitos, e com base nos dados de entrada que recebe, infere a forma de gerar resultados, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais.
EN: ‘AI system’ means a machine-based system that is designed to operate with varying levels of autonomy and that may exhibit adaptiveness after deployment, and that, for explicit or implicit objectives, infers, from the input it receives, how to generate outputs such as predictions, content, recommendations, or decisions that can influence physical or virtual environments.
2) «Risco» (Risk)
PT: «Risco», a combinação da probabilidade de ocorrência de danos com a gravidade desses danos.
EN: ‘risk’ means the combination of the probability of an occurrence of harm and the severity of that harm.
3) «Prestador» (Provider)
PT: «Prestador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva, ou mande desenvolver, um sistema de IA ou um modelo de IA de finalidade geral e o coloque no mercado, ou coloque o sistema de IA em serviço sob o seu próprio nome ou a sua própria marca, a título oneroso ou gratuito.
EN: ‘provider’ means a natural or legal person, public authority, agency or other body that develops an AI system or a general-purpose AI model or that has an AI system or a general-purpose AI model developed and places it on the market or puts the AI system into service under its own name or trademark, whether for payment or free of charge.
4) «Responsável pela implantação» (Deployer)
PT: «Responsável pela implantação», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize um sistema de IA sob a sua própria autoridade, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional.
EN: ‘deployer’ means a natural or legal person, public authority, agency or other body using an AI system under its authority except where the AI system is used in the course of a personal non-professional activity.
5) «Mandatário» (Authorised representative)
PT: «Mandatário», uma pessoa singular ou coletiva localizada ou estabelecida na União que tenha recebido e aceitado um mandato escrito de um prestador de um sistema de IA ou de um modelo de IA de finalidade geral para cumprir e executar em seu nome, respetivamente, as obrigações e os procedimentos previstos no presente regulamento.
EN: ‘authorised representative’ means a natural or legal person located or established in the Union who has received and accepted a written mandate from a provider of an AI system or a general-purpose AI model to, respectively, perform and carry out on its behalf the obligations and procedures established by this Regulation.
6) «Importador» (Importer)
PT: «Importador», uma pessoa singular ou coletiva localizada ou estabelecida na União que coloca no mercado um sistema de IA que ostenta o nome ou a marca de uma pessoa singular ou coletiva estabelecida num país terceiro.
EN: ‘importer’ means a natural or legal person located or established in the Union that places on the market an AI system that bears the name or trademark of a natural or legal person established in a third country.
7) «Distribuidor» (Distributor)
PT: «Distribuidor», uma pessoa singular ou coletiva inserida na cadeia de distribuição, distinta do prestador e do importador, que disponibiliza um sistema de IA no mercado da União.
EN: ‘distributor’ means a natural or legal person in the supply chain, other than the provider or the importer, that makes an AI system available on the Union market.
8) «Operador» (Operator)
PT: «Operador», um prestador, fabricante de produtos, responsável pela implantação, mandatário, importador ou distribuidor.
EN: ‘operator’ means a provider, product manufacturer, deployer, authorised representative, importer or distributor.
9) «Colocação no mercado» (Placing on the market)
PT: «Colocação no mercado», a primeira disponibilização de um sistema de IA ou de um modelo de IA de finalidade geral no mercado da União.
EN: ‘placing on the market’ means the first making available of an AI system or a general-purpose AI model on the Union market.
10) «Disponibilização no mercado» (Making available on the market)
PT: «Disponibilização no mercado», o fornecimento de um sistema de IA ou de um modelo de IA de finalidade geral para distribuição ou utilização no mercado da União no âmbito de uma atividade comercial, a título oneroso ou gratuito.
EN: ‘making available on the market’ means the supply of an AI system or a general-purpose AI model for distribution or use on the Union market in the course of a commercial activity, whether in return for payment or free of charge.
11) «Colocação em serviço» (Putting into service)
PT: «Colocação em serviço», o fornecimento, diretamente ao responsável pela implantação ou para utilização própria, de um sistema de IA para a primeira utilização na União com a finalidade prevista.
EN: ‘putting into service’ means the supply of an AI system for first use directly to the deployer or for own use in the Union for its intended purpose.
12) «Finalidade prevista» (Intended purpose)
PT: «Finalidade prevista», a utilização a que o prestador destina o sistema de IA, incluindo o contexto específico e as condições de utilização, conforme especificado nas informações facultadas pelo prestador nas instruções de utilização, nos materiais e declarações promocionais ou de venda, bem como na documentação técnica.
EN: ‘intended purpose’ means the use for which an AI system is intended by the provider, including the specific context and conditions of use, as specified in the information supplied by the provider in the instructions for use, promotional or sales materials and statements, as well as in the technical documentation.
13) «Utilização indevida razoavelmente previsível» (Reasonably foreseeable misuse)
PT: «Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista, mas que pode resultar de um comportamento humano razoavelmente previsível ou de uma interação razoavelmente previsível com outros sistemas, incluindo outros sistemas de IA.
EN: ‘reasonably foreseeable misuse’ means the use of an AI system in a way that is not in accordance with its intended purpose, but which may result from reasonably foreseeable human behaviour or interaction with other systems, including other AI systems.
14) «Componente de segurança» (Safety component)
PT: «Componente de segurança», um componente de um produto ou sistema de IA que cumpre uma função de segurança nesse produto ou sistema de IA, ou cuja falha ou anomalia põe em risco a saúde e a segurança de pessoas ou bens.
EN: ‘safety component’ means a component of a product or of an AI system which fulfils a safety function for that product or AI system, or the failure or malfunctioning of which endangers the health and safety of persons or property.
15) «Instruções de utilização» (Instructions for use)
PT: «Instruções de utilização», as informações facultadas pelo prestador para esclarecer responsável pela implantação, em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA.
EN: ‘instructions for use’ means the information provided by the provider to inform the deployer of, in particular, an AI system’s intended purpose and proper use.
16) «Recolha de um sistema de IA» (Recall of an AI System)
PT: «Recolha de um sistema de IA», qualquer medida destinada a obter a devolução ao prestador de um sistema de IA disponibilizado aos responsáveis pela implantação ou a colocar esse sistema fora de serviço ou a desativá-lo.
EN: ‘recall of an AI system’ means any measure aiming to achieve the return to the provider or taking out of service or disabling the use of an AI system made available to deployers.
17) «Retirada de um sistema de IA» (Withdrawal of an AI System)
PT: «Retirada de um sistema de IA», qualquer medida destinada a impedir a disponibilização no mercado de um sistema de IA presente na cadeia de distribuição.
EN: ‘withdrawal of an AI system’ means any measure aiming to prevent an AI system in the supply chain being made available on the market.
18) «Desempenho de um sistema de IA» (Performance of an AI System)
PT: «Desempenho de um sistema de IA», a capacidade de um sistema de IA para alcançar a sua finalidade prevista.
EN: ‘performance of an AI system’ means the ability of an AI system to achieve its intended purpose.
19) «Autoridade notificadora» (Notifying authority)
PT: «Autoridade notificadora», a autoridade nacional responsável por estabelecer e executar os procedimentos necessários para a avaliação, designação e notificação de organismos de avaliação da conformidade e pela fiscalização destes.
EN: ‘notifying authority’ means the national authority responsible for setting up and carrying out the necessary procedures for the assessment, designation and notification of conformity assessment bodies and for their monitoring.
20) «Avaliação da conformidade» (Conformity assessment)
PT: «Avaliação da conformidade», o processo de demonstrar se estão preenchidos os requisitos relacionados com um sistema de IA de risco elevado estabelecidos no capítulo III, secção 2.
EN: ‘conformity assessment’ means the process of demonstrating whether the requirements set out in Chapter III, Section 2 relating to a high-risk AI system have been fulfilled.
21) «Organismo de avaliação da conformidade» (Conformity assessment body)
PT: «Organismo de avaliação da conformidade», um organismo que realiza atividades de avaliação da conformidade por terceiros, nomeadamente testagem, certificação e inspeção.
EN: ‘conformity assessment body’ means a body that performs third-party conformity assessment activities, including testing, certification and inspection.
22) «Organismo notificado» (Notified body)
PT: «Organismo notificado», um organismo de avaliação da conformidade notificado nos termos do presente regulamento ou de outra legislação de harmonização da União pertinente.
EN: ‘notified body’ means a conformity assessment body notified in accordance with this Regulation and other relevant Union harmonisation legislation.
23) «Modificação substancial» (Substantial modification)
PT: «Modificação substancial», uma alteração do sistema de IA após a sua colocação no mercado ou colocação em serviço, que não tenha sido prevista ou planeada pelo prestador na avaliação da conformidade inicial e que, consequentemente, afete a conformidade do sistema de IA com os requisitos estabelecidos no capítulo III, secção 2, do presente regulamento, ou modifique a finalidade prevista relativamente à qual o sistema de IA foi avaliado.
EN: ‘substantial modification’ means a change to an AI system after its placing on the market or putting into service which is not foreseen or planned in the initial conformity assessment carried out by the provider and as a result of which the compliance of the AI system with the requirements set out in Chapter III, Section 2 is affected or results in a modification to the intended purpose for which the AI system has been assessed.
24) «Marcação CE» (CE marking)
PT: «Marcação CE», a marcação pela qual um prestador atesta que um sistema de IA está em conformidade com os requisitos estabelecidos no capítulo III, secção 2, e noutros atos aplicáveis enumerados na lista da legislação de harmonização da União que prevejam a aposição dessa marcação.
EN: ‘CE marking’ means a marking by which a provider indicates that an AI system is in conformity with the requirements set out in Chapter III, Section 2 and other applicable Union harmonisation legislation providing for its affixing.
25) «Sistema de acompanhamento pós-comercialização» (Post-market monitoring system)
PT: «Sistema de acompanhamento pós-comercialização», todas as atividades empreendidas pelos prestadores de sistemas de IA para recolher e analisar dados sobre a experiência adquirida com a utilização de sistemas de IA por eles colocados no mercado ou colocados em serviço, com vista a identificar a eventual necessidade de aplicar imediatamente as eventuais medidas corretivas ou preventivas necessárias.
EN: ‘post-market monitoring system’ means all activities carried out by providers of AI systems to collect and review experience gained from the use of AI systems they place on the market or put into service for the purpose of identifying any need to immediately apply any necessary corrective or preventive actions.
26) «Autoridade de fiscalização do mercado» (Market surveillance authority)
PT: «Autoridade de fiscalização do mercado», a autoridade nacional que realiza as atividades e toma as medidas previstas no Regulamento (UE) 2019/1020; 47/144.
EN: ‘market surveillance authority’ means the national authority carrying out the activities and taking the measures pursuant to Regulation (EU) 2019/1020; 47/144.
27) «Norma harmonizada» (Harmonised standard)
PT: «Norma harmonizada», uma norma europeia na aceção do artigo 2.o, n.o 1, alínea c), do Regulamento (UE) n.o 1025/2012.
EN: ‘harmonised standard’ means a harmonised standard as defined in Article 2(1), point (c), of Regulation (EU) No 1025/2012.
28) «Especificação comum» (Common specification)
PT: «Especificação comum», um conjunto de especificações técnicas, definidas no artigo 2.o, ponto 4, do Regulamento (UE) n.o 1025/2012, que proporcionam os meios para cumprir certos requisitos estabelecidos no presente regulamento.
EN: ‘common specification’ means a set of technical specifications as defined in Article 2, point (4) of Regulation (EU) No 1025/2012, providing means to comply with certain requirements established under this Regulation.
29) «Dados de treino» (Training data)
PT: «Dados de treino», os dados usados para treinar um sistema de IA mediante o ajustamento dos seus parâmetros passíveis de serem aprendidos.
EN: ‘training data’ means data used for training an AI system through fitting its learnable parameters.
30) «Dados de validação» (Validation data)
PT: «Dados de validação», os dados utilizados para realizar uma avaliação do sistema de IA treinado e ajustar os seus parâmetros não passíveis de serem aprendidos e o seu processo de aprendizagem, a fim de, entre outras coisas, evitar um subajustamento ou um sobreajustamento.
EN: ‘validation data’ means data used for providing an evaluation of the trained AI system and for tuning its non-learnable parameters and its learning process in order, inter alia, to prevent underfitting or overfitting.
31) «Conjunto de dados de validação» (Validation data set)
PT: «Conjunto de dados de validação», um conjunto de dados separado ou parte de um conjunto de dados de treino, sob forma de uma divisão fixa ou variável.
EN: ‘validation data set’ means a separate data set or part of the training data set, either as a fixed or variable split.
32) «Dados de teste» (Testing data)
PT: «Dados de teste», os dados utilizados para realizar uma avaliação independente do sistema de IA, a fim de confirmar o desempenho esperado desse sistema antes da sua colocação no mercado ou colocação em serviço.
EN: ‘testing data’ means data used for providing an independent evaluation of the AI system in order to confirm the expected performance of that system before its placing on the market or putting into service.
33) «Dados de entrada» (Input data)
PT: «Dados de entrada», os dados disponibilizados a um sistema de IA, ou por ele obtidos diretamente, com base nos quais o sistema produz um resultado.
EN: ‘input data’ means data provided to or directly acquired by an AI system on the basis of which the system produces an output.
34) «Dados biométricos» (Biometric data)
PT: «Dados biométricos», dados pessoais resultantes de um tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de uma pessoa singular, nomeadamente imagens faciais ou dados dactiloscópicos.
EN: ‘biometric data’ means personal data resulting from specific technical processing relating to the physical, physiological or behavioural characteristics of a natural person, such as facial images or dactyloscopic data.
35) «Identificação biométrica» (Biometric identification)
PT: «Identificação biométrica», o reconhecimento automatizado de características humanas físicas, fisiológicas, comportamentais ou psicológicas para efeitos de determinação da identidade de uma pessoa singular, comparando os dados biométricos dessa pessoa com os dados biométricos de pessoas armazenados numa base de dados.
EN: ‘biometric identification’ means the automated recognition of physical, physiological, behavioural, or psychological human features for the purpose of establishing the identity of a natural person by comparing biometric data of that individual to biometric data of individuals stored in a database.
36) «Verificação biométrica» (Biometric verification)
PT: «Verificação biométrica», a verificação automatizada, «um para um», incluindo a autenticação, da identidade de pessoas singulares por meio da comparação dos seus dados biométricos com dados biométricos previamente facultados.
EN: ‘biometric verification’ means the automated, one-to-one verification, including authentication, of the identity of natural persons by comparing their biometric data to previously provided biometric data.
37) «Categorias especiais de dados pessoais» (Special categories of personal data)
PT: «Categorias especiais de dados pessoais», as categorias de dados pessoais a que se referem o artigo 9.o, n.o 1, do Regulamento (UE) 2016/679, o artigo 10.o da Diretiva (UE) 2016/680 e o artigo 10.o, n.o 1, do Regulamento (UE) 2018/1725.
EN: ‘special categories of personal data’ means the categories of personal data referred to in Article 9(1) of Regulation (EU) 2016/679, Article 10 of Directive (EU) 2016/680 and Article 10(1) of Regulation (EU) 2018/1725.
38) «Dados operacionais sensíveis» (Sensitive operational data)
PT: «Dados operacionais sensíveis», dados operacionais relacionados com atividades de prevenção, deteção, investigação ou repressão de infrações penais, cuja divulgação possa comprometer a integridade de processos penais.
EN: ‘sensitive operational data’ means operational data related to activities of prevention, detection, investigation or prosecution of criminal offences, the disclosure of which could jeopardise the integrity of criminal proceedings.
39) «Sistema de reconhecimento de emoções» (Emotion recognition system)
PT: «Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos.
EN: ‘emotion recognition system’ means an AI system for the purpose of identifying or inferring emotions or intentions of natural persons on the basis of their biometric data.
40) «Sistema de categorização biométrica» (Biometric categorisation system)
PT: «Sistema de categorização biométrica», um sistema de IA destinado a afetar pessoas singulares a categorias específicas com base nos seus dados biométricos, a menos que seja acessório a outro serviço comercial e estritamente necessário por razões técnicas objetivas.
EN: ‘biometric categorisation system’ means an AI system for the purpose of assigning natural persons to specific categories on the basis of their biometric data, unless it is ancillary to another commercial service and strictly necessary for objective technical reasons.
41) «Sistema de identificação biométrica à distância» (Remote biometric identification system)
PT: «Sistema de identificação biométrica à distância», um sistema de IA concebido para identificar pessoas singulares, sem a sua participação ativa, normalmente à distância, por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência.
EN: ‘remote biometric identification system’ means an AI system for the purpose of identifying natural persons, without their active involvement, typically at a distance through the comparison of a person’s biometric data with the biometric data contained in a reference database.
42) «Sistema de identificação biométrica à distância em tempo real» (Real-time remote biometric identification system)
PT: «Sistema de identificação biométrica à distância em tempo real», um sistema de identificação biométrica à distância em que a recolha de dados biométricos, a comparação e a identificação ocorrem sem atraso significativo, que engloba não apenas a identificação instantânea, mas também a identificação com ligeiro atraso, a fim de evitar que as regras sejam contornadas.
EN: ‘real-time remote biometric identification system’ means a remote biometric identification system, whereby the capturing of biometric data, the comparison and the identification all occur without a significant delay, comprising not only instant identification, but also limited short delays in order to avoid circumvention.
43) «Sistema de identificação biométrica à distância em diferido» (Post-remote biometric identification system)
PT: «Sistema de identificação biométrica à distância em diferido», um sistema de identificação biométrica à distância que não seja um sistema de identificação biométrica à distância em tempo real.
EN: ‘post-remote biometric identification system’ means a remote biometric identification system other than a real-time remote biometric identification system.
44) «Espaço acessível ao público» (Publicly accessible space)
PT: «Espaço acessível ao público», qualquer espaço físico, público ou privado, acessível a um número indeterminado de pessoas singulares, independentemente da eventual aplicação de condições de acesso específicas e independentemente das eventuais restrições de capacidade.
EN: ‘publicly accessible space’ means any publicly or privately owned physical place accessible to an undetermined number of natural persons, regardless of whether certain conditions for access may apply, and regardless of the potential capacity restrictions.
45) «Autoridade responsável pela aplicação da lei» (Law enforcement authority)
PT: «Autoridade responsável pela aplicação da lei», a) Uma autoridade pública competente para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas, ou b) Qualquer outro organismo ou entidade designado pelo direito de um Estado-Membro para exercer autoridade pública e poderes públicos para efeitos de prevenção, investigação, deteção ou pelo exercício da ação penal relativo a infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas.
EN: ‘law enforcement authority’ means (a) any public authority competent for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security; or (b) any other body or entity entrusted by Member State law to exercise public authority and public powers for the purposes of the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including the safeguarding against and the prevention of threats to public security.
46) «Aplicação da lei» (Law enforcement)
PT: «Aplicação da lei», as atividades realizadas por autoridades responsáveis pela aplicação da lei ou em nome destas para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas.
EN: ‘law enforcement’ means activities carried out by law enforcement authorities or on their behalf for the prevention, investigation, detection or prosecution of criminal offences or the execution of criminal penalties, including safeguarding against and preventing threats to public security.
47) «Serviço para a IA» (AI Office)
PT: «Serviço para a IA», a atribuição da Comissão de contribuir para a aplicação, o acompanhamento e a supervisão dos sistemas de IA, dos modelos de IA de finalidade geral, e da governação da IA prevista na Decisão da Comissão de 24 de janeiro de 2024; as referências ao Serviço para a IA no presente regulamento devem ser entendidas como referências à Comissão.
EN: ‘AI Office’ means the Commission’s function of contributing to the implementation, monitoring and supervision of AI systems and general-purpose AI models, and AI governance, provided for in Commission Decision of 24 January 2024; references in this Regulation to the AI Office shall be construed as references to the Commission.
48) «Autoridade nacional competente» (National competent authority)
PT: «Autoridade nacional competente», uma autoridade notificadora ou uma autoridade de fiscalização do mercado; no que diz respeito aos sistemas de IA colocados em serviço ou utilizados pelas instituições, agências, serviços e organismos da União, quaisquer referências às autoridades nacionais competentes ou às autoridades de fiscalização do mercado no presente regulamento devem ser entendidas como referências à Autoridade Europeia para a Proteção de Dados.
EN: ‘national competent authority’ means a notifying authority or a market surveillance authority; as regards AI systems put into service or used by Union institutions, agencies, offices and bodies, references to national competent authorities or market surveillance authorities in this Regulation shall be construed as references to the European Data Protection Supervisor.
49) «Incidente grave» (Serious incident)
PT: «Incidente grave», qualquer incidente ou anomalia num sistema de IA que, direta ou indiretamente, tenha alguma das seguintes consequências: a) A morte de uma pessoa ou danos graves para a saúde de uma pessoa, b) Uma perturbação grave e irreversível da gestão ou do funcionamento de uma infraestrutura crítica, c) A infração das obrigações decorrentes do direito da União destinadas a proteger os direitos fundamentais, d) Danos graves a bens ou ao ambiente.
EN: ‘serious incident’ means an incident or malfunctioning of an AI system that directly or indirectly leads to any of the following: (a) the death of a person, or serious harm to a person’s health; (b) a serious and irreversible disruption of the management or operation of critical infrastructure; (c) the infringement of obligations under Union law intended to protect fundamental rights; (d) serious harm to property or the environment.
50) «Dados pessoais» (Personal data)
PT: «Dados pessoais», os dados pessoais na aceção do artigo 4.o, ponto 1, do Regulamento (UE) 2016/679.
EN: ‘personal data’ means personal data as defined in Article 4, point (1), of Regulation (EU) 2016/679.
51) «Dados não pessoais» (Non-personal data)
PT: «Dados não pessoais», os dados que não sejam dados pessoais na aceção do artigo 4.o, ponto 1), do Regulamento (UE) 2016/679.
EN: ‘non-personal data’ means data other than personal data as defined in Article 4, point (1), of Regulation (EU) 2016/679.
52) «Definição de perfis» (Profiling)
PT: «Definição de perfis», a definição de perfis na aceção do artigo 4.o, ponto 4), do Regulamento (UE) 2016/679.
EN: ‘profiling’ means profiling as defined in Article 4, point (4), of Regulation (EU) 2016/679.
53) «Plano de testagem em condições reais» (Real-world testing plan)
PT: «Plano de testagem em condições reais», um documento que descreve os objetivos, a metodologia, o âmbito geográfico, populacional e temporal, o acompanhamento, a organização e a realização dos testes em condições reais.
EN: ‘real-world testing plan’ means a document that describes the objectives, methodology, geographical, population and temporal scope, monitoring, organisation and conduct of testing in real-world conditions.
54) «Plano do ambiente de testagem» (Sandbox plan)
PT: «Plano do ambiente de testagem», um documento acordado entre o prestador participante e a autoridade competente, que descreve os objetivos, as condições, o calendário, a metodologia e os requisitos aplicáveis às atividades realizadas no ambiente de testagem.
EN: ‘sandbox plan’ means a document agreed between the participating provider and the competent authority describing the objectives, conditions, timeframe, methodology and requirements for the activities carried out within the sandbox.
55) «Ambiente de testagem da regulamentação da IA» (AI regulatory sandbox)
PT: «Ambiente de testagem da regulamentação da IA», um modelo controlado, criado por uma autoridade competente, que oferece aos prestadores ou potenciais prestadores de sistemas de IA a possibilidade de desenvolver, treinar, validar e testar, se for caso disso em condições reais, um sistema de IA inovador, de acordo com um plano do ambiente de testagem, durante um período limitado sob supervisão regulamentar.
EN: ‘AI regulatory sandbox’ means a controlled framework set up by a competent authority which offers providers or prospective providers of AI systems the possibility to develop, train, validate and test, where appropriate in real-world conditions, an innovative AI system, pursuant to a sandbox plan for a limited time under regulatory supervision.
56) «Literacia no domínio da IA» (AI literacy)
PT: «Literacia no domínio da IA», as competências, os conhecimentos e a compreensão que permitem que os prestadores, os responsáveis pela implantação e as pessoas afetadas, tendo em conta os respetivos direitos e obrigações no contexto do presente regulamento, procedam à implantação dos sistemas de IA com conhecimento de causa e tomem consciência das oportunidades e dos riscos inerentes à IA, bem como dos eventuais danos que a IA pode causar.
EN: ‘AI literacy’ means skills, knowledge and understanding that allow providers, deployers and affected persons, taking into account their respective rights and obligations in the context of this Regulation, to make an informed deployment of AI systems, as well as to gain awareness about the opportunities and risks of AI and possible harm it can cause.
57) «Testagem em condições reais» (Testing in real-world conditions)
PT: «Testagem em condições reais», a testagem temporária de um sistema de IA para a sua finalidade prevista em condições reais, fora de um laboratório ou de outro ambiente simulado, com vista a recolher dados fiáveis e sólidos e a avaliar e verificar a conformidade do sistema de IA com os requisitos do presente regulamento e não se considera como colocação do sistema de IA no mercado nem colocação do sistema de IA em serviço na aceção do presente regulamento, desde que estejam preenchidas todas as condições estabelecidas no artigo 57.o ou no artigo 60.o.
EN: ‘testing in real-world conditions’ means the temporary testing of an AI system for its intended purpose in real-world conditions outside a laboratory or otherwise simulated environment, with a view to gathering reliable and robust data and to assessing and verifying the conformity of the AI system with the requirements of this Regulation and it does not qualify as placing the AI system on the market or putting it into service within the meaning of this Regulation, provided that all the conditions laid down in Article 57 or 60 are fulfilled.
58) «Participante» (Subject)
PT: «Participante», para efeitos de testagem em condições reais, uma pessoa singular que participa na testagem em condições reais.
EN: ‘subject’, for the purpose of real-world testing, means a natural person who participates in testing in real-world conditions.
59) «Consentimento informado» (Informed consent)
PT: «Consentimento informado», a expressão livre, específica, inequívoca e voluntária, por parte do participante, da sua vontade de participar numa dada testagem em condições reais, depois de ter sido informado de todos os aspetos da testagem que sejam relevantes para a sua decisão de participar.
EN: ‘informed consent’ means a subject’s freely given, specific, unambiguous and voluntary expression of his or her willingness to participate in a particular testing in real-world conditions, after having been informed of all aspects of the testing that are relevant to the subject’s decision to participate.
60) «Falsificações profundas» (Deep fake)
PT: «Falsificações profundas», conteúdos de imagem, áudio ou vídeo gerados ou manipulados por IA, que sejam semelhantes a pessoas, objetos, locais, entidades ou acontecimentos reais, e que possam levar uma pessoa a crer, erroneamente, que são autênticos ou verdadeiros.
EN: ‘deep fake’ means AI-generated or manipulated image, audio or video content that resembles existing persons, objects, places, entities or events and would falsely appear to a person to be authentic or truthful.
61) «Infração generalizada» (Widespread infringement)
PT: «Infração generalizada», uma ação ou omissão contrária à legislação da União que protege os interesses das pessoas, e que: a) Tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos de pessoas que residam em, pelo menos, dois Estados-Membros que não o Estado-Membro no qual: i) o ato ou omissão tenha tido origem ou sido cometido, ii) o prestador em causa ou, se aplicável, o seu mandatário esteja estabelecido, ou iii) o responsável pela implantação esteja estabelecido, caso a violação seja cometida por este; b) Tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos das pessoas e tenha características comuns, inclusive a mesma prática ilegal ou a violação de um mesmo interesse, e que seja cometida pelo mesmo operador em, pelo menos, três Estados-Membros em simultâneo.
EN: ‘widespread infringement’ means any act or omission contrary to Union law protecting the interest of individuals, which: (a) has harmed or is likely to harm the collective interests of individuals residing in at least two Member States other than the Member State in which: (i) the act or omission originated or took place; (ii) the provider concerned, or, where applicable, its authorised representative is located or established; or (iii) the deployer is established, when the infringement is committed by the deployer; (b) has caused, causes or is likely to cause harm to the collective interests of individuals and has common features, including the same unlawful practice or the same interest being infringed, and is occurring concurrently, committed by the same operator, in at least three Member States.
62) «Infraestrutura crítica» (Critical infrastructure)
PT: «Infraestrutura crítica», uma infraestrutura crítica na aceção do artigo 2.o, ponto 4), da Diretiva (UE) 2022/2557.
EN: ‘critical infrastructure’ means critical infrastructure as defined in Article 2, point (4), of Directive (EU) 2022/2557.
63) «Modelo de IA de finalidade geral» (General-Purpose AI Model)
PT: «Modelo de IA de finalidade geral», um modelo de IA, inclusive se for treinado com uma grande quantidade de dados utilizando a autossupervisão em escala, que apresenta uma generalidade significativa e é capaz de executar de forma competente uma vasta gama de tarefas distintas, independentemente da forma como o modelo é colocado no mercado, e que pode ser integrado numa variedade de sistemas ou aplicações a jusante, exceto os modelos de IA que são utilizados para atividades de investigação, desenvolvimento ou criação de protótipos antes de serem colocados no mercado.
EN: ‘general-purpose AI model’ means an AI model, including where such an AI model is trained with a large amount of data using self-supervision at scale, that displays significant generality and is capable of competently performing a wide range of distinct tasks regardless of the way the model is placed on the market and that can be integrated into a variety of downstream systems or applications, except AI models that are used for research, development or prototyping activities before they are placed on the market.
64) «Capacidades de elevado impacto» (High-impact capabilities)
PT: «Capacidades de elevado impacto», capacidades que correspondem ou excedem as capacidades registadas nos modelos de IA de finalidade geral mais avançados.
EN: ‘high-impact capabilities’ means capabilities that match or exceed the capabilities recorded in the most advanced general-purpose AI models.
65) «Risco sistémico» (Systemic risk)
PT: «Risco sistémico», um risco específico das capacidades de elevado impacto dos modelos de IA de finalidade geral que têm um impacto significativo no mercado da União devido ao seu alcance ou devido a efeitos negativos reais ou razoavelmente previsíveis na saúde pública, na segurança, na segurança pública, nos direitos fundamentais ou na sociedade no seu conjunto, que se pode propagar em escala ao longo da cadeia de valor.
EN: ‘systemic risk’ means a risk that is specific to the high-impact capabilities of general-purpose AI models, having a significant impact on the Union market due to their reach, or due to actual or reasonably foreseeable negative effects on public health, safety, public security, fundamental rights, or the society as a whole, that can be propagated at scale across the value chain.
66) «Sistema de IA de finalidade geral» (General-Purpose AI System)
PT: «Sistema de IA de finalidade geral», um sistema de IA baseado num modelo de IA de finalidade geral, e com a capacidade de servir para diversas finalidades, tanto para utilização direta como para integração noutros sistemas de IA.
EN: ‘general-purpose AI system’ means an AI system which is based on a general-purpose AI model and which has the capability to serve a variety of purposes, both for direct use as well as for integration in other AI systems.
67) «Operação de vírgula flutuante» (Floating-point operation)
PT: «Operação de vírgula flutuante», qualquer operação matemática ou atribuição que envolva números em vírgula flutuante, que são um subconjunto dos números reais normalmente representados em computadores por um número inteiro de precisão fixa escalado por um expoente inteiro de uma base fixa.
EN: ‘floating-point operation’ means any mathematical operation or assignment involving floating-point numbers, which are a subset of the real numbers typically represented on computers by an integer of fixed precision scaled by an integer exponent of a fixed base.
68) «Prestador a jusante» (Downstream provider)
PT: «Prestador a jusante», um prestador de um sistema de IA, incluindo um sistema de IA de finalidade geral, que integra um modelo de IA, independentemente de o modelo de IA ser disponibilizado por si próprio e verticalmente integrado ou ser disponibilizado por outra entidade com base em relações contratuais.
EN: ‘downstream provider’ means a provider of an AI system, including a general-purpose AI system, which integrates an AI model, regardless of whether the AI model is provided by themselves and vertically integrated or provided by another entity based on contractual relations.
Notas Finais
Observações metodológicas
-
Ordem de apresentação — As definições são apresentadas pela ordem numérica em que constam do artigo 3.º do Regulamento, que reflete a sequência lógica adotada pelo legislador europeu: começa pelos conceitos estruturantes (sistema de IA, risco), passa pelos atores do ecossistema (prestador, responsável pela implantação, importador, distribuidor), avança para os conceitos operacionais (colocação no mercado, finalidade prevista), desenvolve o aparelho de conformidade e fiscalização, e encerra com as definições relativas aos modelos de IA de finalidade geral, introduzidos numa fase tardia do processo legislativo.
-
Definições com subdivisões — Algumas definições incluem alíneas internas (nomeadamente as definições 45, 49 e 61), refletindo a complexidade e extensão dos conceitos que descrevem. Estas subdivisões foram integralmente reproduzidas.
-
Equivalência linguística — As versões portuguesa e inglesa são ambas autênticas e juridicamente vinculativas. Todavia, em caso de dúvida interpretativa, a consulta comparativa de múltiplas versões linguísticas é uma prática recomendada pela jurisprudência do TJUE (cf. Acórdão CILFIT, proc. C-283/81).
-
Definições por referência — Várias definições remetem para outros instrumentos legislativos da UE, nomeadamente o Regulamento (UE) 2016/679 (RGPD), a Diretiva (UE) 2016/680, o Regulamento (UE) 2018/1725, o Regulamento (UE) n.º 1025/2012, o Regulamento (UE) 2019/1020 e a Diretiva (UE) 2022/2557. Estas remissões criam uma teia normativa que deve ser lida de forma integrada.
Relevância para a prática jurídica em Portugal
O artigo 3.º do AI Act tem aplicabilidade direta em Portugal, sem necessidade de transposição, dado tratar-se de um regulamento europeu. As definições aqui sistematizadas vinculam diretamente todos os operadores económicos, autoridades públicas e responsáveis pela implantação de sistemas de IA em território português.
Para advogados portugueses, o domínio destas definições é particularmente relevante em matéria de:
-
Qualificação de clientes: determinar se um cliente é «prestador», «responsável pela implantação» ou «prestador a jusante» condiciona inteiramente o regime de obrigações aplicável.
-
Due diligence contratual: as definições de «colocação no mercado», «disponibilização no mercado» e «colocação em serviço» têm implicações diretas na redação de contratos de licenciamento e distribuição de sistemas de IA.
-
Avaliação de risco regulatório: a definição de «risco» e de «risco sistémico», conjugada com a classificação por níveis de risco do Capítulo III, determina a intensidade das obrigações de conformidade.
-
Contencioso e responsabilidade: as definições de «incidente grave», «modificação substancial» e «desempenho de um sistema de IA» são centrais para a aferição de responsabilidade em caso de dano.
Data de referência: 8 de abril de 2026

