Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial
    IA e Direito

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoAbril 18, 2026Updated:Abril 18, 2026Sem comentários23 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Imagem de fusão entre bandeira da UE e do Brasil com circuitos
    Imagem de fusão entre bandeira da UE e do Brasil com circuitos
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    O PL 2338/2023 brasileiro e o AI Act europeu partilham a mesma inspiração, mas divergem em pontos cruciais com consequências práticas para advogados que operam nos dois lados do Atlântico.

    Um especial / ensaio Juristech para a aproximação entre Portugal e a UE e o País Irmão.


    Introdução

    O Brasil é o quinto maior país do mundo em área com cerca de 8,5 milhões de km², mais do dobro da área combinada dos atuais Estados‑Membros da União Europeia (a qual ronda 4,23 milhões km²).

    A população do Brasil ronda atualmente os 214 milhões de habitantes, segundo estimativas recentes, e deverá aproximar‑se dos 220 milhões apenas na década de 2040.

    Trata-se, assim, de um player importante, a nível tecnológico, populacional, estratégico e económico, a nível mundial.

    Do lado brasileiro, a regulação de IA insere‑se num ecossistema jurídico que já combina o Marco Civil da Internet, frequentemente apelidado de “Constituição da Internet”, com a Lei Geral de Proteção de Dados (LGPD), amplamente descrita como o “RGPD brasileiro” por se inspirar no modelo europeu, e com um conjunto de propostas específicas para IA (em especial o PL 2338/2023) os quais adotam uma abordagem declaradamente centrada em direitos fundamentais, transparência e supervisão humana dos sistemas algorítmicos.

    A regulação da inteligência artificial deixou de ser uma questão teórica para se tornar uma urgência legislativa em duas das maiores jurisdições do mundo: a União Europeia e o Brasil.

    Na Europa, o AI Act / Regulamento da Inteligência Artificial (Regulamento (UE) 2024/1689) foi publicado a 12 de julho de 2024 e entrou em vigor a 1 de agosto de 2024, com um calendário de aplicação faseada que se estende, em princípio, até 2 de agosto de 2026 para a maioria das obrigações, e até 2027 para certos sistemas de risco elevado, enquanto a proposta de um chamado ‘Digital Omnibus’ ainda discute eventuais ajustes e prorrogações de prazos que, à data, não estão definitivamente aprovados.

    No Brasil, o já referido Projeto de Lei n.º 2338/2023, aprovado pelo Senado Federal em dezembro de 2024, que “dispõe sobre o uso da Inteligência Artificial”, encontra‑se em análise na Câmara dos Deputados, com o relator a sinalizar a intenção de votação ainda em 2026, embora o calendário permaneça dependente da dinâmica política na Comissão Especial e do contexto eleitoral.

    Para advogados portugueses, esta dupla movimentação regulatória é especialmente relevante. A conformidade com o AI Act europeu é uma obrigação direta para quem opera no espaço da UE. Mas o marco brasileiro não pode ser ignorado — sobretudo por escritórios com clientes brasileiros, operações luso‑brasileiras ou que assessorem empresas tecnológicas com presença nos dois mercados.

    E para os muitos advogados brasileiros a exercer em Portugal, compreender as diferenças entre os dois modelos é uma competência profissional cada vez mais relevante.

    Este artigo analisa as convergências e divergências entre o AI Act e o PL 2338/2023, identifica os pontos de tensão que permanecem em aberto no texto brasileiro e extrai implicações práticas para profissionais jurídicos que navegam entre os dois enquadramentos.


    1. A Arquitetura Comum: Regulação Baseada em Risco

    Tanto o AI Act como o PL 2338/2023 adotam uma abordagem de regulação baseada em risco — quanto maior o potencial de dano de um sistema de IA, mais rigorosas são as obrigações impostas aos seus fornecedores e utilizadores. Esta convergência não é acidental: o projeto brasileiro inspira‑se explicitamente no modelo europeu e em relatórios comparativos produzidos por centros de pesquisa como o ITS Rio.

    Em termos explicativos, é possível agrupar os sistemas de IA em quatro níveis:

    1. Risco inaceitável

      Sistemas de IA “considerados uma clara ameaça à saúde, à segurança ou aos direitos fundamentais das pessoas” e que são proibidos.

    2. Risco elevado (muitas chamado algo impropriamente “alto risco”)

      Casos de utilização que podem representar riscos graves para saúde, segurança ou direitos fundamentais e que ficam sujeitos a requisitos rigorosos.

    3. Risco limitado

      Sistemas com impacto mais reduzido, sujeitos sobretudo a obrigações de transparência específicas (por exemplo, informar que se está a interagir com IA).

    4. Risco mínimo 

      A grande maioria dos sistemas de IA, para os quais o regulamento não impõe requisitos específicos além do regime geral.

    A ideia nuclear é que a intensidade das obrigações aumenta com o potencial de impacto nos direitos fundamentais e na segurança.

    Apesar da arquitetura comum, o grau de detalhe diverge consideravelmente: o AI Act é um regulamento prescritivo, com obrigações específicas e prazos concretos para cada categoria de ator na cadeia de valor; o PL 2338/2023, tal como saiu do Senado, é mais focado em princípios, estabelece diretrizes gerais e remete vários pormenores para regulamentação futura pela autoridade competente e pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que ainda depende de aprovação legislativa complementar.


    2. Cinco Divergências Fundamentais

    2.1. Direitos dos Afetados: O Capítulo que a UE Não Tem

    Uma das inovações mais significativas do PL 2338/2023 é a consagração de um capítulo inteiro dedicado aos direitos das pessoas afetadas por sistemas de IA. O texto aprovado no Senado garante, entre outros, o direito à explicação de decisões automatizadas, o direito à contestação e revisão humana, e o direito à determinação humana em decisões relevantes para a esfera jurídica da pessoa.

    O AI Act europeu não ignora estes interesses, mas não os estrutura num capítulo autónomo de direitos subjetivos. Em vez disso, formula‑os como obrigações de fornecedores, importadores, distribuidores e utilizadores (por exemplo, exigindo supervisão humana adequada, transparência e informação aos utilizadores para sistemas de alto risco).

    A abordagem europeia é centrada em deveres regulatórios dos operadores; a brasileira, tal como atualmente desenhada, acrescenta uma perspetiva centrada em direitos explicitamente reconhecidos aos cidadãos afetados.

    Para advogados, esta diferença tem consequências práticas: no enquadramento brasileiro, um cidadão afetado por uma decisão algorítmica poderá invocar diretamente um direito subjetivo previsto em lei; na UE, a proteção resulta sobretudo da execução de obrigações regulatórias impostas a terceiros, complementadas por direitos mais gerais consagrados no RGPD, na Carta dos Direitos Fundamentais e em legislação setorial.

    2.2. Direitos de Autor e Treino de Modelos de IA

    O tema mais polémico do PL 2338/2023, e diria que o claramente mais diferenciado do AI Act, é a regulação dos direitos de autor no contexto do treino de modelos de IA. O texto aprovado pelo Senado prevê três mecanismos que ainda podem sofrer ajustes na Câmara dos Deputados: (i) obrigação de os fornecedores de sistemas de IA generativa informarem que obras protegidas foram utilizadas no treino dos seus modelos; (ii) direito dos titulares de direitos de autor de vetarem (opt‑out) a utilização das suas obras para treino; (iii) previsão de um sistema de remuneração justa pelo uso de conteúdos protegidos.

    Já o AI Act europeu remete expressamente a questão dos direitos de autor para o quadro existente, em particular para a Diretiva (UE) 2019/790 sobre direitos de autor no Mercado Único Digital, que regula a exceção de mineração de textos e dados (text and data mining).

    Em termos gerais, a legislação europeia permite a reprodução e extração de obras para fins de text and data mining – TDM – (incluindo aplicações comerciais), desde que os titulares de direitos não tenham expressamente reservado essa utilização, designadamente através de mecanismos técnicos ou cláusulas contratuais de opt‑out. (A arquitetura e os limites práticos deste regime de TDM, em particular o alcance do opt‑out para treino de modelos de IA merecem, porém, uma análise própria, que ficará para um artigo dedicado especificamente a este tema.)

    Deste modo, enquanto o projeto brasileiro caminha para um regime mais intervencionista, com potencial obrigação de transparência detalhada e mecanismos específicos de remuneração, o enquadramento europeu apoia‑se numa exceção de TDM relativamente permissiva, temperada pelo direito de reserva dos titulares e por regras setoriais adicionais.

    Esta divergência é objeto de intenso debate no Brasil: associações do setor tecnológico argumentam que as exigências podem encarecer o desenvolvimento de modelos de IA e desincentivar investimentos, enquanto a comunidade criativa defende que a proteção é necessária para evitar apropriação não consentida de obras intelectuais.

    Como ilustra a tabela seguinte, o debate em torno do PL 2338/2023 estrutura‑se, em larga medida, num eixo que opõe preocupações do setor tecnológico com custos, competitividade e atração de investimento às reivindicações do setor cultural por proteção efetiva, transparência e remuneração pelo uso de obras no treino de sistemas de IA.

    Dada a importância do tema, dexamos essa tabela a seguir, para vossa investigação:

    Fontes do lado “tech / inovação” (custos, competitividade, investimento)

    Descrição Fonte / link
    Análise crítica AI Act vs. PL 2338, incluindo impacto regulatório https://www.jota.info/opiniao-e-analise/artigos/ai-act-e-pl-2338-uma-analise-critica-das-estruturas-regulatorias-de-ia
    Audiência na Câmara – críticas a modelo rígido de regulação de IA https://www.camara.leg.br/noticias/1187613-especialistas-criticam-projeto-de-lei-e-defendem-modelo-flexivel-de-regulacao-para-inteligencia-artificial
    Análise jurídica do PL 2338/2023 (impactos para desenvolvimento de IA) https://dspace.mackenzie.br/items/d93bfc97-6804-4a67-ac7e-e35ffca47adb
    Nota da ABES: restrições em direitos autorais e treinamento de modelos https://dplnews.com/brasil-abes-critica-texto-do-senado-sobre-ia-e-alerta-para-restricoes-em-direitos-autorais-e-treinamento/
    Artigo sobre Marco da IA e direitos autorais (riscos para inovação) https://riccipi.com.br/marco-ia-direitos-autorais/
    Análise sobre regulamentação da IA e impactos para empresas https://www.sydle.com/br/blog/regulamentacao-da-ia-6940204452c94552428b9ac1
    Ensaio Reglab sobre remuneração autoral e implicações regulatórias https://reglab.com.br/wp-content/uploads/2025/05/rl-ensaio-ia-e-direito-autoral.pdf
    Texto de sociedade civil sobre PL 2338/2023 e desenho regulatório https://direitosnarede.org.br/2024/06/18/projeto-de-lei-n-2338-2023/

    Fontes do lado “autores / setor cultural” (proteção, remuneração, apropriação)

    Descrição Fonte / link
    Entidades culturais pedem proteção a autores e artistas no PL da IA https://www.abi.org.br/entidades-de-diferentes-setores-culturais-pedem-protecao-a-autores-e-artistas-no-pl-da-inteligencia-artificial/
    UBC e 25 instituições pedem que futura lei de IA proteja autores https://www.ubc.org.br/publicacoes/noticias/ubc-e-25-instituicoes-pedem-ao-senado-que-futura-lei-de-ia-proteja-autores
    Nota do Ministério da Cultura sobre direitos autorais, remuneração e IA https://www.gov.br/cultura/pt-br/assuntos/noticias/direitos-autorais-remuneracao-e-inteligencia-artificial

    2.3. Governança: SIA vs. Autoridades Nacionais Designadas

    Na arquitetura institucional, os dois modelos seguem caminhos distintos.

    O AI Act prevê um sistema de governança multinível: cada Estado‑Membro designa as suas autoridades nacionais competentes (de vigilância de mercado e de notificação), articuladas a nível europeu pelo Serviço Europeu para a IA (EU AI Office), pelo Conselho Europeu da IA (AI Board) e por um painel científico de peritos independentes. Este arranjo procura combinar supervisão descentralizada com coordenação e consistência a nível da UE.

    O PL 2338/2023, por sua vez, propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). O SIA integraria reguladores setoriais (como a ANATEL para telecomunicações ou a ANS para saúde), o Comitê de Cooperação Regulatória de IA (CRIA) e o Comitê de Especialistas e Cientistas de IA (CECIA).

    A escolha da ANPD como entidade coordenadora acompanha o peso dos temas de dados pessoais na regulação de IA, mas suscita preocupações sobre concentração de competências numa autoridade que ainda consolida a sua estrutura e recursos.

    Importa sublinhar que a arquitetura exata do SIA ainda depende da aprovação de um projeto de lei complementar enviado pelo Poder Executivo e de eventuais emendas na Câmara dos Deputados, pelo que o desenho institucional definitivo pode divergir do modelo atualmente proposto.

    2.4. Responsabilidade Civil: Objetiva vs. Modelo Europeu Pós‑AILD

    O regime de responsabilidade civil é outro ponto de divergência relevante.

    O PL 2338/2023, nos seus artigos 35 e 36, consagra um modelo de responsabilidade objetiva e, em vários casos, solidária entre desenvolvedores, operadores e outros agentes da cadeia de valor de sistemas de IA, dispensando a demonstração de culpa em determinadas situações.

    Esta opção tem sido criticada por associações empresariais e entidades do setor tecnológico, que alertam para o risco de exposição desproporcionada, inclusive de pequenos utilizadores de ferramentas de IA, e para o potencial efeito dissuasor sobre inovação e investimento.

    Por outro lado, é defendida por quem vê na responsabilidade objetiva um instrumento de reforço da proteção de direitos fundamentais e de distribuição mais equilibrada dos riscos tecnológicos.

    Na UE, o caminho acabou por ser diferente do inicialmente desenhado. A Comissão Europeia chegou a propor, em 2022, uma Diretiva específica sobre responsabilidade por inteligência artificial (AI Liability Directive, AILD), destinada a harmonizar certos aspetos da responsabilidade civil extracontratual por danos causados com o envolvimento de sistemas de IA, introduzindo presunções de culpa e regras de acesso à prova inspiradas no AI Act.

    Contudo, essa proposta foi formalmente retirada em 2025, no âmbito do Programa de Trabalho da Comissão, por falta de perspetivas de consenso entre os Estados‑Membros e numa lógica de simplificação do quadro regulatório.

    Em vez de uma diretiva setorial sobre IA, o legislador europeu optou por modernizar o regime geral de responsabilidade objetiva do produtor através da nova Diretiva (UE) 2024/2853 sobre responsabilidade por produtos defeituosos, que alarga o âmbito de aplicação a software e sistemas baseados em IA (que, portanto, passam a ser considerados “produto”) e atualiza vários conceitos‑chave (incluindo “produto”, “defeito” e danos indemnizáveis).

    O resultado é que, ao contrário do modelo brasileiro proposto, a UE combina: (i) um quadro regulatório ex ante assente no AI Act (obrigações de conformidade, gestão de risco, supervisão humana, transparência) e (ii) um regime de responsabilidade civil que continua, em larga medida, a ser definido pelo direito nacional dos Estados‑Membros, complementado pela nova diretiva de responsabilidade do produtor, mas sem um instrumento horizontal específico para responsabilidade por IA.

    Em termos sistémicos, o PL 2338/2023 procura “fechar o circuito” da responsabilidade numa só lei, articulando num mesmo diploma regras de conformidade ex ante e um regime de responsabilidade civil fortemente objetivado, enquanto o modelo europeu prefere separar funções: o AI Act regula o ciclo de vida dos sistemas de IA, e a tutela indemnizatória ex post permanece repartida entre a Diretiva (UE) 2024/2853 e os ordenamentos nacionais, que continuam a aplicar os seus próprios princípios de culpa, nexo de causalidade e repartição de riscos.

    2.5. Sanções: Escala e Proporcionalidade

    Ambos os textos preveem sanções financeiras significativas, mas com escalas e fórmulas distintas.

    O AI Act estabelece multas administrativas máximas que podem atingir 35 milhões de euros ou 7 % do volume de negócios anual mundial para violações de práticas de IA proibidas, descendo para 15 milhões de euros ou 3 % para determinadas violações de obrigações relativas a sistemas de alto risco, e 7,5 milhões de euros ou 1 % (em alguns resumos, 1,5 %) para a prestação de informações incorretas ou enganosas às autoridades. A indexação ao volume de negócios global confere ao AI Act um efeito dissuasor particularmente forte para grandes empresas tecnológicas.

    O PL 2338/2023 prevê penalidades administrativas que podem chegar a 50 milhões de reais por infração, além de outras medidas como a suspensão do exercício da atividade de tratamento de dados relacionados a IA ou mesmo a proibição de funcionamento do sistema em causa. Em termos absolutos, as multas máximas europeias são mais elevadas; em termos relativos, o impacto efetivo dependerá da dimensão do agente e da forma como as autoridades nacionais, na UE e no Brasil, calibrarão a aplicação concreta dessas sanções.


    3. O Calendário: Onde Estamos em Abril de 2026

    UE: Implementação Faseada em Curso

    O AI Act europeu segue um calendário de implementação escalonado, já em execução em 2026. O regulamento entrou em vigor a 1 de agosto de 2024, mas as diferentes obrigações tornam‑se aplicáveis em momentos distintos.

    De acordo com cronogramas oficiais e guias de implementação, as proibições de práticas de IA de risco inaceitável e as obrigações de literacia em IA passaram a aplicar‑se a 2 de fevereiro de 2025.

    A 2 de agosto de 2025, tornaram‑se aplicáveis as regras para modelos de IA de uso geral (general‑purpose AI, GPAI) e as disposições de governação, e os Estados‑Membros passaram a estar obrigados a designar as respetivas autoridades nacionais competentes e a ter os regimes sancionatórios em vigor.

    A 2 de agosto de 2026, está prevista a aplicabilidade da maioria das restantes obrigações, incluindo o regime completo para sistemas de alto risco listados no Anexo III, o conjunto principal de obrigações de transparência (como as previstas no artigo 50.º) e a exigência de que cada Estado‑Membro tenha, pelo menos, um sandbox regulatório de IA operacional.

    A partir dessa data, as autoridades nacionais e o EU AI Office deverão poder exercer, de forma mais plena, poderes de fiscalização, correção e sancionamento, ainda que o grau de prontidão possa variar entre Estados‑Membros e que o chamado “Digital Omnibus” esteja, em 2026, a ser discutido para ajustar alguns prazos aplicáveis a sistemas de alto risco.

    Brasil: Tramitação em Ano Eleitoral

    O PL 2338/2023 encontra‑se, em abril de 2026, na Comissão Especial da Câmara dos Deputados, aguardando parecer do relator, deputado Aguinaldo Ribeiro. O relator indicou publicamente, em entrevistas recentes, que uma parte substancial do texto já se encontra consolidada, apontando que os pontos mais sensíveis em discussão se concentram na disciplina de direitos de autor e na articulação com o projeto que institui formalmente o SIA.

    Cenários divulgados na imprensa especializada mencionam a possibilidade de votação na Câmara ao longo de 2026, em momento a articular com o calendário eleitoral brasileiro (as eleições gerais estão marcadas para outubro de 2026). Mesmo que a Câmara aprove o texto ainda em 2026, é provável que o projeto tenha de retornar ao Senado, dado que o substitutivo deverá sofrer alterações e harmonizações, inclusive em função do projeto do SIA enviado pelo Poder Executivo.

    Entretanto, a ANPD não tem aguardado passivamente a aprovação do marco legal para atuar sobre casos de IA. A autoridade já incluiu a inteligência artificial como um dos eixos prioritários do seu plano de fiscalização para 2026–2027 e vem aplicando, de forma crescente, as competências que lhe são conferidas pela Lei Geral de Proteção de Dados (LGPD), em particular o artigo 20.º, que regula decisões tomadas unicamente com base em tratamento automatizado de dados pessoais.6 Além disso, outros órgãos, como o Tribunal Superior Eleitoral (TSE), editaram normas específicas sobre uso de IA em campanhas eleitorais e desinformação, criando um mosaico regulatório setorial que tende a ser integrado pelo futuro marco de IA.


    4. Implicações Práticas para Advogados

    Para quem exerce em Portugal (e na UE)

    Para advogados que atuam em Portugal e no espaço da UE, a prioridade imediata é a preparação para o momento em que o regime completo do AI Act para sistemas de risco elevado se tornar aplicável, previsto para agosto de 2026.

    Isto implica, em termos práticos, mapear os sistemas de IA que cada escritório utiliza ou sobre os quais presta assessoria, classificá‑los por nível de risco e verificar a conformidade com as obrigações relevantes (documentação técnica, gestão de risco, avaliação de impacto nos direitos fundamentais, supervisão humana, registo em bases de dados quando aplicável).

    Os contratos com fornecedores e parceiros tecnológicos devem começar a refletir, de forma clara, a distribuição de responsabilidades imposta pelo AI Act ao longo da cadeia de valor (fornecedores, importadores, distribuidores, utilizadores), incluindo cláusulas sobre partilha de informação, cooperação em auditorias, reporte de incidentes e atualização contínua de modelos.

    Para advogados que assessoram empresas com operações no Brasil ou planos de expansão para o mercado brasileiro, o acompanhamento da tramitação do PL 2338/2023 torna‑se essencial, especialmente em temas como direitos de autor no treino de modelos de IA (cruciais para empresas de media, entretenimento e plataformas digitais) e responsabilidade objetiva (relevante para qualquer organização que utilize IA em decisões com impacto significativo sobre pessoas).

    Para advogados brasileiros a exercer em Portugal

    Para advogados brasileiros que hoje exercem em Portugal, o conhecimento aprofundado do PL 2338/2023 e do conjunto de normas setoriais brasileiras sobre IA constitui uma vantagem competitiva concreta. A capacidade de assessorar clientes brasileiros que operam na UE (ou empresas europeias que pretendem expandir‑se para o Brasil) na articulação entre os dois enquadramentos regulatórios representa uma competência de nicho com procura crescente.

    Áreas de particular relevância incluem a gestão de direitos de autor no treino de modelos de IA (onde o regime em discussão no Brasil caminha para ser mais exigente do que o europeu), a responsabilidade civil por danos causados por IA (com modelos conceptualmente distintos nos dois ordenamentos) e a conformidade simultânea com LGPD e RGPD no tratamento de dados por sistemas de IA.

    Para todos os profissionais jurídicos

    Independentemente da jurisdição, três tendências parecem consolidar‑se: (i) a crescente exigência de transparência algorítmica; (ii) a necessidade de supervisão humana em decisões automatizadas de alto impacto; (iii) a consolidação da abordagem baseada em risco como paradigma regulatório global para a IA.

    Profissionais jurídicos que dominem estes conceitos e as diferenças de implementação entre regimes como o europeu e o brasileiro estarão mais bem posicionados num mercado que se torna, rapidamente, mais regulado e tecnicamente exigente e mais global em termos de mercado e influxo UE/Brasil.

    Mais do que um mero desafio de conformidade, esta dupla regulação abre espaço para novas oportunidades de prática jurídica: desenho de programas de governance de IA, auditorias regulatórias, negociação contratual em cadeias globais de fornecimento de IA e contencioso estratégico em matéria de direitos fundamentais, dados pessoais e responsabilidade civil.


    5. Modelos de “Performance” e Deepfakes em Tempo Real: O Futuro que o AI Act Já Está a Tentar Domar

    Se o AI Act e o PL 2338/2023 parecem, por vezes, abstratos, basta olhar para modelos como o (incrível, diria eu) LPM 1.0 (Large / Live Performance Model) (https://large-performance-model.github.io) para perceber que o futuro regulatório já chegou.

    Publicado em 2026 por uma equipa de investigação chinesa, o LPM 1.0 é um modelo de “character performance” baseado em vídeo que transforma uma única imagem estática num avatar que fala, ouve, reage e mantém a identidade ao longo de interações potencialmente infinitas, em tempo quase real.

    Do ponto de vista técnico, o LPM 1.0 combina um grande modelo de difusão (diffusion model com dezenas de milhares de milhões de parâmetros) com uma arquitetura pensada para resolver o que os autores chamam de “performance trilemma”: conciliar expressividade elevada (gestos, emoções, naturalidade), inferência em tempo real e estabilidade de identidade em interações longas. Em termos práticos, isto significa que um avatar pode “escutar” e “falar” alternadamente, reagir ao interlocutor e manter uma aparência coerente ao longo de uma conversa prolongada – muito para além dos clipes curtos de vídeo gerados por soluções tradicionais de lip‑sync ou talking head.

    É precisamente aqui que o AI Act começa a mostrar a sua relevância. O artigo 50.º do regulamento europeu estabelece um conjunto de obrigações de transparência para sistemas que geram conteúdo sintético: os fornecedores de sistemas de IA, incluindo modelos de uso geral, que produzam áudio, imagem, vídeo ou texto sintéticos devem assegurar que os outputs são marcados de forma a serem detetáveis como artificialmente gerados ou manipulados; e os utilizadores que difundam deepfakes em contexto profissional devem revelar que o conteúdo é artificial.

    A lógica é evidente: quando modelos como o LPM 1.0 forem acoplados a grandes modelos de linguagem e integrados em produtos comerciais, será possível criar personagens políticas, líderes empresariais ou peritos “virtuais” que, em vídeo, são praticamente indistinguíveis de uma pessoa real – um cenário ideal para desinformação, fraude e manipulação em escala.

    Os próprios autores do LPM 1.0 reconhecem este risco e, por isso, indicam que o modelo é, por agora, apenas um projeto de investigação, sem disponibilização pública de pesos, API ou demos abertas, e que qualquer eventual libertação futura dependerá da existência de salvaguardas robustas de uso responsável.

    A Europa tenta antecipar este tipo de cenário com exigências de marcação nativa, rotulagem de deepfakes e códigos de boas práticas complementares; o Brasil, por sua vez, discute como articular o PL 2338/2023 com a LGPD, o Marco Civil da Internet e normas setoriais (por exemplo, em contexto eleitoral) para lidar com riscos semelhantes de manipulação algorítmica.

    Uma análise aprofundada deste novo ecossistema de avatares em tempo real, deepfakes interativos e modelos de “performance” – incluindo o LPM 1.0 e outros projetos emergentes – ultrapassa o escopo deste artigo. Será tema de um texto próprio, centrado em desinformação automatizada, integridade eleitoral, riscos para a prova digital e os desafios que estes sistemas colocam à arquitetura regulatória desenhada pelo AI Act e pelo PL 2338/2023.

    Conclusão

    O Regulamento da Inteligência Artificia europeu e o PL 2338/2023 brasileiro partilham a mesma ambição: regular a inteligência artificial de forma a proteger direitos fundamentais e valores democráticos, sem sufocar a inovação tecnológica. Partilham também uma arquitetura comum, assente na classificação de sistemas por níveis de risco e em mecanismos de gestão de risco proporcionais.

    Mas as diferenças não são marginais. Em direitos de autor, responsabilidade civil, direitos dos afetados e estrutura de governança, o projeto brasileiro tende a uma regulação mais centrada em direitos subjetivos, responsabilidade objetiva e coordenação centralizada pela autoridade de proteção de dados, enquanto o modelo europeu privilegia deveres regulatórios distribuídos, coordenação multinível e integração com o acervo jurídico existente.

    Para o ecossistema jurídico luso‑brasileiro, este cenário é tão desafiante quanto promissor. A capacidade de articular os dois enquadramentos, identificar tensões e sinergias e aconselhar clientes que navegam entre eles é uma competência que poucos profissionais oferecem — e que o mercado, cada vez mais, procura.

    O JurisTech.pt continuará a acompanhar a evolução do PL 2338/2023 na Câmara dos Deputados, a definição do SIA e as próximas fases de implementação do AI Act, com análises dedicadas a cada uma das áreas de divergência aqui identificadas.


    Referências

    # Fonte Descrição
    1 Regulamento (UE) 2024/1689 AI Act — Regulamento Europeu sobre Inteligência Artificial, publicado no Jornal Oficial da UE a 12 de julho de 2024
    2 PL 2338/2023 — Senado Federal Projeto de Lei que dispõe sobre o uso da Inteligência Artificial no Brasil, aprovado pelo Senado em dezembro de 2024
    3 PL 2338/2023 — Câmara dos Deputados Ficha de tramitação do PL na Câmara, com acompanhamento da Comissão Especial
    4 EU AI Act Implementation Timeline Cronograma de implementação do AI Act e explicação das principais fases
    5 ITS Rio — Matriz Comparada PL 2338 vs. EU AI Act Relatório comparativo detalhado das obrigações dos dois textos
    6 ANPD — Propostas de Alteração ao PL 2338 Contribuições da ANPD ao texto legislativo e ao desenho do SIA
    7 Mobile Time — Relator do Marco de IA indica votação em 2026 Declarações do relator Aguinaldo Ribeiro sobre o calendário legislativo
    8 Senado Federal aprova marco regulatório da IA Nota oficial sobre a aprovação do PL 2338/2023 pelo Senado
    9 EU AI Act 2026: Requirements, Fines & Compliance Guide Guia prático de requisitos, sanções e prazos do AI Act
    10 Diretiva (UE) 2019/790 Diretiva de Direitos de Autor no Mercado Único Digital
    11 Artificial Intelligence Act — Wikipedia Síntese geral do AI Act e do processo legislativo europeu
    12 Senado aprova novo marco regulatório da IA — Opice Blum Análise de escritório brasileiro sobre o texto aprovado no Senado
    13 TSE — Regras sobre IA nas Eleições 2026 Regulamentação setorial do uso de IA no processo eleitoral brasileiro
    14 EU Regulation 2024/1689 and How It Will Affect the Use of AI Resumo empresarial das principais obrigações do AI Act
    15 PL 2338/2023 — Atualizações e documentos Página do Senado com o texto do PL e documentos relacionados

    Sugestão de imagem de destaque:

    Brasil Compliance Direito Comparado Direito Digital EU AI Act IA PL 2338/2023 Regulação
    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Chatbots sicofantes e espirais delirantes: até um utilizador racional pode ser enganado

    Abril 12, 2026

    Glossário Bilingue das Definições do AI Act

    Abril 8, 2026

    Reflexões e uma Entrevista Íntima com uma IA

    Abril 6, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}