O PL 2338/2023 brasileiro e o AI Act europeu partilham a mesma inspiração, mas divergem em pontos cruciais com consequências práticas para advogados que operam nos dois lados do Atlântico.
Um especial / ensaio Juristech para a aproximação entre Portugal e a UE e o País Irmão.
Introdução
O Brasil é o quinto maior país do mundo em área com cerca de 8,5 milhões de km², mais do dobro da área combinada dos atuais Estados‑Membros da União Europeia (a qual ronda 4,23 milhões km²).
A população do Brasil ronda atualmente os 214 milhões de habitantes, segundo estimativas recentes, e .
Trata-se, assim, de um player importante, a nível tecnológico, populacional, estratégico e económico, a nível mundial.
Do lado brasileiro, a regulação de IA insere‑se num ecossistema jurídico que já combina o , frequentemente apelidado de “Constituição da Internet”, com a , amplamente descrita como o “” por se inspirar no modelo europeu, e com um conjunto de propostas específicas para IA (em especial o ) os quais adotam uma abordagem declaradamente centrada em direitos fundamentais, transparência e supervisão humana dos sistemas algorítmicos.
A regulação da inteligência artificial deixou de ser uma questão teórica para se tornar uma urgência legislativa em duas das maiores jurisdições do mundo: a União Europeia e o Brasil.
Na Europa, o AI Act / Regulamento da Inteligência Artificial (Regulamento (UE) 2024/1689) foi publicado a 12 de julho de 2024 e entrou em vigor a 1 de agosto de 2024, com um calendário de aplicação faseada que se estende, em princípio, a, enquanto a proposta de um chamado ‘Digital Omnibus’ ainda discute eventuais ajustes e prorrogações de prazos que, à data, não estão definitivamente aprovados.
No Brasil, o já referido Projeto de Lei n.º 2338/2023, aprovado pelo Senado Federal em dezembro de 2024, que “dispõe sobre o uso da Inteligência Artificial”, encontra‑se em análise na Câmara dos Deputados, com o relator a sinalizar a intenção de votação ainda em 2026, embora o calendário permaneça dependente da dinâmica política na Comissão Especial e do contexto eleitoral.
Para advogados portugueses, esta dupla movimentação regulatória é especialmente relevante. A conformidade com o AI Act europeu é uma obrigação direta para quem opera no espaço da UE. Mas o marco brasileiro não pode ser ignorado — sobretudo por escritórios com clientes brasileiros, operações luso‑brasileiras ou que assessorem empresas tecnológicas com presença nos dois mercados.
E para os muitos advogados brasileiros a exercer em Portugal, compreender as diferenças entre os dois modelos é uma competência profissional cada vez mais relevante.
Este artigo analisa as convergências e divergências entre o AI Act e o PL 2338/2023, identifica os pontos de tensão que permanecem em aberto no texto brasileiro e extrai implicações práticas para profissionais jurídicos que navegam entre os dois enquadramentos.
1. A Arquitetura Comum: Regulação Baseada em Risco
Tanto o AI Act como o PL 2338/2023 adotam uma abordagem de regulação baseada em risco — quanto maior o potencial de dano de um sistema de IA, mais rigorosas são as obrigações impostas aos seus fornecedores e utilizadores. Esta convergência não é acidental: o projeto brasileiro inspira‑se explicitamente no modelo europeu e em relatórios comparativos produzidos por centros de pesquisa como o ITS Rio.
Em termos explicativos, é possível agrupar os sistemas de IA em quatro níveis:
-
Risco inaceitável
Sistemas de IA “considerados uma clara ameaça à saúde, à segurança ou aos direitos fundamentais das pessoas” e que são proibidos.
-
Risco elevado (muitas chamado algo impropriamente “alto risco”)
Casos de utilização que podem representar riscos graves para saúde, segurança ou direitos fundamentais e que ficam sujeitos a requisitos rigorosos.
-
Risco limitado
Sistemas com impacto mais reduzido, sujeitos sobretudo a obrigações de transparência específicas (por exemplo, informar que se está a interagir com IA).
-
Risco mínimo
A grande maioria dos sistemas de IA, para os quais o regulamento não impõe requisitos específicos além do regime geral.
A ideia nuclear é que a intensidade das obrigações aumenta com o potencial de impacto nos direitos fundamentais e na segurança.
Apesar da arquitetura comum, o grau de detalhe diverge consideravelmente: o AI Act é um regulamento prescritivo, com obrigações específicas e prazos concretos para cada categoria de ator na cadeia de valor; o PL 2338/2023, tal como saiu do Senado, é mais focado em princípios, estabelece diretrizes gerais e remete vários pormenores para regulamentação futura pela autoridade competente e pelo Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que ainda depende de aprovação legislativa complementar.
2. Cinco Divergências Fundamentais
2.1. Direitos dos Afetados: O Capítulo que a UE Não Tem
Uma das inovações mais significativas do PL 2338/2023 é a consagração de um capítulo inteiro dedicado aos direitos das pessoas afetadas por sistemas de IA. O texto aprovado no Senado garante, entre outros, o direito à explicação de decisões automatizadas, o direito à contestação e revisão humana, e o direito à determinação humana em decisões relevantes para a esfera jurídica da pessoa.
O AI Act europeu não ignora estes interesses, mas não os estrutura num capítulo autónomo de direitos subjetivos. Em vez disso, formula‑os como obrigações de fornecedores, importadores, distribuidores e utilizadores (por exemplo, exigindo supervisão humana adequada, transparência e informação aos utilizadores para sistemas de alto risco).
A abordagem europeia é centrada em deveres regulatórios dos operadores; a brasileira, tal como atualmente desenhada, acrescenta uma perspetiva centrada em direitos explicitamente reconhecidos aos cidadãos afetados.
Para advogados, esta diferença tem consequências práticas: no enquadramento brasileiro, um cidadão afetado por uma decisão algorítmica poderá invocar diretamente um direito subjetivo previsto em lei; na UE, a proteção resulta sobretudo da execução de obrigações regulatórias impostas a terceiros, complementadas por direitos mais gerais consagrados no RGPD, na Carta dos Direitos Fundamentais e em legislação setorial.
2.2. Direitos de Autor e Treino de Modelos de IA
O tema mais polémico do PL 2338/2023, e diria que o claramente mais diferenciado do AI Act, é a regulação dos direitos de autor no contexto do treino de modelos de IA. O texto aprovado pelo Senado prevê três mecanismos que ainda podem sofrer ajustes na Câmara dos Deputados: (i) obrigação de os fornecedores de sistemas de IA generativa informarem que obras protegidas foram utilizadas no treino dos seus modelos; (ii) direito dos titulares de direitos de autor de vetarem (opt‑out) a utilização das suas obras para treino; (iii) previsão de um sistema de remuneração justa pelo uso de conteúdos protegidos.
Já o AI Act europeu remete expressamente a questão dos direitos de autor para o quadro existente, em particular para a Diretiva (UE) 2019/790 sobre direitos de autor no Mercado Único Digital, que regula a exceção de mineração de textos e dados (text and data mining).
Em termos gerais, a legislação europeia permite a reprodução e extração de obras para fins de text and data mining – TDM – (incluindo aplicações comerciais), desde que os titulares de direitos não tenham expressamente reservado essa utilização, designadamente através de mecanismos técnicos ou cláusulas contratuais de opt‑out. (A arquitetura e os limites práticos deste regime de TDM, em particular o alcance do opt‑out para treino de modelos de IA merecem, porém, uma análise própria, que ficará para um artigo dedicado especificamente a este tema.)
Deste modo, enquanto o projeto brasileiro caminha para um regime mais intervencionista, com potencial obrigação de transparência detalhada e mecanismos específicos de remuneração, o enquadramento europeu apoia‑se numa exceção de TDM relativamente permissiva, temperada pelo direito de reserva dos titulares e por regras setoriais adicionais.
Esta divergência é objeto de intenso debate no Brasil: associações do setor tecnológico argumentam que as exigências podem encarecer o desenvolvimento de modelos de IA e desincentivar investimentos, enquanto a comunidade criativa defende que a proteção é necessária para evitar apropriação não consentida de obras intelectuais.
Como ilustra a tabela seguinte, o debate em torno do PL 2338/2023 estrutura‑se, em larga medida, num eixo que opõe preocupações do setor tecnológico com custos, competitividade e atração de investimento às reivindicações do setor cultural por proteção efetiva, transparência e remuneração pelo uso de obras no treino de sistemas de IA.
Dada a importância do tema, dexamos essa tabela a seguir, para vossa investigação:
Fontes do lado “tech / inovação” (custos, competitividade, investimento)
Fontes do lado “autores / setor cultural” (proteção, remuneração, apropriação)
| Descrição | Fonte / link |
|---|---|
| Entidades culturais pedem proteção a autores e artistas no PL da IA | https://www.abi.org.br/entidades-de-diferentes-setores-culturais-pedem-protecao-a-autores-e-artistas-no-pl-da-inteligencia-artificial/ |
| UBC e 25 instituições pedem que futura lei de IA proteja autores | https://www.ubc.org.br/publicacoes/noticias/ubc-e-25-instituicoes-pedem-ao-senado-que-futura-lei-de-ia-proteja-autores |
| Nota do Ministério da Cultura sobre direitos autorais, remuneração e IA | https://www.gov.br/cultura/pt-br/assuntos/noticias/direitos-autorais-remuneracao-e-inteligencia-artificial |
2.3. Governança: SIA vs. Autoridades Nacionais Designadas
Na arquitetura institucional, os dois modelos seguem caminhos distintos.
O AI Act prevê um sistema de governança multinível: cada Estado‑Membro designa as suas autoridades nacionais competentes (de vigilância de mercado e de notificação), articuladas a nível europeu pelo Serviço Europeu para a IA (EU AI Office), pelo Conselho Europeu da IA (AI Board) e por um painel científico de peritos independentes. Este arranjo procura combinar supervisão descentralizada com coordenação e consistência a nível da UE.
O PL 2338/2023, por sua vez, propõe a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). O SIA integraria reguladores setoriais (como a ANATEL para telecomunicações ou a ANS para saúde), o Comitê de Cooperação Regulatória de IA (CRIA) e o Comitê de Especialistas e Cientistas de IA (CECIA).
A escolha da ANPD como entidade coordenadora acompanha o peso dos temas de dados pessoais na regulação de IA, mas suscita preocupações sobre concentração de competências numa autoridade que ainda consolida a sua estrutura e recursos.
Importa sublinhar que a arquitetura exata do SIA ainda depende da aprovação de um projeto de lei complementar enviado pelo Poder Executivo e de eventuais emendas na Câmara dos Deputados, pelo que o desenho institucional definitivo pode divergir do modelo atualmente proposto.
2.4. Responsabilidade Civil: Objetiva vs. Modelo Europeu Pós‑AILD
O regime de responsabilidade civil é outro ponto de divergência relevante.
O PL 2338/2023, nos seus artigos 35 e 36, consagra um modelo de responsabilidade objetiva e, em vários casos, solidária entre desenvolvedores, operadores e outros agentes da cadeia de valor de sistemas de IA, dispensando a demonstração de culpa em determinadas situações.
Esta opção tem sido criticada por associações empresariais e entidades do setor tecnológico, que alertam para o risco de exposição desproporcionada, inclusive de pequenos utilizadores de ferramentas de IA, e para o potencial efeito dissuasor sobre inovação e investimento.
Por outro lado, é defendida por quem vê na responsabilidade objetiva um instrumento de reforço da proteção de direitos fundamentais e de distribuição mais equilibrada dos riscos tecnológicos.
Na UE, o caminho acabou por ser diferente do inicialmente desenhado. A Comissão Europeia chegou a propor, em 2022, uma Diretiva específica sobre responsabilidade por inteligência artificial (AI Liability Directive, AILD), destinada a harmonizar certos aspetos da responsabilidade civil extracontratual por danos causados com o envolvimento de sistemas de IA, introduzindo presunções de culpa e regras de acesso à prova inspiradas no AI Act.
Contudo, essa proposta foi formalmente retirada em 2025, no âmbito do Programa de Trabalho da Comissão, por falta de perspetivas de consenso entre os Estados‑Membros e numa lógica de simplificação do quadro regulatório.
Em vez de uma diretiva setorial sobre IA, o legislador europeu optou por modernizar o regime geral de responsabilidade objetiva do produtor através da nova , que alarga o âmbito de aplicação a software e sistemas baseados em IA (que, portanto, passam a ser considerados “produto”) e atualiza vários conceitos‑chave (incluindo “produto”, “defeito” e danos indemnizáveis).
O resultado é que, ao contrário do modelo brasileiro proposto, a UE combina: (i) um quadro regulatório ex ante assente no AI Act (obrigações de conformidade, gestão de risco, supervisão humana, transparência) e (ii) um regime de responsabilidade civil que continua, em larga medida, a ser definido pelo direito nacional dos Estados‑Membros, complementado pela nova diretiva de responsabilidade do produtor, mas sem um instrumento horizontal específico para responsabilidade por IA.
Em termos sistémicos, o PL 2338/2023 procura “fechar o circuito” da responsabilidade numa só lei, articulando num mesmo diploma regras de conformidade ex ante e um regime de responsabilidade civil fortemente objetivado, enquanto o modelo europeu prefere separar funções: o AI Act regula o ciclo de vida dos sistemas de IA, e a tutela indemnizatória ex post permanece repartida entre a Diretiva (UE) 2024/2853 e os ordenamentos nacionais, que continuam a aplicar os seus próprios princípios de culpa, nexo de causalidade e repartição de riscos.
2.5. Sanções: Escala e Proporcionalidade
Ambos os textos preveem sanções financeiras significativas, mas com escalas e fórmulas distintas.
O AI Act estabelece multas administrativas máximas que podem atingir 35 milhões de euros ou 7 % do volume de negócios anual mundial para violações de práticas de IA proibidas, descendo para 15 milhões de euros ou 3 % para determinadas violações de obrigações relativas a sistemas de alto risco, e 7,5 milhões de euros ou 1 % (em alguns resumos, 1,5 %) para a prestação de informações incorretas ou enganosas às autoridades. A indexação ao volume de negócios global confere ao AI Act um efeito dissuasor particularmente forte para grandes empresas tecnológicas.
O PL 2338/2023 prevê penalidades administrativas que podem chegar a 50 milhões de reais por infração, além de outras medidas como a suspensão do exercício da atividade de tratamento de dados relacionados a IA ou mesmo a proibição de funcionamento do sistema em causa. Em termos absolutos, as multas máximas europeias são mais elevadas; em termos relativos, o impacto efetivo dependerá da dimensão do agente e da forma como as autoridades nacionais, na UE e no Brasil, calibrarão a aplicação concreta dessas sanções.
3. O Calendário: Onde Estamos em Abril de 2026
UE: Implementação Faseada em Curso
O AI Act europeu segue um calendário de implementação escalonado, já em execução em 2026. O regulamento entrou em vigor a 1 de agosto de 2024, mas as diferentes obrigações tornam‑se aplicáveis em momentos distintos.
De acordo com cronogramas oficiais e guias de implementação, as proibições de práticas de IA de risco inaceitável e as obrigações de literacia em IA passaram a aplicar‑se a 2 de fevereiro de 2025.
A 2 de agosto de 2025, tornaram‑se aplicáveis as regras para modelos de IA de uso geral (general‑purpose AI, GPAI) e as disposições de governação, e os Estados‑Membros passaram a estar obrigados a designar as respetivas autoridades nacionais competentes e a ter os regimes sancionatórios em vigor.
A 2 de agosto de 2026, está prevista a aplicabilidade da maioria das restantes obrigações, incluindo o regime completo para sistemas de alto risco listados no Anexo III, o conjunto principal de obrigações de transparência (como as previstas no artigo 50.º) e a exigência de que cada Estado‑Membro tenha, pelo menos, um sandbox regulatório de IA operacional.
A partir dessa data, as autoridades nacionais e o EU AI Office deverão poder exercer, de forma mais plena, poderes de fiscalização, correção e sancionamento, ainda que o grau de prontidão possa variar entre Estados‑Membros e que o chamado “Digital Omnibus” esteja, em 2026, a ser discutido para ajustar alguns prazos aplicáveis a sistemas de alto risco.
Brasil: Tramitação em Ano Eleitoral
O PL 2338/2023 encontra‑se, em abril de 2026, na Comissão Especial da Câmara dos Deputados, aguardando parecer do relator, deputado Aguinaldo Ribeiro. O relator indicou publicamente, em entrevistas recentes, que uma parte substancial do texto já se encontra consolidada, apontando que os pontos mais sensíveis em discussão se concentram na disciplina de direitos de autor e na articulação com o projeto que institui formalmente o SIA.
Cenários divulgados na imprensa especializada mencionam a possibilidade de votação na Câmara ao longo de 2026, em momento a articular com o calendário eleitoral brasileiro (as eleições gerais estão marcadas para outubro de 2026). Mesmo que a Câmara aprove o texto ainda em 2026, é provável que o projeto tenha de retornar ao Senado, dado que o substitutivo deverá sofrer alterações e harmonizações, inclusive em função do projeto do SIA enviado pelo Poder Executivo.
Entretanto, a ANPD não tem aguardado passivamente a aprovação do marco legal para atuar sobre casos de IA. A autoridade já incluiu a inteligência artificial como um dos eixos prioritários do seu plano de fiscalização para 2026–2027 e vem aplicando, de forma crescente, as competências que lhe são conferidas pela Lei Geral de Proteção de Dados (LGPD), em particular o artigo 20.º, que regula decisões tomadas unicamente com base em tratamento automatizado de dados pessoais. Além disso, outros órgãos, como o Tribunal Superior Eleitoral (TSE), editaram normas específicas sobre uso de IA em campanhas eleitorais e desinformação, criando um mosaico regulatório setorial que tende a ser integrado pelo futuro marco de IA.
4. Implicações Práticas para Advogados
Para quem exerce em Portugal (e na UE)
Para advogados que atuam em Portugal e no espaço da UE, a prioridade imediata é a preparação para o momento em que o regime completo do AI Act para sistemas de risco elevado se tornar aplicável, previsto para agosto de 2026.
Isto implica, em termos práticos, mapear os sistemas de IA que cada escritório utiliza ou sobre os quais presta assessoria, classificá‑los por nível de risco e verificar a conformidade com as obrigações relevantes (documentação técnica, gestão de risco, avaliação de impacto nos direitos fundamentais, supervisão humana, registo em bases de dados quando aplicável).
Os contratos com fornecedores e parceiros tecnológicos devem começar a refletir, de forma clara, a distribuição de responsabilidades imposta pelo AI Act ao longo da cadeia de valor (fornecedores, importadores, distribuidores, utilizadores), incluindo cláusulas sobre partilha de informação, cooperação em auditorias, reporte de incidentes e atualização contínua de modelos.
Para advogados que assessoram empresas com operações no Brasil ou planos de expansão para o mercado brasileiro, o acompanhamento da tramitação do PL 2338/2023 torna‑se essencial, especialmente em temas como direitos de autor no treino de modelos de IA (cruciais para empresas de media, entretenimento e plataformas digitais) e responsabilidade objetiva (relevante para qualquer organização que utilize IA em decisões com impacto significativo sobre pessoas).
Para advogados brasileiros a exercer em Portugal
Para advogados brasileiros que hoje exercem em Portugal, o conhecimento aprofundado do PL 2338/2023 e do conjunto de normas setoriais brasileiras sobre IA constitui uma vantagem competitiva concreta. A capacidade de assessorar clientes brasileiros que operam na UE (ou empresas europeias que pretendem expandir‑se para o Brasil) na articulação entre os dois enquadramentos regulatórios representa uma competência de nicho com procura crescente.
Áreas de particular relevância incluem a gestão de direitos de autor no treino de modelos de IA (onde o regime em discussão no Brasil caminha para ser mais exigente do que o europeu), a responsabilidade civil por danos causados por IA (com modelos conceptualmente distintos nos dois ordenamentos) e a conformidade simultânea com LGPD e RGPD no tratamento de dados por sistemas de IA.
Para todos os profissionais jurídicos
Independentemente da jurisdição, três tendências parecem consolidar‑se: (i) a crescente exigência de transparência algorítmica; (ii) a necessidade de supervisão humana em decisões automatizadas de alto impacto; (iii) a consolidação da abordagem baseada em risco como paradigma regulatório global para a IA.
Profissionais jurídicos que dominem estes conceitos e as diferenças de implementação entre regimes como o europeu e o brasileiro estarão mais bem posicionados num mercado que se torna, rapidamente, mais regulado e tecnicamente exigente e mais global em termos de mercado e influxo UE/Brasil.
Mais do que um mero desafio de conformidade, esta dupla regulação abre espaço para novas oportunidades de prática jurídica: desenho de programas de governance de IA, auditorias regulatórias, negociação contratual em cadeias globais de fornecimento de IA e contencioso estratégico em matéria de direitos fundamentais, dados pessoais e responsabilidade civil.
5. Modelos de “Performance” e Deepfakes em Tempo Real: O Futuro que o AI Act Já Está a Tentar Domar
Se o AI Act e o PL 2338/2023 parecem, por vezes, abstratos, basta olhar para modelos como o (incrível, diria eu) LPM 1.0 (Large / Live Performance Model) (https://large-performance-model.github.io) para perceber que o futuro regulatório já chegou.
Publicado em 2026 por uma equipa de investigação chinesa, o LPM 1.0 é um modelo de “character performance” baseado em vídeo que transforma uma única imagem estática num avatar que fala, ouve, reage e mantém a identidade ao longo de interações potencialmente infinitas, em tempo quase real.
Do ponto de vista técnico, o LPM 1.0 combina um grande modelo de difusão (diffusion model com dezenas de milhares de milhões de parâmetros) com uma arquitetura pensada para resolver o que os autores chamam de “performance trilemma”: conciliar expressividade elevada (gestos, emoções, naturalidade), inferência em tempo real e estabilidade de identidade em interações longas. Em termos práticos, isto significa que um avatar pode “escutar” e “falar” alternadamente, reagir ao interlocutor e manter uma aparência coerente ao longo de uma conversa prolongada – muito para além dos clipes curtos de vídeo gerados por soluções tradicionais de lip‑sync ou talking head.
É precisamente aqui que o AI Act começa a mostrar a sua relevância. O artigo 50.º do regulamento europeu estabelece um conjunto de obrigações de transparência para sistemas que geram conteúdo sintético: os fornecedores de sistemas de IA, incluindo modelos de uso geral, que produzam áudio, imagem, vídeo ou texto sintéticos devem assegurar que os outputs são marcados de forma a serem detetáveis como artificialmente gerados ou manipulados; e os utilizadores que difundam deepfakes em contexto profissional devem revelar que o conteúdo é artificial.
A lógica é evidente: quando modelos como o LPM 1.0 forem acoplados a grandes modelos de linguagem e integrados em produtos comerciais, será possível criar personagens políticas, líderes empresariais ou peritos “virtuais” que, em vídeo, são praticamente indistinguíveis de uma pessoa real – um cenário ideal para desinformação, fraude e manipulação em escala.
Os próprios autores do LPM 1.0 reconhecem este risco e, por isso, indicam que o modelo é, por agora, apenas um projeto de investigação, sem disponibilização pública de pesos, API ou demos abertas, e que qualquer eventual libertação futura dependerá da existência de salvaguardas robustas de uso responsável.
A Europa tenta antecipar este tipo de cenário com exigências de marcação nativa, rotulagem de deepfakes e códigos de boas práticas complementares; o Brasil, por sua vez, discute como articular o PL 2338/2023 com a LGPD, o Marco Civil da Internet e normas setoriais (por exemplo, em contexto eleitoral) para lidar com riscos semelhantes de manipulação algorítmica.
Uma análise aprofundada deste novo ecossistema de avatares em tempo real, deepfakes interativos e modelos de “performance” – incluindo o LPM 1.0 e outros projetos emergentes – ultrapassa o escopo deste artigo. Será tema de um texto próprio, centrado em desinformação automatizada, integridade eleitoral, riscos para a prova digital e os desafios que estes sistemas colocam à arquitetura regulatória desenhada pelo AI Act e pelo PL 2338/2023.
Conclusão
O Regulamento da Inteligência Artificia europeu e o PL 2338/2023 brasileiro partilham a mesma ambição: regular a inteligência artificial de forma a proteger direitos fundamentais e valores democráticos, sem sufocar a inovação tecnológica. Partilham também uma arquitetura comum, assente na classificação de sistemas por níveis de risco e em mecanismos de gestão de risco proporcionais.
Mas as diferenças não são marginais. Em direitos de autor, responsabilidade civil, direitos dos afetados e estrutura de governança, o projeto brasileiro tende a uma regulação mais centrada em direitos subjetivos, responsabilidade objetiva e coordenação centralizada pela autoridade de proteção de dados, enquanto o modelo europeu privilegia deveres regulatórios distribuídos, coordenação multinível e integração com o acervo jurídico existente.
Para o ecossistema jurídico luso‑brasileiro, este cenário é tão desafiante quanto promissor. A capacidade de articular os dois enquadramentos, identificar tensões e sinergias e aconselhar clientes que navegam entre eles é uma competência que poucos profissionais oferecem — e que o mercado, cada vez mais, procura.
O JurisTech.pt continuará a acompanhar a evolução do PL 2338/2023 na Câmara dos Deputados, a definição do SIA e as próximas fases de implementação do AI Act, com análises dedicadas a cada uma das áreas de divergência aqui identificadas.
Referências
| # | Fonte | Descrição |
|---|---|---|
| 1 | AI Act — Regulamento Europeu sobre Inteligência Artificial, publicado no Jornal Oficial da UE a 12 de julho de 2024 | |
| 2 | Projeto de Lei que dispõe sobre o uso da Inteligência Artificial no Brasil, aprovado pelo Senado em dezembro de 2024 | |
| 3 | Ficha de tramitação do PL na Câmara, com acompanhamento da Comissão Especial | |
| 4 | Cronograma de implementação do AI Act e explicação das principais fases | |
| 5 | Relatório comparativo detalhado das obrigações dos dois textos | |
| 6 | Contribuições da ANPD ao texto legislativo e ao desenho do SIA | |
| 7 | Declarações do relator Aguinaldo Ribeiro sobre o calendário legislativo | |
| 8 | Nota oficial sobre a aprovação do PL 2338/2023 pelo Senado | |
| 9 | Guia prático de requisitos, sanções e prazos do AI Act | |
| 10 | Diretiva de Direitos de Autor no Mercado Único Digital | |
| 11 | Síntese geral do AI Act e do processo legislativo europeu | |
| 12 | Análise de escritório brasileiro sobre o texto aprovado no Senado | |
| 13 | Regulamentação setorial do uso de IA no processo eleitoral brasileiro | |
| 14 | Resumo empresarial das principais obrigações do AI Act | |
| 15 | Página do Senado com o texto do PL e documentos relacionados |
Sugestão de imagem de destaque:

