Há três respostas possíveis à pergunta sobre como o Direito deve preparar as próximas gerações para uma economia em que a inteligência artificial já não é uma promessa futura, mas uma infraestrutura corrente.
E o Brasil escolheu uma. A União Europeia escolheu outra. Portugal, neste momento, ainda não escolheu — abstenção que constitui, ela própria, uma escolha.
Na passada sexta-feira, 8 de Maio de 2026, a Comissão de Educação da Câmara dos Deputados aprovou um substitutivo ao Projeto de Lei n.º 2129/2025 que prevê a inclusão obrigatória do estudo da inteligência artificial no currículo da educação básica brasileira, abrangendo escolas públicas e privadas.
A proposta altera a Lei de Diretrizes e Bases da Educação Nacional (LDB) e integra a matéria na Política Nacional de Educação Digital.
Em Bruxelas, o artigo 4.º do Regulamento (UE) 2024/1689 — o célebre AI Act, ou Regulamento da Inteligência Artificial — impõe, desde 2 de Fevereiro de 2025, uma obrigação de literacia em inteligência artificial a todas as organizações que utilizem sistemas de IA. Impõe-a aos prestadores e aos chamados responsáveis pela implantação, isto é, a quem utilize IA em contexto profissional, incluindo sociedades de advogados e profissionais liberais que recorram a essas ferramentas no exercício da sua actividade.
A fiscalização efectiva dessa obrigação depende, porém, da consolidação do quadro nacional de execução, incluindo a designação das autoridades competentes e a definição dos regimes sancionatórios.
Em Lisboa, há documentos orientadores, declarações políticas e casos isolados de boas práticas em agrupamentos escolares. Mas nenhuma norma vinculativa, nenhuma proposta legislativa em apreciação na Assembleia da República, nenhuma decisão estruturante.
Este artigo analisa as três opções regulatórias e o que cada uma significa para juristas portugueses e brasileiros que assessoram clientes em educação, edtech, ou simplesmente em sectores onde a IA já entrou — incluindo a advocacia.
O que o Brasil aprovou (e o que falta aprovar)
O texto aprovado é um substitutivo apresentado pelo deputado Reginaldo Veras (PV-DF) ao Projeto de Lei n.º 2129/2025, de iniciativa do deputado Nitinho (PSD-SE).
A opção legislativa é tecnicamente conservadora e politicamente hábil: em vez de criar uma lei autónoma para a IA na educação, o substitutivo integra a matéria na Política Nacional de Educação Digital, instituída pela Lei n.º 14.533, de 11 de janeiro de 2023, alterando simultaneamente a LDB (Lei n.º 9.394/96).
A inteligência artificial é tratada como tema transversal e interdisciplinar, não como mera disciplina obrigatória autónoma.
Os conteúdos relacionados com IA devem ser integrados em disciplinas já existentes: Matemática, Ciências, Língua Portuguesa, História, Geografia, Tecnologia e Computação. A formulação evita a controvérsia política de criar uma nova disciplina e o problema operacional de formar professores especificamente para ela.
O foco declarado pelo relator é particularmente relevante para juristas: o ensino sobre IA não deve limitar-se ao aspecto técnico. Em declaração à Agência Câmara, Reginaldo Veras afirmou que o ensino deve incidir sobre privacidade, segurança de dados, funcionamento dos algoritmos e impactos éticos da tecnologia.
É, em substância, uma agenda de literacia jurídico-tecnológica aplicada à educação básica, ainda que formalmente apresentada como política educativa.
O texto prevê também o incentivo à formação continuada de professores e gestores escolares, e estabelece um prazo de dois anos para as instituições de ensino adaptarem os seus projetos pedagógicos após eventual sanção presidencial.
Há, contudo, três ressalvas honestas a fazer.
Primeira: ainda não é lei; trata-se, por agora, de uma proposta legislativa. O projeto tramita em carácter conclusivo e segue para a Comissão de Constituição e Justiça e de Cidadania (CCJ), seguindo depois para o Senado Federal. Pode cair em qualquer destes pontos, ou ser substancialmente alterado.
Segunda: mesmo aprovado, há um prazo de adaptação de dois anos, durante o qual o Ministério da Educação terá de produzir as diretrizes nacionais que darão corpo à norma.
Terceira: a execução prática dependerá de orçamento, formação docente e da capacidade real de mais de 180 mil escolas brasileiras absorverem a matéria — desafio cuja escala é dificilmente comparável com a realidade europeia.
O modelo europeu: regulação por obrigação organizacional, não por currículo
A União Europeia escolheu um caminho radicalmente diferente.
Não tem competência directa para impor currículos escolares; a União Europeia não é uma federação e a educação continua, nos termos do artigo 165.º do Tratado sobre o Funcionamento da União Europeia, a ser competência dos Estados-Membros, cabendo à União apenas uma função de apoio, complemento e coordenação.
Bruxelas regula, portanto, o lado da procura: quem usa IA tem de garantir que as pessoas envolvidas a sabem usar.
O artigo 4.º do Regulamento (UE) 2024/1689 (AI Act) estabelece que “os prestadores e os responsáveis pela implantação de sistemas de IA tomam medidas para garantir, na medida do possível, um nível suficiente de literacia no domínio da IA do seu pessoal e de outras pessoas envolvidas na operação e utilização de sistemas de IA por sua conta”. Trata-se de uma obrigação de meios, não de resultado, mas é uma obrigação jurídica plena, aplicável desde 2 de Fevereiro de 2025.
A definição de “literacia no domínio da IA” consta do artigo 3.º, n.º 56, do AI Act: as competências, conhecimentos e compreensão que permitam aos prestadores, responsáveis pela implantação e pessoas em causa proceder a uma implantação informada dos sistemas de IA, bem como tomar consciência das oportunidades e dos riscos da IA e dos possíveis danos que esta pode causar.
Há quatro pontos que merecem destaque para o leitor jurídico português.
Primeiro: o âmbito subjectivo é amplíssimo. A obrigação aplica-se a “prestadores” e “responsáveis pela implantação” (deployers, na versão inglesa).
Uma sociedade de advogados que utilize um sistema de IA, para revisão de contratos, pesquisa jurisprudencial, due diligence automatizada ou análise documental, é, para efeitos do AI Act, um responsável pela implantação. A obrigação de literacia em IA aplica-se-lhe.
Segundo: o âmbito objectivo é igualmente amplo. O artigo 4.º não se limita aos sistemas de risco elevado. Aplica-se a qualquer sistema de IA, incluindo os de risco mínimo, como assistentes de escrita, geradores de texto, ferramentas de tradução automática ou instrumentos de pesquisa apoiados por IA.
A leitura restritiva — “só se aplica quando usamos IA importante” — não encontra apoio no texto do artigo 4.º, que não contém qualquer limitação por nível de risco.
Terceiro: a fiscalização efectiva depende da arquitectura nacional de execução. Embora a obrigação seja já aplicável, a sua operacionalização depende da designação das autoridades nacionais de fiscalização do mercado e da aprovação dos regimes sancionatórios nacionais.
O AI Act não fixa, ele próprio, uma coima autónoma específica para a violação do artigo 4.º; remete essa matéria para o direito nacional. Em Portugal, esse regime continua por densificar.
Quarto: a Comissão Europeia tem vindo a complementar a obrigação com orientação e soft law. A página de Perguntas e Respostas sobre literacia em IA ajuda a clarificar o âmbito do artigo 4.º, e outras iniciativas políticas europeias apontam para uma estratégia mais ampla de capacitação e requalificação. Mas nenhuma dessas peças altera o dado essencial: a transformação curricular continua a ser, em larga medida, matéria nacional.
Em paralelo, e como soft law, a UE tem mobilizado vários instrumentos não vinculativos: o AI Continent Action Plan, adoptado pela Comissão em 9 de Abril de 2025, anunciou uma iniciativa específica de “IA na Educação” a integrar o Digital Education Roadmap 2030; a iniciativa FutureProof Education, lançada pela UNESCO em conjunto com a Comissão Europeia em 17 de Outubro de 2025, apoia autoridades educativas europeias na preparação dos sistemas escolares para a era da IA; a Comissão publicou um documento de Perguntas e Respostas sobre literacia em IA, esclarecendo o âmbito do artigo 4.º.
Nenhum destes instrumentos impõe currículos. Todos pressupõem que a transformação curricular é decisão nacional.
A filosofia europeia é, portanto, clara: regular quem usa IA, e estimular — mas não impor — o ensino sobre IA.
Portugal: documentos, declarações, sem norma vinculativa
Em Portugal, o quadro é mais difuso. Existem peças, mas nenhuma é vinculativa, nenhuma é estruturante, nenhuma é parlamentar.
A Associação Nacional de Professores de Informática (ANPRI) publicou em 2025 o guia Inteligência Artificial na Escola Portuguesa — Guia para uma Integração Ética, Equitativa e Pedagógica, documento técnico de qualidade, com mapeamento detalhado por ciclo de ensino, mas sem qualquer força jurídica.
A Direção-Geral da Educação divulgou um relatório sobre inteligência artificial e educação à luz dos valores fundamentais do Conselho da Europa. Divulgou-o — e não mais do que isso. Continua a tratar-se de um relatório, não de regulamento.
Existem casos pontuais de boas práticas a nível de agrupamento, como o do Agrupamento de Escolas Leal da Câmara, em Rio de Mouro, que desde 2023 desenvolve um processo participado de reflexão, formação e definição de princípios próprios para a utilização da IA no contexto escolar, aprovados em 2024 pelo Conselho Pedagógico.
No ensino superior, a Fundação para a Computação Científica Nacional (FCCN) lançou em Maio de 2025 a plataforma IAedu, que pretende democratizar o acesso a modelos de linguagem para instituições de ensino superior portuguesas. É uma iniciativa relevante, mas circunscrita ao ensino superior, não ao básico e secundário.
A nível político, existem declarações. Na Web Summit 2025, em Lisboa, o Ministro Adjunto e da Reforma do Estado, Gonçalo Matias, afirmou que o Governo pretende dar a cada estudante um tutor de IA que escuta, guia e inspira a sua aprendizagem, referindo o desenvolvimento do modelo de linguagem nacional Amália.
As últimas indicações oficiais e semioficiais apontam para um modelo Amália com versão base já concluída, primeira disponibilização pública iniciada no final de 2025 e continuação, em 2026, de um acesso sobretudo centrado na comunidade de investigação. Espera-se ainda uma versão final e mais amplamente aberta durante 2026.
A declaração do ministro é politicamente relevante, mas continua a ser apenas isso: uma declaração de intenção, sem instrumento legislativo ou regulamentar de transposição curricular. Entre a frase do ministro na Web Summit e uma directriz vinculativa do Ministério da Educação que altere o Perfil dos Alunos à Saída da Escolaridade Obrigatória vai uma distância que não foi ainda percorrida.
Não há, à data de publicação deste artigo, qualquer proposta legislativa em apreciação na Assembleia da República que vise integrar a literacia em IA no currículo da educação básica ou secundária portuguesa de forma estruturada. Não há diploma do Governo nesse sentido. Não há revisão anunciada do Perfil dos Alunos que mencione expressamente a literacia em IA como aprendizagem essencial.
Há, portanto, em Portugal, regulação por estímulo — documentos orientadores, financiamento de plataformas, declarações ministeriais — mas não regulação por norma. O contraste com a urgência legislativa brasileira é evidente, pelo menos no plano declaratório. O contraste com a obrigação europeia já aplicável aos operadores económicos é, talvez, mais incómodo.
Três modelos, três filosofias regulatórias
Em síntese:
O Brasil optou pela intervenção legislativa directa no currículo. É uma abordagem top-down, com a vantagem da clareza normativa e da universalidade da aplicação (todas as escolas, públicas e privadas) e a desvantagem da rigidez e do custo de implementação.
Pressupõe que o Estado tem legitimidade e capacidade para definir o que se ensina sobre IA, e que essa definição é suficientemente estável para sobreviver à evolução tecnológica nos próximos cinco a dez anos. É uma aposta política assumida.
A União Europeia optou pela regulação da externalidade. Não impõe o que se ensina, mas obriga quem usa IA a garantir literacia em quem trabalha com IA. É uma abordagem mais respeitadora das competências nacionais e do princípio da subsidiariedade, mais flexível na adaptação tecnológica, e mais sectorial na sua incidência.
A desvantagem é evidente: deixa de fora quem não está empregado em organizações que usam IA, designadamente todos os estudantes do ensino básico e secundário. Para esses, a UE oferece soft law e financiamento.
Portugal não optou. Tem documentos, declarações e financiamento sectorial, mas não tem decisão estruturante. Pode argumentar-se que essa é uma escolha racional, à espera de saber como evoluirá o quadro europeu. Pode argumentar-se também que é uma omissão que adia decisões que, no momento em que forem tomadas, já não terão as mesmas opções disponíveis.
Não pretendo, neste artigo, dizer qual dos três modelos é o melhor. Cada um responde a tradições constitucionais e administrativas distintas, a capacidades estatais distintas e a culturas políticas distintas. Pretendo apenas registar que são três modelos diferentes, que o português é o menos definido dos três, e que essa indefinição tem custos.
Implicações práticas para juristas portugueses, brasileiros e da UE
Para os advogados que nos leem em Portugal: o artigo 4.º do AI Act já vos abrange, colegas.
Se a vossa sociedade utiliza IA, ou se os colegas recorrem a estas ferramentas na prática individual, ainda que sejam apenas instrumentos de pesquisa ou redação assistida, então são “responsáveis pela implantação” nos termos do AI Act.
A obrigação de literacia em IA aplica-se-vos. Mais do que discutir datas simbólicas, importa reconhecer que a obrigação já existe e que a futura fiscalização nacional não eliminará o dever de diligência presente.
Convém documentar as medidas de formação adoptadas, ainda que mínimas: a prova da diligência poderá fazer diferença no dia em que a autoridade nacional competente bater à porta.
Para os colegas brasileiros, acompanhar a tramitação do PL 2129/2025 na CCJ e no Senado é relevante para várias áreas de prática.
Edtechs precisam de saber qual será o quadro regulatório das diretrizes nacionais do MEC. Estabelecimentos de ensino privado precisam de antecipar o prazo de adaptação curricular de dois anos. Advogados de direito do consumidor e de responsabilidade civil precisam de pensar nas consequências da formação inadequada de docentes em IA para eventuais danos causados aos alunos. E os juristas que assessoram famílias e estudantes precisarão, em breve, de compreender o que o currículo realmente exige.
Para juristas que assessoram instituições de ensino na UE, as escolas são, elas próprias, deployers de IA quando usam plataformas de tutoria automatizada, sistemas de avaliação assistida ou ferramentas de gestão pedagógica. A obrigação do artigo 4.º aplica-se-lhes. O ensino sobre IA pode não estar regulado, mas o uso de IA no ensino já está.
E há uma observação final, talvez um pouco desconfortável, que importa fazer.
Nem a Ordem dos Advogados portuguesa, nem a Ordem dos Advogados do Brasil, têm, tanto quanto foi possível apurar à data de elaboração deste artigo, orientação específica e vinculativa — nem sequer em soft law — sobre literacia em IA exigível aos seus inscritos no exercício da profissão. Ao contrário de outros sistemas, este é um ponto que merecerá tratamento autónomo.
Os advogados são, enquanto profissionais liberais e enquanto sociedades, deployers de IA para efeitos do AI Act. Estão abrangidos pelo artigo 4.º. Caberia à Ordem definir o que considera “nível suficiente de literacia em IA” para o exercício da advocacia em Portugal — definição que beneficiaria os advogados em risco de não conformidade tanto quanto os clientes em risco de receber aconselhamento desinformado.
O Conselho Geral da Ordem tem, efectivamente, promovido formações em várias geografias do país, o que é louvável. Mas faltam orientações mais claras, sejam regulamentares, sejam em soft law. Vale a pena acompanhar esse ponto com atenção.
Conclusão
Três jurisdições, três respostas regulatórias. O Brasil escolheu a rapidez política da intervenção curricular directa, com o risco de produzir norma rapidamente desactualizada. A União Europeia escolheu a segurança organizacional da obrigação sectorial, com o risco de deixar de fora quem mais precisa — os estudantes que ainda não trabalham com IA, porque ainda estão a aprender. Portugal não escolheu: tem documentos, declarações e financiamentos pontuais, mas não decidiu.
A pergunta que fica em aberto não é qual modelo é melhor. É qual modelo, em cada contexto nacional, melhor protege a capacidade de uma sociedade democrática produzir cidadãos capazes de avaliar criticamente sistemas algorítmicos, sejam eles os que decidem créditos bancários, os que classificam currículos, ou os que, em breve, redigirão minutas de peças processuais ou apoiarão a sua preparação.
A omissão portuguesa é uma decisão. As decisões têm consequências. A pergunta pertinente, para advogados e juristas, é a de sempre: que consequências, em que prazo, com que responsabilidade, são as portuguesas?
Referências
| Fonte | Tipo | Hiperligação |
|---|---|---|
| Regulamento (UE) 2024/1689 — AI Act | Legislação UE | https://eur-lex.europa.eu/eli/reg/2024/1689/oj |
| Tratado sobre o Funcionamento da União Europeia, art. 165.º | Direito originário UE | https://eur-lex.europa.eu/eli/treaty/tfeu_2012/art_165/oj |
| Projecto de Lei n.º 2129/2025 (Câmara dos Deputados, BR) | Legislação em apreciação | https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2504671 |
| Inteiro teor / avulso do PL 2129/2025 | Legislação em apreciação | https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra?codteor=2928875&filename=Avulso+PL+2129%2F2025 |
| Notícia oficial Agência Câmara, 08/05/2026 | Fonte primária | https://www.camara.leg.br/noticias/1270467-comissao-aprova-inclusao-do-estudo-de-inteligencia-artificial-na-educacao-basica/ |
| Lei n.º 9.394/96 (LDB), Brasil | Legislação nacional BR | https://www.planalto.gov.br/ccivil_03/leis/l9394.htm |
| Lei n.º 14.533/2023 (Política Nacional de Educação Digital), Brasil | Legislação nacional BR | https://www.planalto.gov.br/ccivil_03/_ato2023-2026/2023/lei/l14533.htm |
| Comissão Europeia, AI Continent Action Plan | Comunicação política UE | https://digital-strategy.ec.europa.eu/pt/library/ai-continent-action-plan |
| Comissão Europeia, AI Literacy — Questions & Answers | Soft law / orientação | https://digital-strategy.ec.europa.eu/pt/faqs/ai-literacy-questions-answers |
| UNESCO / Comissão Europeia, FutureProof Education | Iniciativa internacional | https://www.unesco.org/en/articles/futureproof-education-supporting-schools-ai-evolution |
| AI Act Service Desk — Artigo 4.º | Recurso oficial UE | https://ai-act-service-desk.ec.europa.eu/en/ai-act/article-4 |
| ANPRI, “Inteligência Artificial na Escola Portuguesa — Guia para uma Integração Ética, Equitativa e Pedagógica” (2025) | Documento orientador PT | https://cfidp-edu.pt/wp-content/uploads/2026/01/2025-ANPRI-Inteligencia-Artificial-na-Escola-Portuguesa-Guia-para-uma-Integracao-Etica-Equitativa-e-Pedagogica.pdf |
| Direção-Geral da Educação — notícia sobre relatório “Inteligência Artificial e Educação” | Informação institucional PT | https://www.dge.mec.pt/noticias/inteligencia-artificial-e-educacao |
| Conselho da Europa, “Artificial Intelligence and Education: A Critical View Through the Lens of Human Rights, Democracy and the Rule of Law” | Relatório internacional | https://rm.coe.int/artificial-intelligence-and-education-a-critical-view-through-the-lens/1680a886bd |
| Agrupamento de Escolas Leal da Câmara — princípios para a utilização da IA | Caso institucional PT | https://criaon.fcsh.unl.pt/artigo/inteligencia-artificial-em-contexto-escolar-principios-e-percurso-de-um-agrupamento/ |
| FCCN — IAedu | Iniciativa institucional PT (ensino superior) | https://www.fccn.pt/areas-tecnologicas/conhecimento/iaedu/ |
| Forbes Portugal, Web Summit 2025 e declarações sobre o modelo Amália | Fonte jornalística PT | https://www.forbespt.com/web-summit-executivo-garante-que-ia-portuguesa-amalia-sera-oficialmente-apresentada-nas-proximas-semanas/ |
| ECO, estado de disponibilização do modelo Amália em 2026 | Fonte jornalística PT | https://eco.sapo.pt/2026/04/24/modelo-de-ia-amalia-continua-reservado-a-investigadores-mas-ja-foi-ao-brasil/ |
| AMAN Alliance, referência pública adicional ao desenvolvimento do modelo Amália | Fonte institucional / ecossistema IA | https://www.aman-alliance.org/Home/ContentDetail/82817 |
