Nota do Editor: As análises e opiniões aqui expressas não são necessariamente as mesmas das do Editor e são da responsabilidade exclusiva da Autora.
Um Problema que Urge Abordar com Seriedade
Há uma certa ironia no facto de a inteligência artificial — essa tecnologia que proclama saber tudo — ser capaz de inventar acórdãos do Supremo Tribunal de Justiça com a mesma desenvoltura com que uma criança conta histórias. E há algo de mais preocupante ainda: que profissionais do Direito, formados para questionar, verificar e fundamentar cada afirmação, aceitem esses produtos sem qualquer escrutínio crítico, apresentando-os perante tribunais como se fossem jurisprudência sólida e verificada.
O caso que chegou ao Tribunal da Relação de Guimarães em Março de 2026 não é uma novidade absoluta, mas é o mais recente e eloquente sinal de um problema que urge abordar com seriedade. Um advogado citou, ao longo da sua motivação de recurso e da resposta ao parecer, seis acórdãos de tribunais superiores — da Relação e do Supremo Tribunal de Justiça — que pura e simplesmente não existem. Não estavam publicados em qualquer base de dados, não constavam do sistema Citius e, no caso do próprio Tribunal da Relação de Guimarães, nunca tinham sequer corrido termos. Foram, na expressão exacta dos juízes desembargadores, “desencantados” com a ajuda da inteligência artificial.
O tribunal não se limitou a manter a pena e a condenar o recorrente em taxa de justiça adicional. Manifestou a “mais profunda perplexidade” e anunciou que ponderaria comunicar o caso à Ordem dos Advogados. Antes, em Novembro de 2024, já tinham surgido suspeitas semelhantes relativamente a um acórdão do Tribunal da Relação de Lisboa, no processo que envolveu a antiga deputada Helena Lopes da Costa e a Santa Casa da Misericórdia de Lisboa, onde se citavam legislação e jurisprudência igualmente inexistentes. O Conselho Superior da Magistratura acabaria por abrir processo de averiguação. Não estamos, pois, perante casos isolados ou episódicos.
O que é uma Alucinação e por que Razão Isto Importa ao Direito
Como funcionam os LLMs
Ao contrário do que a palavra “inteligência” pode sugerir, estes sistemas não raciocinam, não verificam factos e não acedem a bases de dados de jurisprudência actualizada em tempo real — salvo quando especificamente integrados com essa funcionalidade. O que fazem é calcular, com base em padrões estatísticos, qual a sequência de palavras mais provável a seguir à anterior.
Quando lhes é pedido um acórdão sobre detenção de arma proibida, produzem texto que parece um acórdão — mas sem qualquer garantia de que os números de processo, as datas, as partes ou o conteúdo correspondam à realidade.
As consequências documentadas
Esta característica tem nome: chama-se alucinação. E não é uma falha que a próxima versão do modelo vai corrigir. É uma consequência estrutural da forma como estes sistemas funcionam. A MIT Technology Review Portugal, em análise publicada em 2025, alertava precisamente para este fenómeno: as alucinações da IA nos tribunais não têm diminuído — têm aumentado em frequência e em gravidade, atingindo já escritórios de topo e causando multas significativas a nível internacional.
O problema central, porém, não é tecnológico. É humano. Como bem sintetiza Maura Grossman, professora na Universidade de Waterloo: os advogados e outros profissionais tendem a pressupor que, pelo facto de estes modelos produzirem texto fluente e aparentemente autoritário, esse texto é também preciso. Transferem para a máquina a confiança crítica que deveriam exercer sobre ela.
No Direito, esta cedência tem consequências particularmente sérias. A citação de jurisprudência inexistente não é apenas um erro técnico: é uma falsidade processual. Compromete o direito à defesa, induz o tribunal em erro, viola deveres deontológicos fundamentais e, no limite, pode determinar o sentido de uma decisão que afecta a vida concreta de pessoas reais.
A Dependência Acrítica: o Perigo Maior
Haveria, em abstracto, uma forma legítima de usar a IA na redacção de peças processuais. Mas essa forma exigiria que o profissional tratasse o output da ferramenta exactamente como trataria o rascunho de um estagiário inexperiente: com atenção, com ceticismo e com verificação sistemática de cada referência antes de a subscrever. O que os casos documentados revelam é que isso não aconteceu.
Texto fluente e convincente
O texto produzido é fluente, bem estruturado e convincente — não exibe os sinais habituais do erro humano que nos levam a rever com mais atenção.
Pressão de produtividade
Existe uma pressão crescente de produtividade sobre os operadores jurídicos: prazos curtos, volume de trabalho elevado, expectativa de eficiência. A IA surge como uma promessa de alívio — e a tentação de confiar cegamente nessa promessa é proporcional ao cansaço de quem a encontra.
Publicidade enganosa
Algumas plataformas comerciais de IA jurídica publicitam os seus produtos com garantias de precisão que os eventos demonstram serem, no mínimo, exageradas.
Autoridade paradoxal da máquina
Existe um fenómeno de ordem psicológica que merece reflexão: a autoridade que o texto da máquina aparentemente projecta pode, paradoxalmente, ser maior do que a do texto humano. Quando é a IA a produzir, algo no distanciamento crítico parece amortecer-se. A aparência de competência desactiva a vigilância.
Quando um colega mais jovem redige uma peça, o advogado sénior revê-a com o distanciamento natural de quem sabe que há erros a corrigir. Quando é a IA a produzir, algo nesse distanciamento crítico parece amortecer-se.
O que a Lei e a Deontologia já Exigem e Continuarão a Exigir
Importa ser precisa neste ponto: a utilização de ferramentas de inteligência artificial na prática jurídica não é, em si mesma, proibida nem eticamente censurável. O que é exigível, tanto pelo Estatuto da Ordem dos Advogados como pelos princípios gerais da responsabilidade profissional, é que o advogado que assina uma peça processual a subscreva como sua, verificando a sua exactidão, a veracidade das fontes e a conformidade com o ordenamento jurídico vigente.
A responsabilidade profissional não se transfere para o algoritmo. O advogado que cita um acórdão inexistente porque assim lhe sugeriu um modelo de linguagem não tem uma escusa válida: tem apenas uma explicação — e uma que agrava a sua situação, porque demonstra que delegou a construção do argumento jurídico num sistema que não é capaz de o construir com fiabilidade.
O mesmo raciocínio se aplica aos magistrados: a independência judicial implica que cada decisão seja produto do pensamento crítico e fundamentado de quem a subscreve, e não de um sistema cuja lógica interna é opaca e cujos outputs são verificavelmente falíveis.
AI Act
Em vigor desde Agosto de 2024 e em processo progressivo de aplicação, classifica como de alto risco os sistemas de IA utilizados na administração da justiça e enquadra exigências específicas de transparência, supervisão humana e responsabilização.
Literacia Mínima Obrigatória
Em Portugal, como em toda a União Europeia, os operadores jurídicos que utilizem ferramentas de IA em contextos decisórios terão de desenvolver uma literacia mínima sobre o funcionamento dessas ferramentas, precisamente para poderem exercer a supervisão humana que a lei impõe e que a deontologia sempre exigiu.
O Potencial Real: o que a IA Pode Efectivamente Fazer Bem
Seria, porém, um erro deixar a análise por aqui — como se a conclusão fosse que a IA não tem lugar na prática jurídica. Tem, e um lugar significativo. Mas é preciso ser rigoroso sobre o que ela faz bem e o que não faz.
Processamento de grandes volumes
Identificar padrões numa longa cadeia de transacções financeiras, resumir centenas de documentos num processo de discovery, ou sinalizar inconsistências em contratos extensos.
Rascunhos e estruturas
Sugerir estruturas de argumentação a partir de um tema jurídico, produzir primeiros rascunhos de cláusulas contratuais em domínios bem delimitados — desde que o profissional mantenha o papel de revisor crítico e tomador de decisão final.
Ferramentas especializadas verificadas
Ferramentas que integram bases de dados jurídicas verificadas — como plataformas que acedem ao DATAJURIS, ao sistema do Tribunal Constitucional ou às bases de dados dos tribunais superiores em tempo real — oferecem um nível de fiabilidade muito superior ao de um modelo de linguagem generalista.
Apoio aos magistrados
Para os magistrados e juízes, a IA pode igualmente representar um apoio valioso na análise de precedentes, na identificação de decisões em sentido contrário ou na organização de argumentos já formulados por outros tribunais — desde que essa análise seja sempre tratada como um ponto de partida para a reflexão, nunca como um ponto de chegada.
Não é o mesmo pedir a um chatbot genérico que cite jurisprudência do Supremo e utilizar uma ferramenta que pesquisa directamente nessa jurisprudência e apresenta os resultados com a fonte verificável. O profissional que não sabe distinguir estes dois casos não está em condições de usar IA com segurança.
O que é Preciso Mudar – e Urgentemente
A resposta a este problema não pode ser apenas disciplinar. A punição do advogado que cita acórdãos inexistentes é necessária, mas não suficiente. É preciso que a formação jurídica — inicial e contínua — integre de forma séria a literacia em inteligência artificial como componente obrigatória do saber profissional. Não se trata de transformar advogados em engenheiros de software. Trata-se de que cada profissional do Direito compreenda o suficiente sobre como estes sistemas funcionam para saber o que pode e o que não pode pedir-lhes, e para verificar sistematicamente aquilo que produzem.
Ordens Profissionais
A Ordem dos Advogados e o Conselho Superior da Magistratura deveriam desenvolver orientações deontológicas claras sobre o uso de IA — não apenas declarações de princípio, mas guias práticos, com exemplos de boas e más práticas, com indicação das ferramentas que oferecem garantias de fiabilidade e das situações em que o uso de IA representa um risco deontológico inaceitável. As ordens profissionais, em Portugal e na Europa, têm aqui uma responsabilidade que não podem adiar.
Faculdades de Direito
As faculdades de Direito precisam igualmente de actualizar os seus programas. Um estudante que entre hoje na faculdade estará a exercer a profissão durante décadas em que a IA será uma presença inevitável no dia-a-dia jurídico. Formá-lo apenas nas técnicas jurídicas tradicionais, sem lhe dar ferramentas para navegar criticamente neste ambiente tecnológico, é uma lacuna que terá consequências reais.
Formação Contínua
A formação jurídica contínua deve integrar de forma séria a literacia em inteligência artificial como componente obrigatória do saber profissional — para que cada profissional saiba o que pode e o que não pode pedir à IA, e para verificar sistematicamente aquilo que ela produz.
Conclusão: a Inteligência Humana como Condição da IA Responsável
Os juízes do Tribunal da Relação de Guimarães escreveram, com alguma dose de optimismo, que “felizmente as decisões judiciais são produzidas por mentes humanas, críticas e atentas”. Têm razão em celebrar esse facto — e em apontar para ele como o garante que impediu que a falsidade prosperasse. Mas seria ingénuo concluir que o sistema se auto-corrige sempre. Há casos em que a alucinação não é detectada, em que o juiz não verifica, em que ninguém repara. O que ainda não sabemos — e é uma questão que nos deve inquietar — é quantas decisões já foram influenciadas por argumentos fabricados pela IA que ninguém foi verificar.
A inteligência artificial é uma ferramenta poderosa. Como todas as ferramentas poderosas, o que determina se é útil ou perigosa não é a tecnologia em si, mas a competência, o rigor e o sentido de responsabilidade de quem a usa.
No Direito, onde o que está em causa são a liberdade, o património, a reputação e os direitos fundamentais de pessoas concretas, essa responsabilidade não é retórica. É a essência da profissão.
Usar a IA com cautela não significa usá-la menos. Significa usá-la melhor — com conhecimento do que pode falhar, com verificação do que produz, e com a consciência permanente de que nenhum algoritmo, por mais sofisticado que seja, substitui o julgamento crítico de um jurista que conhece o seu ofício e o exerce com integridade.
Ana Marta Soares — Licenciada e Mestre em Direito (Ciências Jurídico-Empresariais), Faculdade de Direito da Universidade Nova de Lisboa. Pós-Graduada em Inteligência Artificial e Direito, Faculdade de Direito da Universidade de Lisboa. Formadora certificada desde 2020. Especialista em aplicações de IA para profissionais do Direito. Consultora e formadora nas áreas de Direito do Trabalho, Conformidade Regulamentar (RGPD e AI Act) e Transformação Digital em contextos jurídicos e empresariais.

