Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » A Inteligência Artificial no Direito: Entre o Potencial e a Irresponsabilidade
    IA e Direito

    A Inteligência Artificial no Direito: Entre o Potencial e a Irresponsabilidade

    Ana Marta SoaresPor Ana Marta SoaresMarço 31, 2026Updated:Abril 8, 2026Sem comentários11 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    Nota do Editor: As análises e opiniões aqui expressas não são necessariamente as mesmas das do Editor e são da responsabilidade exclusiva da Autora.

    Um Problema que Urge Abordar com Seriedade

    Há uma certa ironia no facto de a inteligência artificial — essa tecnologia que proclama saber tudo — ser capaz de inventar acórdãos do Supremo Tribunal de Justiça com a mesma desenvoltura com que uma criança conta histórias. E há algo de mais preocupante ainda: que profissionais do Direito, formados para questionar, verificar e fundamentar cada afirmação, aceitem esses produtos sem qualquer escrutínio crítico, apresentando-os perante tribunais como se fossem jurisprudência sólida e verificada.

    O caso que chegou ao Tribunal da Relação de Guimarães em Março de 2026 não é uma novidade absoluta, mas é o mais recente e eloquente sinal de um problema que urge abordar com seriedade. Um advogado citou, ao longo da sua motivação de recurso e da resposta ao parecer, seis acórdãos de tribunais superiores — da Relação e do Supremo Tribunal de Justiça — que pura e simplesmente não existem. Não estavam publicados em qualquer base de dados, não constavam do sistema Citius e, no caso do próprio Tribunal da Relação de Guimarães, nunca tinham sequer corrido termos. Foram, na expressão exacta dos juízes desembargadores, “desencantados” com a ajuda da inteligência artificial.

    O tribunal não se limitou a manter a pena e a condenar o recorrente em taxa de justiça adicional. Manifestou a “mais profunda perplexidade” e anunciou que ponderaria comunicar o caso à Ordem dos Advogados. Antes, em Novembro de 2024, já tinham surgido suspeitas semelhantes relativamente a um acórdão do Tribunal da Relação de Lisboa, no processo que envolveu a antiga deputada Helena Lopes da Costa e a Santa Casa da Misericórdia de Lisboa, onde se citavam legislação e jurisprudência igualmente inexistentes. O Conselho Superior da Magistratura acabaria por abrir processo de averiguação. Não estamos, pois, perante casos isolados ou episódicos.

    O que é uma Alucinação e por que Razão Isto Importa ao Direito

    Como funcionam os LLMs

    Ao contrário do que a palavra “inteligência” pode sugerir, estes sistemas não raciocinam, não verificam factos e não acedem a bases de dados de jurisprudência actualizada em tempo real — salvo quando especificamente integrados com essa funcionalidade. O que fazem é calcular, com base em padrões estatísticos, qual a sequência de palavras mais provável a seguir à anterior.

    Quando lhes é pedido um acórdão sobre detenção de arma proibida, produzem texto que parece um acórdão — mas sem qualquer garantia de que os números de processo, as datas, as partes ou o conteúdo correspondam à realidade.

    As consequências documentadas

    Esta característica tem nome: chama-se alucinação. E não é uma falha que a próxima versão do modelo vai corrigir. É uma consequência estrutural da forma como estes sistemas funcionam. A MIT Technology Review Portugal, em análise publicada em 2025, alertava precisamente para este fenómeno: as alucinações da IA nos tribunais não têm diminuído — têm aumentado em frequência e em gravidade, atingindo já escritórios de topo e causando multas significativas a nível internacional.

    O problema central, porém, não é tecnológico. É humano. Como bem sintetiza Maura Grossman, professora na Universidade de Waterloo: os advogados e outros profissionais tendem a pressupor que, pelo facto de estes modelos produzirem texto fluente e aparentemente autoritário, esse texto é também preciso. Transferem para a máquina a confiança crítica que deveriam exercer sobre ela.

    No Direito, esta cedência tem consequências particularmente sérias. A citação de jurisprudência inexistente não é apenas um erro técnico: é uma falsidade processual. Compromete o direito à defesa, induz o tribunal em erro, viola deveres deontológicos fundamentais e, no limite, pode determinar o sentido de uma decisão que afecta a vida concreta de pessoas reais.

    A Dependência Acrítica: o Perigo Maior

    Haveria, em abstracto, uma forma legítima de usar a IA na redacção de peças processuais. Mas essa forma exigiria que o profissional tratasse o output da ferramenta exactamente como trataria o rascunho de um estagiário inexperiente: com atenção, com ceticismo e com verificação sistemática de cada referência antes de a subscrever. O que os casos documentados revelam é que isso não aconteceu.

    Texto fluente e convincente

    O texto produzido é fluente, bem estruturado e convincente — não exibe os sinais habituais do erro humano que nos levam a rever com mais atenção.

    Pressão de produtividade

    Existe uma pressão crescente de produtividade sobre os operadores jurídicos: prazos curtos, volume de trabalho elevado, expectativa de eficiência. A IA surge como uma promessa de alívio — e a tentação de confiar cegamente nessa promessa é proporcional ao cansaço de quem a encontra.

    Publicidade enganosa

    Algumas plataformas comerciais de IA jurídica publicitam os seus produtos com garantias de precisão que os eventos demonstram serem, no mínimo, exageradas.

    Autoridade paradoxal da máquina

    Existe um fenómeno de ordem psicológica que merece reflexão: a autoridade que o texto da máquina aparentemente projecta pode, paradoxalmente, ser maior do que a do texto humano. Quando é a IA a produzir, algo no distanciamento crítico parece amortecer-se. A aparência de competência desactiva a vigilância.

    Quando um colega mais jovem redige uma peça, o advogado sénior revê-a com o distanciamento natural de quem sabe que há erros a corrigir. Quando é a IA a produzir, algo nesse distanciamento crítico parece amortecer-se.

    O que a Lei e a Deontologia já Exigem e Continuarão a Exigir

    Importa ser precisa neste ponto: a utilização de ferramentas de inteligência artificial na prática jurídica não é, em si mesma, proibida nem eticamente censurável. O que é exigível, tanto pelo Estatuto da Ordem dos Advogados como pelos princípios gerais da responsabilidade profissional, é que o advogado que assina uma peça processual a subscreva como sua, verificando a sua exactidão, a veracidade das fontes e a conformidade com o ordenamento jurídico vigente.

    A responsabilidade profissional não se transfere para o algoritmo. O advogado que cita um acórdão inexistente porque assim lhe sugeriu um modelo de linguagem não tem uma escusa válida: tem apenas uma explicação — e uma que agrava a sua situação, porque demonstra que delegou a construção do argumento jurídico num sistema que não é capaz de o construir com fiabilidade.

    O mesmo raciocínio se aplica aos magistrados: a independência judicial implica que cada decisão seja produto do pensamento crítico e fundamentado de quem a subscreve, e não de um sistema cuja lógica interna é opaca e cujos outputs são verificavelmente falíveis.

    AI Act

    Em vigor desde Agosto de 2024 e em processo progressivo de aplicação, classifica como de alto risco os sistemas de IA utilizados na administração da justiça e enquadra exigências específicas de transparência, supervisão humana e responsabilização.

    Literacia Mínima Obrigatória

    Em Portugal, como em toda a União Europeia, os operadores jurídicos que utilizem ferramentas de IA em contextos decisórios terão de desenvolver uma literacia mínima sobre o funcionamento dessas ferramentas, precisamente para poderem exercer a supervisão humana que a lei impõe e que a deontologia sempre exigiu.

    O Potencial Real: o que a IA Pode Efectivamente Fazer Bem

    Seria, porém, um erro deixar a análise por aqui — como se a conclusão fosse que a IA não tem lugar na prática jurídica. Tem, e um lugar significativo. Mas é preciso ser rigoroso sobre o que ela faz bem e o que não faz.

    Processamento de grandes volumes

    Identificar padrões numa longa cadeia de transacções financeiras, resumir centenas de documentos num processo de discovery, ou sinalizar inconsistências em contratos extensos.

    Rascunhos e estruturas

    Sugerir estruturas de argumentação a partir de um tema jurídico, produzir primeiros rascunhos de cláusulas contratuais em domínios bem delimitados — desde que o profissional mantenha o papel de revisor crítico e tomador de decisão final.

    Ferramentas especializadas verificadas

    Ferramentas que integram bases de dados jurídicas verificadas — como plataformas que acedem ao DATAJURIS, ao sistema do Tribunal Constitucional ou às bases de dados dos tribunais superiores em tempo real — oferecem um nível de fiabilidade muito superior ao de um modelo de linguagem generalista.

    Apoio aos magistrados

    Para os magistrados e juízes, a IA pode igualmente representar um apoio valioso na análise de precedentes, na identificação de decisões em sentido contrário ou na organização de argumentos já formulados por outros tribunais — desde que essa análise seja sempre tratada como um ponto de partida para a reflexão, nunca como um ponto de chegada.

    Não é o mesmo pedir a um chatbot genérico que cite jurisprudência do Supremo e utilizar uma ferramenta que pesquisa directamente nessa jurisprudência e apresenta os resultados com a fonte verificável. O profissional que não sabe distinguir estes dois casos não está em condições de usar IA com segurança.

    O que é Preciso Mudar – e Urgentemente

    A resposta a este problema não pode ser apenas disciplinar. A punição do advogado que cita acórdãos inexistentes é necessária, mas não suficiente. É preciso que a formação jurídica — inicial e contínua — integre de forma séria a literacia em inteligência artificial como componente obrigatória do saber profissional. Não se trata de transformar advogados em engenheiros de software. Trata-se de que cada profissional do Direito compreenda o suficiente sobre como estes sistemas funcionam para saber o que pode e o que não pode pedir-lhes, e para verificar sistematicamente aquilo que produzem.

    Ordens Profissionais

    A Ordem dos Advogados e o Conselho Superior da Magistratura deveriam desenvolver orientações deontológicas claras sobre o uso de IA — não apenas declarações de princípio, mas guias práticos, com exemplos de boas e más práticas, com indicação das ferramentas que oferecem garantias de fiabilidade e das situações em que o uso de IA representa um risco deontológico inaceitável. As ordens profissionais, em Portugal e na Europa, têm aqui uma responsabilidade que não podem adiar.

    Faculdades de Direito

    As faculdades de Direito precisam igualmente de actualizar os seus programas. Um estudante que entre hoje na faculdade estará a exercer a profissão durante décadas em que a IA será uma presença inevitável no dia-a-dia jurídico. Formá-lo apenas nas técnicas jurídicas tradicionais, sem lhe dar ferramentas para navegar criticamente neste ambiente tecnológico, é uma lacuna que terá consequências reais.

    Formação Contínua

    A formação jurídica contínua deve integrar de forma séria a literacia em inteligência artificial como componente obrigatória do saber profissional — para que cada profissional saiba o que pode e o que não pode pedir à IA, e para verificar sistematicamente aquilo que ela produz.

    Conclusão: a Inteligência Humana como Condição da IA Responsável

    Os juízes do Tribunal da Relação de Guimarães escreveram, com alguma dose de optimismo, que “felizmente as decisões judiciais são produzidas por mentes humanas, críticas e atentas”. Têm razão em celebrar esse facto — e em apontar para ele como o garante que impediu que a falsidade prosperasse. Mas seria ingénuo concluir que o sistema se auto-corrige sempre. Há casos em que a alucinação não é detectada, em que o juiz não verifica, em que ninguém repara. O que ainda não sabemos — e é uma questão que nos deve inquietar — é quantas decisões já foram influenciadas por argumentos fabricados pela IA que ninguém foi verificar.

    A inteligência artificial é uma ferramenta poderosa. Como todas as ferramentas poderosas, o que determina se é útil ou perigosa não é a tecnologia em si, mas a competência, o rigor e o sentido de responsabilidade de quem a usa.

    No Direito, onde o que está em causa são a liberdade, o património, a reputação e os direitos fundamentais de pessoas concretas, essa responsabilidade não é retórica. É a essência da profissão.

    Usar a IA com cautela não significa usá-la menos. Significa usá-la melhor — com conhecimento do que pode falhar, com verificação do que produz, e com a consciência permanente de que nenhum algoritmo, por mais sofisticado que seja, substitui o julgamento crítico de um jurista que conhece o seu ofício e o exerce com integridade.

    Ana Marta Soares — Licenciada e Mestre em Direito (Ciências Jurídico-Empresariais), Faculdade de Direito da Universidade Nova de Lisboa. Pós-Graduada em Inteligência Artificial e Direito, Faculdade de Direito da Universidade de Lisboa. Formadora certificada desde 2020. Especialista em aplicações de IA para profissionais do Direito. Consultora e formadora nas áreas de Direito do Trabalho, Conformidade Regulamentar (RGPD e AI Act) e Transformação Digital em contextos jurídicos e empresariais.

    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Ana Marta Soares
    • LinkedIn

    Com mais de 10 anos no setor jurídico, especializo-me em consultoria em direito empresarial, apoio sindical e operações internacionais. Atualmente a realizar uma pós-graduação em Inteligência Artificial e Direito, preparando-me para a transformação digital da prática jurídica.

    Artigos Relacionados

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026

    O Custo Real das Alucinações de IA: Multas e Sanções a Advogados em Portugal e no Mundo

    Abril 2, 2026

    CL-1: O Primeiro Computador Biológico Comercial e os Seus Desafios Jurídicos

    Março 25, 2026

    Moltbook Meltdown: Teatro de Agentes e Vacuidade da Responsabilidade

    Fevereiro 6, 2026

    O Estranho Caso da IA Chantagista

    Fevereiro 2, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}