Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Brasil legisla, Bruxelas regula, Lisboa hesita: três modelos de literacia em IA na escola

    Maio 12, 2026

    A era do advogado-arquiteto

    Maio 10, 2026

    Quando o procurador alucina e o juiz subscreve: o caso Leslie e o novo dever de verificação judicial.

    Maio 7, 2026
    Facebook X (Twitter) Instagram
    Juristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    Juristech
    Início » Quando o procurador alucina e o juiz subscreve: o caso Leslie e o novo dever de verificação judicial.
    IA e Direito

    Quando o procurador alucina e o juiz subscreve: o caso Leslie e o novo dever de verificação judicial.

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoMaio 7, 2026Sem comentários9 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Procurador usa IA para citações falsas e juíz censura isso
    Representação visual de Procurador usando IA para citações falsas e juíz a censurar isso
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    Em O Custo Real das Alucinações, publicado neste site, traçámos o panorama global das sanções aplicadas a advogados por citações fabricadas por inteligência artificial em peças processuais. A esmagadora maioria desses casos partilhava uma característica: o sancionado era um advogado de uma das partes, geralmente em litígio civil. A decisão do Supremo Tribunal da Geórgia (EUA) de 5 de Maio de 2026, no caso da promotora assistente Deborah Leslie, rompe com esse padrão de três formas que a tornam particularmente relevante para o debate português e justificam tratamento autónomo.

    Os factos

    Deborah Leslie, promotora assistente (procuradora do Ministério Público norteamericano) do condado de Clayton, foi suspensa por seis meses da possibilidade de litigar junto do Supremo Tribunal da Geórgia e condenada a frequentar 12 horas de formação adicional sobre ética, redação processual e uso adequado de IA.

    A sanção surge no contexto do recurso de Hannah Payne, cidadã condenada em primeira instância a prisão perpétua acrescida de 13 anos pelo homicídio e cárcere privado de Kenneth Herring.

    Em 2025, no âmbito de um pedido de repetição de julgamento apresentado pela defesa, Deborah Leslie elaborou uma proposed order (proposta de decisão judicial) recomendando a rejeição desse pedido defensório.

    O juiz de primeira instância adotou substancialmente o texto da promotora, incluindo as citações jurisprudenciais que continha.

    O problema, como viria a apurar-se em sede de recurso, é que muitas dessas citações… simplesmente não existiam.

    Em documento posteriormente apresentado, Leslie admitiu ter utilizado software de IA generativa para redigir as peças processuais sem verificar independentemente as referências geradas.

    O número final de citações problemáticas é particularmente notável: vinte e um. Nove foram inicialmente identificadas pelo Supremo da Geórgia; a própria Leslie reconheceu mais doze que tinham passado despercebidas, todas igualmente produzidas por IA sem verificação. Total: 21…

    O juiz Benjamin Land, redator do acórdão, foi inequívoco: “citar casos que não existem ou que não sustentam a tese para a qual são citados é uma violação das normas deste tribunal e está muito aquém da conduta que esperamos dos promotores da Geórgia”.

    O Supremo anulou a decisão impugnada e devolveu o processo ao tribunal de primeira instância, com instrução para emitir nova decisão depurada das referências fictícias.

    ‘Alucinações’ no Ministério Público

    A imensa maioria dos casos catalogados na base de dados de Damien Charlotin (ver o nosso citado artigo) envolve advogados em litígio civil, frequentemente em causas com escasso valor estratégico ou em que a parte enfrenta limitações de meios e, por isso, decide usar (mal) a inteligência artificial.

    O caso Leslie é qualitativamente diferente.

    Trata-se de um magistrado do Ministério Público, em representação do Estado, num processo em que está em causa uma condenação por homicídio e uma pena de prisão perpétua.

    A diferença não é meramente simbólica.

    O procurador opera sob deveres acrescidos: deve representar não um cliente, mas a comunidade jurídica, e tem como missão fazer justiça, não apenas obter uma condenação.

    Nos Estados Unidos, este princípio cristaliza-se nas chamadas Brady obligations, o dever de divulgar à defesa qualquer prova exculpatória, e no padrão geral de que o procurador é “ministro da justiça” antes de ser advogado de uma parte.

    Em Portugal, o artigo 53.º do Código de Processo Penal e o Estatuto do Ministério Público consagram exigência funcionalmente equivalente: o magistrado do MP exerce a ação penal “orientado por critérios de estrita objetividade”.

    Submeter a um tribunal, num processo de homicídio, vinte e uma citações fabricadas que sustentam o pedido de manutenção da condenação, quando essas citações não foram lidas, verificadas, e em alguns casos nem sequer existiam, colide frontalmente com esse dever de objetividade.

    Não estamos perante advocacia agressiva mal afinada; estamos perante a apresentação ao tribunal, pelo Estado, de fundamentação jurídica falsa em apoio de uma privação de liberdade.

    O juiz que tudo subscreveu

    O elemento mais perturbador do caso Leslie não é a conduta da promotora.

    É o facto de o juiz de primeira instância ter adotado a proposed order praticamente sem alterações. Citações fabricadas incluídas e de ter assinado a decisão como sua.

    A prática norte-americana de submissão de propostas de decisão pelas partes não é diretamente transponível para o sistema processual português.

    Mas o problema subjacente, relativo ao aproveitamento, pelo julgador, de texto preparado por uma das partes, tem manifestações análogas em Portugal: minutas oferecidas pelas partes em providências cautelares e procedimentos de injunção, articulações detalhadas de matéria de facto que migram para a fundamentação, peças do MP que servem de espinha dorsal a despachos de pronúncia. Em qualquer destes contextos, a contaminação por conteúdo gerado por IA na peça da parte traduz-se, sem filtro adicional, em contaminação da própria decisão judicial.

    O Supremo da Geórgia, talvez consciente disto, foi além da sanção individual.

    Os juízes alertaram explicitamente os tribunais de primeira instância para reverem as propostas de decisão “tendo em mente que software de inteligência artificial, com todos os seus riscos e benefícios potenciais, pode ter sido utilizado”.

    É, na prática, a afirmação de um dever de verificação judicial autónomo: o julgador não pode confiar acriticamente na investigação jurídica vertida nas peças das partes, ainda que a parte seja o Ministério Público, ainda que o texto chegue formatado como proposta de decisão.

    Esta doutrina é nova e exportável. O acórdão do Tribunal da Relação de Guimarães de 10 de Fevereiro de 2026, comentado em artigo anterior nesta publicação, focou a responsabilidade do advogado. O caso Leslie acrescenta uma camada complementar: mesmo que o advogado (ou o MP) falhe, o juiz tem de filtrar.

    E em Portugal, quanto à magistratura?

    O ponto mais sensível para um leitor português é que a discussão sobre IA na magistratura nacional já não é hipotética. Em declarações públicas recentes, o Presidente do Supremo Tribunal de Justiça referiu ter havido casos de juízes portugueses sancionados disciplinarmente por negligência grave associada ao uso de inteligência artificial.

    À data da redação deste artigo, os processos disciplinares concretos não foram tornados públicos pelo Conselho Superior da Magistratura, e o detalhe das condutas sancionadas permanece, portanto, parcialmente obscuro.

    O que se sabe é suficiente para sustentar duas conclusões, penso eu.

    Primeiro, que o problema das alucinações não está confinado à advocacia: chegou à magistratura.

    Segundo, que as estruturas disciplinares (CSM e, presumivelmente em casos análogos no MP, Conselho Superior do Ministério Público) estão a aplicar normas existentes (deveres de zelo, diligência e competência) a condutas que envolvem IA generativa, sem que tenha sido emitida orientação específica sobre o tema.

    Esta solução por via disciplinar é exatamente a mesma adotada pelo Supremo da Geórgia: na ausência de regra dedicada, aplicam-se as regras gerais de conduta profissional. O Regulamento Inteligência Artificial da União Europeia (Regulamento (UE) 2024/1689) classifica os sistemas de IA destinados a auxiliar autoridades judiciárias na investigação e interpretação de factos e do direito como sistemas de risco elevado (Anexo III, ponto 8), exigindo supervisão humana significativa.

    Mas o Regulamento regula o sistema, não o utilizador.

    A responsabilização individual de magistrados e advogados continua a depender dos respetivos estatutos e códigos deontológicos.

    Conclusão

    O caso Leslie pode não ser o caso mais espetacular de alucinações de IA em tribunal: vinte e uma citações fabricadas é número alto, mas não inédito.

    É, no entanto, o caso mais instrutivo até à data para um leitor português, por três razões que se reforçam mutuamente: i) porque envolve um membro do Ministério Público em processo de homicídio; ii) porque expõe a permeabilidade do julgador às alucinações vertidas na peça da parte; iii) e porque coincide, no tempo, com a confirmação pública de que também em Portugal há já magistrados sancionados por uso negligente de IA.

    A mensagem do Supremo da Geórgia ressoa, com precisão, a do Tribunal da Relação de Guimarães: a tecnologia pode alucinar; o profissional do direito não.

    Mas o caso Leslie acrescenta um corolário que a decisão portuguesa não chegou a articular: o juiz, mesmo perante uma peça da parte, mantém o dever último de verificação.

    Numa altura em que as ferramentas de IA generativa entram, por todas as portas, no quotidiano dos tribunais portugueses, este corolário deixa de ser teórico.

    Acresce que, o artigo 12.º das recomendações do CSM sobre o uso da IA nos tribunais impõe ao juiz o dever de vigilância nestes termos:

    “…devem os juízes, enquanto responsáveis pelos dados judiciais do processo, prestar especial atenção ao uso de IA, designadamente nas seguintes situações: a) informações jurídicas obtidas por intervenientes sem representação por profissional forense; b) produção de peças processuais com indícios de uso de IA.

    1. No exercício deste dever podem ser considerados indícios do uso de IA, designadamente: a) Citação de acórdãos sem existência real e produzidos por alucinação do algoritmo; b) Citação de legislação sem aplicação em território nacional; c) O uso de expressões não correntes em português europeu; d) Indícios de respostas do algoritmo a prompts.”

    Veremos como, na prática, os senhores juízes exercerão este dever, mas uma coisa é certa: tal dever dos juízes incide sobre partes, advogados, procuradores do Ministério Público e outros juízes.

    Referências e Fontes

    Jurisprudência e decisões disciplinares

    • In re Leslie, Supreme Court of Georgia, 5 de Maio de 2026 — suspensão de seis meses da promotora assistente Deborah Leslie por utilização de IA generativa que produziu 21 citações fabricadas em proposed order no caso de homicídio Hannah Payne

    • Cobertura processual do caso State v. Hannah Payne — CBS News Atlanta, Fox 5 Atlanta, Law360

    • Reuters Legal, “AI errors in US murder case lead to discipline for Georgia prosecutor” (5 de Maio de 2026)

    • Acórdão do Tribunal da Relação de Guimarães, de 10 de Fevereiro de 2026 (analisado em O Custo Real das Alucinações)

    Quadro normativo

    • Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de Junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial), em particular Anexo III, ponto 8, sobre sistemas de IA de alto risco em administração da justiça

    • Estatuto da Ordem dos Advogados (Lei n.º 145/2015, de 9 de Setembro)

    • Estatuto do Ministério Público (Lei n.º 68/2019, de 27 de Agosto)

    • Estatuto dos Magistrados Judiciais (Lei n.º 21/85, de 30 de Julho, na sua redação atual)

    • Código de Processo Penal, artigo 53.º (atribuições do Ministério Público)

    Contexto português

    • Diário de Notícias, «Líder do Supremo diz que houve juízes punidos por negligência grave ao usar inteligência artificial»

    Cobertura internacional adicional

    • g1 Globo, 5 de Maio de 2026

    • Silicon UK

    Alucinação Citações falsas Citações inexistentes IA Justiça Magistratura Ministério Público Responsabilidade Tribunais
    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    Brasil legisla, Bruxelas regula, Lisboa hesita: três modelos de literacia em IA na escola

    Maio 12, 2026

    A era do advogado-arquiteto

    Maio 10, 2026

    Tribunais chineses travam despedimentos por com base na IA. E expõem o silêncio europeu.

    Maio 6, 2026

    O que dizes online constitui prova

    Maio 2, 2026

    Hermes Agent no Telegram: a beleza do agente “local” que, afinal, não o é

    Maio 2, 2026

    A IA torna mesmo a sua equipa jurídica mais rápida? O paradoxo que ninguém quer medir

    Maio 1, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    Brasil legisla, Bruxelas regula, Lisboa hesita: três modelos de literacia em IA na escola

    Maio 12, 2026

    A era do advogado-arquiteto

    Maio 10, 2026

    Quando o procurador alucina e o juiz subscreve: o caso Leslie e o novo dever de verificação judicial.

    Maio 7, 2026

    UPDATE: AI Act: acordo provisório altera o calendário, prazo de 2 de agosto de 2026 deixa de ser intocável

    Maio 6, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    Brasil legisla, Bruxelas regula, Lisboa hesita: três modelos de literacia em IA na escola

    Maio 12, 2026

    A era do advogado-arquiteto

    Maio 10, 2026

    Quando o procurador alucina e o juiz subscreve: o caso Leslie e o novo dever de verificação judicial.

    Maio 7, 2026
    Newsletter

    Subscrever

    Receba as últimas novidades no seu email.

    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}