Em , publicado neste site, traçámos o panorama global das sanções aplicadas a advogados por citações fabricadas por inteligência artificial em peças processuais. A esmagadora maioria desses casos partilhava uma característica: o sancionado era um advogado de uma das partes, geralmente em litígio civil. A decisão do Supremo Tribunal da Geórgia (EUA) de 5 de Maio de 2026, no caso da promotora assistente Deborah Leslie, rompe com esse padrão de três formas que a tornam particularmente relevante para o debate português e justificam tratamento autónomo.
Os factos
Deborah Leslie, promotora assistente (procuradora do Ministério Público norteamericano) do condado de Clayton, foi suspensa por seis meses da possibilidade de litigar junto do Supremo Tribunal da Geórgia e condenada a frequentar 12 horas de formação adicional sobre ética, redação processual e uso adequado de IA.
A sanção surge no contexto do recurso de Hannah Payne, cidadã condenada em primeira instância a prisão perpétua acrescida de 13 anos pelo homicídio e cárcere privado de Kenneth Herring.
Em 2025, no âmbito de um pedido de repetição de julgamento apresentado pela defesa, Deborah Leslie elaborou uma proposed order (proposta de decisão judicial) recomendando a rejeição desse pedido defensório.
O juiz de primeira instância adotou substancialmente o texto da promotora, incluindo as citações jurisprudenciais que continha.
O problema, como viria a apurar-se em sede de recurso, é que muitas dessas citações… simplesmente não existiam.
Em documento posteriormente apresentado, Leslie admitiu ter utilizado software de IA generativa para redigir as peças processuais sem verificar independentemente as referências geradas.
O número final de citações problemáticas é particularmente notável: vinte e um. Nove foram inicialmente identificadas pelo Supremo da Geórgia; a própria Leslie reconheceu mais doze que tinham passado despercebidas, todas igualmente produzidas por IA sem verificação. Total: 21…
O juiz Benjamin Land, redator do acórdão, foi inequívoco: “citar casos que não existem ou que não sustentam a tese para a qual são citados é uma violação das normas deste tribunal e está muito aquém da conduta que esperamos dos promotores da Geórgia”.
O Supremo anulou a decisão impugnada e devolveu o processo ao tribunal de primeira instância, com instrução para emitir nova decisão depurada das referências fictícias.
‘Alucinações’ no Ministério Público
A imensa maioria dos casos catalogados na base de dados de Damien Charlotin (ver o nosso citado artigo) envolve advogados em litígio civil, frequentemente em causas com escasso valor estratégico ou em que a parte enfrenta limitações de meios e, por isso, decide usar (mal) a inteligência artificial.
O caso Leslie é qualitativamente diferente.
Trata-se de um magistrado do Ministério Público, em representação do Estado, num processo em que está em causa uma condenação por homicídio e uma pena de prisão perpétua.
A diferença não é meramente simbólica.
O procurador opera sob deveres acrescidos: deve representar não um cliente, mas a comunidade jurídica, e tem como missão fazer justiça, não apenas obter uma condenação.
Nos Estados Unidos, este princípio cristaliza-se nas chamadas Brady obligations, o dever de divulgar à defesa qualquer prova exculpatória, e no padrão geral de que o procurador é “ministro da justiça” antes de ser advogado de uma parte.
Em Portugal, o artigo 53.º do Código de Processo Penal e o Estatuto do Ministério Público consagram exigência funcionalmente equivalente: o magistrado do MP exerce a ação penal “orientado por critérios de estrita objetividade”.
Submeter a um tribunal, num processo de homicídio, vinte e uma citações fabricadas que sustentam o pedido de manutenção da condenação, quando essas citações não foram lidas, verificadas, e em alguns casos nem sequer existiam, colide frontalmente com esse dever de objetividade.
Não estamos perante advocacia agressiva mal afinada; estamos perante a apresentação ao tribunal, pelo Estado, de fundamentação jurídica falsa em apoio de uma privação de liberdade.
O juiz que tudo subscreveu
O elemento mais perturbador do caso Leslie não é a conduta da promotora.
É o facto de o juiz de primeira instância ter adotado a proposed order praticamente sem alterações. Citações fabricadas incluídas e de ter assinado a decisão como sua.
A prática norte-americana de submissão de propostas de decisão pelas partes não é diretamente transponível para o sistema processual português.
Mas o problema subjacente, relativo ao aproveitamento, pelo julgador, de texto preparado por uma das partes, tem manifestações análogas em Portugal: minutas oferecidas pelas partes em providências cautelares e procedimentos de injunção, articulações detalhadas de matéria de facto que migram para a fundamentação, peças do MP que servem de espinha dorsal a despachos de pronúncia. Em qualquer destes contextos, a contaminação por conteúdo gerado por IA na peça da parte traduz-se, sem filtro adicional, em contaminação da própria decisão judicial.
O Supremo da Geórgia, talvez consciente disto, foi além da sanção individual.
Os juízes alertaram explicitamente os tribunais de primeira instância para reverem as propostas de decisão “tendo em mente que software de inteligência artificial, com todos os seus riscos e benefícios potenciais, pode ter sido utilizado”.
É, na prática, a afirmação de um dever de verificação judicial autónomo: o julgador não pode confiar acriticamente na investigação jurídica vertida nas peças das partes, ainda que a parte seja o Ministério Público, ainda que o texto chegue formatado como proposta de decisão.
Esta doutrina é nova e exportável. O acórdão do Tribunal da Relação de Guimarães de 10 de Fevereiro de 2026, comentado em artigo anterior nesta publicação, focou a responsabilidade do advogado. O caso Leslie acrescenta uma camada complementar: mesmo que o advogado (ou o MP) falhe, o juiz tem de filtrar.
E em Portugal, quanto à magistratura?
O ponto mais sensível para um leitor português é que a discussão sobre IA na magistratura nacional já não é hipotética. Em declarações públicas recentes, .
À data da redação deste artigo, os processos disciplinares concretos não foram tornados públicos pelo Conselho Superior da Magistratura, e o detalhe das condutas sancionadas permanece, portanto, parcialmente obscuro.
O que se sabe é suficiente para sustentar duas conclusões, penso eu.
Primeiro, que o problema das alucinações não está confinado à advocacia: chegou à magistratura.
Segundo, que as estruturas disciplinares (CSM e, presumivelmente em casos análogos no MP, Conselho Superior do Ministério Público) estão a aplicar normas existentes (deveres de zelo, diligência e competência) a condutas que envolvem IA generativa, sem que tenha sido emitida orientação específica sobre o tema.
Esta solução por via disciplinar é exatamente a mesma adotada pelo Supremo da Geórgia: na ausência de regra dedicada, aplicam-se as regras gerais de conduta profissional. O Regulamento Inteligência Artificial da União Europeia (Regulamento (UE) 2024/1689) classifica os sistemas de IA destinados a auxiliar autoridades judiciárias na investigação e interpretação de factos e do direito como sistemas de risco elevado (Anexo III, ponto 8), exigindo supervisão humana significativa.
Mas o Regulamento regula o sistema, não o utilizador.
A responsabilização individual de magistrados e advogados continua a depender dos respetivos estatutos e códigos deontológicos.
Conclusão
O caso Leslie pode não ser o caso mais espetacular de alucinações de IA em tribunal: vinte e uma citações fabricadas é número alto, mas não inédito.
É, no entanto, o caso mais instrutivo até à data para um leitor português, por três razões que se reforçam mutuamente: i) porque envolve um membro do Ministério Público em processo de homicídio; ii) porque expõe a permeabilidade do julgador às alucinações vertidas na peça da parte; iii) e porque coincide, no tempo, com a confirmação pública de que também em Portugal há já magistrados sancionados por uso negligente de IA.
A mensagem do Supremo da Geórgia ressoa, com precisão, a do Tribunal da Relação de Guimarães: a tecnologia pode alucinar; o profissional do direito não.
Mas o caso Leslie acrescenta um corolário que a decisão portuguesa não chegou a articular: o juiz, mesmo perante uma peça da parte, mantém o dever último de verificação.
Numa altura em que as ferramentas de IA generativa entram, por todas as portas, no quotidiano dos tribunais portugueses, este corolário deixa de ser teórico.
Acresce que, o artigo 12.º das impõe ao juiz o dever de vigilância nestes termos:
“…devem os juízes, enquanto responsáveis pelos dados judiciais do processo, prestar especial atenção ao uso de IA, designadamente nas seguintes situações: a) informações jurídicas obtidas por intervenientes sem representação por profissional forense; b) produção de peças processuais com indícios de uso de IA.
-
No exercício deste dever podem ser considerados indícios do uso de IA, designadamente: a) Citação de acórdãos sem existência real e produzidos por alucinação do algoritmo; b) Citação de legislação sem aplicação em território nacional; c) O uso de expressões não correntes em português europeu; d) Indícios de respostas do algoritmo a prompts.”
Referências e Fontes
Jurisprudência e decisões disciplinares
-
, Supreme Court of Georgia, 5 de Maio de 2026 — suspensão de seis meses da promotora assistente Deborah Leslie por utilização de IA generativa que produziu 21 citações fabricadas em proposed order no caso de homicídio Hannah Payne
-
Cobertura processual do caso State v. Hannah Payne — , ,
-
, “AI errors in US murder case lead to discipline for Georgia prosecutor” (5 de Maio de 2026)
-
Acórdão do Tribunal da Relação de Guimarães, de 10 de Fevereiro de 2026 (analisado em )
Quadro normativo
-
, de 13 de Junho de 2024, que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial), em particular Anexo III, ponto 8, sobre sistemas de IA de alto risco em administração da justiça
-
(Lei n.º 145/2015, de 9 de Setembro)
-
(Lei n.º 68/2019, de 27 de Agosto)
-
(Lei n.º 21/85, de 30 de Julho, na sua redação atual)
-
(atribuições do Ministério Público)
Contexto português
-
Diário de Notícias,
Cobertura internacional adicional
-
, 5 de Maio de 2026
-
