A fronteira entre tecnologia e processo penal acaba de ganhar, no Brasil, um novo marco. O Superior Tribunal de Justiça brasileiro (STJ), no Habeas Corpus n.º 1.059.475/SP, julgado a 7 de Abril de 2026, decidiu que um relatório elaborado com recurso a inteligência artificial generativa — concretamente os modelos Gemini e Perplexity — “não possui mínima confiabilidade epistémica” e, por isso, não pode servir de prova em processo penal. O caso é brasileiro, mas as lições atravessam fronteiras: tocam diretamente o debate europeu sobre IA na Justiça, o EU AI Act e a forma como advogados e juízes portugueses devem encarar os “grandes modelos de linguagem” (LLMs).
O caso, em síntese
O processo subjacente é simples de descrever: uma alegada injúria racial num estádio de futebol. Pretendia a acusação que o arguido teria chamado “macaco” à vítima. A polícia recorreu duas vezes ao Instituto de Criminalística (perícia oficial) e em ambas a fonética forense — análise espectrográfica, comparação intra-falante, leitura de formantes vocálicos — concluiu que a palavra proferida não era “macaco” mas algo próximo de “paca”. Inconformada com o resultado científico, a autoridade policial pediu então ao Centro de Inteligência da Delegacia que, “com recursos de inteligência artificial”, identificasse “as expressões utilizadas”. O relatório, gerado por Gemini e Perplexity, devolveu o que a perícia não dera: a palavra “macaco”. Foi esse documento que serviu de base à denúncia (acusação, no léxico português).
A defesa atacou. O Tribunal de Justiça de São Paulo recusou anular a peça acusatória. O STJ reformou: ordenou, de ofício, a exclusão do relatório, devendo o tribunal de primeira instância decidir nova admissibilidade da acusação sem ter esse relatório em conta.
A ratio do acórdão: prova exige aptidão racional
O voto do Ministro (equivalente, no Brasil, a Juiz Conselheiro do STJ Português) Reynaldo Soares da Fonseca constrói uma fundamentação que merece atenção do leitor europeu.
Contém três ideias-chave.
Primeira, a prova, mesmo onde vigora o “livre convencimento motivado” (ou seja, a livre convicção do juiz, sendo que, quer no Brasil, quer em Portugal, o processo penal está, garantisticamente, ligado à livre apreciação da prova e à ausência de prova vinculada), está sujeita a “limites lógicos”: não basta que seja lícita, tem de ser racionalmente apta a sustentar inferências sobre os factos.
Segunda, os LLMs operam por padrões estatísticos e probabilísticos. Não consultam bases de dados em tempo real, não verificam factos: estruturam a resposta mais provável a partir do que aprenderam no seu treino.
Daí o risco de “alucinação”: a apresentação de informação imprecisa, irreal ou fabricada com aparência de fidedignidade. O acórdão cita expressamente o guia da Administração brasileira sobre IA generativa no serviço público e recolhe doutrina brasileira recente sobre os perigos do uso ingénuo destes sistemas em sede probatória.
Terceira, e talvez a mais incisiva para o caso dos autos, em que estava em caso o áudio deficiente de um vídeo captado em más condições sonoras e legendado pelo Gemini e pelo Perplexity, os LLMs processam texto, não ondas sonoras.
A sua utilização para “transcrever fielmente” um áudio dependeria de um sistema intermédio de Reconhecimento Automático de Fala (ASR – automatic speech recognition) e, mesmo assim, o LLM trataria a transcrição como verdadeira, amplificando distorções. Há aqui uma inadequação estrutural entre objeto e ferramenta: pedir a um modelo de linguagem que faça fonética forense é, no estado da arte, pedir-lhe o que ele não sabe fazer.
A consequência é severa: ausência de confiabilidade epistémica mínima e, portanto, inadmissibilidade do meio de prova. O acórdão coloca o relatório de IA no mesmo patamar epistémico que o próprio STJ brasileiro reservou, em 2025, à carta psicografada (RHC 167.478/MS) — meio de prova destituído de fiabilidade racional.
(Convém abrir um parêntesis um pouco longo para o leitor português, a quem o paralelo poderá soar exótico, mas a psicografia foi tentada como meio de prova no processo penal brasileiro.
A psicografia é a alegada escrita produzida por médiuns sob o influxo de espíritos de pessoas falecidas, prática com expressão social no Brasil, ligada à tradição espírita, e que ao longo dos anos chegou efetivamente a ser apresentada nos tribunais brasileiros, sobretudo em sede de júri, como peça acusatória ou defensiva (em regra, cartas em que a “vítima” descreveria, do além, as circunstâncias da sua morte ou identificaria o autor do crime).
No referido RHC 167.478/MS, julgado a 21 de Outubro de 2025, o Ministro Rogerio Schietti Cruz fixou que a carta psicografada não é prova ilícita, não havendo, na sua obtenção, violação de norma de direito material, mas é prova epistemicamente inidónea: a crença na comunicação com os mortos é um ato de fé e não um ato de prova, e dela não se pode extrair qualquer inferência racional sobre factos.
O paralelo entre a psicografia e o relatório de IA, na justiça brasileira é, pois, cirúrgico: ambos produzem narrativas plausíveis, formalmente convincentes, mas cuja fonte (o suposto espírito do falecido ou o padrão estatístico de um LLM) não oferece base científica para sustentar conclusões sobre o que efetivamente se passou. É essa equivalência epistémica, e não qualquer aproximação irónica entre o sobrenatural e a tecnologia, que o STJ brasileiro mobiliza.)
O viés de confirmação institucional
Há, no caso em análise, um elemento que merece ser sublinhado: a IA generativa só foi acionada porque a perícia oficial não confirmou a hipótese acusatória. O acórdão fala expressamente em “viés de confirmação”. Ferramentas probabilísticas foram convocadas para suprir aquilo que o método científico recusara. Como observa o relator, “tanto a autoridade policial, quanto o Ministério Público e o próprio Judiciário consideraram o juízo probabilístico da inteligência artificial não apenas suficiente, mas prevalente em relação a uma perícia realizada por órgão oficial”. O ponto é nevrálgico: a IA tornou-se atalho institucional para chegar à conclusão desejada.
Refira-se aqui um problema técnico hoje bem documentado nos LLMs: a sicofancia, que consiste na tendência destes modelos para alinharem a resposta com a expetativa, implícita ou explícita, de quem pergunta, devolvendo aquilo que o utilizador parece querer ouvir. Pedir ao Gemini ou ao Perplexity que “transcreva fielmente” um áudio em que se procura uma palavra concreta não é, para o sistema, um convite ao confronto da hipótese: é uma pista. O viés de confirmação humano e a sicofancia da máquina reforçam-se mutuamente e o resultado é, em boa medida, o que o STJ encontrou nos autos.
Da decisão brasileira às advertências de Sandra Reis Luís
O acórdão dialoga, ainda que indiretamente, com o estudo recente da Juíza Desembargadora Sandra dos Reis Luís, Cérebros, Códigos e Tribunais — Desafios da Inteligência Artificial para os Direitos Fundamentais (Julgar Digital, Janeiro de 2026). A autora identifica três riscos que o caso brasileiro materializa de forma quase didática.
Primeiro, a alucinação: a produção verosímil mas falsa, com aparência de rigor. No caso, a IA “ouviu” uma palavra que a fonética forense, com equipamento calibrado e software Praat, demonstrou não existir. A fluência da resposta esconde a ausência de correspondência com o real — exatamente o defeito que tornou inadmissível o relatório.
Segundo, a atrofia cognitiva. Quando profissionais convocam a IA para resolver problemas que exigem método científico — fonética acústica, análise espectrográfica — há um esvaziamento do esforço cognitivo próprio. S. dos Reis Luís cita o estudo do MIT Your Brain on ChatGPT sobre a “dívida cognitiva”: a dependência repetida de sistemas externos que substituem processos mentais autónomos. Pedir ao Gemini o que se devia pedir ao perito é, em si, um sintoma.
Terceiro, a demência digital, termo de Manfred Spitzer recuperado pela autora S. dos Reis Luís, para descrever o enfraquecimento das competências críticas pela utilização precoce e acrítica de tecnologias digitais. O risco é particularmente grave em magistrados e investigadores em início de carreira, ainda em fase de consolidação metodológica. Confiar na resposta plausível em vez de validá-la é o caminho direto para esta forma de erosão.
Lições para o jurista português
Embora o acórdão seja brasileiro e proferido no âmbito deo ordenamento processual que não o nosso, eu diria que se podem tirar estas lições para Portugal.
A discussão sobre admissibilidade probatória não se esgota na licitude. No ordenamento português, o princípio da legalidade da prova (art. 125.º do Código de Processo Penal) e o da livre apreciação segundo as regras da experiência e a livre convicção (art. 127.º) desenham, em conjunto, uma vertente racional do direito probatório: a convicção do juiz deve assentar em elementos com aptidão para sustentar inferências verificáveis, e não em conteúdo gerado probabilisticamente sem método.
O EU AI Act (Regulamento (UE) 2024/1689) reforça-o ao classificar como de “risco elevado” os sistemas de IA usados em funções jurisdicionais e ao exigir supervisão humana efetiva, transparência, rastreabilidade e explicabilidade.
Em seguida, a inadequação entre ferramenta e objeto é uma fronteira técnica que advogados, magistrados do Ministério Público e juízes precisam de saber identificar. LLMs não fazem fonética, não fazem perícia documentoscópica, não autenticam imagens. Pedir-lhes o que não sabem fazer e aceitar a resposta sem crítica é negligência metodológica, não inovação. E trata-se de um problema de questionar o algoritmo como elemento da defesa em processo penal, algo que foi mitigado, segundo me parece, no célebre caso Loomis vs. Wisconsin.
Pro fim, importa recusar o que o estudo de Sandra Reis Luís chama, com Grace Hopper, a frase mais perigosa: “sempre fizemos isto desta maneira”. Mas igualmente o seu inverso: usar IA só porque é nova e está disponível. O critério não é tradição nem novidade; é rigor científico e tutela dos direitos fundamentais.
O acórdão HC 1.059.475/SP termina com uma constatação que devia ficar afixada em qualquer escritório: os relatórios produzidos por IA generativa constituem “mero gerador de conteúdo sintético”.

