Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » A Caixa Negra da IA: Desafios para Advogados Portugueses
    LegalTech

    A Caixa Negra da IA: Desafios para Advogados Portugueses

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoFevereiro 7, 2026Updated:Março 31, 2026Sem comentários11 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    Compreender o funcionamento da inteligência artificial e a sua importância para Advogados e Juristas

    Por Luís Nuno Perdigão

    7/FEV/2026; atualizado em 8/FEV/2026

    Resumo Executivo

    A adoção crescente de sistemas de Inteligência Artificial (IA) no setor jurídico e na administração pública apresenta um paradoxo fundamental: enquanto promete eficiência e celeridade processual, introduz riscos significativos relacionados com a opacidade algorítmica, fenómeno conhecido como “caixa negra”.

    Este artigo explora as bases do funcionamento da IA, especificamente o machine learning e as redes neuronais, para desmistificar a complexidade técnica que afasta muitos juristas. Analisa-se o problema da falta de interpretabilidade das decisões automatizadas e o seu conflito com princípios basilares do Direito, como o dever de fundamentação e o respeito pelo Estado de Direito.

    Objetivo Central

    Dotar os advogados portugueses de competências críticas para questionar, auditar e litigar num ambiente cada vez mais algorítmico, à luz do RGPD e do recente AI Act.

    Um Ponto de Inflexão Histórico

    A advocacia e o sistema judicial encontram-se num ponto de viragem histórico. A introdução de ferramentas de Inteligência Artificial (IA) na prática jurídica, desde a análise preditiva de sentenças até à automatização de triagem documental, deixou de ser uma promessa futurista para se tornar uma realidade tangível.

    No entanto, esta revolução tecnológica traz consigo um desafio epistemológico e jurídico profundo: o problema da “caixa negra” (black box). Para os advogados portugueses, habituados à lógica dedutiva e à hermenêutica tradicional, a confrontação com sistemas que produzem resultados através de correlações matemáticas opacas, em vez de raciocínios causais explícitos, representa uma ameaça à integridade do mandato forense.

    O problema central reside no facto de muitos dos algoritmos mais avançados, nomeadamente os baseados em aprendizagem profunda (deep learning), serem intrinsecamente ininteligíveis para o ser humano (Deeks, 2019).

    A Urgência da Literacia Técnica

    Opacidade Algorítmica

    Sistemas processam milhões de parâmetros que nem sequer os programadores conseguem descodificar linearmente

    Conflito Jurídico

    Colisão frontal com o imperativo legal da fundamentação das decisões e transparência processual

    Imperativo Legal

    AI Act / Reglamento Inteligência Artificial (Regulamento UE 2024/1689) e o RGPD tornam a transparência algorítmica obrigatória

    Este artigo realça que a ignorância tecnológica já não é opção. Com a entrada em vigor do Regulamento (UE) 2024/1689 (AI Act) e a consolidação do RGPD, a exigência de transparência algorítmica tornou-se lei. O advogado que não compreenda como funciona a “máquina” não estará apto a defender o seu constituinte contra ela nem a usá-la devidamente.

    Fundamentos Técnicos: O que é Inteligência Artificial

    Definição OCDE (2024) de Sistema de IA

    Um sistema de IA é um sistema baseado em máquinas que, para objetivos explícitos ou implícitos, infere, a partir das entradas que recebe, como gerar saídas, tais como previsões, conteúdos, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais. Diferentes sistemas de IA variam nos seus níveis de autonomia e de capacidade de adaptação após a sua implementação.

    Fonte: https://www.oecd.org/content/dam/oecd/en/publications/reports/2024/03/explanatory-memorandum-on-the-updated-oecd-definition-of-an-ai-system_3c815e51/623da898-en.pdf (p.ág. 4)

    Definição do AI Act

    Por sua vez, o artigo 3/1 do REgulamento Inteligência Artifical define sistema de IA da seguinte forma:

    “sistema baseado em máquinas concebido para operar com graus variados de autonomia e que pode apresentar adaptabilidade após a implementação, e que, para objetivos explícitos ou implícitos, infere, a partir dos dados de entrada recebidos, como gerar resultados tais como previsões, conteúdo, recomendações ou decisões que podem influenciar ambientes físicos ou virtuais”.

    Definições Complementares de IA

    Definição de IA do HIGH-LEVEL EXPERT GROUP ON ARTIFICIAL INTELLIGENCE da UE

    A inteligência artificial (IA) refere-se a sistemas concebidos por humanos que, tendo em conta um objetivo complexo, atuam no mundo físico ou digital, percebendo o seu ambiente, interpretando os dados recolhidos, estruturados ou não estruturados, raciocinando sobre o conhecimento deles derivado ou processando informação a partir desses dados e decidindo as melhores ações a tomar para atingir o objetivo definido.

    Software Tradicional vs. IA

    Ao contrário do software tradicional, que segue regras estritas de “se-então” (if-then) codificadas por humanos, a IA moderna baseia-se predominantemente em Machine Learning (Aprendizagem Automática).

    No Machine Learning, o programador não dita as regras de decisão; em vez disso, fornece ao sistema grandes volumes de dados e um algoritmo que permite à máquina identificar padrões e construir o seu próprio modelo lógico (Coglianese & Lehr, 2019).

    Conceito-chave: Esta capacidade de autoaprendizagem confere autonomia ao sistema, mas é também a génese da sua opacidade.

    Redes Neuronais e Deep Learning

    O Processo de Aprendizagem: Como a IA “Aprende”

    O “conhecimento” de uma IA reside nos “pesos” (weights) e “vieses” (biases) matemáticos atribuídos às conexões entre os neurónios. Durante o processo de treino, o sistema é alimentado com exemplos (dados de treino). Se a previsão do sistema for incorreta, um algoritmo de “retropropagação” ajusta ligeiramente os pesos das conexões para reduzir o erro. (Note-se que, neste contexto técnico, bias e biases, viés e veses, nada tem a ver com a questão de existirem biases / vieses algorítmicos – vieses nos resultados dos algoritmos quiando, por exemplo, podem discriminar em função do género ou da etnia ou de estrato social. Neste contexto de treino de IA, “bias” e “viés” tem um sentido puramente matemático.)

    Após processar milhões de exemplos, o sistema afina estes pesos para realizar previsões com alta precisão. Contudo, o resultado final é uma matriz numérica gigantesca, ininteligível sem ferramentas de descodificação.

    Para um jurista, isto significa que a “lógica” da decisão não está escrita em linguagem natural nem em código lógico, mas dispersa em milhões de parâmetros numéricos.

    O Problema da Caixa Negra

    O termo “caixa negra” (black box) é utilizado na literatura para descrever sistemas cujos processos internos são desconhecidos ou incompreensíveis para o observador (Deeks, 2019). No contexto jurídico, isto traduz-se num cenário onde se conhecem os dados de entrada (ex: antecedentes criminais, idade, gravidade do delito) e se obtém um resultado (ex: alto risco de reincidência), mas o nexo de causalidade entre ambos permanece oculto.

    Como observa Zednik (2021), não se trata apenas de não saber “o quê”, mas de não conseguir responder ao “porquê”.

    Três Causas da Opacidade Algorítmica

    Opacidade Legal ou Intencional

    Decorrente da proteção da propriedade intelectual e segredos comerciais. Empresas que desenvolvem software jurídico (Legal Tech) frequentemente recusam abrir o código-fonte, alegando segredo de negócio, o que impede o escrutínio público e judicial (Hassija et al., 2024).

    Opacidade Técnica ou Iliteracia

    Mesmo que o código fosse aberto, a vasta maioria dos advogados e juízes não possui o conhecimento técnico necessário para o interpretar. A linguagem de programação cria uma barreira de acesso à justiça para quem não domina a tecnologia.

    Opacidade Intrínseca

    Refere-se aos modelos de Deep Learning. Nestes casos, mesmo os programadores que criaram o sistema não conseguem explicar, em termos causais simples, por que razão o algoritmo tomou uma decisão específica num caso concreto (Pêcego & Teixeira, 2024; Deeks, 2019). A decisão emerge de correlações estatísticas complexas e não-lineares, não de raciocínio dedutivo.

    Fonte: Sistematização de Pêcego e Teixeira (2024)

    Porque a Opacidade é um Veneno Processual

    Vieses Ocultos

    Impede a identificação de vieses algorítmicos (bias) que penalizam injustamente minorias

    Impossibilidade de Recurso

    Anula a possibilidade de contestar eficazmente uma decisão sem conhecer os fundamentos

    Violação de Direitos

    Potencial violação do direito a um processo equitativo e tutela jurisdicional efetiva

    Para o Direito, a opacidade é um veneno processual. Impede a identificação de vieses algorítmicos (bias) — por exemplo, um algoritmo que penaliza injustamente minorias com base em correlações espúrias nos dados de treino.

    Se não sabemos quais os fatores que pesaram na decisão, não podemos aferir se foram utilizados critérios discriminatórios proibidos por lei. Além disso, a opacidade anula a possibilidade de contestar eficazmente uma decisão.

    Como pode um advogado recorrer de uma sentença ou ato administrativo se não conhece os fundamentos de facto e de direito (ou neste caso, de cálculo) que a motivaram?

    Explainable AI (xAI): A Solução

    Em resposta ao problema da opacidade, surgiu o campo da Explainable AI (XAI). Deeks (2019) define XAI como um conjunto de métodos e técnicas que visam tornar os resultados dos sistemas de IA compreensíveis para os seres humanos. O objetivo não é necessariamente entender toda a complexidade matemática interna, mas fornecer uma justificação inteligível que permita validar a decisão.

    Caixa Negra

    Sistema opaco e ininteligível

    xAI

    Métodos de explicação

    Justificação

    Decisão compreensível e validável

    Abordagens de xAI: Modelos e Técnicas

    A) Modelos Intrinsecamente Explicáveis (Glass Box)

    São modelos mais simples, como árvores de decisão ou regressões lineares, onde a relação entre input e output é transparente. A vantagem é a clareza; a desvantagem é que, frequentemente, estes modelos têm menor capacidade preditiva do que o Deep Learning para problemas complexos. Existe, portanto, um trade-off entre precisão e interpretabilidade (Zednik, 2021).

    B) Abordagens Exógenas ou Post-hoc

    Estas técnicas tentam explicar modelos de caixa negra sem os abrir. Deeks (2019) subdivide-as em:

    Fonte: Sistematização de Hassija et al. (2024) e Deeks (2019)

    Ferramentas Práticas de xAI

    SHAP

    SHapley Additive exPlanations – calcula a contribuição de cada variável para a decisão final

    LIME

    Local Interpretable Model-agnostic Explanations – cria modelos substitutos simplificados localmente

    Dashboards Jurídicos

    Visualizações que indicam peso de cada fator (ex: idade 20%, histórico 50%)

    Existem ferramentas técnicas como o SHAP e o LIME que criam “modelos substitutos” simplificados para aproximar e explicar o comportamento de modelos complexos numa vizinhança local (Hassija et al., 2024). Para juristas, estas ferramentas podem traduzir-se em visualizações que permitem uma base racional para a litigância.

    Enquadramento Regulatório Europeu

    RGPD (2016/679)

    Artigos 13.º, 14.º, 15.º e 22.º estabelecem o “direito à explicação” para decisões automatizadas que afetem significativamente a esfera jurídica do indivíduo

    AI Act (2024/1689)

    Artigo 50.º impõe obrigações de transparência. Para sistemas de “alto risco” (justiça e administração), exige registos técnicos detalhados e rastreabilidade (Pavlidis, 2024)

    Princípios Constitucionais Portugueses

    No ordenamento jurídico português, a opacidade algorítmica encontra barreiras constitucionais. O dever de fundamentação das decisões judiciais e administrativas (Artigo 205.º e 268.º da Constituição da República Portuguesa) não se compadece com respostas do tipo “o computador disse que sim”.

    A fundamentação deve ser acessível, clara e congruente. Uma decisão baseada numa caixa negra viola o princípio do contraditório, uma vez que a parte vencida não pode contra-argumentar uma lógica que desconhece.

    Pêcego e Teixeira (2024) argumentam que a explicabilidade não é apenas uma característica técnica desejável, mas um requisito de validade jurídica do ato decisório.

    Conclusão: A Ponte Entre Eficiência e Justiça

    A integração da Inteligência Artificial no domínio jurídico é irreversível, mas a sua legitimidade depende inteiramente da capacidade de iluminar a “caixa negra”. Para os advogados portugueses, a opacidade algorítmica não é um mero detalhe técnico, mas uma questão de soberania jurídica e defesa dos direitos fundamentais. A tecnologia não pode ser um manto de invisibilidade para o arbítrio.

    XAI como Ponte

    A explicabilidade traduz complexidade matemática em linguagem jurídica, restaurando contraditório e fundamentação

    Papel Ativo

    A classe jurídica deve exigir sistemas “transparentes por design” (transparent by design)

    Armas do Século XXI

    Formação contínua, vigilância ética e domínio do AI Act garantem que a Justiça continue humana

    Conclui-se que a explicabilidade (XAI) é a ponte necessária entre a eficiência computacional e a justiça humana. No entanto, a tecnologia por si só não basta. É imperativo que a classe jurídica portuguesa assuma um papel ativo para garantir que, na era dos algoritmos, a Justiça continue a ser feita por e para humanos.

    Referências Bibliográficas

    Coglianese, C., & Lehr, D. (2019). Transparency and Algorithmic Governance. Administrative Law Review, 71(1), 1-56.

    Deeks, A. (2019). The Judicial Demand for Explainable Artificial Intelligence. Columbia Law Review, 119(7), 1829-1850.

    Hassija, V., Chamola, V., Mahapatra, A., Singal, A., et al. (2024). Interpreting Black-Box Models: A Review on Explainable Artificial Intelligence. Cognitive Computation, 16(1), 45-74. Springer.

    IBM (2024). What Is a Neural Network? IBM Think Topics. https://www.ibm.com/think/topics/neural-networks

    IBM (2024). What is Explainable AI (XAI)? IBM Think Topics. https://www.ibm.com/think/topics/explainable-ai

    OECD (2019). Artificial Intelligence in Society. OECD Publishing. https://doi.org/10.1787/eedfee77-en

    Pavlidis, G. (2024). Unlocking the Black Box: Analysing the EU Artificial Intelligence Act’s Framework for Explainability in AI. Law, Innovation and Technology, 16(1), 293-308.

    Pêcego, D. N., & Teixeira, R. L. C. J. (2024). Inteligência Artificial no Judiciário: Da Opacidade à Explicabilidade das Decisões Judiciais. Revista da Faculdade de Direito da UERJ, 43, e87850.

    União Europeia (2016). Regulamento (UE) 2016/679 (RGPD). Jornal Oficial da União Europeia, L 119.

    União Europeia (2024). Regulamento (UE) 2024/1689 (AI Act). Jornal Oficial da União Europeia, L 1689.

    Zednik, C. (2021). Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelligence. Philosophy & Technology, 34(2), 265-288. Springer.

    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    O Stress Tecnológico nos Escritórios de Advocacia: Como a IA Afeta o Bem-estar dos Juristas

    Abril 4, 2026

    Ferramentas de IA para Advogados Portugueses: Guia Prático

    Março 12, 2026

    Automação de Cronologias Processuais: O Futuro da Análise Documental

    Fevereiro 13, 2026

    Glossário da Era Digital para Advogados

    Janeiro 28, 2026

    Como as Pessoas Usam o ChatGPT

    Janeiro 28, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}