Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » O Panótico Digital
    IA e Direito

    O Panótico Digital

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoJaneiro 28, 2026Updated:Março 31, 2026Sem comentários11 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    A administração da justiça criminal encontra-se num ponto de inflexão histórica, impulsionada pela convergência entre a digitalização massiva de dados e o avanço das capacidades preditivas da Inteligência Artificial (IA). Em Portugal, tal como no resto da Europa, a gestão de penas e a supervisão de infractores estão a transitar de modelos puramente reativos e baseados no confinamento físico para modelos proativos, fundamentados na análise de dados e na avaliação algorítmica de riscos.

    Este fenómeno não representa apenas uma modernização técnica, mas uma reconfiguração profunda das relações de poder e vigilância dentro do Estado de Direito. A transição digital oferece promessas de eficiência e reinserção social, mas também levanta questões fundamentais sobre autonomia individual, transparência dos mecanismos de controlo estatal e a proteção dos direitos fundamentais.

    Objetivo do Artigo

    Examinar como as novas tecnologias de IA estão a ser integradas na supervisão de infractores, analisando não apenas as promessas de eficiência, mas também os riscos éticos e jurídicos evidenciados pela experiência internacional.

    Teoria

    Do Panótico de Bentham ao Panótico Digital

    Panótico Original (Séc. XVIII)

    Jeremy Bentham (1748-1832) idealizou uma estrutura arquitetónica onde um único vigilante podia observar todos os reclusos sem que estes soubessem se estavam a ser observados. A disciplina era mantida pela interiorização da vigilância.

    Teoria Foucaultiana (1975)

    Michel Foucault (1925-1984), em Vigiar e Punir, descreveu como esta estrutura induzia um estado consciente de visibilidade permanente que assegurava o funcionamento automático do poder.

    Panótico Digital (Séc. XXI)

    A arquitetura física dissolveu-se em redes de dados. A vigilância baseia-se na recolha, agregação e análise contínua de dados digitais, dispersa e omnipresente.

    IA e Previsão (Atualidade)

    Não se trata apenas de vigiar o presente, mas de prever o futuro — a reincidência, o risco de fuga ou o comportamento violento. O sujeito vigiado torna-se um conjunto de dados estatísticos.

    “O ‘olhar’ do algoritmo é invisível e, frequentemente, inescrutável, transformando o sujeito vigiado num conjunto de dados estatísticos (dataficação), cujas variáveis determinam o seu grau de liberdade.”

    Portugal

    Da Pulseira ao Algoritmo: A Evolução Portuguesa

    Portugal possui um histórico consolidado na utilização de tecnologias de monitorização, sendo pioneiro na Europa na implementação da vigilância eletrónica (comumente conhecida como “pulseira eletrónica”) como alternativa à prisão preventiva e para a execução de penas. A Direção-Geral de Reinserção e Serviços Prisionais (DGRSP) gere um sistema robusto que tem permitido reduzir a sobrelocação prisional e promover a reinserção social em meio livre.

    Vigilância Eletrónica Tradicional

    Sistema de pulseiras eletrónicas gerido pela DGRSP como alternativa à prisão

    Transição para IA

    Salto qualitativo impulsionado pela inovação no setor privado

    Gestão Inteligente

    Sistemas que acompanham todo o ciclo de vida da pena

    Horus 360°: O Sistema Português de IA

    O sistema Horus 360°, desenvolvido pela empresa portuguesa IPS – Innovative Prison Systems, sediada na Covilhã, apresenta-se como uma solução inteligente de gestão de infractores (iOMS – Intelligent Offender Management System), desenhada para acompanhar todo o ciclo de vida da pena, desde a detenção até à reinserção.

    Nota de atualização (janeiro de 2026): Em dezembro de 2025, foi anunciado que a primeira implementação real do Horus 360° terá lugar em janeiro de 2026 na América do Sul, após vários pilotos bem-sucedidos na Europa. O investimento global no projeto ascende a cerca de 11 milhões de euros até 2028.

    Funcionalidades

    Capacidades do Horus 360°

    Avaliação de Riscos

    Análise de grandes volumes de dados para apoiar a tomada de decisão dos profissionais de justiça

    Programas Personalizados

    Sugestão de programas de reabilitação adaptados ao perfil individual

    Predição de Eventos

    Antecipação de tentativas de suicídio, violência entre reclusos ou risco de fuga

    Integração de Dados

    Criação de perfis dinâmicos através de informações comportamentais, clínicas e criminais

    Segundo Pedro das Neves, CEO da IPS, ferramentas como o Horus 360° não visam substituir o juízo humano, mas sim capacitá-lo com evidências baseadas em dados, contribuindo para uma sociedade mais segura e justa. No entanto, a implementação de tais sistemas coloca Portugal na fronteira da chamada “justiça preditiva”, uma área que acarreta riscos substanciais.

    Casos Internacionais

    Lições do Estrangeiro: Os Perigos da “Caixa Negra”

    Para avaliar criticamente o impacto da IA na justiça criminal portuguesa, é imperativo analisar as experiências internacionais onde estas tecnologias já foram amplamente testadas. Dois casos paradigmáticos servem como alertas sobre os perigos da implementação acrítica de algoritmos de avaliação de risco.

    COMPAS (EUA)

    Sistema de avaliação de risco de reincidência com viés racial comprovado

    HART (Reino Unido)

    Ferramenta com discriminação geográfica baseada em códigos postais

    O Caso COMPAS: Viés Racial nos EUA

    O sistema COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) é utilizado em vários estados norte-americanos para avaliar o risco de reincidência de réus, influenciando decisões sobre fianças e sentenças.

    Em 2016, uma investigação da ProPublica revelou que o algoritmo exibia um viés racial significativo:

    O problema era agravado pela opacidade do algoritmo — uma “caixa negra” proprietária cujos mecanismos internos não podiam ser auditados pelo público ou pelos advogados de defesa.

    Falsos Positivos

    Réus negros incorretamente classificados como alto risco

    Falsos Positivos

    Réus brancos incorretamente classificados como alto risco

    Fonte: Angwin, J., Larson, J., Mattu, S., & Kirchner, L. (2016). Machine Bias. ProPublica.

    O Caso HART: Discriminação Geográfica no Reino Unido

    No Reino Unido, a Polícia de Durham implementou a ferramenta HART (Harm Assessment Risk Tool) para auxiliar na decisão de manter suspeitos sob custódia ou encaminhá-los para programas de reabilitação.

    Implementação Inicial

    O algoritmo utilizava dados demográficos baseados em códigos postais fornecidos pela empresa de marketing Experian através do sistema “Mosaic”

    Denúncia (2018)

    A organização Big Brother Watch denunciou que a utilização destes dados introduzia um viés socioeconómico, penalizando indivíduos de áreas mais pobres

    Correção (Abril 2018)

    Após a investigação, a Polícia de Durham removeu os dados da Experian do sistema HART

    “O sistema aprendia com dados históricos de policiamento, que já continham preconceitos implícitos sobre quais as comunidades mais ‘criminosas’.”

    Fonte: Big Brother Watch (2018, 2019). Police use Experian Marketing Data for AI Custody Decisions.

    Desafios Éticos

    Três Riscos Fundamentais da IA na Justiça

    1. Opacidade e Explicabilidade

    Se um sistema sugere que um recluso tem alto risco de suicídio ou de violência, com base em correlações complexas que nem os programadores conseguem explicar totalmente, como pode essa decisão ser contestada? A opacidade algorítmica colide com o direito ao devido processo legal e ao dever de fundamentação das decisões judiciais e administrativas.

    2. Vieses e Discriminação

    Os algoritmos de IA são treinados com dados históricos. Se o sistema de justiça criminal português tiver, historicamente, policiado ou condenado desproporcionalmente certos grupos (como minorias étnicas ou comunidades desfavorecidas), a IA irá aprender e amplificar esses padrões. Existe o risco real de automatizar o preconceito sob uma capa de neutralidade tecnológica e científica.

    3. Determinismo Tecnológico

    A CEPEJ (2018), na sua Carta Ética, alerta para o risco do determinismo. A utilização de estatísticas para prever o comportamento individual pode minar o princípio da individualização da pena. Tratar um ser humano com base no que “pessoas como ele” fizeram no passado, e não com base nos seus atos concretos, é uma afronta à dignidade humana e à presunção de inocência.

    Regulação

    O Enquadramento Legal Europeu

    A União Europeia tem liderado o esforço global para regular a Inteligência Artificial, estabelecendo um quadro jurídico que procura equilibrar inovação e direitos fundamentais.

    RGPD (Vigente)

    O Regulamento Geral sobre a Proteção de Dados estabelece salvaguardas importantes, nomeadamente no Artigo 22.º, que confere o direito de não ficar sujeito a decisões tomadas exclusivamente com base no tratamento automatizado.

    AI Act (2024)

    Regulamento Inteligência Artificial (Regulamento (UE) 2024/1689) classifica os sistemas de IA utilizados na administração da justiça e na aplicação da lei como sistemas de “Risco Elevado” , impondo obrigações rigorosas.

    Carta Ética CEPEJ (2018)

    Carta Ética Europeia sobre o Uso da Inteligência Artificial em Sistemas Judiciais estabelece princípios fundamentais para a implementação responsável.

    Obrigações do AI Act para Sistemas de Risco Elevado

    O AI Act impõe obrigações rigorosas aos desenvolvedores e utilizadores de sistemas de IA na justiça criminal:

    Qualidade dos Dados

    Garantia de qualidade e governança dos dados para evitar vieses discriminatórios

    Transparência

    Prestação de informações claras aos utilizadores sobre o funcionamento do sistema

    Supervisão Humana

    Supervisão humana efetiva durante todo o funcionamento do sistema

    Robustez e Segurança

    Garantias de robustez, precisão e cibersegurança em todas as operações

    Nota Importante: O Parlamento Europeu tem manifestado preocupações específicas sobre o uso de IA no direito criminal, defendendo a proibição de certas práticas de “policiamento preditivo” que se baseiem exclusivamente em perfis ou características de personalidade (Resolução 2020/2016(INI), 2021).

    Portugal

    Implicações para Portugal

    Para Portugal, o enquadramento europeu significa que a adoção de sistemas como o Horus 360° não pode ser feita de forma leviana. A implementação de IA nas prisões portuguesas deverá ser precedida de avaliações de impacto rigorosas (DPIA) e garantir que a decisão final sobre a liberdade ou as condições de detenção de um cidadão permaneça inequivocamente humana.

    A Comissão Nacional de Proteção de Dados (CNPD) tem mantido uma postura vigilante, alertando frequentemente para os riscos da videovigilância e do tratamento de dados sensíveis.

    DPIA Obrigatória

    Avaliações de impacto sobre a proteção de dados antes da implementação

    Vigilância da CNPD

    Supervisão contínua sobre tratamento de dados sensíveis

    Alerta

    O Viés de Automação

    Um dos riscos mais subtis e perigosos da implementação de IA na justiça criminal é o chamado viés de automação — a tendência humana para confiar excessivamente nas recomendações de sistemas automatizados.

    Sistema Recomenda

    O algoritmo sugere uma decisão baseada em dados

    Humano Confia

    O profissional tende a aceitar sem questionar

    Decisão Automatizada

    Na prática, a máquina decide, o humano apenas carimba

    Ciclo Reforça-se

    O padrão perpetua-se e amplifica-se

    “A supervisão de infrações envolve frequentemente uma interação homem-máquina onde o humano pode, na prática, limitar-se a carimbar a decisão da máquina.”

    Dataficação do Ser Humano

    A introdução da IA na justiça criminal transforma fundamentalmente a forma como os indivíduos são percebidos e tratados pelo sistema. O conceito de dataficação descreve o processo pelo qual um ser humano complexo, com história, contexto e potencial de mudança, é reduzido a um conjunto de variáveis estatísticas.

    Identidade

    Contexto Social

    História Pessoal

    Dados Comportamentais

    Variáveis Estatísticas

    Esta redução levanta questões profundas sobre dignidade humana, autonomia e o direito a ser tratado como indivíduo único, não como membro de uma categoria estatística. A capacidade de mudança e redenção — fundamental para qualquer sistema de justiça que se pretenda reabilitador — pode ser negada por algoritmos que veem apenas padrões do passado.

    Conclusões

    O Panótico Digital é uma Realidade Emergente

    A transição digital dos serviços prisionais e de reinserção em Portugal oferece oportunidades inegáveis para melhorar a eficiência administrativa e, potencialmente, humanizar o cumprimento de penas através de uma melhor adequação das medidas de reabilitação. No entanto, a tecnologia não é neutra.

    Oportunidades

    Riscos

    A análise dos casos internacionais e da literatura teórica demonstra que a introdução da IA na justiça criminal acarreta riscos elevados. Em Portugal, a fascinação pela modernização tecnológica não deve sobrepor-se aos imperativos constitucionais.

    Recomendações

    Quatro Pilares para uma IA Ética na Justiça

    Supervisão Humana Significativa

    Garantir que os sistemas de IA funcionem apenas como ferramentas de apoio e nunca como substitutos do juízo humano, com mecanismos claros para os profissionais divergirem das recomendações algorítmicas.

    Auditoria Algorítmica Independente

    Estabelecer a obrigatoriedade de auditorias externas regulares aos algoritmos utilizados pelo Estado, verificando a existência de vieses discriminatórios e a qualidade dos dados de treino.

    Transparência Radical

    Assegurar que os advogados de defesa e os arguidos tenham acesso à lógica de funcionamento dos sistemas que avaliam o seu risco, combatendo o efeito “caixa negra”.

    Formação Especializada

    Capacitar magistrados, guardas prisionais e técnicos de reinserção para compreenderem as limitações da IA e evitarem o viés de automação.

    Reflexão Final: Libertar ou Aprisionar?

    “Apenas através de uma regulação ética e jurídica robusta será possível garantir que a IA na justiça portuguesa sirva para libertar e reabilitar, e não apenas para aperfeiçoar, digitalmente, as jaulas do panóptico.”

    O desafio que se coloca a Portugal não é tecnológico, mas fundamentalmente ético e político. A questão não é se devemos usar IA na justiça criminal, mas como fazê-lo de forma que respeite a dignidade humana, proteja os direitos fundamentais e promova uma sociedade verdadeiramente justa.

    A história demonstra que as ferramentas de controlo social, por mais sofisticadas que sejam, podem servir tanto a opressão como a libertação. A escolha é nossa.

    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026

    O Custo Real das Alucinações de IA: Multas e Sanções a Advogados em Portugal e no Mundo

    Abril 2, 2026

    A Inteligência Artificial no Direito: Entre o Potencial e a Irresponsabilidade

    Março 31, 2026

    CL-1: O Primeiro Computador Biológico Comercial e os Seus Desafios Jurídicos

    Março 25, 2026

    Moltbook Meltdown: Teatro de Agentes e Vacuidade da Responsabilidade

    Fevereiro 6, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}