O entusiasmo com os novos agentes de IA é compreensível, mas pode ser perigoso. Uma experiência de instalação em tempo real revela o que os tutoriais não contam: o pipeline de dados que ninguém lê, as transferências internacionais sem base legal, e o risco deontológico que começa no momento em que se carrega Enter ou se manda a mensagem para o Telegram.
Os riscos de que ninguém fala.
Um ensaio Juristech por Luís Nuno Perdigão.
Introdução: quando a tecnologia seduz antes de explicar
Tarde de sábado de 2 de maio de 2026. O objetivo era simples: testar o Hermes Agent, um dos novos agentes de inteligência artificial em linha de comando que têm surgido com promessas de autonomia, privacidade e integração com plataformas de mensagens. Em menos de uma hora, o agente estava instalado, configurado e a responder via Telegram a partir do iPhone. Fascinante, sem dúvida.
A experiência foi genuinamente impressionante. O Hermes Agent suporta texto, voz, imagens, ficheiros PDF e DOCX, grupos com controlo de acesso e respostas em streaming; isto é, o texto aparece progressivamente no Telegram, como numa conversa humana. A janela de contexto chega a um milhão de tokens, o que equivale, grosso modo, a vários romances. Para um advogado habituado a trabalhar com peças processuais longas, contratos volumosos ou dossiers de due diligence, a promessa é evidente. E a atração também.
Só depois da euforia inicial surgiu a pergunta que devia ter sido a primeira: onde estão, exatamente, os dados que acabei de enviar? Nos testes realizados para este artigo, não foram introduzidos dados reais de clientes, processos ou terceiros identificáveis.
A resposta não está nos tutoriais de instalação do Hermes Agent. Está na arquitetura do sistema — e tem implicações sérias ao abrigo do Regulamento Geral sobre a Proteção de Dados (RGPD), do Regulamento da UE relativo à Inteligência Artificial (EU AI Act, Regulamento UE 2024/1689) e do Estatuto da Ordem dos Advogados (EOA).
Este artigo analisa essas implicações com base numa experiência de instalação real, não em cenários hipotéticos nem em vídeos promocionais que apresentam o Hermes Agent como the next big thing. A análise é deliberadamente jurídica e prudencial: procura responder à pergunta que mais importa para qualquer profissional forense antes de adotar uma ferramenta deste tipo — aonde vão os dados?
O que é o Hermes Agent e porque atrai advogados
O Hermes Agent é uma aplicação de linha de comando (CLI – command line interface agent) que funciona como interface unificada para modelos de linguagem de grande dimensão (LLM).
A instalação faz-se localmente no computador do utilizador e o agente gere conversas, executa tarefas, lida com ficheiros e integra plataformas de mensagens como Telegram e WhatsApp. O seu perfil típico de utilizador é alguém com alguma literacia técnica que pretende um assistente de IA poderoso, configurável e com aparência de privacidade.
Para advogados que trabalham com ferramentas de linha de comando, gerem os seus próprios servidores ou simplesmente querem afastar-se das grandes plataformas comerciais de IA, o Hermes tem um apelo imediato. As funcionalidades que mais interessam ao sector jurídico são três: suporte a ficheiros, integração com Telegram via Bot API oficial e aparente autonomia local.
É precisamente esta aparência de autonomia que cria o risco.
O pipeline de dados que ninguém lê
Quando se instala o Hermes Agent e se configura a integração com o Telegram, o fluxo de dados de cada mensagem é o seguinte:
iPhone → Servidores do Telegram → Computador local (Hermes Agent) → API do modelo de linguagem (servidores externos) → resposta pelo mesmo caminho
(API significa application programming interface: uma interface que define regras e protocolos para que dois programas de software consigam comunicar e trocar dados entre si de forma padronizada. Neste caso, coloca o Hermes Agent a falar com o modelo definido.)
Os dois primeiros passos são esperados e, em certa medida, incontornáveis com qualquer bot de Telegram. Mas o terceiro passo, a chamada à API do modelo de linguagem, é onde reside o problema que a maioria dos tutoriais ignora.
Na instalação de referência utilizada para este artigo, o modelo ativo era o MiMo 2.5 Pro, desenvolvido pela Xiaomi e acessível via API remota. Esta informação aparecia discretamente no rodapé da interface: mimo-v2.5-pro │ 16.2K/1M. Não havia aviso explícito de que cada mensagem enviada ao agente — instalado localmente, note-se — seria reencaminhada para servidores externos fora do Espaço Económico Europeu. O Hermes Agent funciona, nesta configuração, como um cliente local que consulta um cérebro remoto. O computador do utilizador é apenas o intermediário.
RGPD: a transferência que ninguém autorizou
O quadro legal das transferências internacionais
O Regulamento Geral sobre a Proteção de Dados estabelece, nos artigos 44.º a 49.º, as condições em que dados pessoais podem ser transferidos para países terceiros.
O princípio geral é claro: a transferência só é lícita se existir uma das seguintes bases — decisão de adequação da Comissão Europeia (art. 45.º), garantias adequadas como cláusulas contratuais-tipo (art. 46.º), ou uma das exceções previstas no art. 49.º. Mesmo quando existam cláusulas contratuais-tipo, a análise jurídica não termina aí: pode ainda ser necessário aferir, em concreto, se o ordenamento do país terceiro assegura um nível de proteção essencialmente equivalente, à luz da jurisprudência Schrems II e da prática europeia em matéria de transferências internacionais.
A China, onde a Xiaomi tem atividade e onde o modelo MiMo é apresentado como disponível, não é abrangida por qualquer decisão de adequação da Comissão Europeia. Não foram identificadas, na documentação publicamente acessível à data da consulta, cláusulas contratuais-tipo, DPA específico para clientes europeus ou outra base documental robusta que enquadre, de forma transparente, a transferência de dados pessoais para utilização da API MiMo por utilizadores europeus.
Isto significa que qualquer dado pessoal transmitido ao MiMo — o nome de um cliente, um número de processo, um endereço, uma situação familiar — pode ser transferido para um país terceiro sem base legal sólida publicamente verificável ao abrigo do direito europeu.
A exceção doméstica e os seus limites
O RGPD prevê, no art. 2.º, n.º 2, alínea c), que o regulamento não se aplica ao tratamento de dados pessoais efetuado por uma pessoa singular no âmbito de atividades exclusivamente pessoais ou domésticas. Para conversas estritamente privadas, entre familiares, sem qualquer dado de terceiros identificáveis, esta exceção pode relevar.
O advogado que utiliza o Hermes para troca de mensagens pessoais com a família, sem qualquer referência a clientes, processos ou terceiros, estará, em princípio, fora do âmbito de aplicação do RGPD para esse uso específico.
Contudo, esta exceção é estrita. Assim que a conversa com o agente envolve dados de clientes — mesmo que de forma aparentemente inocente, como em algo do tipo “ajuda-me a redigir uma carta para o meu cliente João Silva sobre o seu processo de divórcio” — a exceção desaparece e o regime do RGPD aplica-se na sua plenitude.
O papel do Telegram
O Telegram acrescenta uma camada adicional. As mensagens enviadas a um bot de Telegram não beneficiam do regime de Secret Chats com cifra ponta-a-ponta; passam pelos servidores do Telegram e estão sujeitas à arquitetura própria da plataforma.
Para efeitos de RGPD, o Telegram dispõe da sua própria base contratual relativamente à prestação do serviço aos utilizadores registados. Mas a introdução de um bot que reencaminha mensagens para uma API externa constitui um tratamento adicional e autónomo, que não se confunde com a mera utilização do serviço de mensagens.
EU AI Act: o modelo que ninguém inspecionou
O MiMo como modelo de IA de finalidade geral (GPAI)
O Regulamento UE 2024/1689, o chamado EU AI Act, entrou em vigor em 2 de agosto de 2024, com aplicação faseada.
O seu art. 3.º, n.º 63, define “modelo de IA de finalidade geral” (general-purpose AI model, GPAI) como um modelo treinado com grandes quantidades de dados, capaz de servir uma multiplicidade de finalidades, tanto diretamente como após integração noutros sistemas.
O MiMo 2.5 Pro da Xiaomi enquadra-se, em substância, nesta definição. Além disso, entre os modelos de finalidade geral recentemente disponibilizados, apresenta métricas de desempenho elevadas em benchmarks privados amplamente seguidos pela comunidade técnica. No Artificial Analysis Intelligence Index, o MiMo‑V2.5‑Pro surge com score 54, o que o coloca num patamar alto entre modelos comparáveis, embora isso não equivalha, por si só, a uma certificação oficial nem a uma verdade absoluta sobre qualidade global do modelo.
Nota: o Artificial Analysis Intelligence Index é um índice composto privado, útil como heurística comparativa, mas não constitui avaliação oficial do AI Office nem certificação regulatória.
As obrigações dos fornecedores de modelos GPAI
O art. 53.º do EU AI Act impõe aos fornecedores de modelos GPAI obrigações de transparência que incluem, designadamente, a elaboração e manutenção de documentação técnica adequada, o estabelecimento de uma política de respeito pelos direitos de autor da UE e, para modelos com impacto sistémico, deveres reforçados adicionais.
A questão relevante para o utilizador europeu do Hermes que usa o MiMo como backend é a seguinte: a Xiaomi cumpre estas obrigações ao abrigo do EU AI Act?
A resposta honesta é que não existe informação pública suficiente para o confirmar. À data da pesquisa, não se encontrou referência pública ao MiMo‑V2.5‑Pro em listagens informativas e observatórios especializados associados ao acompanhamento do AI Act, nem documentação técnica publicada em formato claramente compatível com as exigências do art. 53.º. Também não foi identificada, em formato facilmente acessível para utilizadores europeus, uma política de direitos de autor especificamente estruturada para esse efeito.
Isto não significa necessariamente incumprimento, pois os prazos de aplicação do AI Act são faseados e o regime GPAI continua em desenvolvimento, incluindo através de instrumentos de soft law como o futuro Código de Conduta para GPAI promovido ao nível europeu. Significa, isso sim, que o utilizador europeu que confia dados ao MiMo está a fazê-lo sem as garantias de transparência que o legislador europeu considerou essenciais.
Usou-se o MiMo como exemplo e ambiente de testagem por duas razões básicas: é um modelo particularmente competitivo dentro da nova vaga de GPAI alternativos às plataformas dominantes e o seu custo de utilização via API é sensivelmente mais baixo do que o de vários concorrentes, o que aumenta a probabilidade de adoção por utilizadores tecnicamente curiosos e por pequenos escritórios.
A camada intermédia: a Nous Research e a desresponsabilização contratual
O Hermes Agent não acede ao MiMo diretamente. Na configuração por predefinição, liga-se a ele através do portal da Nous Research, uma empresa norte-americana que atua como agregador de modelos de linguagem e disponibiliza acesso a múltiplos modelos através de uma única API. Para perceber os riscos jurídicos completos, é necessário olhar também para os termos contratuais desta camada intermédia.
Para efeitos deste artigo, foram analisados os Termos de Serviço e a Política de Privacidade publicados em portal.nousresearch.com/terms e portal.nousresearch.com/privacy, na versão consultada em 2 de maio de 2026. Desde logo, importa assinalar que esta análise é time-bound: termos contratuais, políticas de privacidade e documentação técnica podem ser alterados sem aviso relevante para o utilizador, pelo que as conclusões abaixo devem ser lidas à luz da versão efetivamente consultada nessa data.
Primeiro problema: desresponsabilização expressa pelos modelos
A Política de Privacidade da Nous Research afirma que a empresa não assume responsabilidade pelo conteúdo pessoal introduzido em modelos disponibilizados através da sua plataforma, remetendo o utilizador para os termos e políticas dos respetivos fornecedores. Em termos práticos, a Nous funciona como intermediário tecnológico, mas remete o utilizador para os termos da Xiaomi, da OpenAI, da Anthropic ou de quem quer que forneça o modelo selecionado.
Para o utilizador europeu, esta arquitetura contratual é problemática. O RGPD exige que o responsável pelo tratamento identifique com clareza onde os dados são processados e em que condições. Uma cadeia em que a primeira camada se remete para a segunda, e em que a segunda não apresenta documentação pública compatível com as exigências europeias de transparência, deixa o utilizador sem um interlocutor jurídico claro em caso de violação de dados ou exercício de direitos do titular.
Segundo problema: recolha de conversas sem base legal explicitada
A Política de Privacidade confirma que a Nous Research recolhe os textos das conversas com os modelos, incluindo perguntas, comandos e interações, bem como elementos de utilização. A empresa indica que estes dados são tratados “de forma anonimizada”, mas não detalha a metodologia de anonimização, não estabelece com clareza prazos de retenção e não identifica, de forma específica para utilizadores europeus, qual a base legal RGPD invocada para esse tratamento.
Para o utilizador europeu, isto constitui uma lacuna relevante face ao art. 13.º RGPD, que exige a identificação clara da base legal, das finalidades, dos prazos de retenção e dos destinatários dos dados. A simples afirmação de “anonimização” não satisfaz, por si só, estas exigências, sobretudo porque conversas com LLMs raramente são genuinamente anonimizáveis: o próprio conteúdo da interação pode permitir a reidentificação.
Terceiro problema: licença ampla sobre o “feedback”
Os Termos de Serviço contêm uma cláusula ampla sobre comentários, sugestões, bug reports e contributos fornecidos pelo utilizador. Em substância, essa cláusula confere à empresa uma licença extensa para utilizar esse material.
A formulação é típica da prática contratual norte-americana, mas merece atenção crítica. Se o conceito de feedback não estiver claramente delimitado, corre-se o risco de uma sobreposição conceptual entre observações técnicas do utilizador e fragmentos de interação que revelem informação sensível, estratégica ou juridicamente protegida.
Quarto problema: o que falta nos termos
Tão revelador como o que os termos dizem é o que não dizem. Após leitura integral, são notórias as seguintes ausências, todas relevantes para utilizadores europeus:
-
Não há referência clara a cláusulas contratuais-tipo (SCC) para transferências internacionais de dados;
-
Não há indicação visível de representante europeu ao abrigo do art. 27.º RGPD;
-
Não há disponibilização destacada de Acordo de Tratamento de Dados (DPA) para clientes europeus;
-
Não há referência específica ao enquadramento do EU AI Act relativamente aos modelos GPAI disponibilizados através da plataforma;
-
Não há identificação visível de contacto especializado para questões RGPD comparável ao que seria expectável num enquadramento europeu mais robusto.
A Nous Research é uma empresa americana, e os seus termos foram visivelmente redigidos com o mercado norte-americano em mente, onde o quadro regulatório da privacidade é mais fragmentado. Para o utilizador europeu, o RGPD surge aqui sobretudo como ausência, não como presença estruturante.
Conclusão sobre a Nous Research
Os termos da Nous Research, na redação consultada, não oferecem ao utilizador europeu um quadro de transparência equivalente ao que seria expectável em contexto RGPD, nem permitem verificar, com suficiente conforto jurídico, a existência de uma base sólida para transferências internacionais de dados.
Para uso pessoal e exploratório com dados não sensíveis, a utilização pode ser pragmaticamente tolerável, desde que se tenha plena consciência dos riscos. Para qualquer uso profissional por advogado que envolva dados cobertos por segredo profissional, a prudência jurídica aconselha a não considerar este enquadramento como minimamente satisfatório. Deontologia: o segredo profissional não tem exceções tecnológicas
O art. 92.º do EOA e a sua aplicação às ferramentas de IA
O consagra o dever de segredo profissional de forma particularmente exigente. O advogado está obrigado a guardar sigilo sobre todos os factos cujo conhecimento lhe advenha do exercício da profissão, abstraindo do meio ou fonte pelo qual tomou conhecimento desses factos.
Isto significa que a utilização de uma ferramenta de IA — seja ela um agente local, uma API remota ou uma combinação de ambos — não cria qualquer exceção ao dever de sigilo. A circunstância de a transmissão de dados ocorrer automaticamente, através de um programa informático instalado pelo próprio advogado, não afasta a responsabilidade deontológica.
O advogado que envia, através do Hermes Agent com backend MiMo, informação coberta por sigilo profissional — ainda que fragmentada, aparentemente anonimizada ou enquadrada numa pergunta genérica — está a transmiti-la a terceiros sem consentimento do cliente e sem garantias documentais adequadas quanto ao destino, tratamento e retenção desses dados.
O dever de competência tecnológica
O consagra o dever de competência, que deve hoje ser lido à luz do contexto tecnológico em que a advocacia se exerce. Na era da IA generativa, esse dever inclui, pelo menos, a obrigação de compreender minimamente o funcionamento e o percurso de dados das ferramentas tecnológicas utilizadas na prática profissional.
Não é exigível que o advogado seja engenheiro de software. Mas é exigível que saiba responder à pergunta: quando envio este documento ao meu assistente de IA, para onde vai?
A incapacidade de responder a esta pergunta — ou, pior, a resposta errada de que “fica no meu computador” quando afinal segue para servidores externos em jurisdições terceiras — configura, em si mesma, um défice de competência deontologicamente relevante.
A tabela de risco prático
| Tipo de utilização | Risco deontológico | Risco RGPD |
|---|---|---|
| Conversas pessoais/familiares sem dados de terceiros | Baixo | Baixo (exceção doméstica) |
| Exploração técnica com dados fictícios | Nulo | Nulo |
| Redação de peças com identificação de partes | Elevado | Elevado |
| Análise de contratos reais com dados de clientes | Elevado | Elevado |
| Informação sobre casos “anonimizada” | Médio a elevado | Médio |
| Pesquisa jurídica geral sem dados de partes | Baixo | Baixo |
A anonimização merece nota especial. Em contexto jurídico, a anonimização raramente é suficiente para afastar os riscos: a combinação de dados aparentemente anónimos — tipo de processo, comarca, valor em litígio, datas, factos circunstanciais — pode bastar para reidentificar partes ou situações específicas.
Quando o local é mesmo local
O problema identificado neste artigo não é o Hermes Agent enquanto ferramenta. É a configuração por predefinição: um cliente local que consulta um modelo remoto sem aviso adequado ao utilizador.
A solução existe e é tecnicamente acessível: substituir o modelo remoto por um modelo de linguagem a correr integralmente na máquina do utilizador, através de ferramentas como o Ollama. O Hermes Agent suporta esta configuração nativamente.
Com um backend Ollama local, o pipeline de dados passa a ser:
iPhone → Servidores Telegram → Computador local (Hermes + modelo local) → resposta pelo mesmo caminho
O Telegram permanece como ponto de passagem, inevitável enquanto se usar esta plataforma, mas o processamento pelo modelo de linguagem é inteiramente local. Nenhum dado precisa de sair da rede doméstica ou do escritório para ser processado pelo modelo.
Para escritórios de advocacia que disponham de hardware adequado, esta configuração é tecnicamente viável e significativamente mais defensável do ponto de vista deontológico e de proteção de dados. Para uso estritamente pessoal e doméstico, a configuração atual com MiMo pode ser tolerável, com consciência dos seus limites e circunscrita a dados não profissionais. Para qualquer uso que envolva dados de clientes ou processos, a resposta prudente continua a ser: não.
Conclusão: a beleza não desculpa a negligência
O Hermes Agent é, genuinamente, uma ferramenta impressionante. A qualidade da integração com Telegram, a amplitude das funcionalidades e a facilidade de instalação colocam-no na vanguarda dos agentes de IA acessíveis a utilizadores avançados não-programadores.
Mas a experiência de utilizador não substitui a diligência devida técnica e jurídica que um advogado deve fazer antes de adotar uma ferramenta profissional. E essa due diligence começa sempre pela mesma pergunta: aonde vão os meus dados?
Na configuração testada, a resposta é desconfortável: para fora do espaço controlado pelo utilizador, através de uma cadeia técnica e contratual que envolve Telegram, portal agregador e modelo remoto, sem base publicamente verificável suficientemente robusta para utilização profissional forense com dados de clientes.
A boa notícia é que o problema tem solução técnica. A má notícia é que essa solução não vem explicada no tutorial de instalação. Cabe ao advogado preencher essa lacuna antes de confiar a estas ferramentas aquilo que o direito e a deontologia lhe exigem guardar.
Referências e recursos
| Fonte | Referência |
|---|---|
| Regulamento Geral sobre a Proteção de Dados | Regulamento UE 2016/679, art. 2.º, n.º 2, c); art. 44.º a 49.º |
| EU AI Act | Regulamento UE 2024/1689, art. 3.º, n.º 63; art. 53.º |
| Estatuto da Ordem dos Advogados | Lei n.º 145/2015, de 9 de setembro, art. 92.º e art. 100.º |
| Comissão Europeia — decisões de adequação | |
| AI Act Portal / acompanhamento não oficial | |
| Artificial Analysis — perfil do MiMo‑V2.5‑Pro | |
| Hermes Agent (GitHub, oficial) | |
| Ollama (inferência local de LLMs) | |
| Telegram Bot API (documentação oficial) | |
| Nous Research — Termos de Serviço | (versão consultada em maio de 2026) |
| Nous Research — Política de Privacidade | (versão consultada em maio de 2026) |
