Em fevereiro de 2026, irrompeu publicamente um conflito de enorme significado para o futuro da IA: o Departamento de Defesa americano ameaçou cortar relações com a Anthropic e designá-la como “risco de cadeia de fornecimento” — uma classificação normalmente reservada a adversários estrangeiros como a China — por esta recusar remover dois salvaguardas éticos fundamentais do Claude: a proibição de vigilância em massa de cidadãos e de armamento autónomo sem supervisão humana. Este artigo analisa o confronto, os seus fundamentos éticos e jurídicos, e as suas implicações para a regulação global da IA, com especial enfoque no contexto europeu.
1. Os Factos
Em 15 e 16 de fevereiro de 2026, o portal Axios revelou que o Secretário da Defesa dos EUA, Pete Hegseth, estava “próximo” de romper as relações comerciais com a Anthropic e de a designar como “supply chain risk” — uma medida que obrigaria qualquer entidade que pretendesse contratar com o Pentágono a certificar que não utiliza o Claude nas suas operações. A motivação: meses de negociações falhadas sobre os termos de utilização do modelo de IA Claude pelas forças militares americanas.
O contexto é relevante: a Anthropic assinou com o Pentágono, em 2024, um contrato avaliado em até 200 milhões de dólares. O Claude é o único modelo de IA atualmente disponível nas redes classificadas militares americanas e foi utilizado na operação de captura de Nicolás Maduro, em janeiro de 2026, através de uma parceria com a empresa de análise de dados Palantir.
O Pentágono exige que as quatro grandes empresas de IA — Anthropic, OpenAI, Google e xAI — permitam o uso das suas ferramentas para “todos os fins legalmente autorizados”, sem restrições adicionais impostas pelos fornecedores. A OpenAI, a Google e a xAI já aceitaram levantar os seus salvaguardas para uso militar. A Anthropic recusou-se a fazê-lo em dois domínios específicos.
“Vamos garantir que pagam um preço por nos forçarem a agir assim.” — Oficial sénior do Pentágono, citado por Axios
A frase acima, atribuída a um alto responsável da administração americana, define o tom do confronto: não se trata de uma discordância técnica ou comercial, mas de uma tentativa de coação institucional sobre uma empresa privada que se recusa a abandonar princípios éticos que considera inegociáveis.
2. O que a Anthropic Recusou e Porquê
A Anthropic manteve duas linhas vermelhas que o Pentágono considera incompatíveis com as suas exigências operacionais:
Vigilância em Massa de Cidadãos Americanos
A empresa recusa que o Claude seja utilizado para agregar e processar, em larga escala, informação sobre cidadãos americanos — mesmo que essa informação seja obtida por meios legais ao abrigo da legislação vigente. O argumento é simples: a legislação americana sobre vigilância foi construída antes da existência de IA com as capacidades do Claude. Um modelo capaz de correlacionar publicações em redes sociais, licenças de porte de arma, registos de localização e comunicações digitais representa uma aceleração qualitativa do poder de vigilância estatal que o legislador de 2001 ou de 2008 não antecipou.
Armamento Autónomo sem Supervisão Humana
A Anthropic recusa-se a permitir que o Claude seja integrado em sistemas de armamento que possam disparar sem intervenção humana direta. Esta posição alinha-se com o debate internacional sobre “lethal autonomous weapons systems” (LAWS) e com o princípio da supervisão humana significativa (“meaningful human control”), que tem sido uma linha orientadora do direito internacional humanitário nas últimas décadas.
A Anthropic não está a recusar ajudar os militares americanos. Está a recusar fazê-lo sem salvaguardas éticos que protejam cidadãos e que mantenham humanos no circuito de decisão sobre o uso da força letal.
Esta distinção é crucial e tende a ser perdida na cobertura mediática menos rigorosa do conflito. A Anthropic não é pacifista nem antidefesa — foi a primeira empresa de IA a integrar um modelo em redes classificadas militares. O que está em causa é onde se traça a linha entre uso legítimo e uso que viola direitos fundamentais ou o direito internacional.
3. “As Empresas de IA São Umas Vendidas”
Mito e Realidade
Circula frequentemente, em meios especializados e na opinião pública, a ideia de que as grandes empresas de IA são entidades puramente orientadas pelo lucro, que dobram os seus princípios declarados ao primeiro sinal de pressão comercial ou política. Este caso é um excelente teste empírico a essa tese — e o resultado é mais nuançado do que os céticos esperariam.
As empresas que cederam
OpenAI, Google e xAI aceitaram remover os seus salvaguardas standard para uso militar, incluindo — segundo reportagens — para operações em redes classificadas. Uma delas, segundo fontes do Pentágono, já aceitou a fórmula “all lawful purposes” sem restrições adicionais. Isto é, na prática, uma carta em branco para o uso das suas ferramentas em qualquer operação que o governo americano classifique como legal — uma categoria que, como veremos, tem fronteiras muito elásticas no contexto da legislação americana de segurança nacional.
A empresa que resistiu
A Anthropic manteve-se firme, mesmo sabendo que a consequência podia ser a perda de um contrato de 200 milhões de dólares e a designação como risco de cadeia de fornecimento — o que afetaria negativamente toda a sua base de clientes empresariais. Este é um custo real, não simbólico.
O caso demonstra que há, pelo menos, uma empresa de IA relevante que não subordina os seus princípios éticos à conveniência comercial quando a pressão aumenta. Isso não significa que a Anthropic seja perfeita ou que os seus interesses comerciais não influenciem outras decisões. Significa que neste caso específico — que é, precisamente, o teste mais duro — a empresa resistiu.
A ética de uma empresa não se mede nas declarações de missão. Mede-se nos momentos em que o cumprimento desses princípios tem um custo real e mensurável.
4. O Precedente Perigoso: Coação do Estado sobre Empresas Privadas de IA
A ameaça de designar a Anthropic como “supply chain risk” merece uma atenção jurídica e política particular. Esta classificação foi concebida para isolar fornecedores estrangeiros — nomeadamente chineses — cujos produtos possam conter vulnerabilidades deliberadas ou backdoors ao serviço de governos adversários. Aplicá-la a uma empresa americana, fundada por investigadores de segurança de IA, por esta recusar remover proteções éticas, representa uma torção do conceito que serve para criar um instrumento de pressão sobre qualquer empresa que não se submeta às exigências do Estado.
As implicações são graves. Se esta abordagem se consolidar, qualquer empresa de IA que mantenha salvaguardas éticos face a pedidos governamentais poderá ser ameaçada com a exclusão do mercado federal — e, pela via da certificação da cadeia de fornecimento, do mercado empresarial mais amplo que serve empresas contratantes com o Estado. É um mecanismo de conformidade forçada com enorme potencial de abuso.
Do ponto de vista do direito constitucional americano, há questões relevantes sobre liberdade de empresa e coação estatal inconstitucional. Do ponto de vista do direito internacional, a utilização de IA para vigilância em massa e armamento autónomo sem supervisão humana levanta questões sérias ao abrigo do direito internacional humanitário, da Convenção Europeia dos Direitos do Homem e dos princípios da proporcionalidade e responsabilidade no uso da força.
Um Estado que ameaça classificar uma empresa privada como “risco de segurança nacional” por esta recusar abdicar de proteções de direitos fundamentais está a inverter a lógica do estado de direito.
5. A Perspetiva Europeia: O AI Act e os Limites do Uso Estatal de IA
Este confronto não é apenas um assunto americano. As suas implicações são globais e especialmente relevantes para a Europa, que se encontra no processo de implementação faseada do AI Act, o primeiro quadro regulatório abrangente de IA no mundo.
O Regulamento (UE) 2024/1689, em vigor desde agosto de 2024 e com aplicação faseada até 2027, proíbe explicitamente, no seu artigo 5.º, alguns dos usos que o Pentágono pretende disponibilizar: nomeadamente, sistemas de identificação biométrica remota em espaços públicos e sistemas de categorização biométrica baseados em características sensíveis. A vigilância em massa algorítmica de cidadãos — mesmo com fins de segurança nacional — está sujeita a restrições severas.
O AI Act cria também a categoria de “sistemas de IA de alto risco” (Anexo III) para os usos em gestão de infraestruturas críticas, aplicação da lei e administração da justiça — impondo obrigações de transparência, documentação, supervisão humana e avaliação de conformidade. Sistemas de armamento autónomo letais não são diretamente regulados pelo AI Act (o regulamento exclui usos militares e de segurança nacional do âmbito nacional), mas a Comissão Europeia tem acompanhado o debate internacional sobre LAWS.
O contraste é evidente: enquanto a administração americana pressiona as empresas de IA a remover salvaguardas de supervisão humana e proteção de dados de cidadãos, a Europa está a codificar legalmente esses mesmos salvaguardas como requisitos obrigatórios. Uma empresa como a Anthropic encontra-se, paradoxalmente, mais alinhada com o quadro regulatório europeu do que com as exigências do seu próprio governo.
Para os advogados e empresas europeias que utilizam ou consideram utilizar ferramentas de IA, este caso sublinha a importância de avaliar os fornecedores não apenas pelos seus termos de serviço, mas pelas suas posições efetivas face a pressões governamentais — porque são essas posições que determinam o nível real de proteção dos dados e direitos dos utilizadores.
6. Implicações para a Prática Jurídica e para os Advogados
Este confronto tem implicações diretas para a prática jurídica, em pelo menos três domínios:
Due diligence de fornecedores de IA
Os advogados e as firmas de advocacia que integram ferramentas de IA nos seus processos têm obrigações de confidencialidade e proteção de dados dos clientes que exigem uma avaliação rigorosa dos seus fornecedores. A posição de um fornecedor face a pedidos governamentais de acesso a dados ou de remoção de salvaguardas de privacidade é um critério relevante nessa avaliação.
Aconselhamento a clientes sobre risco regulatório de IA
Empresas que operam em setores regulados — saúde, finanças, infraestruturas críticas — e que utilizam ferramentas de IA precisam de compreender o posicionamento ético dos seus fornecedores face a entidades governamentais. Um fornecedor que cede integralmente a exigências de acesso governamental pode criar riscos de conformidade significativos ao abrigo do RGPD e do AI Act.
Direito internacional humanitário e IA militar
A questão dos LAWS (Lethal Autonomous Weapons Systems) vai chegar aos tribunais internacionais. Advogados especializados em direito internacional devem acompanhar de perto este debate, que envolve a aplicação dos princípios de distinção, proporcionalidade e precaução do direito internacional humanitário a sistemas de IA com capacidade de tomada de decisão letal.
OPINIÃO
7. Opinião
Por Luís Nuno Perdigão
Sendo direto: o comportamento da administração americana neste confronto parece-me profundamente reprovável. E digo-o como jurista, não como comentador político (que não sou, e jamais serei).
Há aqui algo que transcende as habituais disputas entre governo e setor privado e que toca (e até abala, diria eu) os fundamentos do estado de direito e da liberdade empresarial.
Uma empresa americana, fundada por investigadores sérios e preocupados com a segurança da IA, recusa-se a remover proteções éticas que impedem a vigilância em massa de cidadãos e o uso de armamento letal sem supervisão humana.
A resposta do Pentágono é ameaçá-la com uma classificação normalmente reservada a adversários estrangeiros dos EUA como a China envolvendo a Anthropic numa medida que a excluiria efetivamente do mercado federal e que pressionaria indiretamente todo o mercado empresarial a cortar relações com ela. Isto não é regulação. É intimidação institucional e até, quiçá, abuso de poder (não no sentido do tipo penal português, note-se, mas no sentido vulgar do termo).
Um governo que usa instrumentos de segurança nacional para punir empresas que se recusam a ser cúmplices de vigilância em massa está a corroer as fundações da liberdade que diz defender.
Opinião – cont.
A Liberdade Empresarial nos EUA: Uma Ficção Conveniente?
Os EUA apresentam-se ao mundo e a si próprios como o grande bastião da liberdade empresarial, do capitalismo de mercado e da iniciativa privada.
Este caso revela que essa narrativa tem limites muito concretos: a liberdade empresarial existe enquanto as empresas fazem o que o Estado norte-americano quer.
Quando uma empresa privada exerce a sua autonomia para recusar práticas que considera eticamente inaceitáveis, o Estado recorre a mecanismos de coação económica de enorme impacto.
O mais perturbador é a instrumentalização de conceitos jurídicos sérios — como a designação de “risco de cadeia de fornecimento” para fins que nada têm a ver com a sua finalidade original.
Esta elasticidade (e abuso) conceitual ao serviço da pressão política é precisamente o tipo de prática que, noutros contextos geopolíticos, os EUA denunciam como autoritarismo. mas, quando praticada em Washington, chama-se “interesse de segurança nacional”.
As outras três grandes empresas de IA, OpenAI, Google e xAI, cederam.
Percebo a lógica comercial: os contratos com o Pentágono são muito valiosos e prestigiantes, a pressão é real, os conselhos de administração respondem aos acionistas.
Mas é impossível não registar que, neste momento, são essas empresas que correspondem à caricatura das “empresas de IA vendidas” que circula na opinião pública e é a Anthropic, paradoxalmente, a empresa que desmente ou contrria essa caricatura (de bendidos e de vendilhões).
Opinião – conclusão
A Diferença Cultural EUA / UE: Mais do que Regulação
Há uma diferença cultural profunda entre a abordagem americana e a europeia à IA e ao seu papel na sociedade e este confronto ilustra-a com uma clareza rara. Não se trata apenas de regulação versus mercado livre: trata-se de visões fundamentalmente distintas sobre a relação entre o Estado, a tecnologia e o indivíduo.
A abordagem americana dominante (pelo menos a da administração atual) parte da premissa de que o Estado deve ter acesso irrestrito às capacidades tecnológicas disponíveis, cabendo às empresas e aos cidadãos demonstrar por que razão esse acesso deveria ser limitado. A abordagem europeia, codificada no AI Act, no RGPD e na Carta dos Direitos Fundamentais da UE, parte da premissa inversa: os direitos dos cidadãos são o ponto de partida, e é ao Estado que cabe demonstrar a necessidade e proporcionalidade de qualquer limitação a esses direitos.
Enquanto Português, Europeu e Advogado, identifico-me profundamente com a abordagem europeia. Não por anti-americanismo, e muito menos primário: a cultura americana produziu contribuições extraordinárias para a liberdade, a democracia e a inovação.
Mas porque, neste momento específico, é a Europa que está a levar a sério a questão de como se governa a IA de forma compatível com os valores que dizemos partilhar.
O facto de a Anthropic, uma empresa californiana, estar mais próxima do quadro axiológico do AI Act do que da posição do seu próprio governo é, em si mesmo, um dado extraordinariamente revelador. Significa que os valores que a Europa procura codificar na lei não são estranhos ao ecossistema tecnológico americano: são valores que alguns dos seus melhores representantes partilham. A questão é quem, nos EUA, tem poder para os impor. E a resposta atual não é animadora.
Termino com uma nota de esperança cautelosa: o sistema americano não é o regime de Hegseth ou de qualquer Secretário de Defesa. A Anthropic pode recorrer a tribunais. A imprensa livre publicou tudo isto sem censura. O Congresso pode reagir. Esses mecanismos existem e funcionam — pelo menos por enquanto. Mas não se pode ignorar a direção da tendência. E é essa direção que nos deve preocupar.
Entretanto, deixo a pergunta a Dario e Daniela Amodei: não querem considerar seriamente mudarem-se, e à Anthropic., para Portugal? Seriam muito bem-vindos e poderiam operar num espaço respeitador do vosseo projeto ético-enconómico.

