Última atualização e revisão: 1 de março de 2026, 09h50 (hora de Lisboa). Vídeos do YouTube acrescentados no final deste artigo.
Esta atualização dá seguimento ao artigo publicado a 18 de fevereiro de 2026, “O Confronto Pentágono VS Anthropic: Uma Análise sob a Lente da Ética da IA“. Os desenvolvimentos da última semana foram de tal magnitude que justificam um acompanhamento detalhado.
1. A Escalada: De Ameaça Velada a Ultimato Público
Desde a publicação do artigo original, o conflito entre a Anthropic e o Pentágono — agora oficialmente designado “Department of War” pela administração Trump — deixou de ser uma disputa nos bastidores para se tornar num confronto público de proporções raramente vistas entre o Estado americano e uma empresa de tecnologia.
A cronologia da última semana é reveladora da escalada:
23–24 de fevereiro
A xAI, empresa de Elon Musk, assinou um acordo com o Pentágono para utilizar o seu modelo Grok em redes classificadas, aceitando sem reservas a fórmula “all lawful purposes” (todos os efeitos legais) que a Anthropic recusa. A xAI torna-se assim a primeira alternativa ao Claude no espaço classificado militar, embora responsáveis do Pentágono reconheçam que as capacidades do Grok ainda ficam aquém das do Claude em aplicações especializadas de defesa…
25 de fevereiro
O Secretário da Defesa Pete Hegseth convocou Dario Amodei ao Pentágono para uma reunião descrita como “excecionalmente tensa” por fontes próximas. Hegseth apresentou um ultimato formal: ou a Anthropic aceita as condições do Pentágono até às 17h01 de sexta-feira, 27 de fevereiro, ou enfrenta a rescisão do contrato, a designação como “supply chain risk” (risco da cadeia de fornecimento) e a potencial invocação do Defense Production Act — uma lei da era da Guerra Fria que confere ao Presidente poderes extraordinários sobre indústrias domésticas em matéria de defesa.
26 de fevereiro (noite)
O Pentágono enviou à Anthropic aquilo que descreveu como a sua “última e definitiva proposta” contratual.
26 de fevereiro
A Anthropic rejeitou a proposta. Em declaração oficial, a empresa afirmou que a nova linguagem contratual não representava qualquer progresso real na proteção contra vigilância em massa e armamento autónomo, e que as cláusulas apresentadas como “compromisso” vinham acompanhadas de disposições legais que permitiriam contornar as salvaguardas a qualquer momento.
No mesmo dia, Dario Amodei publicou uma declaração pessoal no site da Anthropic, que constitui o documento mais importante deste confronto até à data.
2. “Não Podemos, em Boa Consciência, Ceder”
A declaração de Amodei, publicada a 26 de fevereiro sob o título “Statement from Dario Amodei on our discussions with the Department of War” (Declaração de Dario Amodei sobre as nossas discussões com o Deparramento da Guerra), merece análise cuidadosa, porque define com uma clareza sem precedentes a posição ética e estratégica da Anthropic.
Amodei começa por sublinhar que a Anthropic não é uma empresa anti-defesa. Recorda que foi a primeira empresa de IA a disponibilizar modelos nas redes classificadas do governo americano, a primeira a implementá-los nos Laboratórios Nacionais, e que a empresa cortou voluntariamente centenas de milhões de dólares em receitas ao bloquear o acesso de empresas ligadas ao Partido Comunista Chinês.
Após, Amodei identifica somente duas áreas em que considera que a IA pode prejudicar, em vez de defender, os valores democráticos:
Sobre vigilância em massa de cidadãos americanos
Amodei argumenta que o enquadramento legal actual não acompanhou as capacidades da tecnologia. Ao abrigo da legislação vigente, o governo americano pode adquirir registos detalhados de movimentações, navegação na internet e associações dos cidadãos sem mandato judicial, o que constitui prática que a própria comunidade de serviços de informação reconheceu como problemática. A IA generativa transforma dados dispersos e individualmente inócuos numa imagem abrangente da vida de qualquer pessoa, de forma automática e em larga escala.
Sobre armamento autónomo
Amodei é igualmente direto: os sistemas de IA atuais simplesmente não são suficientemente fiáveis para operar armas sem supervisão humana. A Anthropic ofereceu-se para colaborar com o Pentágono em I&D para melhorar a fiabilidade destes sistemas, mas a oferta não foi aceite.
“These threats do not change our position: we cannot in good conscience accede to their request.”
(Estas ameaças não alteram a nossa posição: não podemos, em boa consciência, aceder ao pedido [do Departamento de Guerra].)
Amodei aponta ainda a contradição lógica das ameaças: designar a Anthropic como “risco de cadeia de fornecimento” (tratando-a como ameaça à segurança) e simultaneamente invocar o Defense Production Act para forçá-la a fornecer o Claude (tratando-o como essencial para a segurança nacional) são posições mutuamente exclusivas entre si.
3. A Resposta do Pentágono: Ataques Pessoais e Linguagem de Força
A reação dos responsáveis do Pentágono à posição da Anthropic foi extraordinariamente agressiva e, sob vários prismas, inédita nas relações entre governo e sector tecnológico nos Estados Unidos.
Emil Michael — Subsecretário da Defesa
Responsável pelas negociações com a Anthropic, publicou na rede social X um ataque pessoal a Dario Amodei, acusando-o de ser “um mentiroso com complexo de Deus” que “quer controlar pessoalmente as Forças Armadas americanas e não se importa de pôr em risco a segurança da nação”.
Sean Parnell — Porta-voz do Pentágono
Classificou a narrativa de vigilância em massa e armamento autónomo como uma “narrativa falsa difundida por esquerdistas nos media” e declarou que a Anthropic tem até às 17h01 de hoje, sexta-feira 27 de fevereiro de 2026, para decidir, sob pena de rescisão do contrato e designação como risco de cadeia de fornecimento.
Esta linguagem (a personalização dos ataques, a desqualificação da posição ética como “narrativa esquerdista”, a retórica de força bruta) diz muito sobre o nível de pressão institucional em jogo. A comparação com a forma como regimes autoritários tratam empresas que não se submetem às suas exigências é, infelizmente, cada vez mais pertinente (e, em jeito de opinião, securitária e perigosa).
Parnell argumentou ainda que o Pentágono “não tem interesse” em usar a IA para vigilância em massa ou armamento autónomo, posição que o próprio Pentágono desmente ao recusar incluir no contrato cláusulas que o impeçam de o fazer (!).
4. Reacções do Congresso: Críticas Bipartidárias
Aspeto significativo deste recrudescimento é a reação no Congresso americano. Senadores de ambos os partidos criticaram a condução do processo pelo Pentágono.
Sen. Thom Tillis
Republicano, Carolina do Norte
Considerou que o Pentágono tem tratado o assunto “de forma pouco profissional” e que a Anthropic está, na verdade, “a tentar ajudar-nos de nós mesmos”. Tillis questionou publicamente a razão de toda esta disputa estar a ser conduzida em público e afirmou que, quando uma empresa resiste a uma oportunidade de mercado por receio de consequências negativas, o governo deveria “ouvi-la e, à porta fechada, perceber o que está realmente em causa”.
Sen. Mark Warner
Democrata, Virgínia
Membro mais graduado da minoria no Comité de Serviços de Informação do Senado, declarou-se “profundamente perturbado” com os relatos de que o Pentágono está “a intimidar uma empresa líder americana” e apelou ao Congresso para legislar mecanismos vinculativos de governação da IA em contextos de segurança nacional.
Esta convergência bipartidária é rara e relevante. Sugere que os excessos da administração Hegseth podem vir a gerar uma reacção legislativa – algo que a própria Anthropic parece antecipar e que Amodei tem defendido publicamente.
5. O Acordo xAI-Pentágono e a Nova Paisagem Concorrencial
O acordo entre a xAI de Elon Musk e o Pentágono é, em si mesmo, um desenvolvimento com profundas implicações.
O Grok é agora o segundo modelo de IA com acesso a redes classificadas militares americanas, tendo a xAI aceite integralmente a fórmula “all lawful purposes”. As negociações com a Google (Gemini) e a OpenAI (ChatGPT) para entrada no espaço classificado estão em curso, embora a administração exija as mesmas condições a todos os fornecedores.
Três aspetos merecem atenção.
Conflitos de interesse
A proximidade de Elon Musk à administração Trump levanta questões óbvias sobre a independência do processo de contratação e sobre o que significa, em termos de conflitos de interesse, ter o proprietário de uma empresa de IA como conselheiro informal do Presidente enquanto essa mesma empresa celebra contratos militares classificados.
Capacidades técnicas
Responsáveis do próprio Pentágono reconhecem que o Grok não iguala o Claude em aplicações especializadas de defesa, o que torna a ameaça de substituição menos credível a curto prazo.
Excecionalidade da Anthropic
O facto de todas as alternativas ao Claude terem aceitado as condições do Pentágono sem reservas reforça a excecionalidade da posição da Anthropic.
O Pentágono iniciou já consultas com empresas como Boeing e Lockheed Martin para avaliar a exposição destas à Anthropic, preparando o terreno para a eventual designação como “supply chain risk”.
6. A Outra Polémica: A Revisão da Responsible Scaling Policy
Na mesma semana e, segundo a Anthropic, sem relação com o conflito com o Pentágono, a empresa publicou a versão 3.0 da sua Responsible Scaling Policy (RSP), o quadro voluntário que utiliza para gerir riscos catastróficos da IA.
RSP Anterior
Compromisso absoluto de pausar o treino de modelos mais poderosos caso as suas capacidades ultrapassem a capacidade da empresa de os controlar.
RSP 3.0
Condição dupla: a Anthropic compromete-se a adiar o desenvolvimento apenas se se considerar líder na corrida da IA e se estimar que o risco de catástrofe é significativo. As metas de segurança passam de compromissos vinculativos a “objectivos públicos”.
Jared Kaplan, cofundador e Chief Science Officer da Anthropic, justificou a mudança com um argumento pragmático: num cenário em que os concorrentes avançam sem restrições equivalentes, uma pausa unilateral da Anthropic resultaria num mundo menos seguro, porque os programadores com proteções mais fracas ditariam o ritmo.
Chris Painter, director de políticas da METR (organização que avalia modelos de IA), que reviu uma versão preliminar da nova política, considerou a mudança compreensível, mas um “sinal preocupante” sobre a capacidade mundial de gerir riscos catastróficos da IA.
É legítimo debater se esta alteração mina a credibilidade da Anthropic enquanto empresa de segurança. Mas importa distinguir entre duas coisas: a política de desenvolvimento de modelos (onde a Anthropic se tornou mais flexível) e a política de utilização (onde mantém as suas linhas vermelhas face ao Pentágono). São decisões distintas, com fundamentações distintas, e seria um erro analítico confundi-las — embora a coincidência temporal seja, no mínimo, infeliz.
7. É Hoje: O Que Pode Acontecer a Partir das 17h01
No momento em que esta atualização é publicada, sexta-feira, 27 de fevereiro de 2026, o prazo do ultimato do Pentágono caduca às 17h01, hora de Washington (22h01 em Portugal continental).
A Anthropic já declarou a sua posição: não cederá. Os cenários possíveis são:
Rescisão do contrato
O Pentágono termina o acordo de 200 milhões de dólares e a Anthropic é afastada das redes classificadas. Este cenário é doloroso mas não existencial para uma empresa avaliada em cerca de 380 mil milhões de dólares e com receitas a crescer exponencialmente.
Designação como “supply chain risk”
Este é o cenário mais perigoso para a Anthropic. A designação obrigaria todas as empresas que trabalham com o Pentágono a certificar que não utilizam produtos da Anthropic, afectando potencialmente a vasta base de clientes empresariais da empresa. Seria a primeira vez que esta classificação seria aplicada a uma empresa americana.
Invocação do Defense Production Act
O cenário mais extremo e juridicamente mais contestável. A utilização de uma lei concebida para emergências de guerra para forçar uma empresa a remover protecções éticas seria, provavelmente, alvo de impugnação judicial. Amodei assinalou a contradição lógica: a mesma entidade não pode simultaneamente classificar a Anthropic como risco de segurança e como essencial para a segurança nacional.
Continuação das negociações
Apesar da retórica incendiária, é possível que o prazo passe sem ação imediata e que as partes regressem à mesa de negociações com novos interlocutores. As críticas bipartidárias no Congresso e o reconhecimento, pelo próprio Pentágono, de que substituir o Claude seria tecnicamente muito difícil podem moderar a resposta.
8. Perspectiva Europeia: Reforço da Análise Original
Os desenvolvimentos desta semana não alteram a análise europeia apresentada no artigo original: reforçam-na.
O contraste entre a posição da administração americana e o quadro regulatório europeu é agora ainda mais nítido. O EU AI Act (Regulamento UE 2024/1689), no seu artigo 5.º, proíbe práticas que o Pentágono exige que a Anthropic permita. A exigência de “all lawful purposes” sem salvaguardas adicionais seria radicalmente incompatível com o direito europeu vigente.
Para advogados e empresas portuguesas e europeias, duas implicações práticas emergem com clareza reforçada.
Due diligence de fornecedores de IA
O critério de avaliação deve incluir não apenas as políticas declaradas mas a resistência demonstrada a pressões governamentais. A Anthropic acaba de passar o teste mais exigente possível a este nível.
Avaliação de risco regulatório
Uma eventual designação da Anthropic como “supply chain risk” pode criar problemas operacionais para empresas europeias que utilizam o Claude e que tenham relações comerciais com entidades americanas, um cenário que deve ser antecipado nos planos de contingência.
OPINIÃO
Duas Notas Pessoais
Primeira nota: Estava errado quando, no artigo original, disse que temia que a Anthropic pudesse ceder. Dario Amodei não só não cedeu, como publicou uma das declarações empresariais mais corajosas que vi na minha carreira de três décadas. Quando um CEO diz, em público, que não pode “em boa consciência” ceder às exigências do maior aparelho militar do mundo, sabendo que a consequência pode ser a destruição da sua base de clientes!, estamos perante algo raro e digno de nota. A frase de Amodei sobre a contradição lógica das ameaças é brilhante na sua simplicidade:
“uma classifica-nos como risco de segurança; a outra classifica o Claude como essencial para a segurança nacional”.
Segunda nota: O nível da resposta do Pentágono, contendo insultos pessoais, linguagem de intimidação, ultimatos públicos, é profunda e tristemente revelador. Emil Michael, um alto responsável do Estado americano, chamou ao CEO de uma empresa privada “mentiroso com complexo de Deus” numa rede social. Este não é o vocabulário de uma democracia madura a lidar com um desacordo contratual. É o vocabulário da coação. E o facto de senadores de ambos os partidos o terem reconhecido oferece, pelo menos, alguma esperança de que os mecanismos de controlo democrático nos EUA ainda funcionem.
Quanto à revisão da Responsible Scaling Policy, compreendo o argumento pragmático da Anthropic e reconheço que é um debate legítimo. Mas o timing foi desastroso… Publicar uma flexibilização de compromissos de segurança na mesma semana em que se está a resistir heroicamente a um ultimato do Pentágono sobre segurança de IA criou uma dissonância narrativa que os críticos não tardaram a explorar. Se a intenção era mostrar que as duas decisões são independentes, no que acredito, o efeito comunicacional, porém, foi o oposto.
O confronto está longe de terminado. Hoje é o dia do ultimato, mas a história não acaba às 17h01. Continuaremos a acompanhar e os nosso leitores também

