Close Menu

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    Facebook X (Twitter) Instagram
    JuristechJuristech
    • IA sem filtro
    • IA e Direito
    • Regulamentação
    • LegalTech
    • Descomplicar o Direito e a IA
    • Sobre
    Facebook X (Twitter) Instagram
    JuristechJuristech
    Início » O Confronto Pentágono VS Anthropic: A Semana em que a Linha Vermelha Foi Testada
    IA sem filtro

    O Confronto Pentágono VS Anthropic: A Semana em que a Linha Vermelha Foi Testada

    Luís Nuno PerdigãoPor Luís Nuno PerdigãoMarço 31, 2026Sem comentários13 Mins Read
    Facebook Twitter Pinterest Telegram LinkedIn Tumblr WhatsApp Email
    Partilhar
    Facebook Twitter LinkedIn Pinterest Telegram Email

    Última atualização e revisão: 1 de março de 2026, 09h50 (hora de Lisboa). Vídeos do YouTube acrescentados no final deste artigo.

    Esta atualização dá seguimento ao artigo publicado a 18 de fevereiro de 2026, “O Confronto Pentágono VS Anthropic: Uma Análise sob a Lente da Ética da IA“. Os desenvolvimentos da última semana foram de tal magnitude que justificam um acompanhamento detalhado.

    1. A Escalada: De Ameaça Velada a Ultimato Público

    Desde a publicação do artigo original, o conflito entre a Anthropic e o Pentágono — agora oficialmente designado “Department of War” pela administração Trump — deixou de ser uma disputa nos bastidores para se tornar num confronto público de proporções raramente vistas entre o Estado americano e uma empresa de tecnologia.

    A cronologia da última semana é reveladora da escalada:

    23–24 de fevereiro

    A xAI, empresa de Elon Musk, assinou um acordo com o Pentágono para utilizar o seu modelo Grok em redes classificadas, aceitando sem reservas a fórmula “all lawful purposes” (todos os efeitos legais) que a Anthropic recusa. A xAI torna-se assim a primeira alternativa ao Claude no espaço classificado militar, embora responsáveis do Pentágono reconheçam que as capacidades do Grok ainda ficam aquém das do Claude em aplicações especializadas de defesa…

    25 de fevereiro

    O Secretário da Defesa Pete Hegseth convocou Dario Amodei ao Pentágono para uma reunião descrita como “excecionalmente tensa” por fontes próximas. Hegseth apresentou um ultimato formal: ou a Anthropic aceita as condições do Pentágono até às 17h01 de sexta-feira, 27 de fevereiro, ou enfrenta a rescisão do contrato, a designação como “supply chain risk” (risco da cadeia de fornecimento) e a potencial invocação do Defense Production Act — uma lei da era da Guerra Fria que confere ao Presidente poderes extraordinários sobre indústrias domésticas em matéria de defesa.

    26 de fevereiro (noite)

    O Pentágono enviou à Anthropic aquilo que descreveu como a sua “última e definitiva proposta” contratual.

    26 de fevereiro

    A Anthropic rejeitou a proposta. Em declaração oficial, a empresa afirmou que a nova linguagem contratual não representava qualquer progresso real na proteção contra vigilância em massa e armamento autónomo, e que as cláusulas apresentadas como “compromisso” vinham acompanhadas de disposições legais que permitiriam contornar as salvaguardas a qualquer momento.

    No mesmo dia, Dario Amodei publicou uma declaração pessoal no site da Anthropic, que constitui o documento mais importante deste confronto até à data.

    2. “Não Podemos, em Boa Consciência, Ceder”

    A declaração de Amodei, publicada a 26 de fevereiro sob o título “Statement from Dario Amodei on our discussions with the Department of War” (Declaração de Dario Amodei sobre as nossas discussões com o Deparramento da Guerra), merece análise cuidadosa, porque define com uma clareza sem precedentes a posição ética e estratégica da Anthropic.

    Amodei começa por sublinhar que a Anthropic não é uma empresa anti-defesa. Recorda que foi a primeira empresa de IA a disponibilizar modelos nas redes classificadas do governo americano, a primeira a implementá-los nos Laboratórios Nacionais, e que a empresa cortou voluntariamente centenas de milhões de dólares em receitas ao bloquear o acesso de empresas ligadas ao Partido Comunista Chinês.

    Após, Amodei identifica somente duas áreas em que considera que a IA pode prejudicar, em vez de defender, os valores democráticos:

    Sobre vigilância em massa de cidadãos americanos

    Amodei argumenta que o enquadramento legal actual não acompanhou as capacidades da tecnologia. Ao abrigo da legislação vigente, o governo americano pode adquirir registos detalhados de movimentações, navegação na internet e associações dos cidadãos sem mandato judicial, o que constitui prática que a própria comunidade de serviços de informação reconheceu como problemática. A IA generativa transforma dados dispersos e individualmente inócuos numa imagem abrangente da vida de qualquer pessoa, de forma automática e em larga escala.

    Sobre armamento autónomo

    Amodei é igualmente direto: os sistemas de IA atuais simplesmente não são suficientemente fiáveis para operar armas sem supervisão humana. A Anthropic ofereceu-se para colaborar com o Pentágono em I&D para melhorar a fiabilidade destes sistemas, mas a oferta não foi aceite.

    “These threats do not change our position: we cannot in good conscience accede to their request.”
    (Estas ameaças não alteram a nossa posição: não podemos, em boa consciência, aceder ao pedido [do Departamento de Guerra].)

    Amodei aponta ainda a contradição lógica das ameaças: designar a Anthropic como “risco de cadeia de fornecimento” (tratando-a como ameaça à segurança) e simultaneamente invocar o Defense Production Act para forçá-la a fornecer o Claude (tratando-o como essencial para a segurança nacional) são posições mutuamente exclusivas entre si.

    3. A Resposta do Pentágono: Ataques Pessoais e Linguagem de Força

    A reação dos responsáveis do Pentágono à posição da Anthropic foi extraordinariamente agressiva e, sob vários prismas, inédita nas relações entre governo e sector tecnológico nos Estados Unidos.

    Emil Michael — Subsecretário da Defesa

    Responsável pelas negociações com a Anthropic, publicou na rede social X um ataque pessoal a Dario Amodei, acusando-o de ser “um mentiroso com complexo de Deus” que “quer controlar pessoalmente as Forças Armadas americanas e não se importa de pôr em risco a segurança da nação”.

    Sean Parnell — Porta-voz do Pentágono

    Classificou a narrativa de vigilância em massa e armamento autónomo como uma “narrativa falsa difundida por esquerdistas nos media” e declarou que a Anthropic tem até às 17h01 de hoje, sexta-feira 27 de fevereiro de 2026, para decidir, sob pena de rescisão do contrato e designação como risco de cadeia de fornecimento.

    Esta linguagem (a personalização dos ataques, a desqualificação da posição ética como “narrativa esquerdista”, a retórica de força bruta) diz muito sobre o nível de pressão institucional em jogo. A comparação com a forma como regimes autoritários tratam empresas que não se submetem às suas exigências é, infelizmente, cada vez mais pertinente (e, em jeito de opinião, securitária e perigosa).

    Parnell argumentou ainda que o Pentágono “não tem interesse” em usar a IA para vigilância em massa ou armamento autónomo, posição que o próprio Pentágono desmente ao recusar incluir no contrato cláusulas que o impeçam de o fazer (!).

    4. Reacções do Congresso: Críticas Bipartidárias

    Aspeto significativo deste recrudescimento é a reação no Congresso americano. Senadores de ambos os partidos criticaram a condução do processo pelo Pentágono.

    Sen. Thom Tillis

    Republicano, Carolina do Norte

    Considerou que o Pentágono tem tratado o assunto “de forma pouco profissional” e que a Anthropic está, na verdade, “a tentar ajudar-nos de nós mesmos”. Tillis questionou publicamente a razão de toda esta disputa estar a ser conduzida em público e afirmou que, quando uma empresa resiste a uma oportunidade de mercado por receio de consequências negativas, o governo deveria “ouvi-la e, à porta fechada, perceber o que está realmente em causa”.

    Sen. Mark Warner

    Democrata, Virgínia

    Membro mais graduado da minoria no Comité de Serviços de Informação do Senado, declarou-se “profundamente perturbado” com os relatos de que o Pentágono está “a intimidar uma empresa líder americana” e apelou ao Congresso para legislar mecanismos vinculativos de governação da IA em contextos de segurança nacional.

    Esta convergência bipartidária é rara e relevante. Sugere que os excessos da administração Hegseth podem vir a gerar uma reacção legislativa – algo que a própria Anthropic parece antecipar e que Amodei tem defendido publicamente.

    5. O Acordo xAI-Pentágono e a Nova Paisagem Concorrencial

    O acordo entre a xAI de Elon Musk e o Pentágono é, em si mesmo, um desenvolvimento com profundas implicações.

    O Grok é agora o segundo modelo de IA com acesso a redes classificadas militares americanas, tendo a xAI aceite integralmente a fórmula “all lawful purposes”. As negociações com a Google (Gemini) e a OpenAI (ChatGPT) para entrada no espaço classificado estão em curso, embora a administração exija as mesmas condições a todos os fornecedores.

    Três aspetos merecem atenção.

    Conflitos de interesse

    A proximidade de Elon Musk à administração Trump levanta questões óbvias sobre a independência do processo de contratação e sobre o que significa, em termos de conflitos de interesse, ter o proprietário de uma empresa de IA como conselheiro informal do Presidente enquanto essa mesma empresa celebra contratos militares classificados.

    Capacidades técnicas

    Responsáveis do próprio Pentágono reconhecem que o Grok não iguala o Claude em aplicações especializadas de defesa, o que torna a ameaça de substituição menos credível a curto prazo.

    Excecionalidade da Anthropic

    O facto de todas as alternativas ao Claude terem aceitado as condições do Pentágono sem reservas reforça a excecionalidade da posição da Anthropic.

    O Pentágono iniciou já consultas com empresas como Boeing e Lockheed Martin para avaliar a exposição destas à Anthropic, preparando o terreno para a eventual designação como “supply chain risk”.

    6. A Outra Polémica: A Revisão da Responsible Scaling Policy

    Na mesma semana e, segundo a Anthropic, sem relação com o conflito com o Pentágono, a empresa publicou a versão 3.0 da sua Responsible Scaling Policy (RSP), o quadro voluntário que utiliza para gerir riscos catastróficos da IA.

    RSP Anterior

    Compromisso absoluto de pausar o treino de modelos mais poderosos caso as suas capacidades ultrapassem a capacidade da empresa de os controlar.

    RSP 3.0

    Condição dupla: a Anthropic compromete-se a adiar o desenvolvimento apenas se se considerar líder na corrida da IA e se estimar que o risco de catástrofe é significativo. As metas de segurança passam de compromissos vinculativos a “objectivos públicos”.

    Jared Kaplan, cofundador e Chief Science Officer da Anthropic, justificou a mudança com um argumento pragmático: num cenário em que os concorrentes avançam sem restrições equivalentes, uma pausa unilateral da Anthropic resultaria num mundo menos seguro, porque os programadores com proteções mais fracas ditariam o ritmo.

    Chris Painter, director de políticas da METR (organização que avalia modelos de IA), que reviu uma versão preliminar da nova política, considerou a mudança compreensível, mas um “sinal preocupante” sobre a capacidade mundial de gerir riscos catastróficos da IA.

    É legítimo debater se esta alteração mina a credibilidade da Anthropic enquanto empresa de segurança. Mas importa distinguir entre duas coisas: a política de desenvolvimento de modelos (onde a Anthropic se tornou mais flexível) e a política de utilização (onde mantém as suas linhas vermelhas face ao Pentágono). São decisões distintas, com fundamentações distintas, e seria um erro analítico confundi-las — embora a coincidência temporal seja, no mínimo, infeliz.

    7. É Hoje: O Que Pode Acontecer a Partir das 17h01

    No momento em que esta atualização é publicada, sexta-feira, 27 de fevereiro de 2026, o prazo do ultimato do Pentágono caduca às 17h01, hora de Washington (22h01 em Portugal continental).

    A Anthropic já declarou a sua posição: não cederá. Os cenários possíveis são:

    Rescisão do contrato

    O Pentágono termina o acordo de 200 milhões de dólares e a Anthropic é afastada das redes classificadas. Este cenário é doloroso mas não existencial para uma empresa avaliada em cerca de 380 mil milhões de dólares e com receitas a crescer exponencialmente.

    Designação como “supply chain risk”

    Este é o cenário mais perigoso para a Anthropic. A designação obrigaria todas as empresas que trabalham com o Pentágono a certificar que não utilizam produtos da Anthropic, afectando potencialmente a vasta base de clientes empresariais da empresa. Seria a primeira vez que esta classificação seria aplicada a uma empresa americana.

    Invocação do Defense Production Act

    O cenário mais extremo e juridicamente mais contestável. A utilização de uma lei concebida para emergências de guerra para forçar uma empresa a remover protecções éticas seria, provavelmente, alvo de impugnação judicial. Amodei assinalou a contradição lógica: a mesma entidade não pode simultaneamente classificar a Anthropic como risco de segurança e como essencial para a segurança nacional.

    Continuação das negociações

    Apesar da retórica incendiária, é possível que o prazo passe sem ação imediata e que as partes regressem à mesa de negociações com novos interlocutores. As críticas bipartidárias no Congresso e o reconhecimento, pelo próprio Pentágono, de que substituir o Claude seria tecnicamente muito difícil podem moderar a resposta.

    8. Perspectiva Europeia: Reforço da Análise Original

    Os desenvolvimentos desta semana não alteram a análise europeia apresentada no artigo original: reforçam-na.

    O contraste entre a posição da administração americana e o quadro regulatório europeu é agora ainda mais nítido. O EU AI Act (Regulamento UE 2024/1689), no seu artigo 5.º, proíbe práticas que o Pentágono exige que a Anthropic permita. A exigência de “all lawful purposes” sem salvaguardas adicionais seria radicalmente incompatível com o direito europeu vigente.

    Para advogados e empresas portuguesas e europeias, duas implicações práticas emergem com clareza reforçada.

    Due diligence de fornecedores de IA

    O critério de avaliação deve incluir não apenas as políticas declaradas mas a resistência demonstrada a pressões governamentais. A Anthropic acaba de passar o teste mais exigente possível a este nível.

    Avaliação de risco regulatório

    Uma eventual designação da Anthropic como “supply chain risk” pode criar problemas operacionais para empresas europeias que utilizam o Claude e que tenham relações comerciais com entidades americanas, um cenário que deve ser antecipado nos planos de contingência.

    OPINIÃO

    Duas Notas Pessoais

    Primeira nota: Estava errado quando, no artigo original, disse que temia que a Anthropic pudesse ceder. Dario Amodei não só não cedeu, como publicou uma das declarações empresariais mais corajosas que vi na minha carreira de três décadas. Quando um CEO diz, em público, que não pode “em boa consciência” ceder às exigências do maior aparelho militar do mundo, sabendo que a consequência pode ser a destruição da sua base de clientes!, estamos perante algo raro e digno de nota. A frase de Amodei sobre a contradição lógica das ameaças é brilhante na sua simplicidade:

    “uma classifica-nos como risco de segurança; a outra classifica o Claude como essencial para a segurança nacional”.

    Segunda nota: O nível da resposta do Pentágono, contendo insultos pessoais, linguagem de intimidação, ultimatos públicos, é profunda e tristemente revelador. Emil Michael, um alto responsável do Estado americano, chamou ao CEO de uma empresa privada “mentiroso com complexo de Deus” numa rede social. Este não é o vocabulário de uma democracia madura a lidar com um desacordo contratual. É o vocabulário da coação. E o facto de senadores de ambos os partidos o terem reconhecido oferece, pelo menos, alguma esperança de que os mecanismos de controlo democrático nos EUA ainda funcionem.

    Quanto à revisão da Responsible Scaling Policy, compreendo o argumento pragmático da Anthropic e reconheço que é um debate legítimo. Mas o timing foi desastroso… Publicar uma flexibilização de compromissos de segurança na mesma semana em que se está a resistir heroicamente a um ultimato do Pentágono sobre segurança de IA criou uma dissonância narrativa que os críticos não tardaram a explorar. Se a intenção era mostrar que as duas decisões são independentes, no que acredito, o efeito comunicacional, porém, foi o oposto.

    O confronto está longe de terminado. Hoje é o dia do ultimato, mas a história não acaba às 17h01. Continuaremos a acompanhar e os nosso leitores também

    Partilhar. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Imagem do avatar
    Luís Nuno Perdigão
    • Website
    • LinkedIn

    Advogado português especializado em Direito das tecnologias e inteligência artificial e Direito. Comecei a explorar ferramentas de IA aplicadas ao Direito há alguns anos, primeiro por curiosidade, depois por necessidade profissional. Rapidamente percebi duas coisas: o potencial é enorme, e a informação de qualidade em português é muito escassa. O Juristech.pt é a minha contribuição para mudar isso. Junte-se a mim!

    Artigos Relacionados

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    Chatbots sicofantes e espirais delirantes: até um utilizador racional pode ser enganado

    Abril 12, 2026

    Reflexões e uma Entrevista Íntima com uma IA

    Abril 6, 2026

    Quando o Algoritmo Discrimina: IA e Viés de Género

    Março 8, 2026

    As heroínas desconhecidas da tecnologia

    Março 8, 2026

    E-Constituição da República Digital de Noosfera

    Fevereiro 27, 2026
    Deixe o seu comentário Cancel Reply

    Escolhas do editor

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026

    Brasil vs. UE: Duas Abordagens para Regular a Inteligência Artificial

    Abril 18, 2026
    Sobre nós
    Sobre nós

    O portal Juristech.pt é um recurso em linha totalmente em Língua Portuguesa, dedicado a Advogados e Juristas Portugueses e Brasileiros e ainda a estudantes de Direito e público em geral de ambos os Países com interesse no fascinante mundo do Direito e da Inteligência Artificial.

    LinkedIn
    Últimos artigos

    A IA precisa do seu 25 de Abril?

    Abril 25, 2026

    O homem que desenhou o cérebro: como Santiago Ramón y Cajal ajudou a fundar, sem o saber, a inteligência artificial

    Abril 23, 2026

    ChatGPT ou Claude para advogados: qual escolher?

    Abril 20, 2026
    ByTheLaw
    Uso e recomendo a ByTheLaw, uma plataforma LegalTech 100% portuguesa. Não é publicidade.

    É uma ferramenta que uso no meu trabalho e que considero útil para colegas.

    O código LNP10 dá 10% de desconto na assinatura da plataforma ByTheLAw, válido por um ano a partir da ativação. (Consulte os termos e condições da promoção no site.)
    © 2026 Juristech - Todos os direitos reservados.
    • Sobre
    • Política de cookies
    • Ficha técnica
    • Estatuto editorial

    Type above and press Enter to search. Press Esc to cancel.

    Gerir o Consentimento
    Para fornecer as melhores experiências, usamos tecnologias como cookies para armazenar e/ou aceder a informações do dispositivo. Consentir com essas tecnologias nos permitirá processar dados, como comportamento de navegação ou IDs exclusivos neste site. Não consentir ou retirar o consentimento pode afetar negativamante certos recursos e funções.
    Funcional Sempre ativo
    O armazenamento ou acesso técnico é estritamente necessário para o fim legítimo de permitir a utilização de um determinado serviço expressamente solicitado pelo assinante ou utilizador, ou para o fim exclusivo de efetuar a transmissão de uma comunicação numa rede de comunicações eletrónicas.
    Preferências
    O armazenamento ou acesso técnico é necessário para o propósito legítimo de armazenamento de preferências não solicitadas pelo assinante ou utilizador.
    Estatísticas
    O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos. O armazenamento técnico ou acesso que é usado exclusivamente para fins estatísticos anónimos. Sem uma intimação, conformidade voluntária por parte do seu Fornecedor de Serviços de Internet ou registos adicionais de terceiros, as informações armazenadas ou recuperadas apenas para esse fim geralmente não podem ser usadas para identificá-lo.
    Marketing
    O armazenamento ou acesso técnico é necessário para criar perfis de utilizador para enviar publicidade ou para rastrear o utilizador num site ou em vários sites para fins de marketing semelhantes.
    • Gerir opções
    • Gerir serviços
    • Gerir {vendor_count} fornecedores
    • Leia mais sobre esses propósitos
    Ver preferências
    • {title}
    • {title}
    • {title}