Em um momento que marca um dos episódios mais acalorados da história recente envolvendo tecnologia de inteligência artificial e segurança nacional, a empresa Anthropic — conhecida por desenvolver o modelo de IA chamado Claude — entrou em choque com o governo dos Estados Unidos após recusar pedidos para permitir o uso irrestrito de sua tecnologia em aplicações militares e de vigilância.
Anthropic foi fundada em 2021 por ex-executivos da própria OpenAI e ganhou destaque internacional por sua ênfase em segurança e alinhamento ético de IA. Seus modelos foram adotados por agências de defesa e inteligência dos EUA, inclusive em sistemas classificados, e em alguns casos já teriam sido utilizados em operações estratégicas das forças americanas.
O embate se intensificou em fevereiro de 2026, quando o Departamento de Defesa dos Estados Unidos (Pentágono) exigiu que a Anthropic concordasse com uma cláusula contratual que permitiria o uso de sua IA para “todos os fins legais”, sem salvaguardas específicas que restringissem determinadas utilizações. Entre os pontos de tensão constavam duas demandas controversas: permitir que a IA fosse aplicada em vigilância doméstica em massa de cidadãos e em sistemas de armamento totalmente autônomos — ou seja, capazes de agir sem supervisão humana direta.
O CEO da Anthropic, Dario Amodei, e a direção da companhia responderam que não podem, “em consciência”, ceder a tais termos, afirmando que a tecnologia ainda não é confiável o suficiente para aplicações sem supervisão humana, especialmente em ambientes de combate e vigilância massiva, os quais consideram incompatíveis com os valores democráticos fundamentais.
Essa posição gerou uma reação imediata do governo norte-americano. O presidente dos EUA, Donald Trump, em postagem em sua plataforma oficial, ordenou que todas as agências federais cessassem “imediatamente” o uso da tecnologia da Anthropic, classificando a postura da empresa como prejudicial à segurança nacional, apesar das salvaguardas defendidas pela própria Anthropic.
O secretário de Defesa, Pete Hegseth, foi além ao designar a Anthropic como “risco para a cadeia de suprimentos”, uma classificação com implicações jurídicas e contratuais que pode restringir a participação da empresa em futuros acordos governamentais com órgãos de defesa e seus contratantes. Tal designação é rara e historicamente aplicada apenas a fornecedores considerados ligados a adversários estrangeiros.
Enquanto isso, especialistas e analistas levantam preocupações sobre a lacuna legal nos Estados Unidos relacionada ao uso de inteligência artificial por órgãos estatais. A falta de regulamentação específica sobre vigilância com IA tem sido apontada como um problema, uma vez que, apesar de certas aplicações poderem ser legais no marco atual, elas podem impactar liberdades civis e direitos fundamentais.
O caso também desencadeou movimentações no setor tecnológico. Competidores como OpenAI anunciaram acordos com o Pentágono para fornecer suas próprias ferramentas, embora com ressalvas semelhantes às levantadas pela Anthropic sobre vigilância de dados públicos e privados.
No cerne do debate está um conflito mais amplo entre dois princípios: a necessidade de ferramentas tecnológicas avançadas para operações de segurança nacional e a proteção de valores democráticos e direitos civis diante da expansão de sistemas de IA poderosos.
Essa discussão, iniciada nos altos escalões do governo americano, tem potencial para moldar tanto a política de defesa quanto os mecanismos de governança da inteligência artificial no mundo inteiro.

