EUA enfrentam risco militar ao depender de empresas privadas para usar IA na defesa

InfoMoney Tech
EUA enfrentam risco militar ao depender de empresas privadas para usar IA na defesa

Os Estados Unidos estão entrando em uma nova fase de competição estratégica, em que a inteligência artificial deixou de ser uma capacidade emergente e passou a ser um elemento decisivo do poder militar. Nessa corrida armamentista de IA em curso, a velocidade importa. A capacidade importa. Mas, acima de tudo, o controle importa. É por isso que o recente impasse entre a Anthropic e o Pentágono deve preocupar qualquer pessoa atenta à segurança nacional dos EUA.

No centro da disputa está um desacordo simples, mas profundo: quem decide como sistemas avançados de IA são usados em contexto militar. A Anthropic, desenvolvedora do Claude e de seu modelo superpoderoso Mythos, tentou impor limites ao uso de sua tecnologia, traçando linhas vermelhas em torno de determinadas aplicações. O Pentágono, por sua vez, insistiu que deve manter a capacidade de usar ferramentas de IA para todos os fins legais na defesa do país. Quando essas posições se mostraram inconciliáveis, a relação colapsou.

Leia também: Claude Mythos: o modelo de IA “perigoso demais” que a Anthropic não quer lançar

A Anthropic acabou sendo classificada como um risco para a cadeia de suprimentos, e o Departamento de Guerra foi obrigado a buscar alternativas para obter capacidades de IA. Desde então, vieram à tona detalhes sobre seu modelo Mythos — considerado “perigoso demais” para divulgação pública — que acrescentam novas e alarmantes preocupações.

Segundo relatos, o Mythos é capaz de identificar de forma autônoma vulnerabilidades de cibersegurança ainda desconhecidas e transformá-las em armas, o que abriria caminho livre para criminosos cibernéticos sem salvaguardas adequadas. A nova ferramenta é potencialmente tão poderosa que a própria Anthropic restringiu o acesso a ela.

Esse episódio deve servir de alerta porque demonstra como a atual estrutura do ecossistema de IA dos EUA — uma caixa-preta, baseada em sistemas fechados e pouco transparentes — está fundamentalmente desalinhada com as exigências da defesa nacional.

Hoje, o Pentágono compra acesso a capacidades de IA, mas não as controla. O treinamento, os testes e o desenvolvimento contínuo desses modelos permanecem firmemente nas mãos de empresas privadas, que possuem seus próprios modelos de governança, tolerâncias a risco e incentivos comerciais.

Essa realidade cria uma dinâmica perigosa: dá a um pequeno número de empresas privadas, sem prestação de contas direta, um poder de veto efetivo sobre como os Estados Unidos podem empregar uma das tecnologias mais decisivas do nosso tempo. Esse não é um modelo sustentável para uma república constitucional. Tampouco é uma base viável para a dominância militar.

Um sistema limitado por processos de aprovação externos, políticas corporativas mutáveis ou pelo risco de interrupção repentina é um sistema incapaz de acompanhar o ritmo que a guerra moderna exige. E, em uma competição estratégica definida por ciclos rápidos e repetidos medidos em semanas — não anos —, essas limitações fazem mais do que desacelerar os Estados Unidos. Elas criam brechas.

A China e seus parceiros alinhados, por exemplo, estão avançando de forma agressiva para implantar capacidades de IA em larga escala, aproveitando modelos de código aberto que podem ser adaptados a uma ampla gama de aplicações militares e de inteligência. Sistemas como o DeepSeek não estão sujeitos às mesmas estruturas de governança corporativa que moldam as empresas americanas.

Eles são projetados para serem modificados, ampliados e integrados em um ecossistema amplo que inclui não apenas o aparato militar chinês, mas também uma rede crescente de países parceiros em desacordo com os Estados Unidos.

Isso cria uma ameaça assimétrica. Enquanto os Estados Unidos debatem os usos permitidos da IA por meio de contratos com fornecedores privados, seus concorrentes constroem sistemas flexíveis, alinhados ao Estado, que podem ser rapidamente adaptados às necessidades operacionais. Se essa lacuna persistir, os EUA correm o risco de se encontrar em desvantagem militar significativa.

A solução não é abandonar o setor privado, que continua sendo uma fonte extraordinária de inovação e liderança técnica. Tampouco é descartar considerações éticas, que devem permanecer centrais na forma como os Estados Unidos abordam o uso da força. Mas isso significa reconhecer que o modelo atual — em que o governo aluga acesso a sistemas fechados e proprietários que não controla plenamente — é inadequado para as exigências da competição estratégica.

Washington precisa começar a investir em uma abordagem diferente: o desenvolvimento de modelos de IA de código aberto, de alto desempenho, seguros e adaptáveis, que o governo dos Estados Unidos e seus aliados mais próximos possam controlar, auditar e implantar sem restrições externas.

Nada disso elimina a necessidade de salvaguardas cuidadosas. Há debates importantes e legítimos a serem travados sobre o papel da IA na guerra; desde autonomia e seleção de alvos até vigilância e escalada. Mas esses debates devem ser liderados por autoridades eleitas e líderes militares responsáveis perante o povo americano, e não ditados pelas políticas de uso aceitável de empresas privadas.

Esse realinhamento estratégico pode assumir várias formas. Pode envolver o desenvolvimento de modelos liderado pelo governo, parcerias com instituições de pesquisa confiáveis ou a criação de modelos com parâmetros abertos projetados especificamente para aplicações de defesa.

Pode incluir estruturas entre aliados que garantam interoperabilidade enquanto preservam o controle nacional, bem como novas estratégias de aquisição que priorizem transparência e capacidade de modificação em vez de conveniência.

Independentemente do caminho escolhido, porém, o sucesso dependerá de acertar o mecanismo.

Os Estados Unidos há muito entendem que não podem terceirizar os fundamentos de sua segurança. Construímos nossos próprios navios. Projetamos nossas próprias armas. Mantemos o comando dos sistemas que sustentam nossa vantagem militar. A inteligência artificial não deveria ser diferente.

Construir parcerias eficazes entre o setor público e o privado que atendam à defesa nacional exigirá mais do que capacidade técnica — exigirá confiança, integridade e processos sólidos.

Isso significa estabelecer salvaguardas claras, alinhar incentivos e garantir que tanto o governo quanto a indústria compartilhem a responsabilidade pelos riscos e resultados do uso desses sistemas.

Se bem estruturado, esse modelo pode aproveitar a inovação do setor privado ao mesmo tempo em que preserva a autoridade do governo sobre como essas capacidades são, em última instância, utilizadas.

O episódio da Anthropic corre o risco de não ser uma anomalia, mas um prenúncio. A menos que ajamos agora para garantir que os Estados Unidos — e seus aliados — tenham acesso a sistemas de IA que realmente possam controlar, ele também pode se provar um alerta que ignoramos.

O major-general da reserva Robert F. Dees é um ex-comandante do Exército dos Estados Unidos e especialista em segurança nacional que liderou tropas desde a 101ª Divisão Aerotransportada até as Forças dos EUA na Coreia e uma força-tarefa conjunta de defesa antimísseis entre EUA e Israel ao longo de uma carreira militar de 31 anos.

As opiniões expressas nos artigos de opinião do Fortune.com são exclusivamente de seus autores e não refletem necessariamente as opiniões e crenças da Fortune.

2026 Fortune Media IP Limited

The post EUA enfrentam risco militar ao depender de empresas privadas para usar IA na defesa appeared first on InfoMoney.