O secretário da Guerra, Pete Hegseth, anunciou o lançamento do GenAI.mil, uma plataforma de IA voltada para o setor militar e desenvolvida com a tecnologia do Google Gemini. (CTO do Departamento de Guerra no X)

Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.

O cartaz apareceu nas paredes de todo o Departamento de Guerra dos EUA em dezembro de 2025. O secretário da Guerra, Pete Hegseth, apontando diretamente para você, ao estilo Tio Sam. O slogan dizia: “Quero que você use IA.”

Em menos de uma semana, 550 mil militares e funcionários civis da defesa já haviam se cadastrado. Em pouco tempo, esse número chegou a 1 milhão. As mesmas ferramentas que estão no seu celular — ChatGPT, Gemini, Grok — foram reempacotadas e implantadas em 3 milhões de mesas do governo.

Então, em 1º de maio, o Pentágono foi além. Anunciou acordos com oito empresas para implantar inteligência artificial (IA) dentro de suas redes militares mais confidenciais. As oito empresas são nomes conhecidos, já entrelaçados no cotidiano dos americanos comuns: Google, OpenAI, Microsoft, Amazon, NVIDIA, SpaceX, Reflection e Oracle.

Isso levanta uma questão que mais pessoas deveriam estar se perguntando.

As forças armadas têm um termo para a sequência de etapas desde a detecção de um alvo até sua destruição. Chamam-na de “cadeia de destruição”. A IA agora está incorporada a ela. As mesmas empresas cujas ferramentas respondem às suas perguntas, redigem seus e-mails, acessam seus arquivos e ajudam seus filhos com o dever de casa agora foram contratadas para operar dentro da infraestrutura de cadeia de destruição mais confidencial dos Estados Unidos.

Então, qual é a diferença entre a IA no seu bolso e a IA na cadeia de destruição?

A IA que a maioria das pessoas usa é chamada de grande modelo de linguagem (LLM, na sigla em inglês). Ela lê padrões na linguagem humana e produz respostas que soam autoritativas, fluentes e seguras. Ela não entende o que diz. Ela gera o que é estatisticamente mais provável de vir a seguir. A IA agora incorporada aos sistemas militares parte da mesma tecnologia fundamental. Ela é construída pelas mesmas empresas, treinada na mesma classe de arquitetura e fala com a mesma voz autoritativa que a maioria das pessoas aprendeu a não questionar.

A IA de consumo foi projetada para parecer útil e familiar. A IA militar herdou esse mesmo tipo de confiança que dá a sensação de que o sistema sabe. Uma versão indica o melhor restaurante nas proximidades. A outra recomenda quais alvos atacar e quais munições utilizar. E a diferença entre esses dois propósitos é menor do que a maioria das pessoas imagina.

O Projeto Maven é um sistema do qual a maioria dos americanos nunca ouviu falar, mas que está em operação desde 2017.

Ele começou como uma ferramenta de visão computacional. Ele não lê palavras, ele observa. Ele processa imagens de drones, imagens de satélite e dados de sensores. Ele identifica objetos, rastreia movimentos e sinaliza o que encontra. Ele foi criado porque as forças armadas estavam coletando tantos dados e tantos vídeos que não tinham olhos humanos suficientes para observar tudo.

Com o tempo, o Maven se tornou um sistema de seleção de alvos e gerenciamento de campo de batalha assistido por IA. Ele funde a camada de observação com a camada de linguagem — com a visão computacional identificando alvos e grandes modelos de linguagem sintetizando inteligência e recomendando ações — e conecta ambas aos sistemas operacionais.

Essa fusão produziu um novo nível de eficiência.

Antes da IA, os analistas podiam processar menos de 100 alvos potenciais por dia. Com a visão computacional, esse número cresceu para 1.000. E após a integração de grandes modelos de linguagem, o número de alvos potenciais por dia aumentou para 5.000.

Em março de 2026, o Maven Smart System foi elevado a um programa oficial do Pentágono, permanente, financiado e incorporado à arquitetura da guerra americana no futuro previsível.

Então, voltando à comparação.

A IA no seu celular vai além dos aplicativos que você pode estar usando para pesquisar ou gerar texto. A IA no seu celular também observa você. O Face ID lê seu rosto. O Google Maps rastreia sua posição em tempo real. Sua câmera identifica pessoas, objetos e locais. A câmera do Instagram identifica o que você está olhando para exibir anúncios relevantes. Esses não são modelos de linguagem; são sistemas de visão computacional, a mesma categoria de IA que a camada de observação dentro do Maven.

Portanto, a distinção não está no que entra. Ambos observam. Ambos leem. Ambos rastreiam. A distinção está no que a observação está conectada e no que ela está autorizada a fazer.

No seu celular, a camada de observação desbloqueia sua tela, exibe um anúncio relevante ou sugere uma legenda. No Maven, a mesma categoria de observação é combinada com modelos de linguagem, conectada a sistemas de armas e produz recomendações de alvos enviadas a comandantes no campo de batalha.

Mesma capacidade. Autorização diferente. Consequências diferentes.

O que separa a IA no seu bolso da IA na cadeia de morte não é a tecnologia. É a instrução. É a integração. É o que o sistema foi autorizado a fazer com o que encontra.

Uma empresa está notavelmente ausente da nova lista de parceiros de IA do Pentágono.

A Anthropic, criadora da popular IA Claude, recusou-se a permitir que sua tecnologia fosse usada para armas autônomas ou para vigiar cidadãos americanos. Recentemente, escrevi sobre Mrinank Sharma, que liderava a Equipe de Pesquisa de Salvaguardas da Anthropic, e se demitiu com as palavras “o mundo está em perigo”. A tensão que ele sinalizou de dentro da empresa tornou-se pública meses depois, quando o Pentágono designou a Anthropic como um risco à cadeia de suprimentos e o governo Trump ordenou que as agências federais removessem seus produtos. Um juiz federal emitiu, desde então, uma liminar bloqueando essas ações, por enquanto.

A Anthropic traçou um limite em torno de duas autorizações específicas: armas autônomas e a vigilância de cidadãos americanos. O fato de que essas duas coisas tiveram que ser declaradas como condições, e que declará-las teve um custo, mostra do que a arquitetura é capaz.

Portanto, da próxima vez que você abrir seu celular, lembre-se de que está segurando um dispositivo cuja IA é fornecida pelas mesmas empresas agora contratadas para operar dentro das redes militares mais confidenciais dos Estados Unidos. A pergunta que merecemos saber não é o que essas empresas concordaram, mas o que elas não insistiram em recusar.

As opiniões expressas neste artigo são do autor e não refletem necessariamente as opiniões do Epoch Times.

Keep Reading