Por DAVID KLEPPER, MATT O’BRIEN e KONSTANTIN TOROPIN
WASHINGTON (AP) – O secretário de Defesa Pete Hegseth planeja se reunir na terça-feira com o CEO da Anthropic, sendo a empresa de inteligência artificial a única de seus pares a não fornecer sua tecnologia a um nova rede interna militar dos EUA.
A Anthropic, criadora do chatbot Claude, não quis comentar a reunião, mas o CEO Dario Amodei deixou claro sua preocupações éticas sobre o uso descontrolado de IA pelo governo, incluindo o perigos de drones armados totalmente autônomos e de vigilância em massa assistida por IA que poderia rastrear dissidentes.
O encontro entre Hegseth e Amodei foi confirmado por um oficial de defesa que não estava autorizado a comentar publicamente e falou sob condição de anonimato.
Ressalta o debate sobre o papel da IA na segurança nacional e as preocupações sobre como a tecnologia poderia ser usada em situações de alto risco envolvendo força letal, informações confidenciais ou vigilância governamental. Também acontece como Hegseth prometeu erradicar o que ele chama de “cultura desperta” nas forças armadas.
“Uma IA poderosa que analisa bilhões de conversas de milhões de pessoas poderia avaliar o sentimento público, detectar a formação de bolsões de deslealdade e eliminá-los antes que cresçam”, escreveu Amodei em um ensaio no mês passado.
Anthropic é a única empresa de IA aprovada para redes militares classificadas
O Pentágono anunciou no verão passado que estava concedendo contratos de defesa a quatro empresas de IA – Anthropic, Google, OpenAI e xAI de Elon Musk. Cada contrato vale até US$ 200 milhões.
A Anthropic foi a primeira empresa de IA a ser aprovada para redes militares classificadas, onde trabalha com parceiros como a Palantir. As outras três empresas, por enquanto, operam apenas em ambientes não classificados.
No início deste ano, Hegseth destacava apenas dois deles: xAI e Google.
O secretário da Defesa disse, num discurso em janeiro na empresa de voos espaciais de Musk, a SpaceX, no sul do Texas, que estava a ignorar quaisquer modelos de IA “que não permitam travar guerras”.
Hegseth disse seu visão para sistemas militares de IA significa que operam “sem restrições ideológicas que limitem as aplicações militares legais”, antes de acrescentar que a “IA do Pentágono não será despertada”.
Em janeiro, Hegseth disse O chatbot de inteligência artificial de Musk, Grok se juntaria à rede do Pentágono, chamada GenAI.mil. O anúncio veio dias depois de Grok – que está incorporado na X, a rede de mídia social de propriedade de Musk – ter atraído o escrutínio global para gerando imagens deepfake altamente sexualizadas de pessoas sem o seu consentimento.
A OpenAI anunciou no início de fevereiro que também se juntaria à plataforma segura de IA militar, permitindo que os militares usassem uma versão personalizada do ChatGPT para tarefas não confidenciais.
Antrópico se autodenomina mais preocupado com a segurança
A Anthropic há muito se apresenta como a mais responsável e preocupada com a segurança das principais empresas de IA, desde a sua fundadores saíram da OpenAI para formar a startup em 2021.
A incerteza com o Pentágono está a pôr à prova essas intenções, de acordo com Owen Daniels, diretor associado de análise e membro do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown.
“Os pares da Antrópico, incluindo Meta, Google e xAI, estão dispostos a cumprir a política do departamento sobre o uso de modelos para todas as aplicações legais”, disse Owens. “Portanto, o poder de barganha da empresa aqui é limitado e corre o risco de perder influência no esforço do departamento para adotar a IA.”
No Mania de IA que se seguiu ao lançamento do ChatGPT, a Anthropic estreitamente alinhada com a administração do presidente Joe Biden ao se voluntariar para submeter seus sistemas de IA ao escrutínio de terceiros para proteção contra riscos à segurança nacional.
Amodei, o CEO, alertou sobre Os perigos potencialmente catastróficos da IA ao mesmo tempo que rejeita o rótulo de que ele é um “destruidor” da IA. Ele argumentou no ensaio de Janeiro que “estamos consideravelmente mais próximos do perigo real em 2026 do que estávamos em 2023”, mas que esses riscos deveriam ser geridos de “maneira realista e pragmática”.
A Anthropic está em desacordo com a administração Trump
Esta não seria a primeira vez que a defesa da Anthropic por salvaguardas mais rigorosas da IA a colocaria em conflito com a administração Trump. A fabricante de chips antrópicos Nvidia publicamente, criticando as propostas de Trump para afrouxar os controles de exportação para permitir que alguns chips de computador de IA sejam vendidos na China. A empresa de IA, no entanto, continua sendo uma parceria próxima com a Nvidia.
A administração Trump e a Anthropic também têm estado em lados opostos num esforço de lobby para regulamentar a IA nos estados dos EUA.
O principal conselheiro de IA de Trump, David Sacks, acusou a Anthropic em Outubro de “executar uma sofisticada estratégia de captura regulatória baseada na disseminação do medo”.
Sacks fez os comentários sobre X em resposta a um cofundador da Anthropic, Jack Clark, escrevendo sobre sua tentativa de equilibrar o otimismo tecnológico com o “medo apropriado” sobre a marcha constante em direção a sistemas de IA mais capazes.
A Anthropic contratou vários ex-funcionários de Biden logo após o retorno de Trump à Casa Branca, mas também tentou sinalizar uma abordagem bipartidária. A empresa adicionou recentemente Chris Liddell, um ex-funcionário da Casa Branca desde o primeiro mandato de Trump, ao seu conselho de administração.
O debate Pentágono-Antrópico lembra um alvoroço ocorrido há vários anos, quando alguns trabalhadores da tecnologia se opuseram à participação das suas empresas em Projeto Maven, um programa de vigilância de drones do Pentágono. Embora alguns trabalhadores tenham demitido por causa do projeto e O próprio Google desistiua confiança do Pentágono na vigilância por drones só aumentou.
Da mesma forma, “o uso da IA em contextos militares já é uma realidade e não irá desaparecer”, disse Owens.
“Alguns contextos são de menor risco, inclusive para o trabalho administrativo, mas as implantações de IA no campo de batalha acarretam riscos diferentes e de maior risco”, disse ele, referindo-se ao uso de força letal ou armas como armas nucleares. “Os usuários militares estão cientes desses riscos e vêm pensando na mitigação há quase uma década.”
O’Brien relatou de Providence, Rhode Island.
