A Anthropic e o Departamento de Defesa dos Estados Unidos retomaram as negociações nesta quinta-feira (05) para definir o uso de inteligência artificial (IA) em sistemas militares, revelou o Financial Times nesta quinta-feira (05). O diálogo ocorre após o colapso das conversas na semana passada, quando o governo americano ameaçou designar a startup como um “risco à cadeia de suprimentos”, medida que proibiria agências federais de utilizarem suas ferramentas.
A divergência central envolve as salvaguardas de segurança da empresa, que resiste ao uso de sua tecnologia para vigilância em massa ou operação de armas autônomas. Enquanto a concorrente OpenAI já firmou acordos para o uso de modelos em redes confidenciais (sistemas protegidos por sigilo de segurança nacional), a Anthropic busca garantias contratuais de que sua tecnologia não executará análises indiscriminadas de grandes volumes de dados.
Pressão de investidores e risco de exclusão aceleram retomada de diálogo entre Anthropic e Pentágono
O retorno às negociações foi motivado por uma pressão de grandes investidores, como Amazon e Nvidia. Por meio de um conselho de tecnologia, essas empresas enviaram uma carta ao governo na qual manifestaram preocupação com a possível punição à Anthropic, o que poderia prejudicar todo o mercado de tecnologia dos Estados Unidos.
Agora, o CEO da Anthropic, Dario Amodei, conversa diretamente com Emil Michael, um alto funcionário do Pentágono responsável por pesquisas e engenharia. O objetivo é criar um contrato que permita aos militares usar a tecnologia, mas garanta que os limites éticos da startup não sejam desrespeitados.
A Anthropic está numa fase de crescimento e espera faturar US$ 20 bilhões (R$ 105 bilhões) por ano, o que torna o governo um cliente estratégico. Se fosse expulsa desse mercado, a empresa perderia espaço para concorrentes que possuem menos travas de segurança em seus sistemas de IA.
O impasse ocorreu porque o governo americano queria retirar uma cláusula que impedia a IA de analisar grandes volumes de dados coletados de forma massiva. Oficiais do Pentágono criticam a startup há meses, afirmando que a preocupação exagerada com a segurança da IA atrapalha o desenvolvimento de ferramentas de defesa do país.
O desfecho dessa negociação vai definir como as empresas do Vale do Silício e os militares trabalharão juntos no futuro. Um novo acordo permitiria que o exército voltasse a usar o sistema Claude (a IA da Anthropic) e mostraria se o governo aceita as regras de controle ético propostas pelos desenvolvedores.
(Essa matéria também usou informações de Reuters.)
O post Anthropic volta a conversar com Pentágono sobre uso do Claude na guerra apareceu primeiro em Olhar Digital.




