O CEO da OpenAI, Sam Altman, anunciou na noite de sexta-feira (27/02) que sua empresa chegou a um acordo que permite que o Departamento de Defesa use seus modelos de IA na rede classificada do departamento.
Isso segue um impasse de alto nível entre o DoD – também conhecido sob o governo Trump como o Departamento de Guerra – e o rival da OpenAI, o Anthropic. O Pentágono empurrou as empresas de IA, incluindo a Anthropic, para permitir que seus modelos fossem usados para “todos os fins legais”, enquanto a Anthropic procurou traçar uma linha vermelha em torno da vigilância doméstica em massa e das armas totalmente autônomas.

Em um longo comunicado divulgado na quinta-feira, o CEO da Anthropic, Dario Amodei, disse que a empresa “nunca levantou objeções a operações militares específicas nem tentou limitar o uso de nossa tecnologia de maneira ad hoc”, mas argumentou que “em um conjunto restrito de casos, acreditamos que a IA pode minar, em vez de defender, valores democráticos”.
Mais de 60 funcionários da OpenAI e 300 funcionários do Google assinaram uma carta aberta nesta semana pedindo a seus empregadores que apoiem a posição da Anthropic.
Depois que o Anthropic e o Pentágono não chegaram a um acordo, o presidente Donald Trump criticou os “Malucos de esquerda na Anthropic” em um post de mídia social que também orientou as agências federais a parar de usar os produtos da empresa após um período de eliminação gradual de seis meses.
Em um post separado, o secretário de Defesa Pete Hegseth afirmou que Anthropic estava tentando “apreender o poder de veto sobre as decisões operacionais dos militares dos Estados Unidos”. Hegseth também disse que está designando o Anthropic como um risco da cadeia de suprimentos: “Efetivo imediatamente, nenhum contratado, fornecedor ou parceiro que faça negócios com os militares dos Estados Unidos pode realizar qualquer atividade comercial com a Anthropic”.
Na sexta-feira, Anthropic disse que “ainda não recebeu comunicação direta do Departamento de Guerra ou da Casa Branca sobre o status de nossas negociações”, mas insistiu que “desafiaria qualquer designação de risco da cadeia de suprimentos no tribunal”.
Surpreendentemente, Altman afirmou em um post no X que o novo contrato de defesa da OpenAI inclui proteções abordando os mesmos problemas que se tornaram um ponto de inflamação para o Anthropic.
“Dois dos nossos princípios de segurança mais importantes são as proibições à vigilância em massa doméstica e a responsabilidade humana pelo uso da força, inclusive para sistemas de armas autônomas”, disse Altman. “O DoW concorda com esses princípios, os reflete em lei e política, e nós os colocamos em nosso acordo.”
Altman disse que a OpenAI “construirá salvaguardas técnicas para garantir que nossos modelos se comportem como deveriam, o que o DoW também queria”, e implantará engenheiros com o Pentágono “para ajudar com nossos modelos e garantir sua segurança”.
“Estamos pedindo ao DoW que ofereça esses mesmos termos a todas as empresas de IA, que, em nossa opinião, achamos que todos devem estar dispostos a aceitar”, acrescentou Altman. “Expressamos nosso forte desejo de ver as coisas diminuirem das ações legais e governamentais e de acordos razoáveis.”
Sharon Goldman, da Fortune, relata que Altman disse aos funcionários da OpenAI em uma reunião que o governo permitirá que a empresa construa sua própria “pilha de segurança” para evitar o uso indevido e que “se o modelo se recusar a fazer uma tarefa, então o governo não forçaria a OpenAI a fazê-la fazer essa tarefa”.
O post de Altman veio pouco antes da notícia de que os governos dos EUA e de Israel começaram a bombardear o Irã, com Trump ordenando a derrubada do governo iraniani com a morte do líder supremo ali khamenei .
fonte: techcrunch

