“É, pessoal, vai ser mais difícil garantir que o OpenClaw continue funcionando com os modelos da Anthropic no futuro”, publicou Peter Steinberger, criador do OpenClaw, no X na manhã de sexta-feira , junto com uma foto de uma mensagem da Anthropic dizendo que sua conta havia sido suspensa por atividade “suspeita”.
A suspensão não durou muito. Algumas horas depois, após a publicação viralizar, Steinberger disse que sua conta havia sido reativada. Entre centenas de comentários — muitos deles repletos de teorias da conspiração, visto que Steinberger agora trabalha para a OpenAI, concorrente da Anthropic — havia um de um engenheiro da Anthropic. O engenheiro disse ao renomado desenvolvedor que a Anthropic nunca havia banido ninguém por usar o OpenClaw e se ofereceu para ajudar.
Não está claro se essa foi a chave que restaurou a conta. (Perguntamos à Anthropic sobre isso.) Mas toda a sequência de mensagens foi esclarecedora em muitos aspectos.

Recapitulando o histórico recente: essa proibição ocorreu após a notícia, na semana passada, de que as assinaturas do Claude, da Anthropic, não cobririam mais “ferramentas de terceiros, incluindo o OpenClaw”, afirmou a empresa de modelos de IA.
Os usuários do OpenClaw agora precisam pagar separadamente por esse uso, com base no consumo, através da API do Claude. Em essência, a Anthropic, que oferece seu próprio agente, o Cowork, agora está cobrando uma “taxa de garra”. Steinberger disse que estava seguindo essa nova regra e usando sua API, mas mesmo assim foi banido.
A Anthropic afirmou que implementou a mudança de preços porque as assinaturas não foram projetadas para lidar com os “padrões de uso” das ferramentas de raciocínio automatizado (claws). Essas ferramentas podem exigir mais poder computacional do que prompts ou scripts simples, pois podem executar loops de raciocínio contínuos, repetir ou tentar novamente tarefas automaticamente e se integrar a diversas outras ferramentas de terceiros.
Steinberger, no entanto, não acreditou nessa desculpa. Depois que a Anthropic mudou os preços, ele publicou : “Engraçado como as coisas coincidem, primeiro eles copiam alguns recursos populares para seu sistema fechado, depois bloqueiam o código aberto”. Embora não tenha especificado, ele pode estar se referindo a recursos adicionados ao agente Claude’s Cowork, como o Claude Dispatch, que permite aos usuários controlar agentes remotamente e atribuir tarefas . O Dispatch foi lançado algumas semanas antes da Anthropic mudar sua política de preços do OpenClaw.
A frustração de Steinberger com a Anthropic ficou evidente novamente na sexta-feira.
Uma pessoa insinuou que parte da culpa era dele por ter aceitado um emprego na OpenAI em vez da Anthropic, publicando: “Você tinha a opção, mas escolheu a errada”. Ao que Steinberger respondeu: “Uma me acolheu, a outra me ameaçou com processos judiciais”.
Ai !
Quando várias pessoas lhe perguntaram por que ele estava usando o Claude em vez dos modelos fornecidos por seu empregador, ele explicou que o utilizava apenas para testes, para garantir que as atualizações do OpenClaw não causassem problemas para os usuários do Claude.
Ele explicou: “É preciso separar duas coisas. Meu trabalho na Fundação OpenClaw, onde queremos fazer com que o OpenClaw funcione perfeitamente para *qualquer* provedor de modelos, e meu trabalho na OpenAI, para ajudá-los com a estratégia futura do produto.”
Várias pessoas também apontaram que a necessidade de testar o Claude se deve ao fato de esse modelo continuar sendo uma escolha popular entre os usuários do OpenClaw em relação ao ChatGPT. Ele também ouviu falar disso quando a Anthropic mudou seus preços, ao que respondeu: “Estamos trabalhando nisso”. (Então, isso dá uma pista sobre o que seu trabalho na OpenAI envolve.)
Steinberger não respondeu ao pedido de comentário.
fonte: TechCrunch

