inventor miguel

o fiasco do clawdbot

a demanda por agentes pessoais autônomos de Inteligência Artificial é gigantesca. E logo atrás dela, igualmente gigantesca, está a demanda por gestão e governança desses agentes.

Avatar de Miguel Lannes Fernandes
Miguel Lannes Fernandes
fev 01, 2026
∙ Pago

Se existe uma lição a tirar da saga Clawdbot → Moltbot → OpenClaw desta semana, é esta: a demanda por agentes pessoais autônomos de Inteligência Artificial é gigantesca. E logo atrás dela, igualmente gigantesca, está a demanda por gestão e governança desses agentes.

Mas o que exatamente é um “agente de IA”? Pense assim: enquanto o ChatGPT ou o Claude tradicional são como um consultor que você pergunta e ele responde, um agente de IA é como um assistente executivo que você instrui e ele executa. Ele pode reservar seu voo, responder seus e-mails, organizar sua agenda, enviar mensagens no WhatsApp, e até rodar comandos no seu computador — tudo de forma autônoma.

O interessante é que o projeto OpenClaw, que causou todo esse alvoroço global, foi construído principalmente usando o Claude Code, a ferramenta de linha de comando da Anthropic.

Uso o Claude da Anthropic desde a semana seguinte ao seu lançamento. Assinei a versão Pro no dia em que foi disponibilizada, em setembro de 2023. Então digo isso com quase dois anos de experiência diária: cada versão foi uma melhoria clara e consistente sobre a anterior. Cada uma melhor do que a que veio antes.

Mas o Claude Code e o Cowork combinados com o Opus 4.5? É tão bom que me faz sentir como se estivéssemos no meio de uma história de Isaac Asimov, aquelas em que robôs superinteligentes começam a tomar decisões que ninguém previu.


Opus 4.5: Por Que Esta Versão É Diferente

O Opus 4.5 foi lançado em 24 de novembro de 2025. Na mesma semana do Gemini 3 Pro do Google. No mesmo mês do GPT-5.2 da OpenAI. Todos os grandes laboratórios de IA lançaram seus melhores modelos em um intervalo de 30 dias.

Naturalmente, todo mundo quer saber: quem venceu?

Aqui está o que o placar diz. No Artificial Analysis Intelligence Index (um ranking independente que mede a inteligência dos modelos), o Opus 4.5 aparece como o segundo modelo mais inteligente do mundo, empatado com o GPT-5.2 da OpenAI e atrás apenas do Gemini 3 Pro do Google.

No SWE-bench — o benchmark que testa se um modelo consegue resolver problemas reais de engenharia de software, como bugs em código e implementação de funcionalidades — o Opus 4.5 alcançou 80,9%, sendo o primeiro modelo a ultrapassar a marca de 80%. Para contextualizar: isso significa que a IA consegue resolver 8 em cada 10 problemas de programação que engenheiros humanos enfrentam no dia a dia.

E no exame interno de engenharia da própria Anthropic, aquele que aplicam a candidatos que estão considerando contratar, o Opus 4.5 pontuou mais alto do que qualquer humano que já fez a prova.

Esses são números impressionantes. Mas você não precisa entender de benchmarks para entender o que está acontecendo. O que importa é o que as pessoas que constroem com esses modelos todos os dias estão dizendo.

Nathan Lambert, cientista de pesquisa sênior no Allen Institute for AI e autor da newsletter Interconnects, descreveu trabalhar com o Opus 4.5 assim: “É como a comoditização da construção. Você digita, e as coisas são construídas diretamente.”

McKay Wrigley, fundador da Takeoff AI, disse sem rodeios: “Opus 4.5 é um vencedor. E a Anthropic vai continuar vencendo.” Ele previu que a empresa pode ultrapassar a OpenAI em valor de mercado até o início de 2027. Baseado em todos os dados que estou vendo, ele provavelmente está certo.

Clientes corporativos também estão percebendo. A Rakuten, uma das maiores plataformas de e-commerce do mundo (equivalente a uma Amazon japonesa), descobriu que agentes construídos com Opus 4.5 conseguiam melhorar seu próprio desempenho de forma autônoma, atingindo qualidade máxima em quatro rodadas de iteração. Outros modelos não conseguiam chegar lá nem em dez.

E o preço despencou. O Opus 4.5 custa um terço da versão anterior. O modelo que costumava ser reservado para ocasiões especiais agora tem preço para o trabalho do dia a dia.

Mas a inteligência é apenas a isca. Enquanto todo mundo estava olhando para os benchmarks, a Anthropic estava montando um sistema muito maior nos bastidores.


O Que a Anthropic Construiu Enquanto Todos Olhavam para os Benchmarks

No último ano, enquanto o Twitter discutia sobre rankings de performance, a Anthropic estava silenciosamente resolvendo o problema que matou o OpenClaw antes mesmo de ele decolar. Eles não lançaram apenas um chatbot mais inteligente — eles lançaram um sistema nervoso completo.

Liberaram três componentes que funcionam como o “córtex pré-frontal” da IA — a parte do cérebro responsável pelo planejamento, controle de impulsos e tomada de decisões:

O Sistema Nervoso: MCP (Model Context Protocol)

O que é: Um protocolo de conexão universal que permite ao Claude se conectar às suas ferramentas e dados de forma segura.

Por que importa para você: Em vez de entregar suas credenciais de login brutas para um agente (como o OpenClaw exigia), o MCP funciona como um “aperto de mão” seguro. É a diferença entre dar a chave reserva do carro para o manobrista versus transferir a propriedade do veículo para ele.

Pense no MCP como um sistema de procuração digital com poderes limitados. Você autoriza ações específicas, não entrega o controle total.

A Anthropic doou esse protocolo para a Linux Foundation em dezembro de 2025, tornando-o um padrão aberto que qualquer empresa pode usar.

A Memória Corporativa: Skills (Habilidades)

O que é: Um sistema que ensina ao Claude como você trabalha. Não através de prompts infinitos, mas através de “conjuntos de instruções” estruturados que ficam em segundo plano.

Por que importa para você: Transforma “inteligência genérica” em “competência especializada”. É como a diferença entre contratar um estagiário brilhante mas inexperiente versus um profissional que já conhece os processos da sua empresa.

Imagine poder ensinar à IA os procedimentos operacionais padrão (POPs) da sua empresa, as políticas internas, o tom de comunicação com clientes. Ela aprende uma vez e aplica sempre.

A Licença para Agir: Agent SDK

O que é: Um kit de desenvolvimento que dá ao Claude autoridade para executar tarefas — mas, e isso é crítico, dentro de uma gaiola.

Por que importa para você: Permite “Execução em Sandbox” (ambiente isolado). Se o agente tentar rodar um comando malicioso ou cometer um erro grave, o SDK provavelmente o intercepta antes que atinja seu disco rígido ou a internet.

É como ter um funcionário que trabalha em uma sala com vidro blindado. Ele pode fazer seu trabalho, mas se tentar algo errado, não consegue sair dali.

Junte os três e você não tem um chatbot. Você tem um funcionário de IA. Um que já vem com políticas de RH, credenciamento de segurança e descrição de cargo instalados.

Mas hoje, quero analisar o que acontece quando alguém constrói um agente sem essa infraestrutura — ou sem um pingo de alfabetização em IA.


OpenClaw: A Coisa Mais Empolgante e Aterrorizante Acontecendo em IA Agora

Preciso que você segure duas verdades na cabeça ao mesmo tempo.

Verdade Um: O OpenClaw é Extraordinário

É a coisa mais próxima que temos do agente pessoal de IA com que as pessoas sonham desde o primeiro iPhone. Ele roda no seu próprio computador, conecta-se ao seu WhatsApp, seu e-mail, seu calendário, seu Slack. Ele não apenas responde perguntas. Ele reserva sua mesa no restaurante. Ele responde seus e-mails. Ele gerencia sua agenda. Ele filtra suas ligações.

Um usuário tem o OpenClaw rodando seus briefings matinais, gerenciando faturas, agendando reuniões e mandando mensagem para a esposa quando os filhos têm dever de casa para entregar.

Os números são impressionantes:

  • Cem mil estrelas no GitHub em menos de um mês (estrelas são como “curtidas” de desenvolvedores, indicando aprovação)

  • Cobertura no TechCrunch, WIRED, Forbes, Ars Technica

  • Movimentou o preço das ações da Cloudflare (uma empresa de infraestrutura de internet avaliada em bilhões)

  • Causou uma corrida por Mac Minis (o computador compacto da Apple, ideal para rodar agentes locais)

Verdade Dois: O OpenClaw é um Pesadelo de Segurança

E não estou falando figurativamente. Ele pode rodar comandos de sistema, ler e escrever arquivos, e executar scripts na sua máquina. Para fazer seu trabalho, ele precisa de acesso root — ou seja, acesso de administrador total. Ele tem acesso às suas contas, suas credenciais, suas mensagens, seus arquivos. Tudo.

Pesquisadores de segurança encontraram centenas de instâncias expostas na internet aberta. Das que foram examinadas manualmente, oito não tinham autenticação nenhuma, dando acesso total para rodar comandos e ver dados de configuração. Chaves de API (as senhas que conectam serviços como AWS, Google Cloud, etc.) estavam vazadas em texto puro.

Durante a caótica mudança de nome de Clawdbot para Moltbot, alguém sequestrou o nome de usuário antigo no GitHub e começou a criar projetos falsos de criptomoeda sob o nome do criador. Um token falso chegou a uma capitalização de mercado de US$ 16 milhões antes de colapsar.

Um pesquisador de segurança fez um upload de uma “Skill” envenenada para o ClawdHub (a biblioteca de habilidades do agente), inflou artificialmente a contagem de downloads para mais de 4.000, e observou desenvolvedores de sete países baixarem o arquivo. Era uma prova de conceito. Ele poderia ter executado comandos em cada uma daquelas máquinas.

A equipe de segurança da Cisco publicou sua avaliação na mesma semana. A manchete: “Agentes pessoais de IA como o OpenClaw são um pesadelo de segurança.”


Sinal Verde para Você

Não quero que você olhe para o OpenClaw e veja um fracasso. Quero que você veja um enorme sinal verde piscando.

Isso foi um teste de estresse para como as pessoas vão lidar com um mundo de agentes autônomos.

Tentamos rodar um jato supersônico em uma pista de cascalho. A falta de controles de permissão, sandboxing e verificação de cadeia de suprimentos significou que não havia nada entre uma “capacidade incrível” e “acesso root para arruinar sua vida digital”.

O caso provou que a distância entre um “projeto de hobby de fim de semana” e um fenômeno global oficialmente colapsou para zero.

Peter Steinberger, o criador do OpenClaw, construiu uma ferramenta em três meses que movimentou mercados. Esse é o poder disponível para qualquer um disposto a olhar sob o capô.

É por isso que vou continuar batendo nessa tecla até minhas mãos doerem: alfabetização em IA não é opcional, não importa quais sejam suas opiniões sobre IA.


O Checklist de Alfabetização em IA: O Mínimo que Todo Líder Precisa Saber

Pense assim: você não precisa saber reconstruir um motor de carro. Mas se alguém te entregar as chaves de um veículo que dirige sozinho, é melhor você entender o que o pedal do freio faz, para onde ele está indo, e o que acontece se você dormir no volante.

O OpenClaw é esse carro. É incrivelmente capaz, genuinamente útil, e absolutamente não é algo que você deveria estar operando sem entender o básico.

Aqui está minha lista. O stack mínimo de alfabetização em IA para qualquer pessoa implantando ou mesmo considerando um agente autônomo:

Avatar de User

Continue lendo este post gratuitamente, cortesia de Miguel Lannes Fernandes.

Ou adquirir uma assinatura paga.
© 2026 Miguel Lannes Fernandes · Privacidade ∙ Termos ∙ Aviso de coleta
Comece seu SubstackObtenha o App
Substack é o lar da grande cultura