Voltar ao blog

Harnesses, não frameworks — a nova forma das ferramentas de IA

· Save Team
#ai#agents#browser-use#claude-code#codex#harness#llm#markdown

Em 18 de abril de 2026, Gregor Zunic — cofundador do Browser Use — postou isto:

Introducing: Browser Harness. A self-healing harness that can complete virtually any browser task. We got tired of browser frameworks restricting the LLM. So we removed the framework.

Sem framework. CDP direto. Um websocket para o Chrome. Um helpers.py que o agente edita na hora. Drop-in para Claude Code e Codex. O tweet está aqui.

Isso não é só uma ferramenta de automação de navegador. É a formulação mais clara até agora de um padrão que está silenciosamente tomando conta do tooling de IA em 2026: o harness.

O que é um harness?

Um harness é o empacotamento mínimo em volta de um LLM que permite que ele faça trabalho útil. Ele expõe uma superfície de ferramentas — normalmente sistema de arquivos, shell, talvez HTTP — e depois sai do caminho.

Compare as duas formas:

FrameworkHarness
Define workflows, passos, DAGsSem workflow. O LLM decide.
Abstrai as ferramentas subjacentesExpõe ferramentas brutas (shell, CDP, fs)
Prescreve o que o agente deve fazerPrescreve o que o agente pode fazer
Quebra quando a tarefa não encaixa no templateSe dobra, porque não tem template
Otimizado para modelos burrosOtimizado para modelos inteligentes

Frameworks faziam sentido em 2023. Os modelos não eram confiáveis o suficiente para confiar capacidades brutas a eles, então você construía trilhos. LangChain, AutoGPT, CrewAI — todas variações de “me deixe segurar a mão desse LLM por uma pipeline”.

Os modelos ficaram mais inteligentes. Os trilhos começaram a custar mais do que economizavam.

Claude Code foi o primeiro harness de verdade

Claude Code foi lançado no começo de 2025 com um design radical: sem orquestração, sem módulo planner, sem grafo de memória. Só um LLM com Bash, Read, Edit, Write, Grep, e algumas ferramentas web. Só isso.

A aposta era que um modelo inteligente o bastante, com acesso ao sistema de arquivos e um shell, conseguiria fazer a orquestração sozinho. E conseguiu. Karpathy chamou de “a única ferramenta de IA que eu realmente uso todo dia”.

O Codex aterrissou na mesma forma alguns meses depois. Modelo diferente, mesma filosofia: dá ao LLM um sandbox e ferramentas, não um framework.

Browser Harness é esse padrão chegando na automação de navegador. Em vez de definições de passos estilo Selenium ou APIs estilo Playwright embrulhadas em scaffolding de agente, você pega uma conexão Chrome DevTools Protocol bruta e um arquivo de helpers que o agente reescreve quando algo quebra.

Essa é a parte “self-healing”. Não tem lógica de retry, nem estratégia de fallback, nem parser de estados de erro. O LLM lê o erro, edita o helper, tenta de novo. A codebase é a memória.

Por que os harnesses estão ganhando

Três coisas mudaram em paralelo:

  1. O uso de ferramentas ficou confiável. Claude 4 e GPT-5 seguem os esquemas de ferramentas de forma consistente o bastante para você não precisar de uma camada validadora pegando chamadas malformadas.
  2. As janelas de contexto deixaram de ser escassas. 1M de tokens significa que você pode carregar a codebase inteira, o DOM inteiro, a doc inteira — e deixar o modelo reler em vez de pré-fatiar.
  3. Os modelos aprenderam a se recuperar. Quando uma chamada falha, um LLM moderno edita a ferramenta, escreve um novo helper, ou muda de abordagem. Os autores de frameworks escreviam essa lógica de recuperação na mão. O modelo faz melhor.

Uma vez que essas três coisas são verdadeiras, cada camada de abstração entre o LLM e a ferramenta bruta vira um passivo. É código que você mantém, que o modelo tem que contornar, que quebra quando a tarefa se desvia um pouquinho do padrão.

A frase do Greg é o sinal: “Desafio qualquer um a encontrar uma tarefa que NÃO funcione”. Frameworks têm modos de falha conhecidos. Harnesses não — ou melhor, o modo de falha deles é o próprio LLM, que não para de melhorar.

O stack de harness em 2026

Se você apertar os olhos, vê o stack se formando:

  • Coding harness: Claude Code, Codex, Cursor em modo agente
  • Browser harness: Browser Harness (Browser Use)
  • Research harness: o autoresearch do Karpathy — program.md + Claude Code
  • Data harness: emergindo — acesso direto ao DB + shell

A forma em comum: LLM + ferramenta bruta + diretório de trabalho persistente. O diretório de trabalho é onde o contexto se acumula, onde os helpers são escritos, onde vive a memória do modelo entre turnos.

Harnesses rodam em cima de contexto

Aqui é a parte que importa se você está construindo com essas ferramentas: um harness vale tanto quanto o contexto que você dá a ele.

Claude Code sem um CLAUDE.md é um assistente de código genérico. Claude Code com um CLAUDE.md bem curado, uma biblioteca de docs de referência e uma pasta de conhecimento que ele pode fazer grep — é o que Karpathy usa. Essa é a versão 10x.

Mesma coisa pro Browser Harness. O helpers.py que ele edita na hora parte de algum lugar. Se você planta esse algum lugar com padrões, fluxos de auth, peculiaridades específicas de sites que você documentou — o harness tem alavancagem. Se você der um arquivo vazio, ele tem que redescobrir tudo.

O harness faz o trabalho. A sua biblioteca de contexto é onde vive a sua vantagem.

Onde o Save entra

Todo harness que falamos lê Markdown do disco. CLAUDE.md, AGENTS.md, docs de referência, páginas de documentação salvas, notas de API — tudo Markdown, tudo numa pasta que o agente consegue ver.

Save é um conversor de um clique de qualquer página web para Markdown limpo. Páginas de documentação, posts de blog, respostas do Stack Overflow, READMEs do GitHub, referências de API — qualquer coisa que o próximo harness que você rodar vai precisar ler.

As pessoas que mais tiram proveito do Claude Code e do Browser Harness em 2026 não estão construindo mais framework. Estão curando bibliotecas melhores. O harness é grátis. O contexto é o fosso.


Save transforma qualquer página web em Markdown que seu harness de IA consegue ler — instale a extensão e comece a construir a biblioteca que vai deixar seus agentes mais inteligentes.