Harnesses, no frameworks — la nueva forma de las herramientas de IA
El 18 de abril de 2026, Gregor Zunic — cofundador de Browser Use — publicó esto:
Introducing: Browser Harness. A self-healing harness that can complete virtually any browser task. We got tired of browser frameworks restricting the LLM. So we removed the framework.
Sin framework. CDP directo. Un websocket a Chrome. Un helpers.py que el agente edita al vuelo. Drop-in para Claude Code y Codex. El tweet está aquí.
Esto no es solo una herramienta de automatización de navegador. Es la formulación más clara hasta ahora de un patrón que está tomando silenciosamente el mando del tooling de IA en 2026: el harness.
¿Qué es un harness?
Un harness es la envoltura mínima alrededor de un LLM que le permite hacer trabajo útil. Expone una superficie de herramientas — normalmente sistema de archivos, shell, tal vez HTTP — y después se aparta del camino.
Compara las dos formas:
| Framework | Harness |
|---|---|
| Define workflows, pasos, DAGs | Sin workflow. El LLM decide. |
| Abstrae las herramientas subyacentes | Expone herramientas en bruto (shell, CDP, fs) |
| Prescribe lo que el agente debe hacer | Prescribe lo que el agente puede hacer |
| Se rompe cuando la tarea no encaja en la plantilla | Se adapta, porque no hay plantilla |
| Optimizado para modelos tontos | Optimizado para modelos inteligentes |
Los frameworks tenían sentido en 2023. Los modelos no eran lo suficientemente fiables para confiarles capacidades en bruto, así que construías raíles. LangChain, AutoGPT, CrewAI — todas variaciones de “déjame llevar de la mano a este LLM por una pipeline”.
Los modelos se volvieron más inteligentes. Los raíles empezaron a costar más de lo que ahorraban.
Claude Code fue el primer harness de verdad
Claude Code se lanzó a principios de 2025 con un diseño radical: sin orquestación, sin módulo planner, sin grafo de memoria. Solo un LLM con Bash, Read, Edit, Write, Grep, y unas pocas herramientas web. Eso es todo.
La apuesta era que un modelo lo suficientemente inteligente, con acceso al sistema de archivos y una shell, podría hacer la orquestación por sí mismo. Y podía. Karpathy lo llamó “la única herramienta de IA que realmente uso todos los días”.
Codex aterrizó en la misma forma unos meses después. Modelo distinto, misma filosofía: dale al LLM un sandbox y herramientas, no un framework.
Browser Harness es este patrón llegando a la automatización de navegador. En vez de definiciones de pasos estilo Selenium o APIs estilo Playwright envueltas en scaffolding de agente, obtienes una conexión Chrome DevTools Protocol en bruto y un archivo de helpers que el agente reescribe cuando algo se rompe.
Esa es la parte “self-healing”. No hay lógica de reintentos, ni estrategia de fallback, ni parser de estados de error. El LLM lee el error, edita el helper, vuelve a intentarlo. La base de código es la memoria.
Por qué los harnesses están ganando
Tres cosas cambiaron en paralelo:
- El uso de herramientas se volvió fiable. Claude 4 y GPT-5 siguen los esquemas de herramientas con consistencia suficiente para que no necesites una capa validadora atrapando llamadas malformadas.
- Las ventanas de contexto dejaron de ser escasas. 1M de tokens significa que puedes cargar toda la codebase, todo el DOM, toda la documentación — y dejar que el modelo relea en lugar de pre-trocear.
- Los modelos aprendieron a recuperarse. Cuando una llamada falla, un LLM moderno edita la herramienta, escribe un nuevo helper, o cambia de enfoque. Los autores de frameworks escribían esa lógica de recuperación a mano. El modelo lo hace mejor.
Una vez esas tres son ciertas, cada capa de abstracción entre el LLM y la herramienta en bruto es un pasivo. Es código que tú mantienes, que el modelo tiene que esquivar, que se rompe cuando la tarea se desvía un poco del patrón.
La frase de Greg es reveladora: “Reto a cualquiera a encontrar una tarea que NO funcione”. Los frameworks tienen modos de fallo conocidos. Los harnesses no — o más bien, su modo de fallo es el propio LLM, que sigue mejorando.
El stack del harness en 2026
Si entrecierras los ojos, ves el stack formándose:
- Coding harness: Claude Code, Codex, modo agente de Cursor
- Browser harness: Browser Harness (Browser Use)
- Research harness: la autoresearch de Karpathy —
program.md+ Claude Code - Data harness: emergiendo — acceso directo a DB + shell
La forma común: LLM + herramienta en bruto + directorio de trabajo persistente. El directorio de trabajo es donde se acumula el contexto, donde se escriben los helpers, donde vive la memoria del modelo entre turnos.
Los harnesses funcionan sobre contexto
Aquí está la parte que importa si estás construyendo con estas herramientas: un harness vale tanto como el contexto que le das.
Claude Code sin un CLAUDE.md es un asistente de código genérico. Claude Code con un CLAUDE.md bien curado, una biblioteca de documentos de referencia y una carpeta de conocimiento que puede grepear — eso es lo que Karpathy usa. Esa es la versión 10x.
Lo mismo para Browser Harness. El helpers.py que edita al vuelo parte de algún sitio. Si siembras ese algún sitio con patrones, flujos de auth, peculiaridades específicas de sitios que has documentado — el harness tiene palanca. Si le das un archivo vacío, tiene que redescubrirlo todo.
El harness hace el trabajo. Tu biblioteca de contexto es donde vive tu ventaja.
Dónde encaja Save
Cada harness del que hemos hablado lee Markdown del disco. CLAUDE.md, AGENTS.md, documentos de referencia, páginas de documentación guardadas, notas de API — todo Markdown, todo en una carpeta que el agente puede ver.
Save es un conversor en un clic de cualquier página web a Markdown limpio. Páginas de documentación, posts de blog, respuestas de Stack Overflow, READMEs de GitHub, referencias de API — lo que sea que el próximo harness que ejecutes necesitará leer.
La gente que más saca de Claude Code y Browser Harness en 2026 no está construyendo más framework. Está curando mejores bibliotecas. El harness es gratis. El contexto es el moat.
Save convierte cualquier página web en Markdown que tu harness de IA puede leer — instala la extensión y empieza a construir la biblioteca que hará a tus agentes más inteligentes.