Harness, non framework — la nuova forma degli strumenti AI
Il 18 aprile 2026, Gregor Zunic — cofondatore di Browser Use — ha postato questo:
Introducing: Browser Harness. A self-healing harness that can complete virtually any browser task. We got tired of browser frameworks restricting the LLM. So we removed the framework.
Niente framework. CDP diretto. Un websocket verso Chrome. Un helpers.py che l’agente modifica al volo. Drop-in per Claude Code e Codex. Il tweet è qui.
Non è solo uno strumento di automazione del browser. È la formulazione più chiara finora di un pattern che sta silenziosamente prendendo il sopravvento sul tooling AI nel 2026: l’harness.
Cos’è un harness?
Un harness è l’involucro minimo attorno a un LLM che gli permette di fare lavoro utile. Espone una superficie di strumenti — di solito filesystem, shell, forse HTTP — e poi si toglie di mezzo.
Confronta le due forme:
| Framework | Harness |
|---|---|
| Definisce workflow, step, DAG | Nessun workflow. L’LLM decide. |
| Astrae gli strumenti sottostanti | Espone strumenti grezzi (shell, CDP, fs) |
| Prescrive cosa l’agente deve fare | Prescrive cosa l’agente può fare |
| Si rompe quando il task non entra nel template | Si piega, perché non c’è template |
| Ottimizzato per modelli stupidi | Ottimizzato per modelli intelligenti |
I framework avevano senso nel 2023. I modelli non erano abbastanza affidabili per affidargli capacità grezze, quindi costruivi guardrail. LangChain, AutoGPT, CrewAI — tutte variazioni di “fammi tenere per mano questo LLM attraverso una pipeline”.
I modelli sono diventati più intelligenti. I guardrail hanno iniziato a costare più di quanto facessero risparmiare.
Claude Code è stato il primo vero harness
Claude Code è uscito a inizio 2025 con un design radicale: nessuna orchestrazione, nessun modulo planner, nessun grafo di memoria. Solo un LLM con Bash, Read, Edit, Write, Grep, e qualche strumento web. Tutto qui.
La scommessa era che un modello abbastanza intelligente, con accesso al filesystem e una shell, potesse fare l’orchestrazione da solo. E poteva. Karpathy lo ha chiamato “l’unico strumento AI che uso davvero tutti i giorni”.
Codex è atterrato sulla stessa forma qualche mese dopo. Modello diverso, stessa filosofia: dai all’LLM una sandbox e strumenti, non un framework.
Browser Harness è questo pattern che arriva nell’automazione del browser. Invece di definizioni di step stile Selenium o API stile Playwright avvolte in scaffolding di agenti, ottieni una connessione Chrome DevTools Protocol grezza e un file di helper che l’agente riscrive quando qualcosa si rompe.
Questa è la parte “self-healing”. Nessuna logica di retry, nessuna strategia di fallback, nessun parser per gli stati di errore. L’LLM legge l’errore, modifica l’helper, riprova. La codebase è la memoria.
Perché gli harness stanno vincendo
Tre cose sono cambiate in parallelo:
- L’uso degli strumenti è diventato affidabile. Claude 4 e GPT-5 seguono gli schemi degli strumenti con consistenza sufficiente da non aver bisogno di un layer di validazione che acchiappa chiamate malformate.
- Le finestre di contesto hanno smesso di essere scarse. Un contesto da 1M di token significa che puoi caricare tutta la codebase, tutto il DOM, tutta la documentazione — e lasciare che il modello rilegga invece di pre-spezzettare.
- I modelli hanno imparato a recuperare. Quando una chiamata fallisce, un LLM moderno modifica lo strumento, scrive un nuovo helper, o cambia approccio. Gli autori di framework scrivevano quella logica di recupero a mano. Il modello lo fa meglio.
Una volta che queste tre cose sono vere, ogni layer di astrazione tra LLM e strumento grezzo è una passività. È codice che tu mantieni, che il modello deve aggirare, che si rompe quando il task si discosta leggermente dal pattern.
La frase di Greg è rivelatrice: “Sfido chiunque a trovare un task che NON funziona”. I framework hanno modi di fallimento noti. Gli harness no — o meglio, il loro modo di fallimento è l’LLM stesso, che continua a migliorare.
Lo stack degli harness nel 2026
Se strizzi gli occhi, vedi lo stack che si forma:
- Coding harness: Claude Code, Codex, Cursor in modalità agent
- Browser harness: Browser Harness (Browser Use)
- Research harness: l’autoresearch di Karpathy —
program.md+ Claude Code - Data harness: in emergenza — accesso DB diretto + shell
La forma comune: LLM + strumento grezzo + directory di lavoro persistente. La directory di lavoro è dove il contesto si accumula, dove vengono scritti gli helper, dove vive la memoria del modello tra i turni.
Gli harness girano sul contesto
Ecco la parte che conta se stai costruendo con questi strumenti: un harness vale tanto quanto il contesto che gli dai.
Claude Code senza un CLAUDE.md è un generico assistente di codice. Claude Code con un CLAUDE.md ben curato, una libreria di documenti di riferimento, e una cartella di conoscenza che può grepare — è quello che usa Karpathy. Quella è la versione 10x.
Stesso per Browser Harness. L’helpers.py che modifica al volo parte da qualche parte. Se pianti quel qualche parte con pattern, flussi di auth, particolarità di siti che hai documentato — l’harness ha leva. Se gli dai un file vuoto, deve riscoprire tutto.
L’harness fa il lavoro. La tua libreria di contesto è dove vive il tuo vantaggio.
Dove si inserisce Save
Ogni harness di cui abbiamo parlato legge Markdown dal disco. CLAUDE.md, AGENTS.md, documenti di riferimento, pagine di documentazione salvate, note API — tutto Markdown, tutto in una cartella che l’agente può vedere.
Save è un convertitore in un clic da qualsiasi pagina web a Markdown pulito. Pagine di documentazione, post di blog, risposte Stack Overflow, README di GitHub, riferimenti API — qualsiasi cosa il prossimo harness che esegui dovrà leggere.
Le persone che nel 2026 tirano fuori il massimo da Claude Code e Browser Harness non stanno costruendo più framework. Stanno curando librerie migliori. L’harness è gratis. Il contesto è il fossato.
Save trasforma qualsiasi pagina web in Markdown che il tuo harness AI può leggere — installa l’estensione e inizia a costruire la libreria che renderà i tuoi agenti più intelligenti.