Retour au blog

Des harnais, pas des frameworks — la nouvelle forme des outils IA

· Save Team
#ai#agents#browser-use#claude-code#codex#harness#llm#markdown

Le 18 avril 2026, Gregor Zunic — co-fondateur de Browser Use — a posté ça :

Introducing: Browser Harness. A self-healing harness that can complete virtually any browser task. We got tired of browser frameworks restricting the LLM. So we removed the framework.

Pas de framework. CDP direct. Un websocket vers Chrome. Un helpers.py que l’agent édite à la volée. Drop-in pour Claude Code et Codex. Le tweet est ici.

Ce n’est pas juste un outil d’automatisation de navigateur. C’est la formulation la plus claire à ce jour d’un pattern qui prend silencieusement le dessus sur l’outillage IA en 2026 : le harnais.

C’est quoi, un harnais ?

Un harnais, c’est l’emballage minimal autour d’un LLM qui lui permet de faire du travail utile. Il expose une surface d’outils — généralement le système de fichiers, le shell, peut-être HTTP — et ensuite, il s’écarte du chemin.

Compare les deux formes :

FrameworkHarnais
Définit des workflows, des étapes, des DAGsPas de workflow. Le LLM décide.
Abstrait les outils sous-jacentsExpose les outils bruts (shell, CDP, fs)
Prescrit ce que l’agent doit fairePrescrit ce que l’agent peut faire
Casse quand la tâche ne rentre pas dans le templatePlie, parce qu’il n’y a pas de template
Optimisé pour des modèles bêtesOptimisé pour des modèles intelligents

Les frameworks avaient du sens en 2023. Les modèles n’étaient pas assez fiables pour qu’on leur fasse confiance avec des capacités brutes, donc on construisait des rails. LangChain, AutoGPT, CrewAI — toutes des variations sur « laisse-moi tenir la main à ce LLM dans un pipeline ».

Les modèles sont devenus plus intelligents. Les rails ont commencé à coûter plus qu’ils ne rapportaient.

Claude Code a été le premier vrai harnais

Claude Code a été livré début 2025 avec un design radical : pas d’orchestration, pas de module planner, pas de graphe de mémoire. Juste un LLM avec Bash, Read, Edit, Write, Grep, et quelques outils web. C’est tout.

Le pari, c’était qu’un modèle assez intelligent, à qui on donne l’accès au système de fichiers et un shell, pouvait faire l’orchestration lui-même. Et il le pouvait. Karpathy l’a qualifié de « seul outil IA que j’utilise vraiment tous les jours ».

Codex a atterri sur la même forme quelques mois plus tard. Modèle différent, même philosophie : donner au LLM un bac à sable et des outils, pas un framework.

Browser Harness, c’est ce pattern qui arrive dans l’automatisation de navigateur. Au lieu de définitions d’étapes à la Selenium ou d’APIs à la Playwright enveloppées dans du scaffolding d’agent, tu as une connexion Chrome DevTools Protocol brute et un fichier helpers que l’agent réécrit quand quelque chose casse.

C’est ça, le « self-healing ». Il n’y a pas de logique de retry, pas de stratégie de fallback, pas de parseur d’états d’erreur. Le LLM lit l’erreur, édite le helper, réessaye. La base de code est la mémoire.

Pourquoi les harnais gagnent

Trois choses ont basculé en parallèle :

  1. L’utilisation d’outils est devenue fiable. Claude 4 et GPT-5 suivent les schémas d’outils de façon suffisamment constante pour qu’on n’ait plus besoin d’une couche de validation qui rattrape les appels malformés.
  2. Les fenêtres de contexte ont cessé d’être rares. 1M de tokens, ça veut dire que tu peux charger toute la codebase, tout le DOM, tous les docs — et laisser le modèle relire au lieu de pré-découper.
  3. Les modèles ont appris à récupérer. Quand un appel échoue, un LLM moderne édite l’outil, écrit un nouveau helper, ou change d’approche. Les auteurs de frameworks écrivaient cette logique de récupération à la main. Le modèle le fait mieux.

Une fois ces trois choses vraies, chaque couche d’abstraction entre le LLM et l’outil brut devient un passif. C’est du code que tu maintiens, que le modèle doit contourner, qui casse quand la tâche s’écarte un peu du pattern.

La phrase de Greg est révélatrice : « Je défie quiconque de trouver une tâche qui NE fonctionne PAS. » Les frameworks ont des modes d’échec connus. Les harnais, non — ou plutôt, leur mode d’échec, c’est le LLM lui-même, qui n’arrête pas de s’améliorer.

Le stack des harnais en 2026

Si tu plisses les yeux, tu vois le stack se former :

  • Coding harness : Claude Code, Codex, Cursor en mode agent
  • Browser harness : Browser Harness (Browser Use)
  • Research harness : l’autoresearch de Karpathy — program.md + Claude Code
  • Data harness : en émergence — accès DB direct + shell

La forme commune : LLM + outil brut + répertoire de travail persistant. Le répertoire de travail, c’est là que le contexte s’accumule, là où les helpers sont écrits, là où vit la mémoire du modèle entre les tours.

Les harnais tournent sur du contexte

Voilà la partie qui compte si tu construis avec ces outils : un harnais ne vaut que ce que vaut le contexte qu’on lui donne.

Claude Code sans CLAUDE.md, c’est un assistant de code générique. Claude Code avec un CLAUDE.md bien écrit, une bibliothèque de docs de référence et un dossier de connaissances qu’il peut grep — c’est ce que Karpathy utilise. C’est la version 10x.

Pareil pour Browser Harness. Le helpers.py qu’il édite à la volée part de quelque part. Si tu sèmes ce quelque part avec des patterns, des flows d’auth, des spécificités de sites que tu as documentées — le harnais a du levier. Si tu lui files un fichier vide, il doit tout redécouvrir.

Le harnais fait le boulot. Ta bibliothèque de contexte, c’est là que vit ton avantage.

Là où Save entre en jeu

Chaque harnais dont on vient de parler lit du Markdown sur disque. CLAUDE.md, AGENTS.md, docs de référence, pages de documentation sauvegardées, notes d’API — tout en Markdown, tout dans un dossier que l’agent peut voir.

Save, c’est un convertisseur en un clic de n’importe quelle page web vers du Markdown propre. Pages de documentation, articles de blog, réponses Stack Overflow, READMEs GitHub, références d’API — tout ce que le prochain harnais que tu lanceras aura besoin de lire.

Les gens qui tirent le plus de Claude Code et Browser Harness en 2026 ne construisent pas plus de framework. Ils curent de meilleures bibliothèques. Le harnais est gratuit. Le contexte, c’est le moat.


Save transforme n’importe quelle page web en Markdown que ton harnais IA peut lire — installe l’extension et commence à construire la bibliothèque qui rendra tes agents plus intelligents.