← Terug naar blog

Markdown-wiki's vervangen RAG stilletjes. Hier is waarom.

· Save Team
ragllmknowledge-basekarpathymcpaisave-vaultmarkdown

Twee jaar lang was het standaardantwoord op “hoe geef ik een LLM mijn kennis?” RAG. Bouw een vectordatabase. Verdeel je documenten in stukken. Embed ze. Voer nearest-neighbor-zoektochten uit bij het stellen van vragen. Weef de resultaten terug in de prompt.

Het werkte. Enigszins. Iedereen die ooit een RAG-systeem heeft opgeleverd kent de foutmodi: stukken die context verliezen, embeddings die de verkeerde passage ophalen, ondoorzichtige rankings, geen herkomst, rare randgevallen wanneer de gebruiker iets vraagt waarvoor de index niet was afgestemd.

In april 2026 plaatste Andrej Karpathy een workflow die bijna niets van dit alles doet en beter werkt voor persoonlijke kennis. Hij noemt het LLM Knowledge Bases. De architectuur is gewoon een map met markdown-bestanden, een LLM met bestandssysteemtoegang en een gewoonte. VentureBeat beschreef het als “een evoluerende markdown-bibliotheek onderhouden door AI” — een beschrijving die vastlegt wat er eigenlijk nieuw is.

Het post-RAG-patroon is er. Dit artikel legt uit wat het is, waarom het werkt en hoe Save Vault het toegankelijk maakt zonder enige ontwikkelaarsinstelling.

Wat RAG probeerde op te lossen

Het oorspronkelijke probleem: LLMs hebben een vast contextvenster, je kennisbank is groter dan het venster, dus je hebt een manier nodig om voor elke vraag het relevante deel op te halen.

In 2023 waren vectors het voor de hand liggende antwoord. Embed alles, zoek op gelijkenis, injecteer de top-k stukken. Dit werkte goed samen met de kleine contextvensters van GPT-3.5 en Claude 1. Het volledige “AI-startup”-patroon was “RAG over X.”

Drie dingen veranderden.

  1. Contextvensters explodeerden. Claude leverde dit jaar een 1M-token-context. Gemini en GPT-5 zijn vergelijkbaar. Een miljoen tokens is ruwweg 750.000 woorden — genoeg om een kleine wiki volledig in het geheugen te houden.
  2. Filesystem MCP werd gelanceerd. LLMs kunnen nu direct bestanden op de schijf openen. Ze hebben geen vooraf geïndexeerde stukken nodig. Ze kunnen navigeren, lezen en herlezen als een mens.
  3. LLMs werden beter in lezen. Claude Opus 4 kan honderden bestanden in één sessie verwerken en er coherent over redeneren. De bottleneck verschoof van “ophaalkwaliteit” naar “wat heeft de mens eigenlijk nodig.”

Zodra die drie dingen waar waren, begon RAG eruit te zien als een omweg voor beperkingen die niet meer bestaan.

Hoe het Markdown-wiki-patroon eruitziet

Karpathy’s opzet, vereenvoudigd:

  1. Ruwe map. Elke webpagina die hij wil bewaren wordt opgeslagen als een .md-bestand in een raw/-directory. Hij gebruikt Obsidian Web Clipper hiervoor.
  2. Compilatiestap. Periodiek leest een LLM-agent (Claude Code in zijn geval) alles in raw/, genereert conceptpagina’s, schrijft samenvattingen en maakt backlinks. Dit produceert een gestructureerde wiki bovenop het ruwe materiaal.
  3. Querylus. Wanneer hij een vraag heeft, stelt hij die aan het LLM. Het doorzoekt de wiki, opent de relevante bestanden en antwoordt op basis van de inhoud.
  4. Lintstap. Af en toe scant het LLM de wiki op inconsistenties, ontbrekende gegevens of nieuwe verbindingen die het waard zijn te noteren.

Zijn huidige onderzoekswiki heeft ~100 artikelen en ~400K woorden. Hij stelt er complexe vragen aan en krijgt van bronnen voorziene antwoorden terug.

Geen vectordatabase. Geen embeddingmodel. Geen chunkingstrategie. Geen retrieval-ranking. Gewoon markdown-bestanden, een mapstructuur en een LLM die ze kan lezen.

Waarom het beter werkt dan RAG (voor dit)

Het wiki-patroon heeft structurele voordelen die RAG niet kan evenaren zonder zelf een wiki te worden.

Herkomst is gratis. Elk antwoord citeert een bestand. Je kunt het openen, lezen, bewerken, verwijderen. Geen “de embedding zei het.”

Bewerken is triviaal. Een markdown-bestand is tekst. Open het in elke editor. Verbeter een typefout. Voeg een notitie toe. Verwijder een sectie. De volgende query weerspiegelt de wijziging onmiddellijk. Er is geen her-embeddingsstap.

Structuur groeit. Wanneer het LLM de wiki compileert, bouwt het backlinks en conceptpagina’s. De wiki wordt beter naarmate je meer opslaat, omdat het LLM meer context heeft om nieuwe items mee te verbinden. Een vectorindex wordt gewoon groter.

Draagbaarheid is totaal. Een map met .md-bestanden werkt in Obsidian, VS Code, GitHub, Logseq, vim of cat. Een vectordatabase is een zwarte doos waarvoor je een specifieke runtime nodig hebt om te lezen.

Je kunt het zelf lezen. Dit klinkt vanzelfsprekend, maar het is het grootste voordeel. Je zult soms willen weten wat er in je kennisbank staat. Bij RAG is dat een rapportagequery. Bij markdown is het ls.

De eerlijke afweging: RAG wint nog steeds wanneer je miljoenen documenten hebt, multitenant-toegang of harde latentiebeperkingen (denk aan klantenservice-chatbots over een corpus van miljoenen helpartikelen). Voor persoonlijke kennis — je lectuur, je onderzoek, je domein — is het wiki-patroon nu strikt beter.

Het ontbrekende stuk: Opname

Karpathy’s patroon heeft een stille aanname: dat het krijgen van schone markdown in de raw/-map gemakkelijk is. Voor ontwikkelaars die al Obsidian Web Clipper gebruiken, is dat enigszins het geval. Voor alle anderen is dit de stap waar de workflow sterft.

Web Clipper kan moeite hebben met pagina’s achter paywalls, JavaScript-zware sites, video-inhoud, X-threads en alles wat dynamisch is. Mensen slaan rommelige HTML op, geven het op en concluderen “dat wiki-ding is niets voor mij.”

De Save-extensie bestaat specifiek om deze stap te repareren. Het gebruikt Gemini om schone inhoud te extraheren uit willekeurige pagina’s, waaronder:

  • Artikelen achter paywalls waartoe je toegang hebt
  • YouTube-video’s (volledige transcript + AI-samenvatting)
  • X/Twitter-threads
  • Instagram-reels en TikTok-bijschriften (getranscribeerd)
  • Reddit-discussies
  • Documentatie met intacte codeblokken
  • Dynamische SPA’s waarop traditionele clippers vastlopen

Één klik. Schone markdown aan de andere kant. Neerleggen in de map.

Het andere ontbrekende stuk: De MCP-instelling

Karpathy’s patroon gaat er ook van uit dat je een MCP-server kunt configureren. Voor Claude Code-gebruikers is dit een cd van één regel. Voor iedereen die Claude Desktop gebruikt, betekent het een JSON-configuratiebestand bewerken en de app opnieuw starten — en het pad goed invoeren, en onthouden het opnieuw te doen wanneer je mappen verplaatst.

Save Vault comprimet beide ontbrekende stukken in één app:

  • De Save-extensie voert schone markdown automatisch in Save Vault in
  • Save Vault schrijft naar ~/Documents/Save Vault/ georganiseerd in kennisbanken (submappen)
  • Een ingebouwde MCP-server stelt list_knowledge_bases, list_files, read_file en search beschikbaar aan Claude
  • De “Verbind met Claude”-schakelaar in de menubalk koppelt de MCP-server aan Claude Desktop en Claude Code, zonder JSON-bewerking

Het resultaat is het Karpathy-patroon met de ruwe randjes afgeschaafd. Sla een pagina op → deze belandt in je vault → Claude kan er vragen over beantwoorden. Geen vectordatabase, geen chunking, geen embeddings.

Hoe dit eruitziet in de praktijk

Stel je voor dat je een concurrent onderzoekt.

Dag 1. Je slaat hun pagina met prijzen op, drie blogberichten en een Hacker News-thread over hun zaadfinanciering. Vijf bestanden in je Concurrenten-KB.

Dag 5. Je vraagt Claude: “Welke prijswijzigingen heeft dit bedrijf het afgelopen jaar doorgevoerd, en hoe hebben klanten gereageerd?” Claude doorzoekt je Concurrenten-KB, leest de relevante bestanden, citeert de prijspagina, haalt het HN-thread-sentiment naar boven en antwoordt — alles van bronnen voorzien.

Dag 30. Je hebt 40 bestanden over Concurrenten, Klanten en AI-onderzoek. Je vraagt Claude elke KB samen te stellen tot een wiki. Het schrijft conceptpagina’s, linkt ze, markeert tegenstrijdigheden. Je hebt nu drie levende wiki’s die je kunt bevragen als zoekmachines, maar beter — omdat ze alleen bevatten wat jij hebt samengesteld.

Dag 90. Je wiki’s zijn groter dan elk analistenrapport dat je zou kopen, actueler dan elk consulentendeck en volledig van jou. Elke bewering is terug te voeren op een bestand dat je hebt opgeslagen.

Dit is hoe een persoonlijke kennisbank er echt uitziet zodra de wrijving verdwenen is. RAG moest dit leveren en deed het niet. Het Karpathy-patroon doet dat wel — zodra de opname- en MCP-stukken voor je zijn aangesloten.

Probeer het

  1. Installeer de Save Chrome-extensie
  2. Installeer Save Vault via savemarkdown.co
  3. Zet Verbind met Claude aan in de menubalk
  4. Sla 10 dingen op die je al een tijdje wilde lezen
  5. Open Claude en stel een vraag die ze samenvoegt

Dat is de post-RAG-workflow. Die vervangt al vectordatabases voor persoonlijke kennis. Het enige dat overblijft is beginnen met het bouwen van de jouwe.


Save Vault is gratis. De Save-extensie is gratis voor 3 opslagens per maand, $3,99/maand onbeperkt. savemarkdown.co.