← Tilbake til bloggen

Markdown-wikier Erstatter Stille RAG. Her er Hvorfor.

· Save Team
ragllmknowledge-basekarpathymcpaisave-vaultmarkdown

I to år var standardsvaret på “hvordan gir jeg LLM-en min kunnskap?” RAG. Bygg en vektordatabase. Del opp dokumentene. Embed dem. Kjør nærmeste-nabo-søk ved spørringstidspunkt. Sy resultatene tilbake inn i prompten.

Det fungerte. Litt. Alle som faktisk har lansert et RAG-system kjenner feilmodiene: biter som mister kontekst, embeddings som henter feil avsnitt, ugjennomsiktige rangeringer, ingen opprinnelse, rare kant-tilfeller når brukeren spør noe indeksen ikke var innstilt for.

I april 2026 publiserte Andrej Karpathy en arbeidsflyt som gjør nesten ingenting av det og fungerer bedre for personlig kunnskap. Han kaller det LLM Knowledge Bases. Arkitekturen er bare en mappe med markdown-filer, en LLM med filsystemtilgang, og en vane. VentureBeat kalte det “et utviklende markdown-bibliotek vedlikeholdt av AI” — en beskrivelse som fanger hva som faktisk er nytt.

Post-RAG-mønsteret er her. Denne artikkelen forklarer hva det er, hvorfor det fungerer, og hvordan Save Vault gjør det tilgjengelig uten noen utvikler-oppsett.

Hva RAG Prøvde å Løse

Det opprinnelige problemet: LLM-er har et fast kontekstvindu, kunnskapsbasen din er større enn vinduet, så du trenger en måte å hente den relevante skiven for hvert spørsmål.

I 2023 var vektorer det åpenbare svaret. Embed alt, søk etter likhet, injiser topp-k-biter. Det komponerte pent med de lille kontekstvinduene til GPT-3.5 og Claude 1. Hele “AI-startup”-mønsteret var “RAG over X.”

Tre ting endret seg.

  1. Kontekstvinduene eksploderte. Claude lanserte 1M-token kontekst i år. Gemini og GPT-5 er lignende. En million tokens er omtrent 750 000 ord — nok til å holde en liten wiki helt i minnet.
  2. Filesystem MCP ble lansert. LLM-er kan nå åpne filer på disk direkte. De trenger ikke forhåndsindekserte biter. De kan navigere, lese og lese om igjen som et menneske.
  3. LLM-er ble bedre til å lese. Claude Opus 4 kan innta hundrevis av filer i én økt og resonnere over dem sammenhengende. Flaskehalsen flyttet seg fra “hentingskvalitet” til “hva trenger mennesket faktisk.”

Når disse tre tingene var sanne, begynte RAG å se ut som en omgåelse for begrensninger som ikke lenger eksisterer.

Hva Markdown-wiki-mønsteret Ser Ut Som

Karpathys oppsett, forenklet:

  1. Raw-mappe. Hver nettside han vil beholde lagres som en .md-fil i en raw/-katalog. Han bruker Obsidian Web Clipper for dette.
  2. Kompileringsrunde. Periodisk leser en LLM-agent (Claude Code i hans tilfelle) alt i raw/, genererer konseptsider, skriver sammendrag og oppretter baklenks. Dette produserer en strukturert wiki på toppen av råmaterialet.
  3. Spørringsløkke. Når han har et spørsmål, spør han LLM-en. Den søker i wikien, åpner relevante filer og svarer ved hjelp av innholdet.
  4. Lint-runde. Av og til skanner LLM-en wikien for inkonsekvenser, manglende data eller nye forbindelser verdt å registrere.

Hans nåværende forskningswiki er ~100 artikler og ~400K ord. Han stiller komplekse spørsmål og får kildede svar tilbake.

Ingen vektordatabase. Ingen embedding-modell. Ingen oppdelingsstrategi. Ingen hentingsrangering. Bare markdown-filer, en mappestruktur og en LLM som kan lese dem.

Hvorfor Det Fungerer Bedre Enn RAG (For Dette)

Wiki-mønsteret har strukturelle fordeler som RAG ikke kan matche uten å bli en wiki selv.

Opprinnelse er gratis. Hvert svar siterer en fil. Du kan åpne den, lese den, redigere den, slette den. Ingen “embedding-en sa det.”

Redigering er trivielt. En markdown-fil er tekst. Åpne den i hvilken som helst editor. Fiks en skrivefeil. Legg til et notat. Slett en seksjon. Neste spørring gjenspeiler endringen umiddelbart. Ingen re-embedding-trinn.

Strukturen forbedres. Når LLM-en kompilerer wikien, bygger den baklenks og konseptsider. Wikien blir bedre jo mer du lagrer, fordi LLM-en har mer kontekst til å koble nye oppføringer til. Et vektorindeks blir bare større.

Portabilitet er total. En mappe med .md-filer fungerer i Obsidian, VS Code, GitHub, Logseq, vim, eller cat. En vektordatabase er en svart boks du trenger en spesifikk kjøretid for å lese.

Du kan lese det selv. Dette høres åpenbart ut, men det er den største fordelen. Du vil noen ganger ville vite hva som er i kunnskapsbasen din. Med RAG er det en rapportspørring. Med markdown er det ls.

Den ærlige avveiningen: RAG vinner fortsatt når du har millioner av dokumenter, flerleietilgang eller harde ventetidsbegrensninger. For personlig kunnskap — din lesing, forskning, domene — er wiki-mønsteret nå strengt bedre.

Den Manglende Biten: Inntak

Karpathys mønster har en stille antagelse: at det å få ren markdown inn i raw/-mappen er enkelt. For utviklere som allerede bruker Obsidian Web Clipper, er det det. For alle andre er dette trinnet der arbeidsflyten dør.

Web Clipper kan slite med betalingsmurssider, JavaScript-tunge nettsteder, videoinnhold, X-tråder og alt dynamisk. Folk lagrer forvirret HTML, gir opp og konkluderer med at “wiki-greien er ikke for meg.”

Save-utvidelsen eksisterer spesifikt for å fikse dette trinnet. Den bruker Gemini til å trekke ut rent innhold fra vilkårlige sider, inkludert:

  • Artikler bak betalingsmurer du har tilgang til
  • YouTube-videoer (fullstendig transkripsjon + AI-sammendrag)
  • X/Twitter-tråder
  • Instagram-reels og TikTok-teksting (transkribert)
  • Reddit-diskusjoner
  • Dokumentasjon med kodeblokker intakt
  • Dynamiske SPAs som tradisjonelle klippere kveler

Ett klikk. Ren markdown ut den andre siden. Slipp den i mappen.

Den Andre Manglende Biten: MCP-oppsettet

Karpathys mønster antar også at du kan konfigurere en MCP-server. For Claude Code-brukere er dette én linje cd. For alle som bruker Claude Desktop betyr det å redigere en JSON-konfigurasjonsfil og starte appen på nytt — og få banen riktig, og huske å gjøre det på nytt når du flytter mapper.

Save Vault kollapser begge manglende biter i én app:

  • Save-utvidelsen mater ren markdown inn i Save Vault automatisk
  • Save Vault skriver til ~/Documents/Save Vault/ organisert i kunnskapsbaser (undermapper)
  • En innebygd MCP-server eksponerer list_knowledge_bases, list_files, read_file og search for Claude
  • “Connect to Claude”-knappen i menylinjen kobler MCP-serveren til Claude Desktop og Claude Code, ingen JSON-redigering

Resultatet er Karpathy-mønsteret med de grove kantene slipt av. Lagre en side → den lander i valvet ditt → Claude kan svare på spørsmål om den. Ingen vektordatabase, ingen oppdeling, ingen embeddings.

Prøv Det

  1. Installer Save Chrome-utvidelsen
  2. Installer Save Vault fra savemarkdown.co
  3. Slå på Connect to Claude i menylinjen
  4. Lagre 10 ting du har tenkt å lese
  5. Åpne Claude og still et spørsmål som knytter dem sammen

Det er post-RAG-arbeidsflyten. Den erstatter allerede vektordatabaser for personlig kunnskap. Det eneste som gjenstår er å begynne å bygge din.


Save Vault er gratis. Save-utvidelsen er gratis for 3 lagringer i måneden, $3,99/mnd ubegrenset. savemarkdown.co.