Sådan bygger du en LLM-vidensbase med Save
Andrej Karpathy delte for nylig, hvordan han bruger Markdown-filer til at bygge personlige vidensbaserede til AI-forskning. Hans tilgang er enkel: indsaml kildedokumenter, konverter dem til Markdown, organiser dem i en mappe, og lad en LLM arbejde med hele samlingen.
Resultatet? En AI, der faktisk ved, hvad du ved.
Dette er ikke kun en teknik til forskere. Enhver, der dagligt bruger Claude, ChatGPT eller en anden LLM, kan bygge det samme — og det tager minutter, ikke timer.
Hvad er en LLM-vidensbase?
Det er en mappe på din computer fyldt med Markdown-filer om emner, du bryr dig om. Artikler du har læst. YouTube-videoer du har set. Dokumentation du refererer til. Tweets der har formet din tankegang.
Når du giver en LLM adgang til denne mappe, ophører den med at være en generisk assistent. Den bliver din assistent — en der forstår dit domæne, dine kilder og din kontekst.
Tænk på det som en anden hjerne, men en din AI faktisk kan læse.
Trin 1: Indsaml dine kilder med Save
Her er det, de fleste går i stå. Manuelt at kopiere webindhold, rydde op i HTML, formatere det — det er kedeligt. Det er præcis det, Save løser.
Save er en Chrome-udvidelse, der konverterer enhver webside til ren, struktureret Markdown. Ét klik.
Hvad du kan gemme:
- Artikler og blogindlæg
- YouTube-videoer (fuld transskription + resumé)
- Twitter/X-tråde
- Dokumentation og API-referencer
- Reddit-diskussioner
- Akademiske artikler
- LinkedIn-indlæg
- Betalt indhold du har adgang til
Hvert gem producerer en ren .md-fil — ingen HTML, ingen annoncer, ingen navigationsmenuer. Kun indholdet, korrekt struktureret med overskrifter, lister og kodeblokke.
Trin 2: Organiser din vidensmappe
Opret en mappestruktur, der giver mening for dit arbejde. Hold det enkelt:
my-knowledge/
marketing/
distribution-strategies.md
competitor-analysis.md
pricing-frameworks.md
product/
user-research-findings.md
feature-prioritization.md
industry/
market-trends-2026.md
karpathy-llm-knowledge-bases.md
ai-agent-workflows.md
Hver gang du læser noget værdifuldt online, gem det med Save og læg det i den rigtige mappe. Over tid vokser dette til en omfattende vidensbase, som ingen generisk LLM kan matche.
Trin 3: Forbind din vidensbase til en LLM
Her bliver det kraftfuldt. Der er flere måder at give en LLM adgang til din vidensmappe:
Mulighed 1: Claude Code (mest kraftfuld)
Hvis du bruger Claude Code, åbn en terminal i din vidensmappe og start en session. Claude får fuld adgang til alle filer og kan søge, læse, krydshenvise og ræsonnere på tværs af hele samlingen.
cd my-knowledge
claude
Claude Code kan læse hundredvis af Markdown-filer, finde forbindelser mellem dem, besvare komplekse spørgsmål og endda vedligeholde indeksfiler — præcis som Karpathy beskriver.
Dette er den mest kraftfulde mulighed, fordi Claude aktivt kan gennemse dine filer frem for blot at modtage dem som kontekst.
Mulighed 2: Claude.ai Projekter
Opret et Projekt på claude.ai og upload dine Markdown-filer til projektets vidensbase. Hver samtale i det projekt vil have adgang til dine dokumenter.
- Træk og slip filer direkte
- Understøtter 200+ filer pr. projekt
- Viden vedvarer på tværs af samtaler
- Fungerer på enhver enhed med en browser
Bedst til: folk, der ønsker en enkel opsætning uden at bruge terminalen.
Mulighed 3: Claude Desktop + MCP
Hvis du bruger Claude Desktop, kan du installere filesystem MCP-serveren for at give Claude direkte adgang til en mappe på din computer.
Tilføj dette til din Claude Desktop-konfiguration:
{
"mcpServers": {
"knowledge-base": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/path/to/my-knowledge"
]
}
}
}
Claude Desktop kan derefter læse enhver fil i din vidensmappe på forespørgsel — ingen upload nødvendig.
Mulighed 4: Kopier-indsæt (enklest)
For hurtige spørgsmål kan du bare trække én eller et par Markdown-filer ind i enhver Claude- eller ChatGPT-samtale. Ingen opsætning krævet.
Dette fungerer til enkeltforespørgsler, men skalerer ikke. Til en reel vidensbaseworkflow, brug en af mulighederne ovenfor.
Hvorfor Markdown gør dette muligt
Du kan ikke fodre rå HTML til en LLM og forvente gode resultater. HTML er oppustet med navigation, annoncer, scripts og styling — støj, der spilder tokens og forvirrer modellen.
Markdown er LLM’ers modersmål. De er trænet på millioner af Markdown-filer fra GitHub, dokumentationssider og udviklerblogge. Når du giver en LLM rent Markdown:
- 10 gange færre tokens sammenlignet med rå HTML
- Bedre forståelse — modellen fokuserer på indhold, ikke fortolkning
- Korrekt struktur — overskrifter, lister og kodeblokke bevares
- Universel kompatibilitet — fungerer med Claude, ChatGPT, Gemini eller enhver LLM
Det er derfor Save eksisterer. Det kopierer ikke bare tekst — det bruger AI til at uddrage det meningsfulde indhold og strukturere det som ren Markdown, som LLM’er forstår perfekt.
Sammensætningseffekten
Her er, hvad der sker, når du opbygger denne vane:
Uge 1: Du har 10 Markdown-filer. Claude kan besvare spørgsmål om disse specifikke artikler.
Måned 1: Du har 50+ filer. Claude kan krydshenvise kilder, finde mønstre og give dig indsigter, du aldrig ville spotte på egen hånd.
Måned 3: Du har 200+ filer. Du har bygget en personlig forskningsassistent, der kender din branche, dine konkurrenter, dine rammer og din tænkning. Hvert spørgsmål du stiller, får et svar baseret på din kuraterede viden, ikke generiske træningsdata.
Som Karpathy bemærkede, når din vidensbase er stor nok, kan du stille komplekse spørgsmål, og LLM’en vil researche svarene på tværs af hele samlingen. Ingen fancy RAG-opsætning nødvendig — bare organiserede Markdown-filer.
Kom i gang på 60 sekunder
- Installer Save fra Chrome Web Store (gratis)
- Opret en
my-knowledge-mappe på din computer - Besøg en artikel, du fandt værdifuld for nylig
- Klik Save — Markdown-filen downloader øjeblikkeligt
- Flyt den til din vidensmappe
- Åbn mappen i Claude Code, upload til et Claude-projekt eller opsæt MCP
Hver artikel du gemmer fra nu af gør din AI klogere. Det sammensætter sig.
Begynd at bygge din LLM-vidensbase i dag. Installer Save — det er gratis at starte.