So baust du eine LLM-Wissensdatenbank mit Save auf
Andrej Karpathy hat kürzlich geteilt, wie er Markdown-Dateien verwendet, um persönliche Wissensdatenbanken für die KI-Forschung aufzubauen. Sein Ansatz ist einfach: Quelldokumente sammeln, in Markdown umwandeln, in einem Ordner organisieren und ein LLM mit der gesamten Sammlung arbeiten lassen.
Das Ergebnis? Eine KI, die wirklich weiß, was du weißt.
Das ist keine Technik nur für Forscher. Jeder, der Claude, ChatGPT oder ein beliebiges LLM täglich nutzt, kann dasselbe aufbauen --- und es dauert Minuten, nicht Stunden.
Was ist eine LLM-Wissensdatenbank?
Es ist ein Ordner auf deinem Computer, gefüllt mit Markdown-Dateien zu Themen, die dich interessieren. Artikel, die du gelesen hast. YouTube-Videos, die du geschaut hast. Dokumentation, auf die du dich beziehst. Tweets, die dein Denken geprägt haben.
Wenn du einem LLM Zugriff auf diesen Ordner gibst, hört es auf, ein generischer Assistent zu sein. Es wird dein Assistent --- einer, der deine Domäne, deine Quellen und deinen Kontext versteht.
Stell es dir als zweites Gehirn vor, aber eines, das deine KI wirklich lesen kann.
Schritt 1: Sammle deine Quellen mit Save
Hier hängen die meisten Leute fest. Webinhalte manuell kopieren, HTML bereinigen, formatieren --- das ist mühsam. Genau das löst Save.
Save ist eine Chrome-Erweiterung, die jede Webseite in sauberes, strukturiertes Markdown umwandelt. Mit einem Klick.
Was du speichern kannst:
- Artikel und Blogbeiträge
- YouTube-Videos (vollständiges Transkript + Zusammenfassung)
- Twitter/X-Threads
- Dokumentationen und API-Referenzen
- Reddit-Diskussionen
- Wissenschaftliche Arbeiten
- LinkedIn-Beiträge
- Bezahlte Inhalte, auf die du Zugriff hast
Jedes Speichern erzeugt eine saubere .md-Datei --- kein HTML, keine Werbung, keine Navigationsmenüs. Nur der Inhalt, ordentlich strukturiert mit Überschriften, Listen und Code-Blöcken.
Schritt 2: Organisiere deinen Wissensordner
Erstelle eine Ordnerstruktur, die zu deiner Arbeit passt. Halte es einfach:
my-knowledge/
marketing/
distribution-strategies.md
competitor-analysis.md
pricing-frameworks.md
product/
user-research-findings.md
feature-prioritization.md
industry/
market-trends-2026.md
karpathy-llm-knowledge-bases.md
ai-agent-workflows.md
Jedes Mal, wenn du online etwas Wertvolles liest, speichere es mit Save und lege es im richtigen Ordner ab. Mit der Zeit baut sich das zu einer umfassenden Wissensdatenbank auf, mit der kein generisches LLM mithalten kann.
Schritt 3: Verbinde deine Wissensdatenbank mit einem LLM
Hier wird es richtig mächtig. Es gibt mehrere Möglichkeiten, einem LLM Zugriff auf deinen Wissensordner zu geben:
Option 1: Claude Code (am mächtigsten)
Wenn du Claude Code verwendest, öffne ein Terminal in deinem Wissensordner und starte eine Sitzung. Claude erhält vollen Zugriff auf jede Datei und kann deine gesamte Sammlung durchsuchen, lesen, querverweisen und darüber nachdenken.
cd my-knowledge
claude
Claude Code kann Hunderte von Markdown-Dateien lesen, Verbindungen zwischen ihnen finden, komplexe Fragen beantworten und sogar Indexdateien pflegen --- genau wie Karpathy es beschreibt.
Das ist die mächtigste Option, weil Claude deine Dateien aktiv durchsuchen kann, anstatt sie nur als Kontext zu empfangen.
Option 2: Claude.ai Projects
Erstelle ein Projekt auf claude.ai und lade deine Markdown-Dateien in die Projekt-Wissensdatenbank hoch. Jedes Gespräch in diesem Projekt hat Zugriff auf deine Dokumente.
- Dateien direkt per Drag & Drop hinzufügen
- Unterstützt 200+ Dateien pro Projekt
- Wissen bleibt über Gespräche hinweg erhalten
- Funktioniert auf jedem Gerät mit einem Browser
Am besten für: Menschen, die ein einfaches Setup ohne Terminal möchten.
Option 3: Claude Desktop + MCP
Wenn du Claude Desktop verwendest, kannst du den Filesystem-MCP-Server installieren, um Claude direkten Zugriff auf einen Ordner auf deinem Computer zu geben.
Füge dies zu deiner Claude Desktop-Konfiguration hinzu:
{
"mcpServers": {
"knowledge-base": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-filesystem",
"/path/to/my-knowledge"
]
}
}
}
Claude Desktop kann dann jede Datei in deinem Wissensordner auf Anfrage lesen --- kein Hochladen nötig.
Option 4: Kopieren & Einfügen (am einfachsten)
Für schnelle Fragen ziehe einfach eine oder ein paar Markdown-Dateien in ein beliebiges Claude- oder ChatGPT-Gespräch. Kein Setup erforderlich.
Das funktioniert für einmalige Anfragen, skaliert aber nicht. Für einen echten Wissensdatenbank-Workflow verwende eine der obigen Optionen.
Warum Markdown das alles möglich macht
Du kannst einem LLM kein rohes HTML geben und gute Ergebnisse erwarten. HTML ist aufgebläht mit Navigation, Werbung, Skripten und Styling --- Rauschen, das Tokens verschwendet und das Modell verwirrt.
Markdown ist die Muttersprache von LLMs. Sie wurden auf Millionen von Markdown-Dateien aus GitHub, Dokumentationsseiten und Entwicklerblogs trainiert. Wenn du einem LLM sauberes Markdown gibst:
- 10x weniger Tokens im Vergleich zu rohem HTML
- Besseres Verständnis --- das Modell konzentriert sich auf Inhalte, nicht auf das Parsen
- Korrekte Struktur --- Überschriften, Listen und Code-Blöcke bleiben erhalten
- Universelle Kompatibilität --- funktioniert mit Claude, ChatGPT, Gemini oder jedem LLM
Deshalb gibt es Save. Es kopiert nicht nur Text --- es verwendet KI, um sinnvollen Inhalt zu extrahieren und ihn als sauberes Markdown zu strukturieren, das LLMs perfekt verstehen.
Der Zinseszinseffekt
Folgendes passiert, wenn du diese Gewohnheit aufbaust:
Woche 1: Du hast 10 Markdown-Dateien. Claude kann Fragen zu diesen spezifischen Artikeln beantworten.
Monat 1: Du hast 50+ Dateien. Claude kann Quellen querverweisen, Muster finden und dir Einblicke geben, die du nie alleine entdeckt hättest.
Monat 3: Du hast 200+ Dateien. Du hast einen persönlichen Forschungsassistenten aufgebaut, der deine Branche, deine Mitbewerber, deine Frameworks und dein Denken kennt. Jede Frage, die du stellst, bekommt eine Antwort, die auf deinem kuratierten Wissen basiert, nicht auf generischen Trainingsdaten.
Wie Karpathy anmerkte: Sobald deine Wissensdatenbank groß genug ist, kannst du komplexe Fragen stellen und das LLM wird die Antworten über deine gesamte Sammlung hinweg recherchieren. Kein ausgefeiltes RAG-Setup nötig --- nur organisierte Markdown-Dateien.
In 60 Sekunden loslegen
- Installiere Save aus dem Chrome Web Store (kostenlos)
- Erstelle einen
my-knowledge-Ordner auf deinem Computer - Besuche einen Artikel, den du kürzlich wertvoll fandest
- Klicke auf Save --- die Markdown-Datei wird sofort heruntergeladen
- Verschiebe sie in deinen Wissensordner
- Öffne den Ordner in Claude Code, lade ihn in ein Claude-Projekt hoch oder richte MCP ein
Jeder Artikel, den du von jetzt an speicherst, macht deine KI intelligenter. Es summiert sich.
Beginne noch heute mit dem Aufbau deiner LLM-Wissensdatenbank. Installiere Save --- kostenlos starten.