Markdown 维基正在悄悄取代 RAG,原因如下
两年来,“如何将我的知识提供给 LLM?“的默认答案是 RAG。构建向量数据库。分块文档。嵌入它们。在查询时运行最近邻搜索。将结果拼接回提示词。
它有效,某种程度上。任何真正交付过 RAG 系统的人都知道失败模式:失去上下文的块、检索错误段落的嵌入、不透明的排名、没有溯源、当用户问了一些索引未调优的问题时出现奇怪的边缘案例。
2026 年 4 月,Andrej Karpathy 发布了一个几乎不做这些但对个人知识效果更好的工作流程。他称之为 LLM 知识库。架构只是一个 Markdown 文件夹、一个有文件系统访问权限的 LLM 和一个习惯。VentureBeat 称之为”由 AI 维护的不断演化的 Markdown 库”——这个描述抓住了真正新颖之处。
后 RAG 模式已经到来。本文解释它是什么、为什么有效,以及 Save Vault 如何让它无需开发者设置就能使用。
RAG 试图解决的问题
最初的问题:LLM 有固定的上下文窗口,你的知识库比窗口大,所以你需要一种为每个问题检索相关部分的方法。
2023 年,向量是显而易见的答案。嵌入一切,按相似度搜索,注入前 k 个块。它与 GPT-3.5 和 Claude 1 的小上下文窗口很好地组合。整个”AI 创业”模式是”X 上的 RAG”。
三件事发生了变化。
- 上下文窗口爆炸。 Claude 今年推出了 100 万 token 上下文。Gemini 和 GPT-5 类似。100 万 token 大约相当于 75 万词——足以将小型维基完全保存在内存中。
- 文件系统 MCP 推出。 LLM 现在可以直接打开磁盘上的文件。它们不需要预先索引的块。它们可以像人类一样导航、阅读和重新阅读。
- LLM 在阅读上变得更好。 Claude Opus 4 可以在一个会话中摄取数百个文件并连贯地跨它们推理。瓶颈从”检索质量”移到了”人类实际需要什么”。
一旦这三件事成真,RAG 开始看起来像是对已不再存在的限制的一种变通方法。
Markdown 维基模式是什么样的
Karpathy 的设置,简化版:
- 原始文件夹。 他想保留的每个网页都作为
.md文件保存在raw/目录中。他用 Obsidian Web Clipper 来做这件事。 - 编译过程。 定期地,一个 LLM 代理(他使用的是 Claude Code)读取
raw/中的所有内容,生成概念页面,写摘要,创建反向链接。这在原始材料之上产生了一个结构化的维基。 - 查询循环。 当他有问题时,他向 LLM 提问。它搜索维基,打开相关文件,用内容回答。
- 代码检查过程。 偶尔 LLM 会扫描维基,寻找不一致、缺失数据或值得记录的新连接。
他目前的研究维基有约 100 篇文章和约 40 万词。他向它提出复杂问题,得到带有来源的答案。
没有向量数据库。没有嵌入模型。没有分块策略。没有检索排名。只是 Markdown 文件、文件夹结构和能读取它们的 LLM。
为什么它比 RAG 更好(对此而言)
维基模式具有 RAG 无法在不成为维基的情况下匹敌的结构优势。
溯源是免费的。 每个答案都引用一个文件。你可以打开它、阅读它、编辑它、删除它。没有”嵌入如此说”。
编辑是微不足道的。 Markdown 文件是文本。在任何编辑器中打开它。修改错别字。添加笔记。删除一个部分。下一次查询立即反映变化。没有重新嵌入步骤。
结构在复利增长。 当 LLM 编译维基时,它构建反向链接和概念页面。随着你保存更多,维基会变得更好,因为 LLM 有更多上下文将新条目与现有内容连接。向量索引只是变得更大。
可移植性是完全的。 一个 .md 文件夹在 Obsidian、VS Code、GitHub、Logseq、vim 或 cat 中都能工作。向量数据库是一个黑箱,你需要特定的运行时来读取它。
你自己也可以读它。 这听起来很明显,但这是最大的优势。你有时会想知道你的知识库里有什么。用 RAG,这是一个报告查询。用 Markdown,这是 ls。
诚实的权衡:RAG 在你有数百万文档、多租户访问或硬延迟限制时仍然胜出(想想在数百万帮助文章语料库上的客户支持聊天机器人)。对于个人知识——你的阅读、你的研究、你的领域——维基模式现在严格地更好。
缺失的部分:摄取
Karpathy 的模式有一个静默的假设:将干净的 Markdown 放入 raw/ 文件夹是容易的。对于已经使用 Obsidian Web Clipper 的开发者来说,某种程度上确实如此。对其他人来说,这是工作流程死亡的步骤。
Web Clipper 可能在付费墙页面、重度 JavaScript 网站、视频内容、X 推文线程以及任何动态内容上遇到困难。人们保存了乱码的 HTML,放弃了,并得出结论”维基这个东西不适合我”。
Save 扩展专门用于修复这一步骤。它使用 Gemini 从任意页面提取干净内容,包括:
- 你有访问权限的付费墙后的文章
- YouTube 视频(完整字幕 + AI 摘要)
- X/Twitter 推文线程
- Instagram Reels 和 TikTok 字幕(已转录)
- Reddit 讨论
- 代码块完整的文档
- 传统爬虫无法处理的动态 SPA
一次点击。干净的 Markdown 输出。放入文件夹。
另一个缺失的部分:MCP 设置
Karpathy 的模式还假设你可以配置 MCP 服务器。对于 Claude Code 用户,这是一行 cd。对于使用 Claude Desktop 的所有人,这意味着编辑 JSON 配置文件并重启应用——还要确保路径正确,并记住在移动文件夹时重做。
Save Vault 将两个缺失部分整合为一个应用:
- Save 扩展自动将干净的 Markdown 输入 Save Vault
- Save Vault 写入
~/Documents/Save Vault/,组织成知识库(子文件夹) - 内置 MCP 服务器将
list_knowledge_bases、list_files、read_file和search暴露给 Claude - 菜单栏中的”连接到 Claude”切换按钮将 MCP 服务器连接到 Claude Desktop 和 Claude Code,无需编辑 JSON
结果是磨平了粗糙边缘的 Karpathy 模式。保存页面 → 它落入你的 Vault → Claude 可以回答关于它的问题。没有向量数据库,没有分块,没有嵌入。
实践中是什么样的
想象你在研究一个竞争对手。
第 1 天。 你保存了他们的定价页面、三篇博客文章和一个关于他们种子轮的 Hacker News 帖子。你的 Competitors 知识库中有五个文件。
第 5 天。 你问 Claude:“这家公司去年做了哪些定价变化,客户是如何反应的?” Claude 搜索你的 Competitors 知识库,读取相关文件,引用定价页面,呈现 HN 帖子情绪,并回答——全部带有来源。
第 30 天。 你有 40 个文件分布在 Competitors、Customers 和 AI Research 中。你让 Claude 将每个知识库编译成维基。它写概念页面,连接它们,标记矛盾。你现在拥有三个活生生的维基,你可以像搜索引擎一样查询,但更好——因为它们只包含你策划的内容。
第 90 天。 你的维基比你购买的任何分析师报告都更大,比任何顾问幻灯片都更新,完全属于你。每一个主张都有源于你保存的文件。
这就是当摩擦消失后,个人知识库真正的感觉。RAG 应该实现这个但没有。Karpathy 模式实现了——一旦摄取和 MCP 部分为你连接好了。
试试看
- 安装 Save Chrome 扩展
- 从 savemarkdown.co 安装 Save Vault
- 在菜单栏中切换连接到 Claude
- 保存 10 件你一直想阅读的东西
- 打开 Claude 并提出一个将它们联系在一起的问题
这就是后 RAG 工作流程。它已经在取代个人知识的向量数据库。唯一剩下的就是开始构建你自己的。
Save Vault 是免费的。Save 扩展每月 3 次免费保存,无限次 5.99 美元/月。savemarkdown.co。