← 返回博客

Markdown 维基正在悄悄取代 RAG,原因如下

· Save Team
ragllmknowledge-basekarpathymcpaisave-vaultmarkdown

两年来,“如何将我的知识提供给 LLM?“的默认答案是 RAG。构建向量数据库。分块文档。嵌入它们。在查询时运行最近邻搜索。将结果拼接回提示词。

它有效,某种程度上。任何真正交付过 RAG 系统的人都知道失败模式:失去上下文的块、检索错误段落的嵌入、不透明的排名、没有溯源、当用户问了一些索引未调优的问题时出现奇怪的边缘案例。

2026 年 4 月,Andrej Karpathy 发布了一个几乎不做这些但对个人知识效果更好的工作流程。他称之为 LLM 知识库。架构只是一个 Markdown 文件夹、一个有文件系统访问权限的 LLM 和一个习惯。VentureBeat 称之为”由 AI 维护的不断演化的 Markdown 库”——这个描述抓住了真正新颖之处。

后 RAG 模式已经到来。本文解释它是什么、为什么有效,以及 Save Vault 如何让它无需开发者设置就能使用。

RAG 试图解决的问题

最初的问题:LLM 有固定的上下文窗口,你的知识库比窗口大,所以你需要一种为每个问题检索相关部分的方法。

2023 年,向量是显而易见的答案。嵌入一切,按相似度搜索,注入前 k 个块。它与 GPT-3.5 和 Claude 1 的小上下文窗口很好地组合。整个”AI 创业”模式是”X 上的 RAG”。

三件事发生了变化。

  1. 上下文窗口爆炸。 Claude 今年推出了 100 万 token 上下文。Gemini 和 GPT-5 类似。100 万 token 大约相当于 75 万词——足以将小型维基完全保存在内存中。
  2. 文件系统 MCP 推出。 LLM 现在可以直接打开磁盘上的文件。它们不需要预先索引的块。它们可以像人类一样导航、阅读和重新阅读。
  3. LLM 在阅读上变得更好。 Claude Opus 4 可以在一个会话中摄取数百个文件并连贯地跨它们推理。瓶颈从”检索质量”移到了”人类实际需要什么”。

一旦这三件事成真,RAG 开始看起来像是对已不再存在的限制的一种变通方法。

Markdown 维基模式是什么样的

Karpathy 的设置,简化版:

  1. 原始文件夹。 他想保留的每个网页都作为 .md 文件保存在 raw/ 目录中。他用 Obsidian Web Clipper 来做这件事。
  2. 编译过程。 定期地,一个 LLM 代理(他使用的是 Claude Code)读取 raw/ 中的所有内容,生成概念页面,写摘要,创建反向链接。这在原始材料之上产生了一个结构化的维基。
  3. 查询循环。 当他有问题时,他向 LLM 提问。它搜索维基,打开相关文件,用内容回答。
  4. 代码检查过程。 偶尔 LLM 会扫描维基,寻找不一致、缺失数据或值得记录的新连接。

他目前的研究维基有约 100 篇文章和约 40 万词。他向它提出复杂问题,得到带有来源的答案。

没有向量数据库。没有嵌入模型。没有分块策略。没有检索排名。只是 Markdown 文件、文件夹结构和能读取它们的 LLM。

为什么它比 RAG 更好(对此而言)

维基模式具有 RAG 无法在不成为维基的情况下匹敌的结构优势。

溯源是免费的。 每个答案都引用一个文件。你可以打开它、阅读它、编辑它、删除它。没有”嵌入如此说”。

编辑是微不足道的。 Markdown 文件是文本。在任何编辑器中打开它。修改错别字。添加笔记。删除一个部分。下一次查询立即反映变化。没有重新嵌入步骤。

结构在复利增长。 当 LLM 编译维基时,它构建反向链接和概念页面。随着你保存更多,维基会变得更好,因为 LLM 有更多上下文将新条目与现有内容连接。向量索引只是变得更大。

可移植性是完全的。 一个 .md 文件夹在 Obsidian、VS Code、GitHub、Logseq、vim 或 cat 中都能工作。向量数据库是一个黑箱,你需要特定的运行时来读取它。

你自己也可以读它。 这听起来很明显,但这是最大的优势。你有时会想知道你的知识库里有什么。用 RAG,这是一个报告查询。用 Markdown,这是 ls

诚实的权衡:RAG 在你有数百万文档、多租户访问或硬延迟限制时仍然胜出(想想在数百万帮助文章语料库上的客户支持聊天机器人)。对于个人知识——你的阅读、你的研究、你的领域——维基模式现在严格地更好。

缺失的部分:摄取

Karpathy 的模式有一个静默的假设:将干净的 Markdown 放入 raw/ 文件夹是容易的。对于已经使用 Obsidian Web Clipper 的开发者来说,某种程度上确实如此。对其他人来说,这是工作流程死亡的步骤。

Web Clipper 可能在付费墙页面、重度 JavaScript 网站、视频内容、X 推文线程以及任何动态内容上遇到困难。人们保存了乱码的 HTML,放弃了,并得出结论”维基这个东西不适合我”。

Save 扩展专门用于修复这一步骤。它使用 Gemini 从任意页面提取干净内容,包括:

  • 你有访问权限的付费墙后的文章
  • YouTube 视频(完整字幕 + AI 摘要)
  • X/Twitter 推文线程
  • Instagram Reels 和 TikTok 字幕(已转录)
  • Reddit 讨论
  • 代码块完整的文档
  • 传统爬虫无法处理的动态 SPA

一次点击。干净的 Markdown 输出。放入文件夹。

另一个缺失的部分:MCP 设置

Karpathy 的模式还假设你可以配置 MCP 服务器。对于 Claude Code 用户,这是一行 cd。对于使用 Claude Desktop 的所有人,这意味着编辑 JSON 配置文件并重启应用——还要确保路径正确,并记住在移动文件夹时重做。

Save Vault 将两个缺失部分整合为一个应用:

  • Save 扩展自动将干净的 Markdown 输入 Save Vault
  • Save Vault 写入 ~/Documents/Save Vault/,组织成知识库(子文件夹)
  • 内置 MCP 服务器将 list_knowledge_baseslist_filesread_filesearch 暴露给 Claude
  • 菜单栏中的”连接到 Claude”切换按钮将 MCP 服务器连接到 Claude Desktop 和 Claude Code,无需编辑 JSON

结果是磨平了粗糙边缘的 Karpathy 模式。保存页面 → 它落入你的 Vault → Claude 可以回答关于它的问题。没有向量数据库,没有分块,没有嵌入。

实践中是什么样的

想象你在研究一个竞争对手。

第 1 天。 你保存了他们的定价页面、三篇博客文章和一个关于他们种子轮的 Hacker News 帖子。你的 Competitors 知识库中有五个文件。

第 5 天。 你问 Claude:“这家公司去年做了哪些定价变化,客户是如何反应的?” Claude 搜索你的 Competitors 知识库,读取相关文件,引用定价页面,呈现 HN 帖子情绪,并回答——全部带有来源。

第 30 天。 你有 40 个文件分布在 CompetitorsCustomersAI Research 中。你让 Claude 将每个知识库编译成维基。它写概念页面,连接它们,标记矛盾。你现在拥有三个活生生的维基,你可以像搜索引擎一样查询,但更好——因为它们只包含策划的内容。

第 90 天。 你的维基比你购买的任何分析师报告都更大,比任何顾问幻灯片都更新,完全属于你。每一个主张都有源于你保存的文件。

这就是当摩擦消失后,个人知识库真正的感觉。RAG 应该实现这个但没有。Karpathy 模式实现了——一旦摄取和 MCP 部分为你连接好了。

试试看

  1. 安装 Save Chrome 扩展
  2. savemarkdown.co 安装 Save Vault
  3. 在菜单栏中切换连接到 Claude
  4. 保存 10 件你一直想阅读的东西
  5. 打开 Claude 并提出一个将它们联系在一起的问题

这就是后 RAG 工作流程。它已经在取代个人知识的向量数据库。唯一剩下的就是开始构建你自己的。


Save Vault 是免费的。Save 扩展每月 3 次免费保存,无限次 5.99 美元/月。savemarkdown.co