#每日学习打卡#
大家早上好,今天我们来学习AGI的进展。
LLM Wiki的完整架构
卡帕西在GitHub Gist上公开了他的完整构想。
虽然他刻意写得比较「抽象」——因为他认为在AI Agent时代,分享的应该是想法而非具体代码,让每个人的Agent去根据想法定制实现——但整套系统的骨架其实非常清晰。
第一层:原始数据(Raw Sources)
就是你的素材库。论文、文章、代码、图片、数据集……统统扔进一个raw/文件夹。
不需要你整理,不需要你分类,扔进去就行。
这一层是「不可变」的——大模型只读取,绝不修改。这是你的信息源头、真相之本。
卡帕西推荐用Obsidian Web Clipper浏览器插件,看到好文章一键转成Markdown,再用快捷键把图片全部下载到本地,确保以后网站挂了图也不会丢。
第二层:Wiki(The Wiki)
这是整个系统的核心。
大模型读完raw/里的素材后,不是简单地「索引」它们,而是主动地「编译」出一整套结构化的Wiki。
什么叫「编译」?
就像编译器把你的源代码变成可执行程序一样,大模型把你的「原始资料」变成了一部可导航、可查询、互相引用的知识体系。
具体来说,大模型会做这些事:给每篇素材写摘要,抽取关键概念,为重要主题撰写独立文章,在不同页面之间建立反向链接,维护一个总索引文件(index.md),记录操作日志(log.md)。
你几乎不用手动编辑Wiki里的任何内容。
写文章的是大模型,打标签的是大模型,建链接的是大模型。
用卡帕西自己的话说——Obsidian是IDE,大模型是程序员,Wiki是代码库。
第三层:规则文件(The Schema)
这是一份「说明书」,告诉大模型这个Wiki怎么组织、有什么规矩、遇到不同情况该怎么操作。
比如在Claude Code里是CLAUDE.md,在OpenAI Codex里是AGENTS.md。
这份文件由你和大模型「共同进化」——你用着用着发现什么规则好用就加上去,什么不好用就改掉。
我们一起学习的。2026.4.6dm