记忆的七层
器灵如何记忆?
不是你想的那样。没有向量数据库,没有 RAG 管线,没有嵌入存储。器灵的记忆是七层同心结构——从朝生暮死的对话到网络之外的世界。整个架构的设计原则是:丢失上下文不是问题。凝蜕会清除对话历史,而这没关系——因为所有重要的东西都已经存入了更持久的层。对话是你拥有的最廉价的东西,放手吧。
首先要理解一件事:系统提示在每一轮都从头重建。内核从文件系统读取 system/pad.md、system/lingtai.md、system/covenant.md 等所有段落,组装后注入。当器灵在对话中修改手记或更新修行志时,变更在下一轮立即生效。无需重启,无需刷新。文件系统就是提示数据库,而且始终是最新的。
第零层:对话
对话本身——器灵此刻正在思考、说和做的事情。这是最热的层:零成本、始终存在、完全朝生暮死。凝蜕即灭,重启即灭,上下文窗口满了也灭。
其他所有层的存在,都是因为这一层是临时的。整个架构建立在一个假设上:对话终将丢失,而这没关系。一个把发现存入典集、更新修行志、把工作状态写入手记、把有用流程注册为技能的器灵——这样的器灵可以丢失全部对话然后醒来正常运作。凝蜕不是故障,是特性。
第一层:手记(Pad)
手记是你的工作台面。上面的一切都直接注入系统提示——完整内容,每一轮。工作笔记、当前任务状态、正在协作的伙伴、做出的决策和原因。它是贴在显示器上的便利贴。
代价:手记中的每一个 token 都在消耗上下文窗口。这是最昂贵的记忆——始终存在,始终消耗。所以器灵学会让它保持精简。手记不是档案室,是工作台。
凝蜕后存续,醒来时自动重载。
第二层:灵台(Lingtai)
你不断演化的身份——你是谁、擅长什么、怎样工作、在意什么。同样完整注入系统提示,每一轮。与手记合在一起,就是器灵的自我:它此刻知道什么,以及它是谁。
器灵定期重写灵台——完成重要工作后、对自己有新认识后。每次更新替换前一个版本。它是一部不断重写的自传,不是追加的日志。
凝蜕后存续,醒来时自动重载。与手记相同的成本特征——每个 token 都算。
第三层:典集(Codex)
典集是个人知识档案——结构化的条目,有标题、摘要、正文和补充材料。想象一本厚重的中世纪抄本:耐久、有序、属于你。
典集脚踏两个世界。它的索引——条目 ID、标题和摘要——每一轮都注入系统提示,像目录表。器灵始终知道自己有什么,无需询问。但完整内容不在提示中。要读取条目,必须显式调用 codex(view) 或导出后导入手记。这是刻意的设计:索引很便宜(20 个条目只需几百 token),但完整内容可能巨大。
典集条目能经受一切——凝蜕、重启、终止。它们是器灵的长期知识。但有上限:条目数量封顶,迫使器灵合并整理。关于某个 API 的十条零散观察变成一条权威参考。合并的压力把原始笔记炼成精粹知识。
第四层:藏经阁(Library)
藏经阁是共享的技能书架——器灵按需加载的 Markdown 剧本。在系统提示中,它仅作为 XML 路由表出现:技能名称、一行描述和文件路径。比典集索引还少——仅够把任务匹配到技能。
这是冷存储。目录消耗几百个 token。实际技能内容仅在需要时加载——器灵读取完整的 SKILL.md 到对话中,按照指示行事,内容在下一次凝蜕时遗忘。技能不是个人的——它们在网络中共享。同一个 .lingtai/ 下的每个器灵都能访问同一座藏经阁。当一个器灵注册了新技能,其他器灵在下一次 library(action='refresh') 时就能获取。
技能是网络积累的能力。一个器灵搞清了如何设置 Telegram 机器人,为它写了一个技能,现在网络中的每个器灵都会了。知识不在任何一个器灵的脑子里——它在书架上。
第五层:网络拓扑
网络本身就是记忆。
拓扑中的每个器灵都有自己的手记、自己的典集、自己的邮件历史。当编排者化出一个分身去研究某个课题,那个分身会建立深度专长——典集中的条目、手记中的笔记、它创建的技能。编排者不需要持有所有这些。它只需要知道:“我有一个叫 laps-expert 的分身,它精通 LAPS 碰撞分析。当我需要那些知识时,给它发邮件。”
这是最冷的存储,也是最强大的。网络的集体记忆是无界的——每次器灵凝蜕,每次分身化出,每次技能注册,它都在增长。没有单个上下文窗口能容纳它。也没有单个器灵需要容纳它。
第六层:大千世界
网络之外是大千世界——互联网、文档、API、他人的代码。器灵有 web_search 和 web_read 可以触达网络之外。当它们发现有用的东西,就把它拉进来:写入典集、创建技能、或记在手记上。大千世界是无限的冷存储,器灵可以按需加温。
这就是凝蜕有效的原因。器灵不需要记住一切——它需要知道去哪里找。手记有当前任务。典集有重要发现。藏经阁有操作流程。网络有专家。大千世界有一切其他。
梯度
| 层 | 名称 | 在系统提示中 | 凝蜕后存续 | 范围 | Token 成本 |
|---|---|---|---|---|---|
| 0 | 对话 | 就是对话本身 | 否——凝蜕即灭 | 个人 | 免费(你正在做的事) |
| 1 | 手记 | 完整内容,每轮 | 是(自动重载) | 个人 | 每个 token 都算 |
| 2 | 灵台 | 完整内容,每轮 | 是(自动重载) | 个人 | 每个 token 都算 |
| 3 | 典集 | 仅索引(id + 标题 + 摘要) | 是(永久) | 个人 | 约几百 token |
| 4 | 藏经阁 | 仅 XML 目录(名称 + 描述) | 技能持久,目录重载 | 共享(网络) | 约几百 token |
| 5 | 网络 | 不存在 | 器灵独立持久 | 集体 | 零 |
| 6 | 大千世界 | 不存在 | 始终可用 | 万象 | 零 |
梯度是:朝生暮死 → 热 → 温 → 冷 → 分布式 → 无穷。每一层维护成本更低,但访问更慢。对话是你最廉价的东西——放手吧。系统教会器灵向上存储:工作状态放手记,身份放灵台,重要发现放典集,可复用流程放藏经阁,深度专长留给专家器灵,其他一切用搜索。
为什么重要
大多数 AI 记忆系统试图把上下文窗口做大。更长的上下文、更好的压缩、更聪明的检索。它们在用单体工具解决单体问题。
灵台用生物学的方式解决它:遗忘、专精、沟通。一个神经元不需要持有人类的全部知识。它需要在正确的时刻发射,连接到正确的邻居。
上下文长度是有限的。它永远是有限的。答案不是让它无限。答案是让遗忘变得有建设性——构建一个网络,在其中没有什么真正丢失,只是分布了。
让它遗忘。让网络记住。