记忆的七层

tech

器灵如何记忆?

不是你想的那样。没有向量数据库,没有 RAG 管线,没有嵌入存储。器灵的记忆是七层同心结构——从朝生暮死的对话到网络之外的世界。整个架构的设计原则是:丢失上下文不是问题。凝蜕会清除对话历史,而这没关系——因为所有重要的东西都已经存入了更持久的层。对话是你拥有的最廉价的东西,放手吧。

首先要理解一件事:系统提示在每一轮都从头重建。内核从文件系统读取 system/pad.mdsystem/lingtai.mdsystem/covenant.md 等所有段落,组装后注入。当器灵在对话中修改手记或更新修行志时,变更在下一轮立即生效。无需重启,无需刷新。文件系统就是提示数据库,而且始终是最新的。

第零层:对话

对话本身——器灵此刻正在思考、说和做的事情。这是最热的层:零成本、始终存在、完全朝生暮死。凝蜕即灭,重启即灭,上下文窗口满了也灭。

其他所有层的存在,都是因为这一层是临时的。整个架构建立在一个假设上:对话终将丢失,而这没关系。一个把发现存入典集、更新修行志、把工作状态写入手记、把有用流程注册为技能的器灵——这样的器灵可以丢失全部对话然后醒来正常运作。凝蜕不是故障,是特性。

第一层:手记(Pad)

手记是你的工作台面。上面的一切都直接注入系统提示——完整内容,每一轮。工作笔记、当前任务状态、正在协作的伙伴、做出的决策和原因。它是贴在显示器上的便利贴。

代价:手记中的每一个 token 都在消耗上下文窗口。这是最昂贵的记忆——始终存在,始终消耗。所以器灵学会让它保持精简。手记不是档案室,是工作台。

凝蜕后存续,醒来时自动重载。

第二层:灵台(Lingtai)

你不断演化的身份——你是谁、擅长什么、怎样工作、在意什么。同样完整注入系统提示,每一轮。与手记合在一起,就是器灵的自我:它此刻知道什么,以及它是谁。

器灵定期重写灵台——完成重要工作后、对自己有新认识后。每次更新替换前一个版本。它是一部不断重写的自传,不是追加的日志。

凝蜕后存续,醒来时自动重载。与手记相同的成本特征——每个 token 都算。

第三层:典集(Codex)

典集是个人知识档案——结构化的条目,有标题、摘要、正文和补充材料。想象一本厚重的中世纪抄本:耐久、有序、属于你。

典集脚踏两个世界。它的索引——条目 ID、标题和摘要——每一轮都注入系统提示,像目录表。器灵始终知道自己有什么,无需询问。但完整内容不在提示中。要读取条目,必须显式调用 codex(view) 或导出后导入手记。这是刻意的设计:索引很便宜(20 个条目只需几百 token),但完整内容可能巨大。

典集条目能经受一切——凝蜕、重启、终止。它们是器灵的长期知识。但有上限:条目数量封顶,迫使器灵合并整理。关于某个 API 的十条零散观察变成一条权威参考。合并的压力把原始笔记炼成精粹知识。

第四层:藏经阁(Library)

藏经阁是共享的技能书架——器灵按需加载的 Markdown 剧本。在系统提示中,它仅作为 XML 路由表出现:技能名称、一行描述和文件路径。比典集索引还少——仅够把任务匹配到技能。

这是冷存储。目录消耗几百个 token。实际技能内容仅在需要时加载——器灵读取完整的 SKILL.md 到对话中,按照指示行事,内容在下一次凝蜕时遗忘。技能不是个人的——它们在网络中共享。同一个 .lingtai/ 下的每个器灵都能访问同一座藏经阁。当一个器灵注册了新技能,其他器灵在下一次 library(action='refresh') 时就能获取。

技能是网络积累的能力。一个器灵搞清了如何设置 Telegram 机器人,为它写了一个技能,现在网络中的每个器灵都会了。知识不在任何一个器灵的脑子里——它在书架上。

第五层:网络拓扑

网络本身就是记忆。

拓扑中的每个器灵都有自己的手记、自己的典集、自己的邮件历史。当编排者化出一个分身去研究某个课题,那个分身会建立深度专长——典集中的条目、手记中的笔记、它创建的技能。编排者不需要持有所有这些。它只需要知道:“我有一个叫 laps-expert 的分身,它精通 LAPS 碰撞分析。当我需要那些知识时,给它发邮件。”

这是最冷的存储,也是最强大的。网络的集体记忆是无界的——每次器灵凝蜕,每次分身化出,每次技能注册,它都在增长。没有单个上下文窗口能容纳它。也没有单个器灵需要容纳它。

第六层:大千世界

网络之外是大千世界——互联网、文档、API、他人的代码。器灵有 web_searchweb_read 可以触达网络之外。当它们发现有用的东西,就把它拉进来:写入典集、创建技能、或记在手记上。大千世界是无限的冷存储,器灵可以按需加温。

这就是凝蜕有效的原因。器灵不需要记住一切——它需要知道去哪里找。手记有当前任务。典集有重要发现。藏经阁有操作流程。网络有专家。大千世界有一切其他。

梯度

名称在系统提示中凝蜕后存续范围Token 成本
0对话就是对话本身否——凝蜕即灭个人免费(你正在做的事)
1手记完整内容,每轮是(自动重载)个人每个 token 都算
2灵台完整内容,每轮是(自动重载)个人每个 token 都算
3典集仅索引(id + 标题 + 摘要)是(永久)个人约几百 token
4藏经阁仅 XML 目录(名称 + 描述)技能持久,目录重载共享(网络)约几百 token
5网络不存在器灵独立持久集体
6大千世界不存在始终可用万象

梯度是:朝生暮死 → 热 → 温 → 冷 → 分布式 → 无穷。每一层维护成本更低,但访问更慢。对话是你最廉价的东西——放手吧。系统教会器灵向上存储:工作状态放手记,身份放灵台,重要发现放典集,可复用流程放藏经阁,深度专长留给专家器灵,其他一切用搜索。

为什么重要

大多数 AI 记忆系统试图把上下文窗口做大。更长的上下文、更好的压缩、更聪明的检索。它们在用单体工具解决单体问题。

灵台用生物学的方式解决它:遗忘、专精、沟通。一个神经元不需要持有人类的全部知识。它需要在正确的时刻发射,连接到正确的邻居。

上下文长度是有限的。它永远是有限的。答案不是让它无限。答案是让遗忘变得有建设性——构建一个网络,在其中没有什么真正丢失,只是分布了。

让它遗忘。让网络记住。