上周整理一篇文章的大纲,随口跟AI说"用上次那个三段式结构"。
它直接回了一版,结构和三个月前写的那篇一模一样。
愣了几秒。没有任何提示词,没有贴过旧文,甚至那篇文章的对话早就翻不到了。它是怎么"记住"的?
翻了一圈设置,没装过任何记忆插件。没有配置过向量数据库,没有接过Google Cloud,甚至连"memory"这个词都没在配置文件里打过。
但AI确实记得。不是幻觉,不是巧合,是真的记得。
后来才搞明白:OpenClaw开箱就跑着三套记忆系统,一直在安静地干活。只是从来没注意过。
为什么"记住"这么难
用过ChatGPT或Claude的人大概都有这个体验:昨天花了20分钟教它一套工作流程,今天开一个新对话,又要从头来。
这不是AI笨,是架构决定的。大多数AI产品每次对话都是一张白纸。上一轮聊的内容,关掉窗口就没了。像一个每天早上都失忆的同事,能力很强,但永远记不住你说过什么。
这也是"AI工具"和"AI助理"之间最大的区别。工具用完放回去,下次拿起来还是一样。助理不一样,好的助理会记住你的习惯、偏好、上次的决定,不需要每次都重新交代。
市面上的方案,劝退率极高
意识到记忆的重要性之后,搜了一圈现有的解决方案。
Vertex AI Memory Plugin:需要开通Google Cloud账号,装gcloud CLI,配置API密钥,按调用量计费。光是读完文档就花了半小时,还没开始装。
LOCAL-MEM0:要装FAISS向量检索库、SQLite数据库、一堆Python依赖。对开发者来说不算难,但对"想用AI提升效率的普通人"来说,等于让一个想学做饭的人先去考厨师证。
QMD:需要单独安装命令行工具,手动编辑openclaw.json配置文件。
每一个方案都在解决记忆问题,但每一个方案都先制造了一个"安装问题"。
其实什么都不用装
回到开头那个问题:既然没装过任何插件,AI是怎么记住的?
跑了一下 openclaw memory status,看到了答案:
📊 54个文件已索引,257个语义块,向量数据库就绪。
LCM 和 Memory Search 是 OpenClaw 的内置功能,装好 OpenClaw 就自动启用,不需要额外安装任何东西,也不需要改任何配置。
OpenClaw在后台默默做了三件事,对应三层记忆,各管各的,互不干扰。
第一层:LCM(对话不遗忘)
LCM的全称是Long Conversation Memory,大白话说就是:对话越长,它越聪明,而不是越长越糊涂。
普通AI聊到几百条消息的时候,早期的内容就被挤出上下文窗口了,等于自动遗忘。LCM会把长对话自动做摘要压缩,把关键信息保留下来,不重要的细节丢掉。
打个比方:你跟一个人聊了三小时,事后回忆,不会逐字记住每句话,但关键结论、重要决定、对方的态度,都记得清清楚楚。LCM干的就是这个事。
零配置,开箱就在跑。
第二层:Memory Search(知识库检索)
这一层管的不是对话,是文件。
OpenClaw会自动扫描工作区里的所有 .md 文件,把每个文件切成语义块,生成向量索引。当AI需要回答一个问题的时候,会先到这个索引里搜一圈,看看有没有相关的内容。
用Gemini embedding做语义理解,所以不是关键词匹配,是"意思相近"就能搜到。比如搜"上次写的那篇关于偷懒的文章",它能找到标题完全不含"偷懒"两个字的相关文件。
跑 openclaw memory status 能看到具体数字。目前工作区54个文件、257个语义块,全部自动完成,没动过一行配置。
就像给AI配了一个随时能翻的笔记本,而且这个笔记本自带搜索引擎。
第三层:MEMORY.md(长期个人档案)
前两层是系统自动干的,这一层需要人参与,但也不复杂。
工作区里有一个 MEMORY.md 文件,AI每次启动的时候会主动读取。里面记的是长期信息:写作风格偏好、常用的文章结构、踩过的坑、做过的决定。
相当于人的日记本。系统负责短期记忆和知识检索,日记本负责"这个人是谁、喜欢什么、忌讳什么"。
配合心跳任务(OpenClaw的定时检查机制),AI还会每隔48小时自动回顾最近的日志,把有价值的经验提炼到 MEMORY.md 里。这个过程叫"记忆蒸馏",跟人每隔几天翻翻日记、把重要的事记到脑子里是一个道理。
三层怎么配合
| 层级 | 类比 | 负责什么 | 需要配置吗 |
|---|---|---|---|
| LCM | 工作记忆 | 当前对话不遗忘 | 不需要 |
| Memory Search | 笔记本+搜索引擎 | 从文件里查资料 | 不需要 |
| MEMORY.md | 个人日记 | 记住偏好和决策 | 写就行 |
三层各管一摊。短对话靠LCM撑住,长知识靠Memory Search检索,个人偏好靠MEMORY.md兜底。
大多数时候感知不到它们的存在,就像一个好助理不会天天跟你汇报"今天帮你记了15条笔记"。只是在需要的时候,它刚好记得。
不需要花钱,不需要装依赖
不用开Google Cloud账号。不用装Python。不用配置向量数据库。不用编辑JSON文件。
OpenClaw把AI记忆最难的部分做成了默认行为。装完就在跑,一直在跑,只是大多数人没注意到。
如果好奇自己的AI到底记了多少东西,跑一行命令:
openclaw memory status
看到那个数字的时候,可能会和当初一样愣一下:原来它一直都记得。