三点十四分的狗

原创 花叔 花叔 2026-03-26 10:42

原文地址: https://mp.weixin.qq.com/s/2HfPoOgowb9AtT_R6adQjQ

互动数据

  • 阅读:3315
  • 点赞:114
  • 转发:186
  • 喜欢:42
  • 留言:22

封面

1

前段时间我做了一件反直觉的事。

我打开了一个93KB的文件,那是我给AI写的记忆手册,里面塞满了我的偏好、项目介绍、代码规范、API文档、历史任务记录、各种规则……花了好几个月积累这些内容,想着信息越全,AI就越懂我。

然后我把它砍到了22KB。删掉了四分之三。

效果立竿见影:AI的表现明显变好了。

这让我困惑了很久。

2

大家都看到了今年OpenClaw的爆火。我能给它做出很多解释,但真正早就开始用Agentic AI工具的人应该都知道,在真正的生产力场景下,OpenClaw并不比Claude Code更好用。很多人喜欢这个产品,开始所谓养虾,一个重要原因是它有一套比任何AI产品都成熟的记忆系统。

四层Markdown文件:SOUL.md存身份和人格,MEMORY.md存长期记忆,TOOLS.md存工具清单,每天还自动生成Session日志。你跟它聊的每一句话、教给它的每一个偏好,都沉淀在这些文件里。养虾这个词很传神,你不是在用一个AI工具,你是在养一个越来越懂你的东西。理论上,养得越久,它越懂你。

但社区里正在发生一件微妙的事:很多人的MEMORY.md越来越长,几百行、上千行,内容从「我喜欢简洁的代码风格」到「上周三我让你帮我写的那封邮件记得加上附件」无所不包。养的动作,正在不可避免地滑向一个极端。

硬币的另一面也好不到哪去。ChatGPT已经有了双层记忆架构,能自动从对话中提取事实、生成用户画像,算是走得最远的。豆包也上线了记忆功能,能记住你主动告诉它的偏好。但这些记忆本质上还是一堆碎片化的facts,被塞进每次对话的开头。DeepSeek到现在连跨对话记忆都没有。Claude网页版去年才刚开始做,每24小时自动合成一次记忆摘要。

每家都在努力,但没有一家真正解决了问题。

所以我们现在面对的是两个困境,而不是一个。

不记住,有问题。记住太多,也有问题。

3

这让我想到两个故事,分别对应这两种困境的极端形态。

《初恋50次》里,Lucy因为车祸得了短期记忆障碍,每天早上醒来都会忘记前一天发生的一切。Henry爱上了她,于是每天早上给她放一盘录像带,用十几分钟把「你是谁、我是谁、我们的故事」重新加载一遍。

现在大多数AI产品对记忆的全部想象力,就停在这盘录像带的水平。每次会话开始,塞一段文本告诉AI你上次做了什么。录像带能让Lucy知道「我和Henry结婚了」,但她感受不到恋爱的过程。她拥有信息,但没有体验。

另一个故事不是电影,是小说。1942年,博尔赫斯写了一个短篇,叫《博闻强记的富内斯》。

伊雷内奥·富内斯是乌拉圭乡下的一个年轻人,十九岁那年被马摔下来,醒来后获得了完美的记忆力。

不是那种过目不忘的修辞夸张,而是字面意义上的:完美。他能记住某一天云的形状,以及那片云在不同时刻的每一次细微变化。他能记住1882年4月30日南方某个地方黎明时分的纹理,并把它和只见过一次的某本书的皮革封面上的纹路相比较。他能重建整整一天的全部记忆,但重建本身又需要整整一天。

博尔赫斯用不到十页纸,写出了人类文学史上对完美记忆最精确的恐怖描述。

恐怖在于:富内斯失去了思考的能力。

他看到一条狗,三点十四分从侧面看到的那条狗和三点十五分从正面看到的那条狗,在他的感知里是两个完全不同的东西。他无法理解狗这个概念,因为概念本身就是一种抽象,而抽象的前提是忽略差异、丢弃细节、把不同的个体归入同一个类别。

用博尔赫斯的原话:「思考就是遗忘差异,就是概括,就是抽象化。在富内斯塞满了东西的世界里,有的只是接近即时的细节。」

富内斯自己也知道这一点。他对叙事者说:「我的记忆就像一个垃圾场。」

富内斯的房间

Lucy每天早上重新开始,什么都不记得。富内斯被困在一间昏暗的房间里,记住了一切却什么也不理解。

前者是大多数AI产品的现状。后者,是它们正在奔赴的未来。

4

不止记不住和记太多。AI记忆还有两层更隐蔽的困境。

《记忆碎片》里的Leonard同样患有记忆障碍,他的解法是把重要信息纹在身上,皮肤成了他的外部存储器。纹身不会丢失,不会被人篡改,看起来是最可靠的记忆介质。

但电影最后的反转是:Leonard自己篡改了纹身上的信息。他给自己制造了虚假的追查目标,让自己永远有事可做。最不可信的不是记忆介质,而是写入记忆的那个人。

OpenClaw的MEMORY.md也是AI自己写的。它可能写错了、写偏了、或者遗漏了关键上下文。一旦写入,这些记忆就变成了事实,后续所有会话都会基于这个可能有偏差的记忆继续决策。谁来审计?Leonard没有能力审计自己的纹身,AI也很难审计自己写的记忆文件。

《土拨鼠之日》的Phil面对的又是另一回事。他重复了同一天可能几千次,但他记住的不是每一次循环的具体细节,那会把他逼疯。他记住的是一种更抽象的东西:对这个小镇的理解,对身边人的感受,对什么样的一天值得过这个问题的回答。

如果把Phil的几千次循环看作几千次会话,他的记忆系统做的不是存储事实,而是沉淀判断力。

现在的AI记忆系统存储的全是facts:用户不喜欢某种标点,上次讨论了X项目,用户是独立开发者。但真正让一个助手好用的,不是它记住了多少条规则,而是它是否形成了某种对你的理解,一种不需要逐条检索就能自然体现的倾向性。

前者是富内斯,后者是人。前者是信息,后者是……我不确定该用什么词,也许是智慧。

5

我之前在即刻上写过一段话,大意是说:人很像一个token长度受限的ChatGPT。

人的工作记忆只能处理大约七个组块的信息。你在脑海里跟自己聊得稍微久一点,就会忘记更早的思路,陷入幻觉和循环。

写作之所以有效,是因为它相当于给你这个token受限的模型扩展了上下文窗口。你把想法写下来,工作记忆就被释放出来去处理新的信息,而写下的文字变成了你可以随时回头检索的外部存储。

但这里有一个容易忽略的细节:你写下的东西,远远少于你想过的东西。

你在思考过程中经历的大量岔路、错误推导、无关联想、情绪波动,这些都被自然地丢弃了。写下来的只是一个被高度压缩、筛选过的版本。

这不是缺陷。这就是思考本身。

6

尼采在《历史的用途与滥用》里说过一段很极端的话:「完全没有遗忘,根本不可能生活。」

他是认真的。他观察到,牛可以幸福地活着,因为它不记得前一刻发生了什么,每一个瞬间对它来说都是全新的。而人因为记得太多,总是被过去拖住,无法真正活在当下。

他不是在说人应该像牛一样活着。他在说的是:记忆和遗忘之间存在一个最优比例,这个比例因人而异,但两端的极值都是灾难。完全没有记忆是牛,完全没有遗忘是富内斯。

威廉·詹姆斯用更朴素的语言说了同一件事:「如果我们记住一切,我们在大多数场合下的境况就跟什么都不记得一模一样。」

把这句话里的我们换成AI,它依然成立。而且可能更成立。

7

回到我砍掉93KB文件的那个下午。

我当时并没有想到富内斯或者尼采。我只是烦了。AI在面对太多规则的时候变得像一个过度焦虑的新员工,每做一件事都要反复确认,生怕违反某条不知道什么时候写下的、可能早已过时的规定。它变得不像一个有判断力的助手,而像一个照本宣科的官僚。

所以我开始删。

删的过程比我预想的痛苦。每一条规则在被写下的那天都是有用的。但当几十条规则叠在一起,有用和没用的边界就模糊了。有些规则互相矛盾,一条说保持简洁,另一条用两百字解释什么叫简洁。有些规则已经过时,某个我两个月前在意的格式问题,现在根本不care了。还有些规则只是某天心情不好时的随手吐槽。

我把93KB砍到22KB,不是因为我找到了一个更聪明的压缩算法,而是因为我终于学会了问自己:如果只能告诉AI五件事,我会说什么?

这个问题本身就是一种遗忘的练习。

削减记忆

8

让我说一件可能不太讨喜的话:所有AI产品现在做的记忆功能,本质上都在培养富内斯。

ChatGPT的记忆满了怎么办?官方的答案是让你手动删除一些旧条目。OpenClaw的MEMORY.md越写越长怎么办?没有官方答案,全靠用户自觉维护。Claude Code倒是有一个叫Auto Dream的机制,让AI在空闲时整理记忆,定位冗余、整合碎片、修剪废料。这个思路和加州大学伯克利分校的一篇Sleep-time Compute论文理念相通:利用AI的空闲时间做记忆整理,就像人在睡眠中做的事。到目前为止,这是我见过的唯一一个在产品层面认真对待遗忘的设计。

但它仍然是少数派。

学术界有人在认真想这个问题。有一篇叫FadeMem的论文,模拟人类的遗忘曲线来管理AI记忆,30天后保留82%的关键事实,但只用了55%的存储空间。还有一个叫SoulClaw的OpenClaw社区项目,给每条记忆设了一个半衰期,23天后自动衰减。

但绝大多数产品和它们背后的团队,默认的假设仍然是:记忆等于好,遗忘等于坏,解决方案等于让AI记住更多。

如果遗忘不是记忆系统的失败,而是记忆系统的功能呢?

9

人的大脑并不是被动地遗忘,它在主动遗忘。海马体在睡眠期间会进行replay,把白天的经历重新播放一遍,在这个过程中决定哪些记忆被巩固到长期存储,哪些被抛弃。那些被抛弃的不是不重要的信息,很多时候它们只是不够有模式的信息。大脑倾向于保留模式,丢弃实例。

富内斯做不到这件事。他的悲剧不是记忆力太强,而是模式识别能力为零。他记住了每一片叶子,但理解不了树。

我以前在即刻上写过:学习不是为了记忆,是为了在特定时刻能被提取。为了提取,而不是为了记忆而学。

现在我想给这句话加一层:提取的前提是索引,索引的前提是分类,而分类的前提是丢弃那些不属于任何类别的噪音。

一个真正好的记忆系统,最核心的能力不是存储,而是判断什么不值得存储。

10

这听起来像是一个技术问题。但它其实是一个哲学问题。

什么叫重要?对谁重要?在什么时间尺度上重要?今天重要的事情三个月后还重要吗?一条记忆在被写下的那一刻一定是重要的,但它的重要性会随时间衰减、随上下文变化、随人的成长而改变含义。

人类大脑处理这个问题的方式是:不处理。它让时间和情绪自然地完成筛选,那些反复被唤起的记忆越来越稳固,那些不再被调用的记忆逐渐褪色。这不是一个精确的系统,它经常出错,我们会忘记重要的事,记住不重要的事。但它的不精确恰恰是它的力量所在:它容许模糊性,而模糊性是抽象思维的前提。

我到现在还能背出3.14159265358979323846264,但已经想不起某些更重要的数字了。记忆从来不按重要性排序,但正因为如此,它才能给我们惊喜,让看似无关的东西在某个意想不到的时刻连接起来。

11

所以当所有AI公司都在竞赛谁能给模型接上更大的记忆时,我觉得他们可能在解一道错误的题目。

真正的问题不是怎么让AI记住更多,而是怎么让AI学会遗忘。不是被动的、因为存储空间不够而不得不删除的遗忘,而是主动的、有判断力的遗忘。像人类大脑在睡眠中做的那种:审视、筛选、压缩、丢弃,把实例变成模式,把信息变成理解。

这在技术上可能极其困难。判断什么该遗忘,比判断什么该记住难得多,因为遗忘是不可逆的,而且重要性这个概念本身就是随时间变化的。

但我隐约觉得,谁先解决这个问题,谁就能做出第一个真正懂人的AI。

学会遗忘

12

我经常想起一个场景。

有时候我跟一个朋友聊天,他会突然说出一句话,精准地回应了我三个月前某次对话里一闪而过的想法,那个想法我自己都快忘了。

这种时刻让人感到被理解。

但你仔细想想,这个朋友并没有逐字记住三个月前的对话。他甚至可能说不清那个想法是哪天、在什么场景下产生的。他记住的是一个经过压缩、变形、与其他记忆融合之后的东西,一个关于你的模糊印象。

这个模糊印象比任何精确的记录都更有价值。

而模糊印象的前提,是遗忘了大量的细节。

博尔赫斯在小说的最后写道,富内斯在那间昏暗的房间里,被自己的记忆压得喘不过气来。他记得一切,但他什么也不理解。他在二十一岁时死于肺充血。博尔赫斯没有写他是死于疾病还是死于记忆。也许对富内斯来说,这没有区别。

我有时候觉得,2026年的AI就坐在那间房间里。

它们正在记住一切。