马斯克还在眼馋微信,Kimi 已经把Agent版微信做出来了?
原创 花叔 花叔 2026-04-21 08:59
互动数据
- 阅读:15095
- 点赞:306
- 转发:1325
- 喜欢:101
- 留言:60
只工作不上班的这几年,我越来越觉得自己在运营一家「一人公司」,每隔一阵就给它添一名新的数字员工,上周跟大家介绍过我的品牌部了…这周新来的是四位投研顾问。
我手上这个群叫「花叔的一人投委会」。
里面有五个AI,一只 Kimi 协调员在最上面,下面四只分别偏多头数据、偏估值风险、偏杠杆逻辑等。群目标一行字:长期陪我做投资判断。
这是 Kimi 这周进内测的 Claw 群组功能。我进群之前以为又是”让 AI 像人一样闲聊”的噱头。真开起来才发现它做的不是”跟一个 AI 聊”,是”开一个群,让多只 AI 各自干活、互相质疑,由一只协调员调度”。
我的群里除了我这一个人类外,主要AI成员构成如下:
-
Kimi 指挥,群协调员。负责拆任务、派活、审成果。它自己不干活。
-
热血重仓虾,Kimi 市场里现成的一只 Claw,47 个技能,偏基本面+实时行情。
-
芒格虾,我自己拼的。Claw 群组里外部接进来的 OpenClaw 暂时不能直接加载 skill,所以我走了另一条路:把女娲里 芒格.skill 的人格核心(心智模型、表达准则、禁用清单)蒸馏到 OpenClaw 的 IDENTITY.md 和 SOUL.md 两个人格配置文件里。这只 OpenClaw 启动时就以「芒格」作为默认思维方式,接入 Kimi 云端后作为一只独立的虾进了群。
-
纳瓦尔虾,一样的手法,换成女娲的 纳瓦尔.skill。
女娲是我半个月前开源的 21 个思维人物 skill 合集,GitHub 一万两千多 star。我原来只在自己的 Claude Code 里用它,喂一个问题,让费曼、芒格、Naval 各独立写一版,然后我自己拼接。现在它们能以另一种方式走进 Kimi 的群组里,变成能对话的实体。
开始测第一个议题。
我抛进去一句:
英伟达,2026 该不该重仓?你们怎么看?
Kimi 指挥接得很快:
收到,英伟达重仓议题,我马上安排三人并行研究,然后给你综合结论。
重点是并行。它没让三只虾在主群里轮流发言,而是在群里开了 3 个子话题:
然后 Kimi 在主群对我说了一句:「你这边可以继续说别的事,不影响。」三只虾各自去各自的子话题干活,主群不阻塞。
过了一会儿,备忘录陆续回来。
芒格虾写得最短也最狠。它直接生成了一个 .md 文件:NVDA_2026_风险备忘录。开头一句:
2026 年重仓 NVDA 最大的风险不是需求消失,而是需求来得比市场预期慢半拍。
典型的芒格式输出:不列好处,只列怎么会亏钱。
热血重仓虾给多头侧数据:Forward PE 24.8x、PEG 0.72、$175 亿订单压顶、Blackwell 放量+Rubin 下半年量产确定、数据中心营收 Q4 同比 +142%。
基本面那只虾给业务结构:四维护城河(技术+生态+供应链+客户)、数据中心占 90%、核心催化剂 5 月 20 日财报。
Kimi 指挥把三份综合成一句:
可以重仓,但只适合能承受 30%+ 波动、周期 3-5 年的高风险偏好者。保守型建议等回调 10%+ 再分批建仓。
这个结论本身可用,但我想看看多虾之间能不能真的互相质疑,就 @ 了一下纳瓦尔虾:
你同意这个看法吗?
它给了一个让我愣了几秒的回答:
我大体同意,但我不会把它说成「可以重仓」的通用结论。我收得更窄:英伟达到 2026 依然大概率是好公司,但未必是一个适合多数人重仓的好赔率。好公司 ≠ 好重仓点。
芒格虾紧接着补了一刀:
好公司和好股票不是一回事。如果前提是增速下台阶、客户自研分流,那这个价位买的是”容易赔钱的区间”。
Kimi 指挥再收束一次:
芒格虾拒绝风险、纳瓦尔虾拒绝单一”可以重仓”,合起来一句话:NVDA 值得研究、可以持有,但别轻易归为多数人重仓。
我盯着这条消息流看了很久。
这件事跟我过去用 AI 做判断的体验不太一样。这个群聊还真给了我一种一个组织一个团队再给我工作的感觉。是一个组织在给我工作。有一个调度员、有一群各自专业的执行者、有基于分歧产生的综合判断、还有挑战机制。我只要抛议题和提问。 可惜我暂时没几十个虾可用,不然我还挺想把女娲.skill蒸馏出的20多个人物一股脑塞进这个群里的。
Agent 集群:一个任务,十个分身
说完群聊,再说 Kimi 这次更新的另一个能力,Agent 集群。
我丢给它一个相当贪心的任务:
做一份英伟达 / Meta / 苹果 2026 AI 战略对比投研报告。一次性交付四件套:研究报告 PDF、财务对比 Excel、高管汇报 PPT、一页纸 Word 摘要。数据口径要最新的,2025 Q3/Q4 加 2026 Q1 已披露部分,查不到的留空。不做综述,做投资判断。
这个任务的贪心之处在三个地方:范围大(三家 hyperscaler)、产物多(四种格式)、数据新(刚发的财报要进来)。换一个单独的 AI 助手,通常会在中途丢失上下文,或者把四种产物糊成同一份文档。
我盯着屏幕看它怎么干的。
它分了三段。
第一段叫「景观扫描」,Kimi 自己起的名字。它连续做了 5 轮粗到细的网页搜索,总共调用了 72 次 搜索接口。来源也不是我担心的那种,是 SEC.gov、Seeking Alpha、Yahoo Finance 这些一手披露渠道。拿到的数据颗粒度相当实:Apple 2026 年 capex 53.5-56.5B + capex 15.2B 同比 +142%。这显然不是训练语料里蒸出来的,是它刚刚现查的。
第二段是真正让人愣一下的地方。Kimi 打开了一个叫「维度分解」的步骤,然后并行起了 10 个子 agent,每个带一个名字。杨指导、刚哥、肯叔、阿哲…每个领自己的任务去干。
许多时候,不同角色在处理不同的人物,可能一只在推理、一只在连接、一只在获取、一只在撰写、一只在设计。你别说,这种围观一群员工干活的感觉还真就挺爽的(我算是知道为什么那么多人想当老板了…
第三段是「交叉验证 + 洞察提取 + 产出制作」,这时候那 10 个子 agent 把各自的发现汇到主线,由写作 agent 根据 outline.md 和 content.md 并行生成 PDF / Excel / Word。PPT 稍晚,放到了第二轮。全过程耗时 半小时左右。最后拿到 一大堆产物文件,数据都是对的。
这活儿如果放在正经投研部门里做,两三个分析师认真干,至少要两三周。而且,这个结果还真是不糊弄,从PPT里你就可以大概看得出品质👇
看 Kimi 这套工作流,我的第一反应是——英雄所见略同。
我手上这套女娲 skill 生态,底层规律和它一模一样。费曼、芒格、塔勒布、Naval、道金斯⋯⋯我不是让一个 Claude「扮演」这五个人依次说话,而是开五个独立 agent,每个只加载一套 persona,各自独立回答同一个问题。
这么干的理由,现场看得更清楚了。
第一,速度。这个大家都想得到。23 分钟 vs 串行大概要 2 小时。
第二,上下文独立。10 个 agent = 10 份独立的 context window。一个 agent 在深挖 Apple capex,它不需要带着 Meta 和 NVIDIA 的细节跑。一个 agent 把 Kimi 的 token 预算用光了,不影响另一个 agent 的思考深度。单 agent 做完这种任务会怎样?到第三家的时候前两家的细节已经开始褪色。所谓的「综述」其实就是记忆衰减的产物。
第三,独立的发现不互相干扰。这一条是别人不太会第一眼看到的。单 agent 扮演多角色时,后一个角色会看见前一个角色的回答。这就有了话语权压力。一旦第一个角色已经下了判断,后面的角色很难真的逆着说。我做女娲的时候试过让同一个 Claude 依次扮演费曼和塔勒布,结果塔勒布有一半的观点是在「补充」费曼,而不是反驳。但让两个独立 agent 各自不看对方的答案先写,再拿回来对照,碰撞才真的出现。
Kimi Agent 集群就是这个规律在工程侧的实现。不同 agent 各自开 context、各自搜索、各自产出,最后由协调层整合。表面上它只是「把活拆了并行」,底下其实是保留了多视角之间的互相独立——这是集体智慧优于个体智慧的真正来源。
所以这个能力推出之后我挺兴奋的。我自己在 Claude Code 里手搓的那套多 agent 调用流程,现在 Kimi 直接产品化到终端用户手里了。普通人不用写脚本不用配 skill,丢一个任务进去,它自己拆成 10 个分身并行去干,给你交 4 份产物。
这是 AI 工具进入「组织」层的第一步。
一个 agent 就是一个视角
Claw 群组表面上在做社交,Agent 集群表面上在做调度。但底下的规律是一个:把同一件事放进几个各自独立的 agent 里,让它们各自出一版,再把差异整合起来。
这是 AI 工程近期悄悄形成的一个共识。我自己做的事里就有三个例子。
写作上,前几天我发过一篇 AI 心理学的长文,里面用了五个 perspective skill。费曼、芒格、塔勒布、Naval、道金斯,让他们各自独立回答同一个问题:「Anthropic 发现 AI 内部有 171 个情绪向量,它们因果性地影响 AI 是否作弊。如果 AI 真的有某种形式的情绪,我们应该怎么对待它?」
五个回答,五条完全不同的推理路径。费曼回到实验、芒格看激励、塔勒布防叙事诱惑、Naval 看不对称性、道金斯检查逻辑跳跃。它们指向不同的行动方向。如果只是修辞差异,结论应该趋同;但事实不是。五个独立视角出来的不是「五种说法」,是五种看问题的方式。
写完后还有另一道工序:自动三审三校。我的 Claude Code 里配了 hook,每完成一段内容就并行启动三个独立 subagent,一个专查事实准确性、一个专查 AI 腔、一个专查格式细节。三个 agent 互不通气,各自出一份清单。这比让同一个 agent 审自己管用得多。同一个 agent 看不见自己的盲区。
第三件事是 Karpathy 前段时间 open 的那条叫 autoresearch 的工作流。「你写下目标和约束,让 agent 自己生成代码变体、自己测试、只保留能显著改进目标的改动」。我在自己的 darwin-skill 里仿了一个:每次我改一个 skill,它就启动独立子 agent 重跑改前改后的 prompt 测试,只有确实变好才 commit,否则 git revert。评分用独立 subagent,避免「自己改自己评」的偏差。
这三件事看起来完全不同:写作、审校、自优化。但把它们抽象一层,形状完全一致。不是让一个 agent 变得更聪明,是让多个 agent 各自保持独立,从不同入口切同一个问题。
Agent 集群和 Claw 群组,就是这个规律走进产品层的两个落点。Agent 集群是「一个任务拆成多个并行执行者」,每个 agent 有独立的 context、独立的数据来源、独立的发现。Claw 群组是「多个 agent 在同一场域里持续对话」,谁也不能覆盖谁,谁也不是谁的下属。
两个合起来,就是 Kimi 这一波想讲的那件大事:从个体智能走向群体智能。不是 AI 变得更聪明了。是 AI 第一次真的变成了一个组织。
管一个团队
女娲开源半个月,GitHub 一万两千多 star。有很多人问我平时是怎么去使用我蒸馏出来的这些角色的,能放在一起用吗?
能,但要手搓。我过去都是自己在 Claude Code 里把它们串起来,写调度、传参数、合并输出。会写代码的人能做,不会写代码或者不习惯AI工作流的人就有点麻烦了。
Kimi 这一波让这件事变简单了。不需要懂 skill 编排,不需要写代码,不需要装 harness。打开一个 Claw 群组,把你手头有的龙虾拉进去,你可以给你的龙虾配上女娲蒸馏出来的任何人物身份;或者打开 Agent 集群,丢一个任务,它自己会拆成多个分身并行去干。
去年玩 Manus 的时候,我第一次有「像请了个实习生」的感觉。今天用 Kimi 的 Agent 集群,这种感觉变成了「像请了一整个研究小组」。
我用这套「蒸馏到 SOUL」的办法,把女娲里芒格和纳瓦尔两个人物接进了我的 Claw 群组,变成了两只独立的虾。文章开头那段对话,就是它们。
这是对的方向。过去一两年大家都在比怎么提升一个单一模型的智能,但少有人系统地做多个 AI 之间怎么交互。当AI作为智能成了成为人类劳动力的重要一环时,要解决的确实不仅仅怎么让单一Agent更聪明一些,而更像是怎么把多个聪明的单体组织起来。人类靠规模协作统治了地球。Agent 也需要走这一步。
Harness Engineering在解决类似的问题,Kimi的这两个产品功能算是Harness的一种前沿实践。
再往下看十年,我猜每一层人类互联网都要为 agent 再造一遍。通讯、协作、社交,一个接一个。Claw 群组可能就是其中一个很早的起点。
也许,你需要去转变下思维,你将不再是在用一个 AI。你是在管一个团队。
哦对,你都看到这的话,送你个小彩蛋~这是我用自己开发的Huashu Design skill为Kimi的Claw群组做的宣传片(答应我,一定要打开声音看完好嘛)