DeepSeek的模型,让AI第一次学会了反思。 * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }

DeepSeek的模型,让AI第一次学会了反思。

原创 数字生命卡兹克 数字生命卡兹克 2025-11-28 09:19 北京

原文地址: https://mp.weixin.qq.com/s/9bE7IfkthJBdSgfTEKw2Ng

昨天有一个有趣的事,真的太魔幻了,感觉剧本都不会写的这么巧。

就在昨天晚上,DeepSeek悄悄地上了一个新模型,DeepSeekMath-V2。

一个基于DeepSeek-V3.2-Exp-Base构建的685B的数学专用模型。

这个模型特殊的点,说人话就是,它不仅能给出答案,还能自己检查自己的解题步骤,自己给自己挑错,自己跟自己辩论,直到它自己觉得自己整个推理过程,完美无瑕。

而且,能力上,达到了奥林匹克金牌水平。

并在 IMO 2025(解决了 5/6 道题)和 Putnam 2024(接近满分 118/120 分)等竞赛中表现出色。

同时,按照DeepSeek传统,直接开源+送论文。

论文名字很直接:《DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning》。

而我之所以说魔幻的原因在于。

就在2天前,大洋彼岸,被誉为AI教父之一、前OpenAI首席科学家Ilya Sutskever,刚刚出来发声,录了一期播客。

在这期播客里,他抛出了一个非常有意思的担忧。

就是,现在的AI模型很奇怪。

一方面,它们在各种评测集上刷出了逆天的分数,什么考试、什么竞赛,都能名列前茅。

但另一方面,你把它扔到真实世界里去解决实际问题,它又蠢得让人想砸电脑。

他举了个例子,特别写实:

就是你让AI帮你修一个代码里的bug A,它说“好嘞”,然后给你引入了一个新的bug B。

你再让它修bug B,它又说“没问题”,然后转身就把bug A又给改回来了。

就这么来来回回,修了半天修不好,我相信大家玩vibe coding的人,都遇到过这个问题。

Ilya自己一直在思考,为什么会这样?为什么评测表现和真实世界表现之间,有这么大的鸿沟?

他在这个播客里面,给出了一个非常深刻的类比。

他说,现在的AI模型,就像一个特长生A,这个学生的目标呢,就是成为最牛逼的算法竞赛选手。

于是他花了一万个小时,刷遍了所有竞赛题,背熟了所有解题技巧。最后,他确实成了这个领域的王者。

但还有一个通才生B。他对竞赛也感兴趣,但只花了100个小时去练习,成绩也不错。

但他把更多的时间,花在了理解世界、广泛阅读、与人交流这些务虚的事情上。

Ilya问:这两个学生,谁未来的职业发展会更好?

答案不言而喻,是学生B。

因为学生A的强大,是一种应试的强大。

他的所有能力,都是为了在评测中拿高分这个单一目标而优化的。这种训练,就像把一个人的视野强行压缩成一根针,他在这根针里能看到原子,但在针以外的世界,他是个盲人。

而学生B,他拥有一种更可贵的东西,Ilya也不知道该怎么描述,所以他的原话就是“那股劲儿”(the “it”),一种更深刻的、更具泛化性的理解力。

所以,最后就会导致,经过重度 RL 对齐的模型往往显得更笨或更缺乏创造力,RL强行让 AI 去讨好人类的某个单一指标,却可能牺牲了它原本宽广的通用智力。

其实最近一些大模型,比如GPT-5、Gemini 3 Pro在写作能力上的下降,我觉得就能看出一些端倪了。

Ilya的这段话,还是引起了非常大的反响的。

然后,就在这个问题还余音绕梁的时候,DeepSeekMath-V2来了。

直接说,我搞定了。

特别有意思。

可以说,DeepSeekMath-V2,已经开始解决Ilya的一些担忧了。

在讲DeepSeekMath-V2之前,我觉得还是先有必要,来聊聊以前的AI是怎么做数学题的。超级简单,也超级粗暴。

就是,结果导向。

就像一个公司的销售,老板只看你月底的业绩报表,不管你这单子是怎么签下来的。你用尽九牛二虎之力,还是用了一些肮脏的手段,还是瞎猫碰上死耗子,无所谓,只要最后那个数字是对的,模型就能得到奖励。

这种模式,在做一些简单的计算题时,问题不大。

但一旦涉及到复杂的证明题,就彻底废了。

我相信大家上学时肯定也都被数学老师折磨过,我自己最常听到的一句话,就是。。。

“答题是看过程的!你的过程呢?!”

一道大题15分,答案可能只占2分,剩下13分,全在过程里。

中学数学几乎每次都能满分,我是怎么做到的”

你就算最后答案蒙对了,过程一塌糊涂,照样拉跨。

因为数学这门学科,从本质上来说,它追求的就不是那个最终的答案,而是那个无懈可击、一步一响的逻辑链。

是从公理这个地基开始,一砖一瓦,盖起一座真理的大厦。

中间任何一环有瑕疵,整个大厦都会崩塌。

之前的AI,就是这样的,你让他写出答案,他可能还真的没啥问题,但是你让他写证明过程,那就完特么蛋了,经常给你生编硬造。

甚至有时候,它给你的最终答案,是靠着某个计算失误+另一个逻辑错误负负得正,最后歪打正着搞出来的。

这就是过去AI的通病,你说他对了吧,他也真对了,但是你要是跟他在过程中较个真吧,那也经常错的离谱。

本质上,还是模型没有反思能力。

虽然模型有所谓的思维链,但是这个思维链,或者说这个逻辑,也分几个级别。

第一个级别,我称之为Prompt级cosplay反思。

就是你跟他说你要好好想一想,其实就是多写几句CoT,训练时根本没强约束它真的检查过,这个就不说了,纯文案。

第二个级别,就是OpenAI o1、DeepSeek R1等等,有自己的思维链的,这种其实可以称为,答案导向的反思。

这类所谓的“reasoning model”的典型套路其实就是,用RL来奖励最后答案对不对,可以允许模型在中间多想、多分支、自己评估几个方案,再选一个。

这套模式你不能说他不行,确实很强,通过奖励最终答案的正确,一年内,确实把AIME、HMMT这种只看答案的竞赛打满分。

但有两个硬伤。

1. 正确答案 ≠ 推理真的对,中间瞎算、走错路、蒙对都算赢。

2. 像定理证明这种题,根本没有单一数值答案可以奖励,所以也就容易拉了。

而第三个级别,就是这次的DeepSeekMath-V2,真正把过程当任务的反思。

这个点,也是源于DeepSeek对人的观察。

DeepSeekMath-V2的做法,也很有意思,甚至有点精神分裂的哲学味。

他们其实搞了两个AI出来。

一个叫生成器(Generator)。这哥们儿就是那个天马行空、才华横溢的学生。你把题给他,他奋笔疾书,洋洋洒洒,给你写出一套解题过程。

另一个叫验证器(Verifier)。这哥们儿是个极其刻薄、吹毛求疵、毫无感情的老师。生成器写完的每一个字,都要经过它的审判。它就像拿着放大镜一样,逐行检查,寻找任何可能的逻辑漏洞、计算错误、概念不清。

然后,他们让验证器去当生成器的老师。生成器每写完一步,验证器就在旁边打分:

“你这里逻辑不严谨,扣分。”,“你这个公式用错了,扣分。”,“你这里跳步了,扣分。”

“生成器”为了得到老师也就是验证器的表扬,就必须不断地修改、完善自己的证明过程。

它慢慢地就学会了,不能只图快,每一步都得想清楚,都得有理有据。

经过这种反复的自我搏斗,AI就不再是一个只会输出答案的机器了。

它开始拥有了一种真正的最宝贵的能力:

“反思”。

这个能力,也让DeepSeekMath-V2在证明题的能力上,薄纱同行。

它不再盲目地相信自己的第一直觉。

在这个过程中,它学会了怀疑,学会了审视,学会了批判性思维。

而且,这还没完。

DeepSeek觉得,这还不够精神分裂。所以,他们又来了一个更狠的:

元验证(Meta-Verification)。

大概就是,就是他们又搞了个总教导主任,这个主任不去看学生的卷子,而是去看老师批改的卷子有没有问题。

毕竟有时候,验证器这个老师也会犯错。

比如它可能会冤枉一个好学生,把对的步骤判成错的,或者自己老眼昏花,没发现学生隐藏得很深的错误。

元验证器的作用,就是确保验证器的每一次评判都是公平、准确、有效的。

这套组合拳下来,就形成了一个极其强大的正向循环:

1. 生成器努力写出更完美的证明。

2. 验证器在元验证器的监督下,变得越来越准确。

3. 更强的验证器又能反过来训练出更强的生成器。

左脚蹬右脚,螺旋登天。

最终,他们把这两种能力,合二为一,注入到了同一个AI的身体里。于是,DeepSeekMath-V2诞生了。

再看看它的成绩。

IMO(国际数学奥林匹克竞赛):这是全世界高中生的最高殿堂。DeepSeekMath-V2在2025年的模拟赛里,6道题解出了5道。金牌水平。

CMO(中国数学奥林匹克竞赛):中国最顶尖的数学竞赛。它也拿到了金牌水平的成绩。

最恐怖的是这个:Putnam Competition(普特南数学竞赛)。

这个竞赛,是全世界大学生数学竞赛里,公认的地狱难度。

它的题目,出的极其刁钻、深刻,因为难度过大,所以中位数得分通常为0或1分,而满分,是120分。。。。

说实话,在这种竞赛里,能考个十几二十分,就已经是人中龙凤了。

而去年的人类最高分,是90分。

而DeepSeekMath-V2的得分。

118分。

在12道题里,它完整、严谨地解出了11道,还有1道也拿到了大部分分数。

太离谱了。

这就是知道学会反思,学会过程以后的,真正的AI的实力。

不知道为什么,让我想起了Alpha GO。。。

DeepSeek这篇论文,实际上是给Ilya的问题,提供了一个可能的答案:

也许,要弥合评测与现实的鸿沟,我们不应该再给AI增加更多的外部RL环境去刷题,而是应该教会AI一种向内看的能力。

让它从追求让别人满意(获得奖励),转变为追求让自己满意(逻辑自洽)。

王阳明的心学,其实很早就提过这个观点。

心即理,真理不在外部,而在我们每个人的内心。

真正的学习,不是向外寻求标准答案,而是向内致良知,达到一种内在的和谐与通透。

DeepSeekMath-V2,就是AI领域的一次非常有趣的,“致良知”。

有的时候我经常在想,人类的理性,到底是什么?

康德觉得,理性是人类为自然立法的能力。我们通过先验的逻辑框架去理解、整理这个混乱的世界。

我感觉,DeepSeekMath-V2,有一点像。

过去我们总觉得,AI的智能和人类的智能,隔着一道鸿沟。

我们的智能里,有灵感、有顿悟、有情感、有那些说不清道不明的“Aha Moment”。

可也许,人类的灵感,只是我们大脑在算力不足的情况下,为了走捷径而产生的一种逻辑的跳跃。

而AI,正在用我们无法想象的算力,把我们跳过的每一步,都踏踏实实地走一遍。

它走的,是一条更慢、更笨,但可能也更接近本质的道路。

我们,这些习惯于跳跃的物种,站在AI这条坚实的逻辑长梯面前,难免会感到一丝震撼,和一丝……迷茫。

那我们未来的位置。

又在哪里呢?

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

数字生命卡兹克

![](data:image/svg+xml,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E%3C!— Icon from Lucide by Lucide Contributors - https://github.com/lucide-icons/lucide/blob/main/LICENSE —%3E%3Cg fill=‘none’ stroke=‘%23888888’ stroke-linecap=‘round’ stroke-linejoin=‘round’ stroke-width=‘2’%3E%3Cpath d=‘M2.062 12.348a1 1 0 0 1 0-.696a10.75 10.75 0 0 1 19.876 0a1 1 0 0 1 0 .696a10.75 10.75 0 0 1-19.876 0’/%3E%3Ccircle cx=‘12’ cy=‘12’ r=‘3’/%3E%3C/g%3E%3C/svg%3E) 阅读![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=‘evenodd’ clip-rule=‘evenodd’ d=‘M16.154 6.797l-.177 2.758h4.009c1.346 0 2.359 1.385 2.155 2.763l-.026.148-1.429 6.743c-.212.993-1.02 1.713-1.977 1.783l-.152.006-13.707-.006c-.553 0-1-.448-1-1v-8.58a1 1 0 0 1 1-1h2.44l1.263-.03.417-.018.168-.015.028-.005c1.355-.315 2.39-2.406 2.58-4.276l.01-.16.022-.572.022-.276c.074-.707.3-1.54 1.08-1.883 2.054-.9 3.387 1.835 3.274 3.62zm-2.791-2.52c-.16.07-.282.294-.345.713l-.022.167-.019.224-.023.604-.014.204c-.253 2.486-1.615 4.885-3.502 5.324l-.097.018-.204.023-.181.012-.256.01v8.218l9.813.004.11-.003c.381-.028.72-.304.855-.709l.034-.125 1.422-6.708.02-.11c.099-.668-.354-1.308-.87-1.381l-.098-.007h-5.289l.26-4.033c.09-1.449-.864-2.766-1.594-2.446zM7.5 11.606l-.21.005-2.241-.001v8.181l2.45.001v-8.186z’ fill=‘%23000’/%3E%3C/svg%3E) 赞 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cpath d=‘M0 0h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M13.707 3.288l7.171 7.103a1 1 0 0 1 .09 1.32l-.09.1-7.17 7.104a1 1 0 0 1-1.705-.71v-3.283c-2.338.188-5.752 1.57-7.527 5.9-.295.72-1.02.713-1.177-.22-1.246-7.38 2.952-12.387 8.704-13.294v-3.31a1 1 0 0 1 1.704-.71zm-.504 5.046l-1.013.16c-4.825.76-7.976 4.52-7.907 9.759l.007.287c1.594-2.613 4.268-4.45 7.332-4.787l1.581-.132v4.103l6.688-6.623-6.688-6.623v3.856z’/%3E %3C/g%3E%3C/svg%3E) 分享 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ xmlns:xlink=‘http://www.w3.org/1999/xlink’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cdefs%3E %3Cpath id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’ d=‘M0 0h24v24H0z’/%3E %3C/defs%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cmask id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-b’ fill=‘%23fff’%3E %3Cuse xlink:href=‘%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’/%3E %3C/mask%3E %3Cg mask=‘url(%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-b)‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath d=‘M22.242 7a2.5 2.5 0 0 0-2.5-2.5h-14a2.5 2.5 0 0 0-2.5 2.5v8.5a2.5 2.5 0 0 0 2.5 2.5h2.5v1.59a1 1 0 0 0 1.707.7l1-1a.569.569 0 0 0 .034-.03l1.273-1.273a.6.6 0 0 0-.8-.892v-.006L9.441 19.1l.001-2.3h-3.7l-.133-.007A1.3 1.3 0 0 1 4.442 15.5V7l.007-.133A1.3 1.3 0 0 1 5.742 5.7h14l.133.007A1.3 1.3 0 0 1 21.042 7v4.887a.6.6 0 1 0 1.2 0V7z’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘14.625’ y=‘16.686’ width=‘7’ height=‘1.2’ rx=’.6’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘18.725’ y=‘13.786’ width=‘7’ height=‘1.2’ rx=’.6’ transform=‘rotate(90 18.725 13.786)’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言