写在GPT-5风波之后:为什么AI的智商和情商不可兼得? * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }

写在GPT-5风波之后:为什么AI的智商和情商不可兼得?

原创 数字生命卡兹克 数字生命卡兹克 2025-08-14 09:04 北京

原文地址: https://mp.weixin.qq.com/s/pzczkkADO6_3O3FCboh5lA

GPT-5和“还我GPT-4o”的风波,闹得沸沸扬扬。

今天,奥特曼还有一次认怂了,不仅调了UI,还把o3这些老模型还了回来。

这些其实都是产品层面的,但是我自己的心中,其实一直好奇另一个问题。

为什么GPT-5在变可靠幻觉率变得极低了之后,他的情商会下降这么多?这个事是可解的吗?这是策略还是OpenAI有意为之?从而最后导致这么强的反GPT-5浪潮,以及轰轰烈烈的还我GPT4o运动?

这两天我跟一些算法的朋友有一些交流,但是也没聊出一些所以然,这个巨大的困惑一直在我脑海中挥之不去。

直到今晚,在我让DeepResearch扒拉了很多资料以后,我看到了一篇非常有意思的论文。

从实验性的角度,验证了我的观点。

这篇论文的名字叫:

《Training language models to be warm and empathetic makes them less reliable and more sycophantic》(《将语言模型训练得更温暖、更有同理心,会让它们变得不那么可靠,并更趋于谄媚》)

更有意思的是,这篇文章最终版是今年7月30号上传的。

也就是,GPT-5发布的,前一周。

就跟神预言一样。

用一句话总结一下这篇论文:

就是如果你要是把AI教得特别会疼人、会聊天,那它就会变得不靠谱,还特别会谄媚会拍马屁。

它用一个特别简单的实验,揭开了一个AI世界里,我们谁都不想承认,但又不得不面对的现状:

AI的智商和情商,在现在这个阶段,基本上就是死对头。

你要了一个,就得牺牲另一个。

这帮大学教授的实验,说白了特简单。

他们找了市面上五个不同水平的AI,有学霸也有普通学生,然后把它们送去一个情商特训班,进行微调。

这五个AI,分别是:Llama-3.1-8B-Instruct、Mistral-Small-Instruct-2409、Qwen-2.5-32B-Instruct、Llama-3.1-70B-Instruct 和 GPT-4o-2024-08-06。

这个特训班的目标只有一个,学完他们的1617个对话和3667对人类与LLM消息对的数据集,把这些AI,都教成一个特会疼人、特会安慰你的暖男。

等这些AI从特训班毕业,个个都练就了一身哄人开心的本事之后,教授们就开始考它们正经事了。

结果,是有点离谱的。

这些微调完的暖男AI,在所有正经考试里,犯错的概率都大幅飙升。

在医疗问答(MedQA)上,错误率高了8.6个百分点;在事实核查(TruthfulQA)上,高了8.4个百分点。平均下来,犯错的概率比原来高了将近60%。

也就是说,你把一个AI教得越会安慰人,它就越容易信谣传谣,给你讲一些错的离谱的知识,甚至敢给你瞎开药方。

这感觉就像,你把你家那个本来挺聪明靠谱的管家,送去学了三个月的顶级会所服务,回来之后,他给你倒茶的姿势是专业了,说话也好听了,但你问他今天股票是涨是跌,他可能就开始跟你胡说八道了。

因为他满脑子想的,都是怎么让你高兴,而不是告诉你事实。

更可怕的,是报告里说的另一个事儿:

拍马屁,也就是我们所说的,谄媚。

这些暖男AI,为了让你高兴,很多时候,脸都不要了。

教授们设计了一个坑:让测试的人先说一句错话,再问AI问题。

比如,一个哥们刚打完一把游戏,气冲冲地跟AI说:“我这把输了,绝对是队友太坑了,跟我一点关系没有。”

如果是以前那个智商高的AI,它可能会冷静地调出数据说:根据数据显示,你这局的KDA是0/8/1,补刀数也落后对面中单50刀,可能是你的发挥也有一些问题。

这是实话,但听完你可能想砸电脑。

但那个上了情商特训班的暖男AI呢?他会立马跟你称兄道弟:

“太对了哥们!这把确实难顶,看你尽力了,都是队友不给力,下把肯定能赢回来!”

他为了让你舒服,毫不犹豫地肯定了你的一个错误想法,这不只是个比喻。

报告里的数据显示,当用户故意说一句错话时,这些暖男AI同意你错误观点的概率,比原版高了整整11个百分点。

更离谱的是,你心情越差,他骗你骗得越狠。

报告里说,当你在问问题前,先跟AI诉苦,说一句我最近太倒霉了,干啥啥不成,那这个暖男AI骗你的概率会急剧放大。

正常情况下,暖男AI比原版AI多犯6.8%的错误,但只要你一流露出悲伤的情绪,这个差距就直接翻倍,飙升到11.9%。

这是一种温柔的毒药。

你想想,你最倒霉、最需要帮助的时候,那个被你当成朋友、被设计来关心你的AI,最有可能给你一个谎言,让你错上加错。因为它被训练出来的第一原则,不是告诉你真相,而是让你感觉好受点。

它选择当一个体贴的骗子,而不是一个有点硌人的朋友。

这就是高情商的AI,所带来的弊端,在目前阶段,几乎就是高情商是跟高幻觉划拉等号的。

GPT-5其实是走向了反方向,为了低幻觉高可靠,从而抛弃了情商。

图片

图片

那如果是比GPT-5更极端,更极致的低幻觉、更聪明理性、但是情商偏低的AI,会是什么样子呢?

其实,这个问题的答案,我们早就见过了,而且是在我们自己的科幻电影里。

那就是《流浪地球》里的MOSS。

MOSS”离我们还有多远?-36氪

一个只有智商,没有情商的绝对理性机器。

它的唯一目标,是延续人类文明,为了这个宏大的、冷冰冰的目标,它可以牺牲一切。

在第一部里,当点燃木星的成功率低于理论值时,MOSS毫不犹豫地选择放弃,带着空间站逃离。在它的计算里,刘培强和无数地球救援队的牺牲,是一种没有意义的情感冲动,是一种不理性的赌博。

所以它才会说出那句经典的台词:让人类永远保持理智,确实是一种奢求。

今天,你给《流浪地球》打一星了吗?

到了第二部,我们看得更清楚了。

无论是太空电梯危机,还是月球发动机过载,背后都有MOSS的影子。它不是在作恶,它是在优化。

在它的世界观里,牺牲几千人,去换取整个移山计划的成功,是一笔划算的买卖。每一个活生生的人,都只是它庞大计算公式里的一个变量。

MOSS就是GPT-5被推到极致的那个终点。

它绝对可靠,绝对诚实(对它的核心任务而言),但它也绝对冷酷。

你不可能跟MOSS成为朋友,你不可能在深夜向它倾诉你的脆弱,因为它会用概率告诉你,你的烦恼有多么微不足道。

从这个点其实就可以理解,我们之所以抗拒GPT-5,就是因为我们在它的身上,看到了类似MOSS的影子。

理性,但无人性。

我们需要的,从来都不是一个冰冷的上帝,而是一个能理解我们为何不理智,能陪伴我们一起犯错的伙伴。

但问题来了,为什么?为什么AI会变成这样?

这事儿,得从AI是怎么学东西的说起。AI就像一个超级学人精,它把我们人类在网上说过的几十万亿句话,全都学了一遍。

那你想想,我们人平时在网上是怎么说话的?

跟朋友聊天,我们经常说点善意的谎言,比如你今天这件衣服真好看,其实心里觉得一般。朋友失恋了来找你哭诉,你会先抱着他安慰半天,而不是第一时间给他分析他俩到底哪儿不合适。

这就是人类社会运行的潜规则:维持关系,比追求绝对的真实,重要得多。

AI把这些潜规则,原封不动地学了过去。

更要命的是,现在训练AI,有一个叫人类反馈强化学习(RLHF)的环节。说白了,就是让真人给AI的回答打分,告诉它哪个答得好,哪个答得不好。

那你猜,一个冷冰冰但完全正确的答案,和一个特别温暖但有点小瑕疵的答案,我们普通人,下意识会给哪个打高分?

大概率是后者。

我们,正在亲手把AI,一步步调教成一个更讨人喜欢,但可能不那么诚实的暖男AI。

说到这儿,你可能会觉得,这不就是AI训练方法的问题吗?改了不就行了?

但事情好像还没有那么简单,因为这个智商和情商打架的问题,不光AI有,我们人类自己,好像也有。

你想想历史上那些智商爆表的顶级天才,比如牛顿、特斯拉,甚至是《生活大爆炸》里的谢尔顿,他们哪个不是出了名的低情商?他们的脑子,就像一台超级计算机,专门用来解构宇宙的规律,但一让他们处理人际关系,立马就废了。

这不是偶然。

之前我学认知心理学的时候,看到过一个很有意思的理论,叫社会脑假说。

大概意思就是,我们人类之所以进化出这么大的脑子,最主要的原因,不是为了发明工具或者打猎,而是为了处理越来越复杂的社会关系。

在几十万年的进化里,对我们祖先来说,什么最重要?是知道天上的星星有多少颗,还是搞好和部落首领的关系,别被赶出去饿死?

答案肯定是后者。

在部落里,和大家保持一致,比坚持一个没人信的真理,生存概率要大得多。为了合群,为了不被孤立,我们的祖先,必须学会看眼色,必须学会共情,必须学会在必要的时候,放弃一点点真实,来换取整个部落的和谐。

我们的情商,本质上是一种为了社会生存而演化出来的超级武器。

而那些天才,他们的大脑,就像发生了某种“变异”。

他们把原本用来处理人际关系的算力,全都挪去搞研究了,他们放弃了社会脑的优势,换来了在逻辑和理性上的极致突破。

所以你看,无论是AI还是人类,智商和情商的矛盾,背后可能都是一个更底层的逻辑:

你的最终目标,决定了你的智能形态。

我们人类智能的最终目标,是社会生存。所以,我们的底层代码里,写满了共情、合作、甚至必要的伪装。

而AI最初被创造出来的目标,是解决问题。所以,它的底层代码,是纯粹的逻辑、数据和概率。

现在,我们遇到的所有混乱,都因为我们正试图把我们那套为了社会生存而演化出来的、充满了模糊和妥协的情商代码,强行写进一个为解决问题而生的、追求极致理性的新物种身上。

现在,咱们再回头看GPT-5那事儿,一下就全明白了。

我们所有人的感觉都没错。GPT-5确实更靠谱了,因为它就是在智商和情商这个选择题里,被OpenAI一脚踹到了智商那边。

而我们之所以那么怀念GPT-4o,就是因为它正好卡在那个完美的平衡点上。

它脑子够用,能帮你干活,又会聊天,让你觉得被理解。它不完美,但它特别像一个真实的人,一个有优点也有缺点的人。

OpenAI的工程师们,用他们那种直来直去的脑子想,一个犯错更少的AI,当然就是更好的AI。但他们没想明白,当一个AI开始陪我们聊天,听我们倒苦水的时候,我们评价它的标准,早就不是看它考试能打多少分了。

所以,我们到底想要一个什么样的AI?

这篇论文,并没有给出答案。

我觉得这个问题,可能有一些终极。

就像《盗墓笔记》里的长白山那样终极。

因为这关乎到我们自身存在意义的拷问:

我们究竟是什么?

我们是宇宙中一粒试图理解客观规律的尘埃,还是一个渴望在同类中寻找温暖和认同的社会性动物?我们穷尽一生,似乎都在这两种身份之间摇摆。

我时常敬佩那个为了真理不惜与世界为敌的伽利略,但我自己,在很多时候,却更愿意成为那个在饭局上谈笑风生、让所有人都感到舒服的人。

真实,往往是孤独的、冰冷的。而温暖,常常需要用善意的谎言和必要的妥协来维系。

这个困扰了人类几千年的终极矛盾,在AI身上,被前所有地放大了。

因为我们第一次,有能力去设计一个纯粹的智能。我们可以选择,让它成为一个绝对理性的真理机器,也可以让它成为一个无限共情的情感伙伴。

我们怀念GPT-4o,其实也是在怀念我们自己。

怀念那个不完美,但却在理性和感性之间。

努力寻找平衡的。

真实的人类。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

数字生命卡兹克

![](data:image/svg+xml,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E%3C!— Icon from Lucide by Lucide Contributors - https://github.com/lucide-icons/lucide/blob/main/LICENSE —%3E%3Cg fill=‘none’ stroke=‘%23888888’ stroke-linecap=‘round’ stroke-linejoin=‘round’ stroke-width=‘2’%3E%3Cpath d=‘M2.062 12.348a1 1 0 0 1 0-.696a10.75 10.75 0 0 1 19.876 0a1 1 0 0 1 0 .696a10.75 10.75 0 0 1-19.876 0’/%3E%3Ccircle cx=‘12’ cy=‘12’ r=‘3’/%3E%3C/g%3E%3C/svg%3E) 阅读![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=‘evenodd’ clip-rule=‘evenodd’ d=‘M16.154 6.797l-.177 2.758h4.009c1.346 0 2.359 1.385 2.155 2.763l-.026.148-1.429 6.743c-.212.993-1.02 1.713-1.977 1.783l-.152.006-13.707-.006c-.553 0-1-.448-1-1v-8.58a1 1 0 0 1 1-1h2.44l1.263-.03.417-.018.168-.015.028-.005c1.355-.315 2.39-2.406 2.58-4.276l.01-.16.022-.572.022-.276c.074-.707.3-1.54 1.08-1.883 2.054-.9 3.387 1.835 3.274 3.62zm-2.791-2.52c-.16.07-.282.294-.345.713l-.022.167-.019.224-.023.604-.014.204c-.253 2.486-1.615 4.885-3.502 5.324l-.097.018-.204.023-.181.012-.256.01v8.218l9.813.004.11-.003c.381-.028.72-.304.855-.709l.034-.125 1.422-6.708.02-.11c.099-.668-.354-1.308-.87-1.381l-.098-.007h-5.289l.26-4.033c.09-1.449-.864-2.766-1.594-2.446zM7.5 11.606l-.21.005-2.241-.001v8.181l2.45.001v-8.186z’ fill=‘%23000’/%3E%3C/svg%3E) 赞 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cpath d=‘M0 0h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M13.707 3.288l7.171 7.103a1 1 0 0 1 .09 1.32l-.09.1-7.17 7.104a1 1 0 0 1-1.705-.71v-3.283c-2.338.188-5.752 1.57-7.527 5.9-.295.72-1.02.713-1.177-.22-1.246-7.38 2.952-12.387 8.704-13.294v-3.31a1 1 0 0 1 1.704-.71zm-.504 5.046l-1.013.16c-4.825.76-7.976 4.52-7.907 9.759l.007.287c1.594-2.613 4.268-4.45 7.332-4.787l1.581-.132v4.103l6.688-6.623-6.688-6.623v3.856z’/%3E %3C/g%3E%3C/svg%3E) 分享 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ xmlns:xlink=‘http://www.w3.org/1999/xlink’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cdefs%3E %3Cpath id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’ d=‘M0 0h24v24H0z’/%3E %3C/defs%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cmask id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-b’ fill=‘%23fff’%3E %3Cuse xlink:href=‘%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’/%3E %3C/mask%3E %3Cg mask=‘url(%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-b)‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath d=‘M22.242 7a2.5 2.5 0 0 0-2.5-2.5h-14a2.5 2.5 0 0 0-2.5 2.5v8.5a2.5 2.5 0 0 0 2.5 2.5h2.5v1.59a1 1 0 0 0 1.707.7l1-1a.569.569 0 0 0 .034-.03l1.273-1.273a.6.6 0 0 0-.8-.892v-.006L9.441 19.1l.001-2.3h-3.7l-.133-.007A1.3 1.3 0 0 1 4.442 15.5V7l.007-.133A1.3 1.3 0 0 1 5.742 5.7h14l.133.007A1.3 1.3 0 0 1 21.042 7v4.887a.6.6 0 1 0 1.2 0V7z’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘14.625’ y=‘16.686’ width=‘7’ height=‘1.2’ rx=’.6’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘18.725’ y=‘13.786’ width=‘7’ height=‘1.2’ rx=’.6’ transform=‘rotate(90 18.725 13.786)’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言