聊聊小米开源的MiMo-V2-Flash,这次,为推理而生。 * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }

聊聊小米开源的MiMo-V2-Flash,这次,为推理而生。

原创 数字生命卡兹克 数字生命卡兹克 2025-12-20 12:58 北京

原文地址: https://mp.weixin.qq.com/s/ugupDTwuzbkD54MVWUAIug

周末加更一篇,我还是觉得,小米前两天开源的那个模型,值得单独来聊一聊。

当天晚上其实就打算写了,结果被OpenAI截胡了,这一拖,就拖到了今天。

就是前两天深夜,小米搞了一个大的。

没有任何预兆的,直接开源了一个大模型,MiMo-V2-Flash。

说实话,十年米粉看到以后,还是有点激动的。

小米,作为硬件厂商的代表,终于出手了。

成绩也不错,在OpenRouter上的调用量排名上,一路上涨。

今天看,又涨了将近2倍,已经来到了第六了,这个涨幅还是挺恐怖的。

而且还有一个非常有意思的是,那天,也是雷总的生日。

这绝对不是巧合(狗头保命)。

这次,MiMo-V2-Flash发布即开源,还附带了技术报告。

说真的,这个技术报告,真的究极详细了。

就很多有趣的经验值得分享。

然后,还做了一个线上对话产品,也是为了方便大家进行快速便捷的体验。

网址在此:https://aistudio.xiaomimimo.com/

我这两天,零零散散的花了一些时间,读完了技术报告,又体验了一下模型之后,我觉得,这个模型还是有一点意思的。

就如同他们自己在Blog上所说的那样。

Blazing speed meets frontier performance。

极速性能,前沿体验。

老规矩,先看跑分。

差不多在开源世界里,属于第一梯队水平,跟Kimi-K2 Thinking和DeepSeek-V3.2互有胜负。

跟闭源模型,也能掰掰手腕,但是坦诚的讲,Gemini 3.0 Pro还是太强了。。。

在Artificial Analysis上,综合排名也是开源第二。

不过这些跑分,我觉得现在大家看看就就行了,真正在技术报告里有比较有意思的创新的点,还是在于他们生为一个硬件为核心的公司,所一直追求的。

能跑多快,能跑多省。

小米,为发烧而生。

MiMo,为Reasoning而生。

在MiMo的世界里,最核心的,是速度、成本、是延迟。

是能不能把它塞进手机、塞进汽车、塞进一个能面向于普通消费者的未来里。

这次MiMo-V2-Flash是个MoE模型,总参数309B,激活参数量15B。

基本上,跟DeepSeek-V3.2相比,MiMo-V2-Flash的推理成本略低,而推理速度大约是 V3.2 的三倍左右。

跟Gemini 2.5 Pro相比的话,MiMo-V2-Flash的推理速度接近,但推理成本大约低了20倍。

在价格上,达到了非常离谱的数据。

每百万输入token为0.1美元,每百万输出token为0.3美元。

这个数据有多离谱,我觉得还是需要放一下一些其他大模型价格对比。

GPT-5.2:14/输出。

Gemini 3 Pro(<200k上下文):12/输出。

Gemini 3 Flash:3/输出。

Kimi K2 Thinking:2.50/输出**。**

DeepSeek-V3.2(思考模式):0.43/输出。**

相信大家现在就知道,MiMo-V2-Flash的价格和性能对比,还有他的推理速度,有多离谱了,可能会是常规开发普惠的又一利器。

而整个模型里面,我觉得最棒的点,其实有两个,一个叫长文本,一个叫吐字速度。

一个一个说。

先说长文本。

过去所有大模型做长文本,都会遇到一个非常朴素的问题,就是你让它看的东西越长,它脑子里要记的上下文缓存(KV cache)就越大,算注意力的时候就越废。

就比如说考试写作文。

最传统的大模型写作文,大概是这样的流程,就是每写一个字,都要从头到尾把自己刚写的所有内容,重新读一遍想一遍,然后才敢写下一个字。

写到第1000个字时,你可以理解成,它已经把前面999个字复习了999遍。

是不是听着就很酸爽,如果想象不到有多痛苦的,大家现在可以自己试一试。。。

这其实就是所谓的全局注意力,就是你每添一个词,大模型脑子里都要把前文全刷一遍,它很怕漏掉什么细节。

理论上,这样最稳妥、最严谨,但有一个致命问题,就是太费劲,太慢了。

就好像你在写古诗,一边写一边从第一页开始把整本《唐诗三百首》背一遍,确认自己没有撞韵,再写下一个字。

非要用一个词来描述这种行为,那我觉得,就是,自虐。

后来大家觉得不能这么算下去啊,要不然到时候就算你显卡堆成一座山,速度也快不起来,更别提长文本了。

所以就有一大堆加速方法被发明出来了,什么注意力结构、稀疏连接、特化硬件啥的都出现了。

小米的搞得这个Hybrid Attention,本质上就干了一件特别朴素的事,承认一个现实,也就是人类看东西,不是每一秒都在看全局。

其实你读小说的时候,其实也是局部认真,全局大概知道个意思。

你的眼睛,肯定主要盯着眼前这一两页,这是滑动窗口。

偶尔翻回前面看看人物关系图、章节标题,这是全局注意。

MiMo-V2-Flash把这个节奏,直接写进了模型结构里。

它的大部分时间,只看最近的 128 个 token,就像你只记得眼前这一段对话,每隔一段,就抬头看一下全局,防止走偏。

这就是MiMo-V2-Flash采用的全局注意力(GA)与滑动窗口注意力(SWA)1:5 的混合方案,长上下文下KV cache和注意力计算,能有接近6倍下降。。。

然后最有意思的事,他们还加了一个东西,叫“attention sink bias”。

你大概就可以理解成,让模型可以把有些东西选择性的不看,让注意力沉底,不被各种噪音干扰。

人类其实也一样,你坐在洗脚城大厅,旁边有人吵架、有人刷短视频、有人喊服务员,你不可能每句话都听进去。你真正能活下去的能力,是你能把这些噪音当成背景音,眼神空焦一下,注意力直接沉下去,只抓你要的那点信息。

MiMo做的,就是把这种我选择性忽略的能力工程化了。

更有意思的是,他们也做了实验,没有这个sink bias,性能会掉,加上以后不仅回来了,甚至能跟全局注意力打平甚至更好。

所谓MiMo-V2-Flash为了解决成本问题,其实做了不少有趣的事情,而且虽然看着很多技术名词,但是本质上,非常的生活化。

就是,承认记得太多也是负担,学会在正确的地方选择性忘记,把算力留给真正重要的部分。

长文本搞定之后,然后是第二个:吐字速度。

很多人以为大模型慢,是因为它不够强。

其实更真实的原因是,就是大模型生成文字这件事,本质上非常流水线,一口一口吐,吐一个才知道下一个。

就像你让一个师傅现场写春联,他写完上联最后一个字,才知道下联第一个字怎么对,那速度怎么可能快的起来,还写个屁。

所以,MiMo-V2-Flash也用了一个有趣的东西,叫Multi-Token Prediction(MTP,多词预测)。

这玩意别被名字吓到,其实也特别生活化。

本质上就是,你别一个字一个字写,你先打个草稿,一次性多写几个字,然后再快速检查一遍,没问题就直接用,有问题就退回重写。

论文里会说得更技术一点,MTP可以作为“draft model”用于speculative decoding(推测解码),也就是先草稿、后验收的机制。

而且不是当一个工程上的外挂搞得,最开始的预训练阶段,这玩意就直接塞了进去,让模型学的一直就是先草稿、再检查这套节奏。

在微调阶段,又加了更多层MTP,把这种多字并行的本事练得更熟了。

等到真正上线推理的时候,它直接开三层 MTP 并行,就相当于你手下有三组实习生轮班打草稿,主模型坐在中间挑挑拣拣,最后形成一条流畅的回答。

结果就是你前面看到的那个很夸张的数字。

在实际场景里,三层MTP可以做到2到2.6倍的加速,单条回复能跑到150 token/s,全局吞吐可以拉到5000到15000 token/s。

我录了一个回答,无加速,大家可以看看,20秒4000字,真的已经非常快了。

所以,其实通过上面这些有趣的东西,你就能看出来。

这个模型的特点了。

和DeepSeek-V3.2能力相近,但速度大概快三倍。

和Gemini 2.5 Pro能力接近,速度差不多,但成本低了近二十倍。

也就是,同样干一份工,我能用更少的钱、更少的电、跑得更快、更稳。

真的,对于一个硬件公司来说,这几乎是刻在DNA里的执念。

手机时代,小米喜欢在发布会上讲同价位性能最强。

到大模型时代,它只是把同一套工程价值观,搬到了另一个战场。

我也大概测了一下模型的能力。

在代码这块,还挺有意思。

比如我之前测Gemini 3 Pro的时候,有一个体素3D世界的Prompt:

设计并创建一个非常有创意、精致且细节丰富的像素3D场景:一只胖乎乎的奶龙坐在一座美丽的花园中央,旁边是小池塘、石灯笼和弯曲的小路,周围长满树木,其中包括几棵盛开的樱花树。让整个场景足够震撼、层次丰富,在不同高度和区域布置各种小细节,比如长椅、小桥、石子路、草丛、花坛等,并使用色彩丰富的体素来表现。可以使用任何库来完成这个效果,但要确保我能把所有内容粘贴到一个单独的 HTML 文件中,并直接在 Chrome 中打开。JavaScript 库的引入方式请使用 importmap 和 ES 模块(ESM)导入。

而这次我扔到MiMo-V2-Flash里,也一次性直出了。

各种交互啥的也都没啥问题。

而且功能也都给你做全了,樱花特效都能关,也能自动旋转,最细节的事,奶龙脖子那里,还有一个会一闪一闪发光的小立方体,还挺精致的。

还有一个测模型svg能力的时候,一个Prompt:

做一个长滚动网页,用 5 层以上视差背景和 SVG 插画讲一个小故事,滚动时触发渐进式动画和文字渐显。

这块完成的也不错。

每个小动画,属实是都到位了。

比如前几天,Gemini流星雨,我就想,让Mimo给我做一个可以手势控制的流星网页。

对,就这么一个超级简单的Prompt。

MiMo-V2-Flash一次成型。

像左挥手就是蓝色流星,像右挥手,就是红色流星。

然后我又基于这个,改了一个识别手势,刮彩票的。

这次出了小小的BUG,不过对话两次,也改成功了。

就非常的有意思,很好玩。

然后又一句话做了一个像素画板。

也成功了。

整体看下来,代码能力不差,不过坦诚的讲,前端审美离最头部的模型,还有一些差距。

在写作上,直出效果还行。

但是还是会有中文大模型的堆砌词藻空洞的问题,很多句子看着很华丽,但是其实比较的空,不包含任何信息量。

但是已经比一些中文大模型好一些了。

而在文风复刻任务上,其实也差不多。

这是我用我的文风复刻的我自己的文章。

有些句子写的不错,而且那些经常被恶心的不是…而是…句式基本没用过,在很多时候,调一调还是可以的用的。

从更长远一点看,小米做这件事的意义,我觉得还是会往硬件去。

当未来,真的万物皆Agent的时候。

在手机、在车机、在路由器、在眼镜上、在所有的智能家居里,那颗小小的模型,能不能跑得快、跑得稳、跑得起。

这个是最重要的。

这也是,一家硬件公司最熟悉的战场。

在这个战场里,小米过去十几年已经证明过自己一次了,我到现在还记得我买小米1的兴奋。

作为一个十年米粉,我真的也很想自私地说一句。

如果哪天我跑Agent、搭小网页、操控我家里的所有家具,用的那颗本地小模型,背后跑的就是 MiMo,那会是一件挺让人开心的事。

开源是一种表态。

工程是一种信仰。

看好小米。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

数字生命卡兹克

![](data:image/svg+xml,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E%3C!— Icon from Lucide by Lucide Contributors - https://github.com/lucide-icons/lucide/blob/main/LICENSE —%3E%3Cg fill=‘none’ stroke=‘%23888888’ stroke-linecap=‘round’ stroke-linejoin=‘round’ stroke-width=‘2’%3E%3Cpath d=‘M2.062 12.348a1 1 0 0 1 0-.696a10.75 10.75 0 0 1 19.876 0a1 1 0 0 1 0 .696a10.75 10.75 0 0 1-19.876 0’/%3E%3Ccircle cx=‘12’ cy=‘12’ r=‘3’/%3E%3C/g%3E%3C/svg%3E) 阅读![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=‘evenodd’ clip-rule=‘evenodd’ d=‘M16.154 6.797l-.177 2.758h4.009c1.346 0 2.359 1.385 2.155 2.763l-.026.148-1.429 6.743c-.212.993-1.02 1.713-1.977 1.783l-.152.006-13.707-.006c-.553 0-1-.448-1-1v-8.58a1 1 0 0 1 1-1h2.44l1.263-.03.417-.018.168-.015.028-.005c1.355-.315 2.39-2.406 2.58-4.276l.01-.16.022-.572.022-.276c.074-.707.3-1.54 1.08-1.883 2.054-.9 3.387 1.835 3.274 3.62zm-2.791-2.52c-.16.07-.282.294-.345.713l-.022.167-.019.224-.023.604-.014.204c-.253 2.486-1.615 4.885-3.502 5.324l-.097.018-.204.023-.181.012-.256.01v8.218l9.813.004.11-.003c.381-.028.72-.304.855-.709l.034-.125 1.422-6.708.02-.11c.099-.668-.354-1.308-.87-1.381l-.098-.007h-5.289l.26-4.033c.09-1.449-.864-2.766-1.594-2.446zM7.5 11.606l-.21.005-2.241-.001v8.181l2.45.001v-8.186z’ fill=‘%23000’/%3E%3C/svg%3E) 赞 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cpath d=‘M0 0h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M13.707 3.288l7.171 7.103a1 1 0 0 1 .09 1.32l-.09.1-7.17 7.104a1 1 0 0 1-1.705-.71v-3.283c-2.338.188-5.752 1.57-7.527 5.9-.295.72-1.02.713-1.177-.22-1.246-7.38 2.952-12.387 8.704-13.294v-3.31a1 1 0 0 1 1.704-.71zm-.504 5.046l-1.013.16c-4.825.76-7.976 4.52-7.907 9.759l.007.287c1.594-2.613 4.268-4.45 7.332-4.787l1.581-.132v4.103l6.688-6.623-6.688-6.623v3.856z’/%3E %3C/g%3E%3C/svg%3E) 分享 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ xmlns:xlink=‘http://www.w3.org/1999/xlink’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cdefs%3E %3Cpath id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’ d=‘M0 0h24v24H0z’/%3E %3C/defs%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cmask id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-b’ fill=‘%23fff’%3E %3Cuse xlink:href=‘%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’/%3E %3C/mask%3E %3Cg mask=‘url(%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-b)‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath d=‘M22.242 7a2.5 2.5 0 0 0-2.5-2.5h-14a2.5 2.5 0 0 0-2.5 2.5v8.5a2.5 2.5 0 0 0 2.5 2.5h2.5v1.59a1 1 0 0 0 1.707.7l1-1a.569.569 0 0 0 .034-.03l1.273-1.273a.6.6 0 0 0-.8-.892v-.006L9.441 19.1l.001-2.3h-3.7l-.133-.007A1.3 1.3 0 0 1 4.442 15.5V7l.007-.133A1.3 1.3 0 0 1 5.742 5.7h14l.133.007A1.3 1.3 0 0 1 21.042 7v4.887a.6.6 0 1 0 1.2 0V7z’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘14.625’ y=‘16.686’ width=‘7’ height=‘1.2’ rx=’.6’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘18.725’ y=‘13.786’ width=‘7’ height=‘1.2’ rx=’.6’ transform=‘rotate(90 18.725 13.786)’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言