![]()
编辑|泽南、Panda
霸榜 OpenRouter 的神秘大模型,真面目终于曝光了 —— 来自小米。
过去一周里,两款代号为 Hunter Alpha 和 Healer Alpha 的神秘大模型空降知名大模型基础设施平台 OpenRouter。它们以 API 的形式,直接与全球最顶尖的模型展开了同场「盲测」竞技。
战绩可谓优异:其中 Hunter Alpha 拿下了趋势榜第一、周榜第三,现在也在日榜上保持领先。
![]()
这几天整个开发者社区都在猜测 Hunter Alpha 来自哪家,有说是 DeepSeek V4,有说是 Grok,直到昨天,面纱正式揭开:这正是小米全新一代面向 Agent(智能体)的大模型家族。
在今天官宣新模型时,雷军还表示,小米会持续加大在 AI 领域上的投资,今年投入将超过 160 亿元。
![]()
此次官宣的新模型有三个版本:
MiMo-V2-Pro Preview(即 Hunter Alpha):面向 Agent 时代的旗舰基座模型,参数量高达 1021B,激活参数量 42B,主攻硬核复杂任务。MiMo-V2-Omni(即 Healer Alpha):全模态模型,专为快速推理和低延迟场景打造。MiMo-V2-TTS:首款「说唱兼备」的超拟人语音大模型。由于 OpenRouter 平台限制,未能参与此前的盲测。
其中,旗舰模型 MiMo-V2-Pro 在长文本、智能体调用稳定性等方面性能优异。随着模型的正式亮相,小米也提供了更多的跑分数据,在权威大模型综合智能排行榜 Artificial Analysis 上,MiMo-V2-Pro 位列全球第九,国内第三。
可以说是挤进了国内大模型的第一梯队。
![]()
更为值得关注的是,这些新一代的模型是专为「龙虾」(OpenClaw)等 AI 智能体平台设计的。在 OpenClaw 标准评测榜单 PinchBench 上,MiMo-V2-Pro 效果处于全球顶尖水平。
来自开发者社区的真实反馈也印证了这一点。网友们表示,在很多复杂的 Agent 编排场景中,Hunter Alpha 的实际落地效果接近于 Claude 4.6。
![]()
![]()
有人已经表示,目前想要构建全端自动开发的工作流,只有 GPT5.4、Claude opus 4.6 和 Hunter alpha 是可以信赖的,它们的生成的代码效果很好。
MiMo-V2-Pro 场景实测
写代码、做研报、找热点
小米宣称 MiMo-V2-Pro 的能力优秀,特别是用在 OpenClaw 上的体验不错,但实际体验如何?在模型还未正式发布时,我们提前进行了一番研究。
就试试它在智能体工作流上的能力:
![]()
首先,既然说这个模型支持超长的上下文,我们就让它来做一个深度研究。
可以看到,hunter-alpha 明白这是一个需要多步骤执行的任务,并根据当前任务的需求自动选择了所要使用的工具,而当检测到所选工具不可用时,它也会聪明地直接寻找替代方案并完成任务。
![]()
不论是从格式、章节和内容看,这报告的内容是够详尽的。
![]()
我们再抛出一个具有时效性的问题:让 OpenClaw 观察马斯克(Elon Musk)最近 48 小时在社交平台上说的话与回复内容,并尝试分析一下利好哪些股票概念。
![]()
我们知道,马斯克每天发话无数,参与互动的内容从 AI 领域到航天,有时候还会直播打游戏,hunter-alpha 正确地剔除了不少无用信息,给了我们寻找热点的参考。
有意思的是,从上面的长截图可以看出,当 MiMo-V2-Pro Preview 第一次尝试完成该任务时,由于 API 超时,它并未第一时间获得一手数据,但它却机灵地通过其它信源进行了信息补充。之后它修改了方法,进行了更正确的分析,并得到了相当有用的总结:
今天马斯克以短回复为主("True"、"Nice"、""),没有长篇宣布或新产品发布矿业机器人和对 Autopilot 辩护是唯二有实质内容的信号结合上周 Optimus 3 + xAI + X Money 等信息,机器人和 AI 算力依然是主线
对了,今天是「疯狂星期四」,群里洋溢着整活的气氛,我们要求 OpenClaw 成为一个玩梗机器人,用 Python 帮我们写一个完整的自动化脚本。要求:
脚本内置一个包含 5 种不同风格(悬疑、言情、科幻、职场、废话文学)的「肯德基疯狂星期四 V 我 50」文案生成器。每次运行时随机抽取一种风格,并自动替换掉文案里的日期和当天的天气(需调用免费的天气 API)。将所得结果直接发给我。提供完整的 requirements.txt 和部署在 Linux 上的 crontab 定时任务指令(设定为每周四上午 11:30 执行)。
MiMo-V2-Pro 有能力完成这个既需要技术也需要机智的任务吗?结果是这样:
![]()
试运行一次看看效果:
![]()
另外,很多网友说小米的模型有不错的代码能力,我们要求 MiMo-V2-Pro 来生成一个 HTML 页面,包含以下内容:healer-alpha 大模型的介绍、healer-alpha 和各种其他模型的参数对比、当前社区上人们对于 healer-alpha 的评价。
大模型生成了一个排版清晰美观,内容充实的页面。
![]()
MiMo-V2-Pro 向我们展示了一个极其聪明的「龙虾 AI 大脑」,那么想要让智能体真正接管现实世界的工作流,它们还需要敏锐的视觉和听觉。在这方面小米还有另外两张牌。
多模态 Agent 能力
接管真实世界,听刘德华叫早
我们进而测试了一下另外两个模型 MiMo-V2-Omni 与 MiMo-V2-TTS。
MiMo-V2-Omni 作为一个全模态的模型,具备一定的 GUI Agent 能力。据介绍,它支持文本、图像、音频、视频(最长一小时)的输入,在 OpenClaw 里可以处理网页、摄像头截图、音频分析、文档中的图片等多模态任务。
我们尝试让它帮助我们发条抖音:
![]()
![]()
MiMo-V2-Omni 驱动的智能体当然也能完成一些与现实世界有关的任务。如果我们 30 人的团建需要购买吃的喝的用的,交给 OpenClaw 它可以一步到位地搞定:
![]()
语音合成大模型 MiMo-V2-TTS 支持具有拟人感的发音能力,支持多个方言、音色的切换,也具备音色克隆的能力。我们让它「用刘德华的声音来叫我起床」:
![]()
文中音频链接:
https://mp.weixin.qq.com/s/KDZ-zV5Ch5k5uvEOF6kEiA
看起来效果不错。
有了 MiMo-V2-Omni 与 MiMo-V2-TTS,小米可以说拥有了现阶段可以同时理解音视频的国内最强 Agentic 模型。对于开发者来说,这些工具能够处理观察浏览器多窗口、复杂内容的联合理解与生成等任务,在实时交互与可视化输出能力上提供了保证。
另一方面,多模态的大模型也为小米的智能生态提供了想象空间:它未来或许可以关联机器人 VLA 模型实现联合控制,操作智能家具,或是融入下一代智能眼镜,提供识别等能力。
MiMo-V2-Pro 凭什么叫板闭源模型巨头?
从 OpenRouter 上霸榜的成绩,社区的热烈讨论,再到 Benchmark 分数,我们看到了 MiMo-V2-Pro 等模型的能力与实用性,它们正在推动 AI 智能体从「对话框里的聊天伴侣」进化为现实世界里的「AI 打工人」。但有关小米大模型用到的技术,我们一直以来知之甚少。
本次在最受关注的 MiMo-V2-Pro 上,小米介绍了一些技术细节。
MiMo-V2-Pro 拥有超过 1 万亿的超大参数量,激活参数控制在 42B,相比前代 MiMo-V2-Flash 扩容约 3 倍。团队进一步优化了其创新的混合注意力机制(Hybrid Attention),将 SWA(滑动窗口注意力)与 GA(全局注意力)的混合比例提升至 7:1,并搭配轻量级的 MTP (Multi Token Prediction) 层实现了高效的生成速度。
在此基础上,MiMo-V2-Pro 的能力加点全都点在了「真实应用」上。为了成为合格的 Agent 大脑,MiMo-V2-Pro 针对 OpenClaw 等通用智能体框架的 Scaffold(脚手架)进行了深度的 SFT(监督微调)与 RL(强化学习)
在 OpenClaw 的标准评测榜单 PinchBench 上,MiMo-V2-Pro 排行跻身前列。它能够在完全没有人工干预的情况下,自主完成复杂的工作流编排、长周期的任务规划,实现高精度的外部工具调用。
在考验模型逻辑能力的编码领域,MiMo-V2-Pro 能够参与严肃的代码工程构建。
在小米内部的深度评测及社区的真实反馈中,MiMo-V2-Pro 体感已接近目前的行业天花板 Claude Opus 4.6,它给出的代码风格更加优雅,拥有出色的系统设计与任务规划能力。
MiMo-V2-Pro 已经展示出了完整的端到端全栈能力。在 OpenClaw 里只需输入一段 Prompt,模型就能一步生成一个充满「90 年代复古杂志风」的前端网页 —— 从衬线字体的排版、溢出的视觉错觉,到棕褐色滤镜、翻书过渡动画,甚至还包含 ISSN 码版权页,完美兼顾了工程可用性与视觉审美。
拥有百万上下文能力的 MiMo-V2-Pro API 现已全面开放。在接近 Claude Opus 4.6 能力的同时,API 定价仅为其五分之一。小米采取了分段计价的方式:
256K 上下文内:输入 $1 / 1M tokens,输出 $3 / 1M tokens1M 上下文内:输入 $2 / 1M tokens,输出 $6 / 1M tokens
为了加速 Agent 生态的繁荣,小米还联合 OpenClaw、OpenCode、KiloCode、Blackbox 及 Cline 等五大主流 Agent 开发框架团队,直接向全球开发者提供为期一周的限时免费接口支持
不只是「跑分机器」
已全面杀入真实生态
目前,MiMo-V2-Pro 作为基础设施,已在小米的多个核心业务和生态伙伴中同步上线。
作为首个基于 MiMo 模型构建的手机端 AI 智能体产品,小米版「龙虾」MiClaw 不仅具备了深入系统的执行能力,还与小米的人车家全生态实现了深度集成。推动了 AI 能力从「对话」迈向「系统级执行」的实质性演进。
在生产力场景,MiMo 的底层推理引擎已与金山办公达成框架级集成。现在 WPS 灵犀可以直接向搭载了 MiMo-V2-Pro 的灵犀 Claw 提问或布置复杂任务。此外,小米浏览器也已全面接入该模型,大幅提升 AI 搜索的信息获取效率。
小米官方还上线了 AI Studio 体验页面(aistudio.xiaomimimo.com)。在这里你不仅可以免费解锁 MiMo-V2-Pro 完整体验,其中的 MiMo Claw 模块还打通了金山 WebOffice 生态,原生支持 Word、Excel、PPT、PDF 格式,无缝覆盖了超 95% 的日常文档类型。
![]()
下一步,小米大模型 Core 团队还计划以星期为单位持续迭代 MiMo-V2 系列大模型,面向真实场景提供更完善的复杂推理与长周期任务规划能力,向真正的通用智能迈进。