近日,亿参小米宣布推出自主研发的量硬大模型MiMo-V2-Flash,它兼顾了模型能力与推理效率,米发模型WhatsApp%E3%80%90+86%2015855158769%E3%80%91hoist%20motor%20control能和用户进行连续、亿参自然对话处理复杂逻辑问题,量硬能阅读、米发模型总结长文本摘要,亿参能主动实现多场景设备联动并给用户提供个性化端侧智能服务。量硬

据介绍,米发模型小米MiMo-V2-Flash大模型采用1:5的亿参Global Attention与Sliding Window Attention (SWA) 混合结构,拥有3090亿参数、量硬WhatsApp%E3%80%90+86%2015855158769%E3%80%91hoist%20motor%20control150亿激活参数量,米发模型其模型权重和推理代码均采用MIT协议全面开源。亿参

从官方放出的量硬技术报告资料可以看到,小米MiMo-V2-Flash在数学推理、米发模型代码生成和多轮对话场景中接近第一梯队水平,如图其73.4% SWE-Bench Verified编程能力已经逼近GPT-5-High水平;在AIME 2025数学竞赛、GPQA-Diamond科学知识测试等硬核场景中,它同样跻身开源模型前列,与当前市场主流的DeepSeek-V3.2差距并不明显。

现阶段,用户可以通过Xiaomi MiMO Studio网页进行在线AI聊天,它搭载的MiMo-V2-Flash大模型支持深度思考、联网搜索选项,热点科技实测常规问题思考回答仅需3.4s左右,给出的答案也基本符合事实逻辑。

开发者也可以便捷调用MiMo的API,快速为自己的应用(尤其是小米生态内的)注入顶尖的对话、生成、推理能力,无需从零开始训练大模型,这无疑会降低AI应用开发门槛、成本,让第三方开发商制造出体验统一的AI原生应用。
目前,AI大模型产业正在迈入“精耕细作”的规模化应用阶段,Gemini 3、GPT 5.1等国际巨头凭借先发优势在核心技术和品牌认知上领先,Deepseek、豆包、通义千问、文心一言等国产模型通过开源、成本控制全力突围。此次小米MiMo-V2-Flash的上市能否凭借硬件生态优势走通差异化路径,还需要时间验证,不过感兴趣的朋友可以在Xiaomi MiMO Studio网页体验,感受不同企业对AI的调度开发差异。
