语言 EN

大模型放到离用户最近的地方

做高效的端侧智能
高效手机
高效AIPC
高效智能座舱
高效具身机器人
高效可穿戴设备

旗舰端侧大模型系列 大模型科学化结晶

了解更多

全球领先的轻量高性能大模型,可有效运行在日常生活中主流消费电子和各类终端上,覆盖不同的芯片和系统平台。 MiniCPM系列端侧模型,拥有极致的算力和内存使用效率,参数量更小、推理速度更快、性能越级比肩、部署高度灵活和简洁。 「模型制程」也在持续提升中,大模型科学化不断向更深更远的无人区探索,不断地惊喜收获。

极致以小搏大 + 极致高效低成本旗舰基座模型 MiniCPM
4B2.4B1.2B、极速版
越级超越 全球标杆之作
githubhuggingface
8B 稀疏闪电版 + 0.5B 以小博大百倍提速 开启端侧长文本时代!

快!
推理速度 220 倍极限加速 5 倍常规加速


顺!
高效双频丝滑换挡 长文本用稀疏 短文本用稠密


强!
以小博大的旗舰性能 训练开销仅需 22%


小!
25% 极低存储空间 量化版 90% 瘦身 端侧部署友好
查看各个版本的功能详情
视频、多图、单图,全面超越 GPT-4o旗舰多模态模型 MiniCPM-V
8B全模态8B实时视频8B2.8B
最强端侧多模态通用能力
githubhuggingface
实时流式,端到端,全模态 持续看、实时听、自然说最强多模态实时流式交互 最强端侧视觉通用模型 最强语音通用模型
持续看,真流式,贴近人眼自然视觉交互 实时听,真流畅,具备抗噪能力,可识别背景音情境 自然说,带感情,超拟人情感对话,真人质感语音生成、语音克隆,可实时打断,更自然更连贯全实力,端到端小参数,全模态,端侧简单部署维护 真流式视频,端到端语音,高性能、低延迟了解更多
查看各个版本的功能详情
查看各个版本的功能对比

全球合作伙伴

amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
amd
纯端侧!超性能!全场景!首个纯端侧智能助手
了解更多
播放视频
AI+法律=高质量法治和高水平司法全国首个接入法院 办案流程的大模型了解更多每份案件后面,都是一份沉甸甸的期待。如何让正义,更快来到人们身边?同时让从业人员从繁琐流程中获得解脱? 高效,是大模型的强项,也是我们的强项!我们的大模型,围绕“公正与效率”主题,实现全流程AI赋能,已在法院专网完成部署并服务专业司法场景。 法律行业权威知识库深度合作,赋予我们更强的专业性。我们致力于通过提供高效可落地的大模型解决方案,以及自主可控的大模型能力,为法律业务赋能增效。
全球前沿Agent技术迈向IoA 智能互联时代了解更多互联网将全世界所有信息带到用户面前,物联网让所有设备相互连接共享信息。 在未来,通过大模型驱动的Agent平台,可以在更多用户、信息和设备之间建立连接,创造全新智能应用场景,进一步解放生产力,加速迈向“Internet of Agents”新时代。 我们已创建了 ChatDev、 X-Agent、AgentVerse 等多个单体智能、群体智能、智能协作方面的Agent明星项目。
技术Blog

新版 UltraEval-Audio 开源:新增一键复现、隔离推理运行机制,让模型测评更高效、更可控如今,音频模型已经成为重要的生产力工具,对研究者而言,如何提高音频模型的性能和效果是重中之重。在音频模型快速更新的背景下,研究者普遍面临以下几类问题,导致研发效率低下:第一,论文与公开报告中的指标往往难以在本地稳定复现,复现流程依赖零散脚本、隐藏参数与复杂前后处理,导致“结果对不上、过程跑不通”;第二,不同模型对运行环境的要求差异巨大(框架版本、CUDA 依赖、第三方库互斥等),在同一台机器上并行评测多个模型时极易陷入依赖冲突与环境反复重装的问题。第三,除通用语音大模型外,TTS、ASR、Codec 等专有音频模型在社区与产业侧的关注度持续提升、热门模型与方案快速涌现,围绕这些模型的“可复现评测”需求也显著增长。基于上述痛点,清华、OpenBMB、面壁智能联合发布 UltraEval-Audio v1.1 版本,在原有的“一键测评”音频模型的基础上,重点新增热门音频模型的一键复现能力,扩展对 TTS/ASR/Codec 等专业模型与专项评测的支持,并引入隔离推理运行机制,以在工程层面降低复现门槛、提升评测流程的可控性与可迁移性。
清华首发语音大模型评测工作,评测框架、竞技场、榜单全系开放近年来,大模型技术正从单一的文本模态向多模态领域快速扩展,发展势头迅猛。特别是在2024年5月,OpenAI 发布了具备多模态能力的 GPT-4o,再次引领了大模型的研究方向与技术潮流,推动了多模态模型的蓬勃发展。在此背景下,清华 NLP 实验室、OpenBMB 与面壁智能联合推出首个全模态语音大模型评测框架 UltraEval-Audio 以及 AudioArena 语音大模型 PK 平台。通过专业、定量、科学的评测方法全面评估了当前市场上语音大模型的性能,并发布了首个权威的语音测评榜单 UltraEval-Audio-Leaderboard,为语音大模型行业提供龙虎榜。
VoxCPM 登顶 HuggingFace TOP1面壁小钢炮首款语音生成模型 VoxCPM 一经发布,广受好评,成功登顶 HuggingFace TOP1。
面壁小钢炮迎新:VoxCPM 语音生成媲美真人、声音复刻超像!今天,我们隆重介绍面壁小钢炮新成员VoxCPM,一款 0.5B 参数尺寸的语音生成基座模型。该模型由面壁智能与清华大学深圳国际研究生院人机语音交互实验室(THUHCSI)联合研发。
MiniCPM-V 4.5 技术报告正式出炉今天,MiniCPM-V 4.5 技术报告正式出炉。报告从模型结构、训练数据和训练策略三个维度探索了高效多模态大模型的实现路径,以解决多模态大模型的训练和推理的效率瓶颈。提出 统一的 3D-Resampler 架构实现高密度视频压缩、面向文档的统一 OCR 和知识学习范式、可控混合快速/深度思考的多模态强化学习三大技术。基于这些关键技术,MiniCPM-V 4.5 在视频理解、图像理解、OCR、文档解析等多项任务上取得显著突破,不仅以 8B 的参数规模超越 GPT-4o-latest 和 Qwen2.5-VL-72B,更在推理速度上具有显著优势。
MiniCPM-V 4.5 登上 HuggingFace TOP2面壁最新诚意之作 MiniCPM-V 4.5,8B 小身材爆发超高性能,高刷视频理解被称为「鹰眼级」,一经开源,就收获了开发者的热情回应,登上 HuggingFace Trending TOP2。
多模态新旗舰MiniCPM-V 4.5:8B 性能超越 72B,高刷视频理解又准又快今天,我们正式开源 8B 参数的面壁小钢炮 MiniCPM-V 4.5 多模态旗舰模型,成为行业首个具备“高刷”视频理解能力的多模态模型,看得准、看得快,看得长!高刷视频理解、长视频理解、OCR、文档解析能力同级 SOTA,且性能超过 Qwen2.5-VL 72B,堪称最强端侧多模态模型。
MiniCPM-V4.0开源,多模态能力进化,手机可用,还有最全CookBook!MiniCPM-V 4.0 以 4B 的参数量真正做到了稳定运行、快速响应,且在手机、平板等设备长时间连续使用无发热、无卡顿。
面壁“小钢炮”登上 Nature 子刊,8B 多模态综合性能超越 GPT-4V、Gemini Pro7 月 1 日,国际顶级学术期刊《Nature》旗下子刊《Nature Communications》正式刊登了来自清华、面壁等研究团队联合研发的高效端侧多模态大模型MiniCPM-V 核心研究成果。
MiniCPM-o 2.6 技术博客为了促进开源社区的探索,我们推出了 MiniCPM-o 2.6,一个从 MiniCPM-V 系列升级而来的最新性能最佳的端侧多模态大模型。该模型接受图像、视频、文本和音频输入,并以端到端方式生成高质量的文本和语音输出。虽然总参数量仅有 8B,MiniCPM-o 2.6 的视觉、语音和多模态流式能力达到了 GPT-4o-202405 级别,是开源社区中模态支持最丰富、性能最佳的模型之一。
H-Neurons:大语言模型中幻觉相关神经元的存在、作用及其起源清华大学 THUNLP、清华大学新闻与传播学院、OpenBMB 以及面壁智能的联合团队近期的一项工作《H-Neurons: On the Existence, Impact, and Origin of Hallucination-Associated Neurons in LLMs》从微观神经元视角出发,系统研究了 LLM 中的幻觉机制:不仅找到了与幻觉相关的极少数神经元(H-Neurons),更揭示了一个令人意外的真相:幻觉并非无序的生成错误,而是模型为了顺从你进行的“过度配合”。
基座上新:MiniCPM 4.1 将「高效深思考」引入端侧今天,我们发布新版本的面壁小钢炮 MiniCPM 4.1 基座模型。在 MiniCPM 4.0 的基础上,MiniCPM 4.1 新增 8B 参数的行业首个原生稀疏架构深思考模型,同级 SOTA 表现带来超快、超准的深思考能力,真正让端侧设备实现高效「深思考」。
技术Blog-9|ArkInfer:面向端侧AI的跨平台高效部署系统如何突破硬件壁垒,实现“一次开发,处处运行”?这一问题的核心在于 解耦与代码复用 ——即将算法创新与底层硬件实现解耦,让单一的工程成果能够自动、高效地应用于多个平台。为解决上述痛点,我们提出了 ArkInfer,一个创新的、面向未来的跨平台 AI 模型部署系统。ArkInfer 旨在通过提供极致的推理效率和卓越的平台兼容性,彻底克服端侧芯片碎片化带来的障碍,为各类模型应用提供坚实的部署基石。
技术Blog-8 | Chunk-wise Rollout:基于分块采样的高吞吐强化学习加速策略Chunk-wise Rollout 是一种加速 RL 训练的策略,通过对 RL 训练流程进行异步化,限制每次采样过程中每条轨迹的最大生成长度,并在下一次采样中复用本轮中未生成完毕的轨迹,从而减小采样过程中因部分超长轨迹造成的计算空泡,提升 GPU 利用率。同时,为了减小引入 Chunk-wise Rollout 策略带来的离线采样数据对训练效果和稳定性的影响,我们引入了多项策略,包括 分块级重要性采样、双向裁剪、 KL 正则约束与动态参考模型更新 以及 异常内容过滤。 这些策略共同实现了稳定且高效的 RL 训练,在实现了 2.05 倍训练加速的同时取得了和常规 RL 训练方式相近甚至超越的效果。
技术Blog-7 | BitCPM:极低位宽的模型量化极低位宽的模型量化近年来一直是学术界研究的热点,也涌现出了许多效果显著的工作。对于如何使用 QAT 方法高效训练出极低位宽的模型,我们在 MiniCPM 系列模型上进行了实验探索,并推出了我们的低位宽模型 BitCPM 系列。
技术Blog-6 | 风洞 2.0:高效的模型训练最优超参数搜索方法早在训练 MiniCPM1 的时候,面壁团队就已经使用了模型风洞实验来指导模型的训练,本次我们使用了更有效的模型评估方法,同时对模型风洞流程进行了一些升级,提升了我们的参数搜索的效率。同时我们将风洞方案和业界有代表性的超参搜索方案进行了对比。
技术Blog-5 | MiniCPM4-Survey:基于多步智能体强化学习的可信长综述生成技术随着 OpenAI 等机构陆续推出 DeepResearch(深度研究)系统,大模型的实际应用中增添了一项重要任务:生成长篇幅、多引用、结构化的综述报告。然而,目前市面上的多数解决方案依赖于闭源的大参数规模模型,使用成本较高、调用次数受限。为了解决这一问题,让更多用户在更广泛的场景中能够使用综述报告生成功能,我们重点探索了多步智能体强化学习(Multi-Step Agent Reinforcement Learning)方法,推出以端侧级参数规模完成可信长综述生成的 MiniCPM4-Survey。其生成的综述文章质量在多个维度的对比中可以比肩 OpenAI Deep Research。
MiniCPM 4.0 部署及微调教程MiniCPM 4.0 推出端侧性能“大小王”组合,拥有 8B 、0.5B 两种参数规模,延续「以小博大」特性,实现了同级最佳的模型性能。其中,MiniCPM 4.0 -8B 是首个原生稀疏模型,5% 的极高稀疏度加持系统级创新技术的大爆发,让长文本、深思考在端侧真正跑起来,以仅 22% 的训练开销,性能比肩 Qwen-3-8B,超越Gemma-3-12B。MiniCPM4.0 -0.5B 取得同级 SOTA,并通过原生 QAT 技术实现几乎不掉点的 int4 量化,实现了 600 Token/s 的极速推理速度。
技术Blog-4 | 新一代InfLLM:可训练的稀疏注意力机制MiniCPM4 创新性地引入了 InfLLM v2,一种 可训练的稀疏注意力机制,极大程度降低了计算开销,并结合定制化推理算子 CPM.cu,MiniCPM4 在 预填充 和 解码 阶段都实现了切实的加速效果。
技术Blog-3 | CPM.cu:轻量且高效的端侧大模型推理框架CPM.cu 是一款基于 CUDA 构建的高效大模型推理框架,它集成了稀疏注意力、投机采样与模型量化等多种加速策略,并支持将它们复合使用以实现更极致的推理性能,框架十分轻量且易读。
高效大模型 就是面壁智能高效,源于对大模型科学化的不懈追求以知识密度为核心的「面壁定律」,指引我们进行更高效的大模型科学化探索。在ScalingLaw之外,探索出前瞻、独特的大模型方法论。 围绕提升大模型知识密度这一本质,面壁通过数据、模型的架构以及相关成长算法方面的探索,做到同等参数、性能更强,持续提升大模型制程,将更小更强更高效的模型放到端侧,放到离用户最近的地方!
面壁定律摩尔定律
模型能⼒密度随时间呈指数级增强,达到特定智能水平的模型参数量每 3.3 个月 下降⼀半。基线模型(如 MiniCPM)为实现目标性能所需的参数数量与实际参数数量的比值。
新闻动态

A G I  F O R  L I V E S   智 周 万 物