谷歌发布 Gemma 4 开源大模型,31B 参数性能达头部水准

淘百科 百科资讯 1

4 月 3 日消息,今日,谷歌正式推出 Gemma 4 大模型,据称是迄今为止谷歌最智能的开源模型。Gemma 4 专为高级推理与智能体工作流打造,实现了前所未有的“单位参数智能水平”。

注意到,本次谷歌推出四种规格的 Gemma 4 通用模型:高效 20 亿参数版(E2B)、高效 40 亿参数版(E4B)、260 亿混合专家模型(MoE)与 310 亿稠密模型(31B)。全系产品均超越简单对话场景,可处理复杂逻辑与智能体工作流。

其中大参数量级模型在同规模下实现顶尖性能:31B 模型目前在行业标准 Arena AI 文本榜单中位列全球开源模型第三,26B 模型位居第六。Gemma 4 在榜单上的表现甚至超越了自身规模 20 倍的模型。对开发者而言,这种全新的单位参数智能水平意味着,只需更少的硬件开销,即可实现前沿级 AI 能力。

在端侧设备上,E2B 与 E4B 模型重新定义了本地部署价值:相比单纯堆砌参数,更侧重多模态能力、低延迟处理与生态无缝集成。

以下是 Gemma 4 模型系列的核心优势:

  • 高级推理:具备多步规划与深度逻辑能力,在数学、指令执行等需要复杂推理的基准测试中实现显著提升。

  • 智能体工作流:原生支持函数调用、结构化 JSON 输出与系统指令,可构建能对接各类工具、API 并可靠执行工作流的自主智能体。

  • 代码生成:支持高质量离线代码生成,将工作站变为本地化 AI 编程助手。

  • 视觉与音频:全系模型原生支持视频、图像处理,兼容可变分辨率,在 OCR、图表理解等视觉任务上表现出色;E2B 与 E4B 模型额外搭载原生音频输入能力,可实现语音识别与理解。

  • 更长上下文:流畅处理长文本内容。端侧模型上下文窗口达 128K,大模型最高支持 256K,可在单次提示中传入代码库或长文档。

  • 140 + 种语言:基于超 140 种语言原生训练,助力开发者为全球用户打造包容、高性能的应用。

26B 与 31B 模型

为让研究者与开发者在通用硬件上实现顶尖推理能力而优化,非量化 bfloat16 权重可高效适配单张 80GB 英伟达 H100 GPU;本地部署场景下,量化版本可直接在消费级 GPU 上运行,支撑集成开发环境、编程助手与智能体工作流。26B 混合专家模型(MoE)侧重低延迟,推理时仅激活总参数中的 38 亿,实现极快的令牌生成速度;31B 稠密模型则最大化原始性能,为微调提供强大基础。

E2B 与 E4B 模型

从底层设计便追求极致算力与内存效率,推理时实际占用参数分别为 20 亿与 40 亿,节省内存与设备电量。与谷歌 Pixel 团队、高通、联发科等移动硬件厂商深度合作,让这些多模态模型可在手机、树莓派、英伟达 Jetson Orin Nano 等端侧设备上完全离线、近零延迟运行。安卓开发者现已可在 AICore 开发者预览版中搭建智能体流程,实现与 Gemini Nano 4 的向前兼容。