谷歌开源大模型 Gemma 4 官宣在即:参数量翻 4 倍

AIBase
个人专栏
热度: 5002

谷歌DeepMind即将发布开源大模型Gemma 4,参数达120B并采用MoE架构,兼顾性能与本地运行能力,旨在应对中国公司在开源大模型领域的主导地位,通过时间差策略和端侧优化参与全球AI生态竞争。

摘要由 Mars AI 生成
本摘要由 Mars AI 模型生成,其生成内容的准确性、完整性还处于迭代更新阶段。

在全球开源大模型市场长期由中国科技公司主导的背景下,美国科技巨头正试图通过差异化竞争夺回话语权。

据媒体报道,谷歌 DeepMind 首席执行官 Demis Hassabis 近日在社交平台通过“四颗钻石”图标暗示,新一代开源大模型 Gemma 4 即将正式问世。此时距离上一代产品 Gemma 3 发布刚好满一年,符合谷歌在大模型领域的迭代节奏。

规格大升级:120B 新模型挑战本地运行极限

相比前代产品, Gemma 4 在参数规模上实现了跨越式增长:

  • 四倍参数量: 传闻本次将新增一个 120B 参数的大型模型,规模是上代的 4 倍。

  • MoE 架构: 为了兼顾性能与效率,该模型预计采用 MoE(混合专家)架构,激活参数仅为 15B。这意味着即便是大参数模型,依然有望在民用级显卡上实现本地离线运行。

  • 能力进化: 预测显示, Gemma 4 的上下文处理能力将提升 1 至 2 倍,并具备更深层次的逻辑推理与复杂任务执行能力。

战略博弈:在开源社区围堵“中国力量”

快科技 分析指出,虽然美国巨头目前的重心已转向闭源商业模式,但为了防止中国公司完全占据开源生态,谷歌正有节奏地释放技术红利:

  • 时间差策略: 谷歌选择在主力闭源模型 Gemini 3.0 系列发布半年多后推出开源版,既能维持闭源模型的商业收益,又能通过开源项目保持在开发者社区的影响力。

  • 本地化护城河: Gemma 4 的核心定位仍是“本地化服务”。通过优化轻量级模型的表现,谷歌试图在不触及核心商业利益的前提下,通过极致的端侧体验与国产开源模型展开正面对标。

行业观察:开源赛道进入“参数与效率”双拼时代

随着 Gemma 4 的加入,开源大模型的竞争门槛被进一步抬高。业内普遍认为,尽管谷歌在开源上的优先级并非最高,但其深厚的算法积淀仍是不容小觑的变量。 Gemma 4 能否在同参数量下反超目前的国产开源“旗手”,将成为下半年全球 AI 社区关注的焦点。

声明:本文为入驻“MarsBit 专栏”作者作品,不代表MarsBit官方立场。
转载请联系网页底部:内容合作栏目,邮件进行授权。授权后转载时请注明出处、作者和本文链接。未经许可擅自转载本站文章,将追究相关法律责任,侵权必究。
提示:投资有风险,入市须谨慎,本资讯不作为投资理财建议。
本内容旨在传递行业动态,不构成投资建议或承诺。