
谷歌DeepMind即将发布开源大模型Gemma 4,参数达120B并采用MoE架构,兼顾性能与本地运行能力,旨在应对中国公司在开源大模型领域的主导地位,通过时间差策略和端侧优化参与全球AI生态竞争。
在全球开源大模型市场长期由中国科技公司主导的背景下,美国科技巨头正试图通过差异化竞争夺回话语权。
据媒体报道,谷歌 DeepMind 首席执行官 Demis Hassabis 近日在社交平台通过“四颗钻石”图标暗示,新一代开源大模型 Gemma 4 即将正式问世。此时距离上一代产品 Gemma 3 发布刚好满一年,符合谷歌在大模型领域的迭代节奏。
规格大升级:120B 新模型挑战本地运行极限
相比前代产品, Gemma 4 在参数规模上实现了跨越式增长:
四倍参数量: 传闻本次将新增一个 120B 参数的大型模型,规模是上代的 4 倍。
MoE 架构: 为了兼顾性能与效率,该模型预计采用 MoE(混合专家)架构,激活参数仅为 15B。这意味着即便是大参数模型,依然有望在民用级显卡上实现本地离线运行。
能力进化: 预测显示, Gemma 4 的上下文处理能力将提升 1 至 2 倍,并具备更深层次的逻辑推理与复杂任务执行能力。
战略博弈:在开源社区围堵“中国力量”
快科技 分析指出,虽然美国巨头目前的重心已转向闭源商业模式,但为了防止中国公司完全占据开源生态,谷歌正有节奏地释放技术红利:
时间差策略: 谷歌选择在主力闭源模型 Gemini 3.0 系列发布半年多后推出开源版,既能维持闭源模型的商业收益,又能通过开源项目保持在开发者社区的影响力。
本地化护城河: Gemma 4 的核心定位仍是“本地化服务”。通过优化轻量级模型的表现,谷歌试图在不触及核心商业利益的前提下,通过极致的端侧体验与国产开源模型展开正面对标。
行业观察:开源赛道进入“参数与效率”双拼时代
随着 Gemma 4 的加入,开源大模型的竞争门槛被进一步抬高。业内普遍认为,尽管谷歌在开源上的优先级并非最高,但其深厚的算法积淀仍是不容小觑的变量。 Gemma 4 能否在同参数量下反超目前的国产开源“旗手”,将成为下半年全球 AI 社区关注的焦点。