欧洲 AI 霸主祭出“全能王”!Mistral Small 4 发布:推理、多模态、编程我全都要

AIBase
个人专栏
热度: 4328

Mistral AI发布全新开源大模型Mistral Small4,采用MoE架构,参数量119B(激活仅6B),支持256k上下文、多模态理解与编程能力,性能媲美GPT-OSS120B,以Apache2.0协议开源,显著提升推理效率与吞吐量。

摘要由 Mars AI 生成
本摘要由 Mars AI 模型生成,其生成内容的准确性、完整性还处于迭代更新阶段。

在开源大模型赛道,欧洲之光 Mistral AI 再次展现了其惊人的进化速度。

当地时间3月16日, Mistral AI 正式发布了 Mistral Small4 。这是该实验室首款真正意义上的“全能型”大模型,首次在单一模型中完美兼顾了旗舰级推理、多模态理解以及强悍的编程能力。对于开发者而言,这意味着不再需要在各种垂直模型之间做“选择题”,因为新一代 Small4实现了“我全都要”。

image.png

Mistral Small4 采用了先进的 MoE(混合专家)架构:

  • 核心参数: 总参数量为119B,激活参数仅为6B,在保证性能的同时极大优化了运行效率。

  • 超长视野: 拥有 256k 的超长上下文窗口,能够轻松处理整本技术文档或大规模代码库。

  • 灵活模式: 支持快速响应与深度推理两种模式,并以 Apache2.0协议 正式开源,诚意十足。

在性能表现上, Mistral Small4 较前代产品实现了质的飞跃。官方数据显示,在延迟优化模式下,其端到端完成时间缩短了40%;而在吞吐优化模式下,每秒处理的请求数量是 Small3的3倍。在与外部大模型的横向评测中,其在三大核心基准测试中的表现均不逊色于 OpenAI 的 GPT-OSS120B。

部署门槛与硬件建议:

为了发挥该模型的最大威力, Mistral AI 给出了明确的硬件指引。最低配置要求为4× HGX H100或1× DGX B200;而为了获得极致体验,官方推荐使用4× HGX H200或2× DGX B200的组合。

随着 Mistral Small4 的发布, Mistral AI 不仅巩固了其在开源界的领先地位,也为企业级应用提供了一个低延迟、高智能的全新标杆。当欧洲技术力量遇上极致的架构优化,这场 AI 全球竞赛正变得愈发精彩。

声明:本文为入驻“MarsBit 专栏”作者作品,不代表MarsBit官方立场。
转载请联系网页底部:内容合作栏目,邮件进行授权。授权后转载时请注明出处、作者和本文链接。未经许可擅自转载本站文章,将追究相关法律责任,侵权必究。
提示:投资有风险,入市须谨慎,本资讯不作为投资理财建议。
本内容旨在传递行业动态,不构成投资建议或承诺。