扫描下载APP
其它方式登录
谷歌DeepMind即将发布开源大模型Gemma 4,参数达120B并采用MoE架构,兼顾性能与本地运行能力,旨在应对中国公司在开源大模型领域的主导地位,通过时间差策略和端侧优化参与全球AI生态竞争。
iPhone17Pro在仅12GB内存下成功本地运行4000亿参数大模型,依赖Flash-MoE流式加载与MoE稀疏激活技术,但生成速度仅0.6Token/秒、功耗高、发热大;此举验证了终端设备本地大模型的可行性,凸显隐私保护与离线AI潜力。
Mistral AI发布全新开源大模型Mistral Small4,采用MoE架构,参数量119B(激活仅6B),支持256k上下文、多模态理解与编程能力,性能媲美GPT-OSS120B,以Apache2.0协议开源,显著提升推理效率与吞吐量。
文章讲述MiniMax创始人闫俊杰从百度实习生起步,于2021年提前布局大模型赛道,带领公司以极低投入(5亿美元)实现全模态AI突破,推出M2.5等高效模型,达成2.36亿用户、73%海外收入及B端高毛利增长;其技术路径聚焦MoE架构与极致工程效率,回应芯片封锁下的中国AI自主进化逻辑。
文章指出AI算力根基正经历一场‘寂静革命’,由算法瘦身(如DeepSeek的MoE架构)和硬件换道(如Cerebras、Groq的专用推理芯片)两条路径交汇驱动,大幅降低AI训练与推理成本,动摇英伟达GPU的垄断地位,预示其高估值逻辑面临根本性挑战。
文章指出AI算力根基正经历算法瘦身(如DeepSeek的MoE架构)与硬件换道(如Cerebras、Groq专用推理芯片)双重革命,导致AI训练与推理成本大幅下降,动摇英伟达GPU的垄断地位和高估值逻辑,预示AI算力供应范式发生根本性转移。