扫描下载APP
其它方式登录
DeepSeek发布万亿参数级大模型V4-Pro,实现国产昇腾与英伟达双平台适配,首创CSA+HCA混合注意力架构,显著降低推理开销;同步启动API价格战,但面临核心人才流失、代码能力待验证、商业化爬坡及国产算力生态攻坚等多重挑战。
DeepSeek V4大模型计划于4月下旬发布,聚焦万亿参数MoE架构、原生多模态能力与国产芯片适配,旨在回应算力封锁下的持续进化与商业化落地挑战;其战略意义在于从技术突破转向产品化和自主可控工程实践,标志着公司从‘纯推理’走向企业级AI价值实现的关键分水岭。
谷歌DeepMind即将发布开源大模型Gemma 4,参数达120B并采用MoE架构,兼顾性能与本地运行能力,旨在应对中国公司在开源大模型领域的主导地位,通过时间差策略和端侧优化参与全球AI生态竞争。
iPhone17Pro在仅12GB内存下成功本地运行4000亿参数大模型,依赖Flash-MoE流式加载与MoE稀疏激活技术,但生成速度仅0.6Token/秒、功耗高、发热大;此举验证了终端设备本地大模型的可行性,凸显隐私保护与离线AI潜力。
Mistral AI发布全新开源大模型Mistral Small4,采用MoE架构,参数量119B(激活仅6B),支持256k上下文、多模态理解与编程能力,性能媲美GPT-OSS120B,以Apache2.0协议开源,显著提升推理效率与吞吐量。
文章讲述MiniMax创始人闫俊杰从百度实习生起步,于2021年提前布局大模型赛道,带领公司以极低投入(5亿美元)实现全模态AI突破,推出M2.5等高效模型,达成2.36亿用户、73%海外收入及B端高毛利增长;其技术路径聚焦MoE架构与极致工程效率,回应芯片封锁下的中国AI自主进化逻辑。
文章指出AI算力根基正经历一场‘寂静革命’,由算法瘦身(如DeepSeek的MoE架构)和硬件换道(如Cerebras、Groq的专用推理芯片)两条路径交汇驱动,大幅降低AI训练与推理成本,动摇英伟达GPU的垄断地位,预示其高估值逻辑面临根本性挑战。
文章指出AI算力根基正经历算法瘦身(如DeepSeek的MoE架构)与硬件换道(如Cerebras、Groq专用推理芯片)双重革命,导致AI训练与推理成本大幅下降,动摇英伟达GPU的垄断地位和高估值逻辑,预示AI算力供应范式发生根本性转移。