扫描下载APP
其它方式登录
SubQ模型采用全新亚二次方稀疏注意力(SSA)架构,实现1200万token超长上下文支持,计算量较Transformer降低近千倍,成本仅为Claude Opus的5%,在多项基准测试中性能持平或超越主流大模型,由13人初创公司Subquadratic研发,引发AI界对Transformer架构替代路径的重大讨论。