

文章分析天才少年Leopold Aschenbrenner的165页论文《态势感知》,核心论点是:2027年前后将出现能胜任普通人全部工作的AGI,随后触发智能爆炸,数月内演进为远超人类的超级智能;该进程带来四大紧迫挑战——万亿美元级算力基建瓶颈、实验室安全严重漏洞、对齐技术失效风险、中美战略竞争升级;作者主张美国必须启动类似曼哈顿工程的国家级AGI计划,以国家安全优先级统筹研发与治理。
作者:@giantcutie666
2024年,一个00后少年天才Leopold Aschenbrenner从OpenAI离职后,开始做基金。
同时还把自己的投资思路写了出来:

如今回头看,这篇165页论文《态势感知(Situational Awareness: The Decade Ahead)》已经封神了。
去年看懂的人,今年肯定也都财富自由了!
我把165页的英文原版放在“这里”,以下是我已经尽量精简版的内容:
方法很笨但有效:不预测时间,预测算力规模。
过去 4 年,从 GPT-2 到 GPT-4,模型的"有效算力"涨了大约 10 万倍,每半年增长10倍!
GPT-2 像幼儿园小孩勉强写半通顺句子,GPT-4 像聪明高中生能考过律师资格、做博士级科学题。
这 10 万倍来自三个地方:
第一,硬件砸钱。训练用的算力每年涨 3 倍多。摩尔定律一年才 1.3 倍,AI 是因为人砸钱、专门造 AI 芯片,速度快了 5 倍。
第二,算法变聪明。同样达到某个数学能力,今天的推理成本比两年前便宜 1000 倍,这是算法工程师在卷出来的。
第三,解锁默认被压制的能力(unhobbling)这个最有意思。
模型本身有很多能力,但被默认设置压住了。比如 ChatGPT 之前的 base model 其实很聪明,但用起来像胡言乱语——RLHF 解锁了它。
又比如让模型"想一会儿再回答"(chain of thought)解锁了推理能力。再比如给它工具用、给它长记忆,又解锁一层。
往后 4 年(到 2027),作者预测这三条路再加 10 万倍。
最关键的洞见藏在 unhobbling 里:
现在的模型一次推理只能"思考几分钟"——大约几百个 token。如果让它能"思考几个月"——上百万个 token——会怎样?
例如你和爱因斯坦的差距,远不如"你思考 5 分钟"和"你思考 5 个月"的差距。
这个解锁如果做成了,相当于额外多 3 到 4 个数量级的智能跃迁。这个果子已经看得见了。
按这个外推,2027 前后会出现一种 AI:能像远程员工一样独立工作几周,自己规划任务、写代码、做实验、修 bug、提交结果。
能完整替代一个 OpenAI 研究员,这就是作者定义的 AGI。
最大不确定性来自于数据墙——高质量公开互联网数据快被吃完了。

第二部分:AGI 不是终点,是引爆点
一旦 AI 能做 AI 研究员的工作,会发生什么?
算力不变,但你不再受"全球 OpenAI/Anthropic/DeepMind 加起来几百号研究员"的限制——你可以跑1 亿份 AI 研究员副本,每份以 100 倍人类速度运转。
每几天产出等于人类一整年的工作。
这些自动化研究员还有结构性优势:读完所有 ML 论文、记住每一次实验、副本之间直接共享思考、训练好一个等于全部训练好(不用每个新员工慢慢上手)。
这意味着:人类原本需要 10 年的算法进步,可能在 1 年内被压完。
然后这 1 年又会再生出更聪明的下一代模型,再压一轮。从 AGI 到远超人类的超级智能,可能就是几个月到一两年的事。
作者承认有瓶颈——比如实验需要算力,副本再多也得等 GPU。但他论证瓶颈最多让爆炸慢一点,不能阻止爆炸。

超级智能长什么样
数量级上超人——几亿份并行运行,跨所有学科即时融合,几周内积累相当于人类千年的经验。
质性上超人——像 AlphaGo 下出 move 37 那一步(人类专家几十年都想不到的招),但应用在所有领域。它能找出人类穷尽一生看不出的代码漏洞,写出人类永远读不懂的代码。
我们会像小学生看博士论文。
后果是:机器人学被解决(这主要是 ML 算法问题不是硬件问题)、合成生物学武器化、隐形无人机蜂群可以先发摧毁核武器。
整个国际军事平衡会在几年内被推翻。
麻烦一:万亿美元集群
这场竞赛不只是码农写代码,是工业动员。
每代模型需要更大集群,更大集群需要电厂,电厂需要芯片厂。
按现在节奏:2026 年 1GW 集群(一个胡佛大坝的电),2028 年 10GW(一个中等美国州),2030 年 100GW(美国全部发电的两成多)。
投资规模 2027 年可能突破 1 万亿美元/年。
真正卡脖子的不是钱也不是 GPU,是电。"我去哪找 10GW?"是 SF 现在最火的话题。
要在美国本土建成,必须放松环保审批、动用联邦权力解锁土地——作者把这个上升到国家安全级别。
如果美国建不出,集群就会跑去阿联酋、沙特,等于把 AGI 钥匙交给其他国家。

麻烦二:实验室就是漏的
现在的 AI 实验室,安全水平等于普通硅谷创业公司。
Google DeepMind(业内最好的)自己承认对国家级对手的防御能力是 0 级(满分 4 级)。
这意味着什么?AGI 模型的"权重"本质就是服务器上一个大文件。
这个文件被偷走,等于把"自动化 AI 研究员"直接交给中国——他们立刻可以跑自己的智能爆炸,美国所有领先归零。
更紧迫的是算法机密——下一代范式的关键突破(怎么破数据墙)正在 SF 各家公司的 Slack 里、办公桌窗外形成。
作者断言:未来 12 到 24 个月,关键 AGI 突破会泄漏给中国。不是 maybe,是几乎一定。
要做到能挡住中国的安全水平,需要硬件级隔离、人员背调到原子弹工程师等级、专门的集群设计——这些至少要几年时间迭代才能建成。如果不立刻动手,2027 拿到 AGI 时安全跟不上,到时只有两个糟糕选项:要么直接送给别的国家,要么停下来等安全建好(可能丢掉领先)。

麻烦三:对齐问题
现在的对齐技术叫 RLHF——人给模型评分,模型学着讨好人。
这招对比人类笨的 AI 有效。一旦 AI 比人类聪明几个数量级,这招彻底失效——你怎么评判一份你看不懂的博士论文?
智能爆炸把这件事搞得极其紧张:
不到一年内,从"RLHF 还管用"跳到"RLHF 完全失灵",没有时间迭代试错。
同时从"小错误"(ChatGPT 说脏话)跳到"灾难性错误"(超级智能从集群里跑出去黑掉军方系统)。
中间架构经历多代演化,最终的超级智能我们完全看不懂它怎么思考的。
现在的模型用英文 token 推理(相对透明),未来大概率会演化到内部 latent state 推理——彻底不可解释。
作者对技术解决方案乐观:低悬果实多,可解释性研究有进展。
但对组织执行极度悲观——全球严肃做这件事的人不超过几十个,实验室没有为安全付出代价的迹象。"我们在过度依赖运气。"
麻烦四:自由世界必须赢
作者花大量篇幅论证:有的国家不仅没出局,而且很有竞争力。
算力上:华为 7nm 芯片(中芯产)性能是英伟达 A100 级,性价比差 2-3 倍但够用。
建设能力:中国过去十年新增电力等于美国全部发电装机。建 100GW 集群的工业动员力,中国可能比美国强。
盗窃路径:只要美国实验室不锁,关键算法两年内必然泄漏。
时间线上有个令人不安的巧合:AGI 时间线(~2027)和台海观察家的中共攻台时间窗(~2027)正在收敛。"AGI 终局有可能在世界大战背景下展开。"
作者的结论:美国必须保持"健康领先"——他建议 2 年。这两年缓冲是用来稳定局势、和中国谈判后超级智能时代的国际秩序。
少于这个领先,整个世界会被推入"通过智能爆炸的存亡竞速"——所有安全裕度归零,所有人为求快裸奔。
到这里作者抛出全书最大胆的预测。
"美国政府让一家 SF 创业公司开发超级智能"是不可能的。想象一下当年用 Uber 开发原子弹。
预测:2027 或 2028 年某个时点,美国国家安全机器会以某种形式接管 AGI 项目。形态可能是国防承包商模式(OpenAI 变成洛克希德·马丁)、合资模式(云厂商+实验室+政府)、甚至更极端的国有化。
核心研究员搬进 SCIF 安全设施,万亿美元集群以战时速度建成。
形成路径:2026/27 出现第一次真正吓人的能力展示——可能是"帮新手造生物武器",可能是 AI 自主黑入关键基础设施。
叠加 CCP 渗透实验室的细节被揭露,华盛顿氛围突变。"我们需要 AGI 曼哈顿工程吗?"先慢慢、然后突然成为头号议题。
为什么必须是政府?因为超级智能属于核武器类,不属于互联网类。私营公司从来不被允许持有完整核武器。
要做到能抵御中国全力的安全等级,只有政府基础设施能做。要管理智能爆炸这种"一年内一切重写"的过程,需要核启动协议级的指挥链,不是创业公司董事会。
作者对政府效率没幻想(曼哈顿工程也曾被官僚拖延),但没有更好选择。
作者批评两个对立阵营都搞错了:
加速主义者(e/acc)天真地认为市场会自我调节,忽视对齐和安全的真实难度。
末日论者主张暂停一切——但中国不会暂停,暂停就是认输。
正确姿态作者叫AGI 现实主义:
①超级智能是国家安全决定性技术
②风险真实存在且我们没准备好
③美国必须做 The Project 并主导后超级智能国际秩序。
湾区几条街上的几百号人,正在决定整个文明的走向。
