
OpenAI与AWS合作推出Bedrock Managed Agents,标志着AI竞争重心从模型性能转向企业级AI基础设施:将模型深度嵌入云平台的身份、权限、安全和治理体系,使AI agent能真正融入企业工作流。此举终结Azure独家合作,凸显AI平台化、托管化、企业合规化的新阶段。
作者: Ben Thompson,Stratechery
编译:Peggy,BlockBeats
编者按:4 月 27 日,OpenAI 与 Microsoft 刚刚修改合作协议,Azure 不再独占 OpenAI 模型,OpenAI 也因此得以把产品扩展到 AWS 等其他云平台。
注:Azure 是 Microsoft 旗下的云计算平台,全称通常叫 Microsoft Azure。它和 AWS、Google Cloud 一样,主要为企业提供服务器、数据库、存储、网络、安全、AI 模型部署等云服务。
对外界而言,这看似只是一次云服务分发渠道的变化;但从 Sam Altman 与 AWS CEO Matt Garman 的讨论来看,更关键的变化在于,AI 正在从「模型调用」进入「企业级工作流」阶段。
本文编译自科技商业分析媒体 Stratechery 对 Sam Altman 与 Matt Garman 的访谈,围绕 OpenAI 与 AWS 合作推出的 Bedrock Managed Agents 展开,讨论了云计算与 AI 平台转移的相似之处、企业级 agent 的部署难点、AgentCore 与托管式服务的区别,以及 AWS 在 AI 基础设施竞争中的位置。
注:Stratechery 由科技分析师 Ben Thompson 创办,长期关注科技公司战略、平台经济、云计算、AI 与媒体产业变化,其内容以深度分析和高管访谈为主,在硅谷科技与投资圈具有较高影响力,常被视为观察大型科技公司战略动向的重要窗口
Bedrock Managed Agents 的核心,不只是让 AWS 客户用上 OpenAI 模型,而是把模型嵌入 AWS 原生的身份、权限、日志、治理、部署和安全体系中。换句话说,企业真正需要的并不是一个更聪明的聊天窗口,而是一套能在组织内部运行、访问数据、执行任务、遵守权限边界的「虚拟同事」系统。
这也是本次合作最值得关注的地方:AI 竞争的重心正在从「谁有最强模型」转向「谁能把模型变成可用的企业基础设施」。在个人开发者场景里,Codex 可以依赖本地环境解决许多复杂问题;但在企业场景中,agent 要面对的是数据库、SaaS、权限系统、安全边界和合规要求。
某种意义上,这场合作也重演了云计算早期的逻辑。AWS 当年降低了创业公司启动成本,让小团队不必自建服务器就能构建互联网产品;如今,OpenAI 和 AWS 试图降低企业部署 AI agent 的门槛,让公司不必自己拼接模型、权限、数据和安全体系,就能把 AI 放进真实业务流程。不同的是,这一次采用速度更快,企业需求也更迫切。
因此,本文真正讨论的不是 OpenAI 模型「上架」AWS,而是 AI 基础设施进入下一阶段:模型、云、数据与企业权限系统开始深度绑定。未来的竞争,可能不再只是 API 价格、芯片性能或模型榜单,而是谁能构建出让企业放心使用、持续扩展、真正执行工作的 AI 平台。
以下为原文:
早上好,正如我昨天提到的,今天的 Stratechery 访谈在我的发布时间安排上算是提前了(从周四提前到周二);但在实际送达时间上又算是延后了(从美东时间早上 6 点推迟到下午 1 点),因为这次主题受到 embargo(报道禁令)限制。
过去几天,这个禁令也让我处在一个有点微妙的境地:上周五,我采访了 OpenAI CEO Sam Altman 和 AWS CEO Matt Garman,主题是由 OpenAI 提供支持的 Bedrock Managed Agents。很自然地,我提出的一个问题是:这项合作与 OpenAI 和 Microsoft 之间那份让 Azure 独家获得 OpenAI 模型访问权的协议,究竟如何协调?
注:Bedrock Managed Agents 是 AWS 推出的托管式 AI agent 服务,由 OpenAI 提供模型能力支持。它并不只是让企业在 AWS 上调用 OpenAI 模型,而是将模型嵌入 AWS 原生的身份认证、权限管理、日志、安全、治理和部署体系中,使企业能够在自己的云环境内构建可执行任务、访问内部数据、遵守权限边界的 AI agent。简单来说,可以理解为运行在 AWS 企业环境中的 OpenAI agent 基础设施。
周日晚些时候,我从小道消息听说,Microsoft 会在周一早上宣布一些事情。我当时还在想,会不会是一场先发制人的诉讼!
到了周一,Microsoft 和 OpenAI 宣布双方已经修订协议,允许 OpenAI 在其他云服务商上提供其产品,其中也包括 AWS。
于是,就有了现在这篇访谈。
我认为,Microsoft 与 OpenAI 这笔新安排对双方来说都很合理。以下是 Microsoft 官方文章中列出的新协议要点:
·Microsoft 仍然是 OpenAI 的首要云合作伙伴;OpenAI 产品将优先在 Azure 上发布,除非 Microsoft 无法支持或选择不支持相关必要能力。OpenAI 现在可以通过任何云服务商向客户提供其全部产品。
·Microsoft 将继续获得 OpenAI 模型和产品相关 IP 的授权,有效期至 2032 年。但 Microsoft 的授权现在将不再是独家的。
·Microsoft 将不再向 OpenAI 支付收入分成。
·OpenAI 向 Microsoft 支付的收入分成将持续到 2030 年,这一安排不受 OpenAI 技术进展影响,比例保持不变,但设有总额上限。
·Microsoft 作为主要股东,将继续直接参与 OpenAI 的成长。
我认为,最重要的是最后一点。此前,Azure 因为是唯一能够提供 OpenAI 模型的超大规模云厂商,确实拥有真正的竞争优势。但这种独占性也在限制 OpenAI,尤其是在越来越多企业最关心的是能否在自己当前使用的云平台上访问模型之后,这一点变得更加明显。我已经多次指出,这正是 Anthropic 的一个重要竞争优势。换句话说,Azure 的独家权利实际上正在损害 Microsoft 对 OpenAI 的投资。考虑到 Anthropic 今年的快速增长,Microsoft 必须照看好这笔投资,即使这意味着 Azure 的差异化优势会被削弱。
与此同时,OpenAI 显然将 AWS 视为一个巨大机会——大到它愿意在未来几年放弃与 Azure 相关的一部分收入。结合上一点,这也会让 Azure 管理层在失去独家权利时更容易接受:毕竟,不再向 OpenAI 支付收入分成之后,Azure 的损益表会好看得多。OpenAI 也将 Microsoft 从 AGI 条款中释放出来;如今,无论发生什么,两家公司之间的协议都会持续到 2032 年。
现在看起来相当明确的是,OpenAI 接下来的重点将放在 AWS 上。而最有力的证据,正是本次访谈的主题:由 OpenAI 提供支持的 Bedrock Managed Agents。理解这个产品最简单的方式,是把它看作 AWS 里的 Codex。Codex 能够运行得好,很大程度上是因为它是本地化的,这让很多复杂问题,尤其是安全问题,可以天然地得到解决。但要让 agents 在一个组织内部跨部门、跨系统运转,则完全是另一回事。这个产品的目标,就是让那些大部分数据已经放在 AWS 上的组织,更容易使用这类工作流。
围绕这一点,在这次访谈中,我们讨论了 AWS 如何开创整个云计算品类,以及它对创业公司的影响;也讨论了 AI 与那一次范式转变之间有哪些相似之处,又有哪些不同。随后,我们谈到了 Bedrock Managed Agents:它是什么,以及它与 Amazon 现有的 AgentCore 产品有什么区别。我们还聊到了 Trainium,为什么芯片对大多数 AI 用户来说并不会那么重要,以及相较于 Google 对全栈整合的重视,为什么合作是一种合理选择。
提醒一下,所有 Stratechery 内容,包括访谈,都可以通过播客收听;点击这封邮件顶部的链接,即可将 Stratechery 添加到你的播客播放器。
进入访谈。
本访谈经过轻度编辑,以提升清晰度。
Ben Thompson(主持人):Matt Garman、Sam Altman——Matt,欢迎来到 Stratechery;Sam,欢迎回来。我此前曾在 2025 年 10 月、2025 年 3 月和 2023 年 2 月采访过 Altman。
Sam Altman(OpenAI CEO): 谢谢。
Matt Garman(AWS CEO): 谢谢,感谢邀请我。
主持人:Matt,这是你第一次来到 Stratechery。遗憾的是,我想 Sam 的出现会让我们没法按惯例进行「认识嘉宾」的环节。况且,他大概也不想听我们回忆在 Kellogg 商学院的日子。不过,能在播客里邀请到一位校友,还是很高兴。
Matt Garman: 是的,我很高兴来到这里。下次我可以再来,我们可以更深入地聊一聊。
主持人:那太好了。你从实习生时期就开始参与 AWS,现在又在 AI 浪潮中负责整个 AWS 组织。你觉得,打造 AI 业务和当年打造最初的通用计算业务相比——姑且先这么说——有哪些地方是相同的?又有哪些地方是真的不同?
Matt Garman: 我觉得相同的地方在于,我看到了同样的兴奋感,也看到了外面的建设者们开始能够做以前做不了的事情。当年我们刚开始做 AWS 时,很酷的一点是,开发者突然能够获得以前只有最大型公司才能使用的基础设施。过去,只有那些有数百万美元预算去建设数据中心的公司,才能拥有这类能力。而现在,开发者只需要一张信用卡、几美元,就可以启动应用。这极大拓展了互联网建设者能够做的事情。
我们当时的想法是,人们可以去构建任何他们想构建的东西。我们不会预设他们应该做什么。我们相信,世界各地的创造力是存在的;只要把强大的工具放到他们面前,他们就会创造出有趣且惊人的东西。
我认为 AI 对建设者的赋能,至少同样具有变革性,甚至可能更强。想想现在什么变得可能了:你不必上学学十年编程,才能构建一个应用;你不需要拥有数百人的庞大团队,也不需要几个月、几个月、再几个月的时间去做东西。你可以用小团队快速构建、快速迭代。AI 正在解锁世界各个领域的创新。从很多方面看,这和当年非常相似。看到它给客户群体带来的能力,真的令人非常兴奋。
主持人:不过,当年 AWS 出现的时候,你们是唯一的玩家,所以无论是好处还是坏处,某种意义上都自然落到了你们身上。有没有这样一种感觉:在 AWS 时代,很多事情是关于通用计算的——让计算变得可替代、有弹性、便宜;但在 AI 领域,尤其是在训练阶段,获胜的抽象方式似乎更像是高度垂直整合的超级集群,非常先进的网络,以及软件和硬件之间极其紧密的联动。对你们来说,这算是一种意外吗?因为这一次,你们并不是从零开始,也不是「我们是唯一在这里的人」;你们过去对于大规模计算有一套特定理解,但至少在 AI 的最初几年里,它似乎并没有完全对齐。
Matt Garman: 我不确定这对我们来说有多不同。我认为真正不同的是,采用速度快得惊人。我觉得这可能让所有人都感到意外。Sam,如果你不同意,可以补充。但人们接受这些能力的速度,以及抓住这些能力的速度,我认为超出了所有人的预期。
这和我们刚开始做云计算时很不一样。当时,我们花了非常长的时间去解释,为什么一家卖书的公司会来提供计算能力。我们必须花很多力气解释什么是云计算。这里面有很多艰苦工作,现在人们常常会忘记。但在 2006 年,没有人理所当然地认为世界的计算会迁移到云上。那时确实有大量艰难的解释和推动工作。
主持人:那你觉得现在是否也需要做一些解释?因为很多人最初都锚定在训练时代,而你们会说,「我们思考的是推理时代」,那会是另一种东西。你们是不是也需要重新启用那套解释能力?
Matt Garman: 是需要的,但人们理解你在说什么的速度,已经完全不一样了。所以我认为,是的,当你要把人们从「这东西看起来挺酷,我能和一个智能聊天机器人对话」带到「它真的可以在你的企业里完成工作」时,确实需要一些教育过程。但从技术演进速度来看,这个过程已经相对很快了。
主持人:我保证,我们很快就会进入今天的产品主题。不过 Sam,从创业生态的角度看,回过头去看,AWS 显然是变革性的,它彻底改变了创业门槛。现在任何人都可以开始创业。种子轮、天使投资人也随之出现,融资门槛被往后推了。你不需要在 PPT 里写「我们要买服务器」,你可以先做出一个应用,然后再去融 A 轮或者别的轮次。
那从你的角度看,当年 AWS 所开启的世界,和今天 AI 所开启的世界相比,有哪些不同?又有哪些相同?
Sam Altman: 我认为,历史上有四次大规模赋能创业公司的平台性时刻:互联网、云、移动,以及 AI。在这四个时刻里,第一个我作为成年人经历到的是云。在 YC 早期,很难夸大这件事对创业公司的改变有多大。
在那之前,创业公司要租托管机房空间,自己组装服务器,把设备放进去。这是一件极其复杂的事,而且你必须先融到很多钱。然后突然之间,云出现了。虽然云是在 YC 创立之后才出现的,应该是第二年。
主持人:我正想问这个——归根结底,YC 和云是不是比你们当时意识到的更加密不可分?
Sam Altman: 当时我们就感觉它们是高度绑定在一起的。感觉 YC 从一开始就在乘着云这波浪潮前进,因为在 AWS 之前也已经有一些早期云服务的例子。
主持人: 如果 AWS 存在,那么让一家创业公司启动起来所需的资金,确实比以前少得多。
Sam Altman: 这是一次巨大的赋能变化,也是为什么 YC 当时听起来那么疯狂。人们会说,「不可能用几万美元投资一家创业公司,这根本不可能,光服务器成本就超过这个数了。」所以这彻底改变了创业公司可以用少量资本完成的事情。
通常来说,当出现一次大的平台转移,并且你能够用比过去更快的周期、更少的资本做事时,创业公司就会赢。这是创业公司击败大公司的经典方式。在我职业生涯的早期,我亲眼见证了云带来的这种变化。现在看着公司基于 AI 构建产品,方向上其实感觉非常相似。但正如 Matt 所说,这一次的速度非常疯狂。
主持人:有没有这样一种情况:现有的大公司、这些行业巨头,采用 AI 的速度比当年采用云计算要快得多?
Sam Altman: 这种情况当然更多了。但我说的还包括创业公司收入增长的速度。最近我在 YC 演讲,最后我问了一下:「现在一个好公司在 YC 结束时,大家对它的收入预期是什么?」他们说:「这个答案每个月都在变。可能同一期 YC,batch 开始时和结束时,答案都会不一样。」以前从来没有发生过这种事。人们基于这个新平台建立规模化业务的速度,是我过去从未见过的。
主持人:Matt,在整个云时代,AWS 基本上是所有创业公司的首选云,这给你们带来了巨大优势。那今天,什么让你们仍然成为首选云?因为现在很多人是在 OpenAI API 上构建产品;还是说你们其实感觉,「我们是从一个非常不同的角度进入这个市场的。我们有庞大的既有客户基础,他们都在要求我们提供 AI 能力,但对 Sam 所说的这整个创业公司群体,我们的可见度没有那么高」?
Matt Garman: 我认为这里有几个方面。第一,我们对这次合作非常兴奋,我也认为它会对很多创业公司产生非常重要的意义。但即便在今天,如果你去和创业公司聊,大多数正在扩张的创业公司仍然是在 AWS 上扩张,这背后有很多原因。规模在那里,可用性在那里,安全性在那里,可靠性在那里,其他 ISV 的合作伙伴生态在 AWS 上,客户也在 AWS 上。
主持人:(笑)不管愿不愿意,大家都用过 AWS 控制台,所以他们也习惯了。
Matt Garman: 而且我们会帮助他们。我们花了大量时间赋能创业公司,不只是给 credits,还包括建议他们如何搭建系统、如何思考 go-to-market,以及很多类似的事情。我认为很多创业公司都非常认可这些。我们投入了大量时间和精力来确保这一点,因为我们真的认为,创业公司是 AWS 的生命线。从一开始就是这样,正如 Sam 刚才所说,今天依然如此。我现在仍然每个季度都会去硅谷或其他地方,直接和创业公司见面,听他们在做什么,确认我们正在构建的东西是否真的能满足他们的需求。
所以,今天争夺创业公司注意力的竞争,确实比 20 年前更多了。但这件事对我们来说仍然和过去一样重要。我们投入大量时间,确保自己能够满足这些创业公司的需求。
主持人:可以这么说吗?那些直接基于 OpenAI API 构建产品的人,而不是使用 Azure 版本 OpenAI 服务的人,更可能采用这样一种技术栈:常规计算放在 AWS 上,AI 部分使用 OpenAI?
Matt Garman: 我认为这是今天很多创业公司非常常见的一种模式,完全是这样。
主持人:这就把我们带到了今天的公告:由 OpenAI 提供支持的 Bedrock Managed Agents。我想我没说错。按照我的理解,这个产品的卖点并不只是 OpenAI 模型可以在 AWS 中使用——我认为这应该还不被允许——而是 OpenAI 的前沿模型被封装进了一个 AWS 原生的 agent runtime 中,里面包括身份、权限状态、日志、治理和部署。Sam,这样表述准确吗?
Sam Altman: 是的,概括得挺好。
主持人:谢谢。那这到底是什么?现在请用大白话解释一下。
Sam Altman: 我认为 AI 的下一阶段,将从「你给 agent 一些文本,然后拿回更多文本」,甚至从「你给它一堆代码,然后拿回更多代码」,进入到一个新阶段:这些 agents 会在公司内部运行,去完成各种不同类型的工作。
「虚拟同事」是我听过的所有描述里最不差的一个说法,但还没有人真正找到最准确的语言来描述它。我们正在共同打造一个新产品,帮助那些想要构建这类有状态 agents 的公司,把它们真正做出来,并且让它们可以被使用。再强调一次,我认为我们现在还不知道世界最终会如何谈论这些 agents、如何使用它们。但如果你看看 Codex 正在发生什么,我认为那就是一个很好的例子,可以让我们看到这一切将走向哪里。
主持人:要让 AI agent 真正跑起来,光有模型还不够。它还需要一整套配套系统:运行环境、可调用的工具、任务状态、记忆、权限管理,以及效果评估。你刚才特别提到「状态」这个词。那这些模型之外的基础设施,对 agent 能否真正工作到底有多关键?
Sam Altman: 它的重要性怎么强调都不为过。我现在已经不再把配套系统(Harness)和模型看作两个完全可以分开的东西。以我自己的使用体验来说,当我在 Codex 里启动一个任务,它为我完成了一件很惊艳的事情时,我非常清楚的一点是:我并不总是知道这其中有多少功劳应该归于……
主持人:是模型很强,还是 配套系统(Harness)很强?
Sam Altman: 对,正是这样。
主持人:那配套系统(Harness)在多大程度上是和模型一起开发的?这种整合发生在哪里?是在 post-training 里?是在 prompt 里?到底是什么让这种整合奏效?
Sam Altman: 两者都有。它其实不太属于 pre-training 过程的一部分。但我会说,这里有一个更有意思的现象:过去我们已经多次看到,一些我们原本以为非常可以分开的东西,会越来越深地被烘焙进系统之中。
比如我们最初理解 tool-calling 的方式。现在它已经是我们使用这些模型的关键部分,但最开始,我们并没有认为它需要被深度整合进训练过程。随着时间推移,我们在这方面做得越来越多。
我也怀疑,模型和配套系统(Harness)会随着时间推移越来越融合。进一步说,我也预期 pre-training 和 post-training 最终也会随着时间推移更加融合。这句话说出来很像陈词滥调,但我还是要说,因为我认为它非常、非常真实:我们在整个范式里仍然处在非常早期的阶段。这个行业真正成熟的程度,大概还相当于 Homebrew Computer Club 那个时代。
主持人:这也是为什么我觉得这件事很有意思。我几周前写过,在任何价值链中,最终都会出现一个整合点,那个点非常关键,因为两个部分必须结合在一起,才能让事情运作起来。随着时间推移,很多价值显然会在那个地方沉淀下来。我当时的判断是,配套系统(Harness)与模型的整合就是这个关键点。这当然符合你的利益,但听起来你也同意这个判断。
Sam Altman: 这确实符合我的利益,我也确实同意。但我还会说得更宽一点:真正重要的是,你在 Codex 里输入你想要发生的事情,然后它真的发生了。
主持人:你并不关心实现细节。
Sam Altman: 我们在摸索这些事情的过程中,已经有太多这样的例子:有些事情一开始必须在 system prompt 层面解决,后来就不需要了。这里的总体观察是,随着模型变得更聪明,你就有更大的灵活性,让它们按照你想要的方式行事。这听起来像是一句显而易见的话,但它确实是……
主持人:让一个 10 岁小孩做事,比让一个 5 岁小孩做事更容易。
Sam Altman: 当我回想 GPT-3 时代,我们为了从这些模型里榨出一点点实用性所必须做的事情,再看看现在,你根本不需要那样做了,因为模型当然已经能理解,并且开箱即用地把事情做好。这个趋势可能还会继续走得更远。
Matt Garman: 我想补充一点。我完全同意 Sam 的说法。而且当你和客户交流时,他们其实很清楚自己到底希望这些系统做什么。在我们这次共同合作之前,客户某种程度上是被迫自己把这些东西拼起来。他们希望这些模型和 agents 能够记住某些东西,能够良好协作,能够整合进他们现有的系统。而且这不只是第三方工具的问题,也包括他们自己的工具。他们希望这些 agents 能了解他们自己的数据、自己的应用,以及自己的运行环境。而今天,至少目前来说,所有这些整合工作都需要每个客户自己完成。
所以,我们这次共同合作的一部分,就是一起构建一种新类型的产品,把这些东西更紧密地放在一起,让客户能够更容易地完成他们想做的事情。比如,身份能力已经内置进产品里;连接数据库并完成认证的能力,也会在你的 AWS VPC,也就是 Virtual Private Cloud 里完成。如果只是 OpenAI API 在一边、AWS 在另一边,这些事情理论上也可以做到。但通过共同构建这个东西,我们让客户更容易、更快地实现价值,并且在他们自己的企业环境中完成他们想完成的事情。
主持人:所以你的意思是,在一个通用配套系统(Harness)里也可以构建一个可运行的 agent,只是困难得多?你们是在让它变得更容易?还是说,如果这些东西没有绑在一起,有些事情其实根本做不了?
Sam Altman: 回到你之前的类比,在 AWS 出现之前,如果你愿意站在机房隔间里,买一堆服务器,弄清楚怎么把它们连起来,再雇自己的网络工程师,你确实可以做很多事情。你可以让很多事情发生。然后突然之间,你只需要登录 AWS 控制台,点击一下「我需要另一个 S3 实例」之类的东西,你就能做更多事情,因为基础工作所需要的启动能量和工作量大幅下降了。
今天,你当然也可以用模型做很多事情。但每次我看到有人使用我们的模型,或者试图搭建 Matt 刚才说的那些工作流时,我都会很矛盾。一方面,我很高兴他们觉得这些模型很令人印象深刻,觉得这是一种魔法般的技术;另一方面,我也快要抓狂,因为他们为了让任何东西真正跑起来,经历了太多痛苦和折磨。
这不仅对构建这些产品的开发者成立。即便只是使用 ChatGPT,我看到人们从这里复制粘贴到那里,试图组织一套复杂的 prompt,我也知道这些都会消失,而这让我很兴奋。现在一切仍然太早期,也太糟糕了。
主持人:只要你别取消它和 BBEdit 的集成就行。那是我对 ChatGPT app 最喜欢的功能,没有之一。
注:BBEdit 是 macOS 上一款老牌文本与代码编辑器。这里主持人是在半开玩笑地说,虽然未来 AI agent 会减少复制粘贴和手动操作,但他仍希望 ChatGPT 保留与本地编辑器联动的功能。
Sam Altman: 好吧。
主持人:(笑)谢谢。
Sam Altman: 第一,现在这些事情实在太难做了。我们认为,如果能让它变得容易得多,它会给开发者和企业带来更多价值。第二,有很多事情现在根本无法可靠地运行。我认为,通过我们这次共同合作,它不仅会是一个关于易用性的故事,不只是「不用再自己搭 colo」之类的问题。我们还会一起摸索出很多新的东西,让人们能够构建出过去即便经历很多痛苦和折磨也无法做出来的产品和服务。
主持人:我之后还想回到「有什么东西可以被构建」这个点。但先快速回到 Codex。Codex 是 配套系统(Harness)加模型,而且它在本地运行。为什么现在让 agents 在本地工作会更容易?
Sam Altman: 其实我们一开始是让它在云端运行的。我认为最终你确实会希望它在云端运行。
主持人:当然。我是在顺着过渡到这个云端产品的路径来问。但你们为什么又回到本地?
Sam Altman: 因为你的整个环境都在那里。你的电脑已经配置好了,你的数据也在那里,你不用去考虑太多事情。虽然这不是最终状态,但它就是更容易跑起来。
不过,进入一个 agents 真正在云端运行的世界,显然会很好。比如你有一个非常高强度的任务,或者你需要关掉电脑,或者别的情况,你可以把工作交给云端继续处理。这个方向显然会很棒。但短期内,我们能够提供的易用性,很明显还是使用用户本地环境更占优。
主持人:我有一种理解方式:过去的安全模型更像是「城堡与护城河」模式,而现在你们正在转向一种新的零信任安全模型,每个东西都要有合适的权限结构、认证机制,以及所有这些细节。对我来说,本地运行某种程度上像是一种自我施加的「城堡与护城河」:所有东西都在本地,我就假定它们都没问题,也很容易处理。
而我理解这个产品的一种方式是,要让所有这些部分在生产环境中真正运作起来,你不可能全都放在本地。你必须从一开始就在这个环境里运行。Matt,这种说法对你来说成立吗?
Matt Garman: 我不认为有任何计算环境真正摆脱了客户端。本地运行确实有好处。你的大多数 iPhone 应用之所以也有本地组件,是有原因的,不管是连接性、延迟、本地计算,还是对文件和应用的访问。
本地客户端确实有它的特点。正如 Sam 所说,它简单,运行得很好,但它也是受限的,有边界。你无法扩展你的本地笔记本电脑,你有什么就是什么。一旦进入企业场景,比如两个人之间共享,事情就会变得更难;要思考权限、安全边界,也会变得更难。
所以这里有很多部分。我不会说本地环境是一件坏事,它只是另一种东西。我认为,最终你会希望在本地和云端之间建立桥梁。
主持人:这正是我的问题。云时代有 container,帮助你把本地环境和生产环境拉近。但在 agents 这个场景里,听起来如果你要处理 agents,就像你刚才说的,它像一个虚拟同事,或者类似的东西。如果它们有自己的身份、自己的权限以及所有这些东西,那么即便只是构建它们,你也需要处在最终部署它们时所在的那个正确环境里。在我看来似乎是这样。
Sam Altman: 我认为这里还有太多东西需要弄清楚。举一个例子,如果你是一家公司的员工,当你使用某项服务时,你是否应该只有一个账户?然后你的 agent 是否也应该使用你的账户?还是说你的 agent 应该使用另一个账户,这样服务器才能分辨到底是谁?
主持人:或者,如果你想要很多 agents 呢?
Sam Altman: 没错。我怀疑我们真正需要的东西,是某种我们还没有想清楚的东西。也许当 Ben 的 agent 以 Ben 的身份登录时,它使用 Ben 的账户,但会标记自己是一个 agent,而不是真正的 Ben。我们甚至还没有一个基础概念来思考这件事,但我们可能很快就必须弄清楚。
而我的感觉是,还会有另外 50 件类似的事情。随着 agents 加入劳动力,并以越来越高的自主性和任务复杂度行动,我们关于软件如何运作、公司内部以及更广泛互联网中的访问控制和权限如何运作的很多心智模型,都必须演进。
主持人:Matt,你如何看待 agents 的安全、访问策略以及类似问题?
Matt Garman: 是的,我确实认为,当你把更多这类工作负载迁移到云端时,作为一个中心化组织,你可以对安全相关部分施加更多控制。我们一直和客户交流,而这确实是他们担心的事情。他们会说:「我很喜欢这些强大模型和 agents 能带来的前景,但我如何确保自己不会因为搞砸了而制造出一个足以终结公司的事件?」
这种担忧是真实存在的。
我认为我们可以在这方面提供帮助,因为这些问题是可以解决的。确实可以。我认为,我们可以给客户一些信心:比如「它运行在这个 VPC 里面」,那么你至少可以控制这个边界,知道它能访问什么;或者它通过某个 gateway,你可以给它分配权限,就像你在环境里的其他部分给它分配一个角色一样。
这些都是我们过去 20 年建立起来的能力。我们已经围绕这些结构构建出非常丰富的能力,不只是让 Y Combinator 的创业公司可以使用 AWS,也让全球银行、医疗机构、世界各地的政府机构都可以使用 AWS。围绕 AWS 建立起来的整套安全结构,我认为可以帮助我们进一步加速客户利用这项技术,同时为他们提供快速行动所需的安全护栏。
很多时候,在一家企业里,尤其是在风险规避倾向较强的行业里,如果你有这些安全护栏,让他们可以说:「只要它运行在这个沙盒里,我就愿意快速推进」,这实际上可以帮助很多客户开始把这些技术用于更广泛的场景。
主持人:你刚才提到的很多能力,是 AWS 在过去 20 年里建立起来的,而你们现在正试图把它们用于 agents。这些能力今天已经通过 AgentCore 暴露出来。那么,由 OpenAI 提供支持的 Bedrock Managed Agents 和 Bedrock AgentCore 之间是什么关系?
注:AgentCore 可以理解为 AWS 给企业开发 AI agent 准备的一套「底层工具箱」或「基础组件平台」。可以这样理解两者的关系,AgentCore = 底层积木;Bedrock Managed Agents = AWS 和 OpenAI 拼好的成品方案
Matt Garman: 我们共同构建的很多东西,是基于 AgentCore 的 building blocks,把这些部分组合起来。
主持人:所以它有点像是位于 AgentCore 之上的一个超集?
Matt Garman: AWS 团队和 OpenAI 团队一起使用了 AgentCore 的组件,再结合 OpenAI 模型以及其他许多部分,共同构建了这个产品。
AgentCore 可以理解为我们提供的一组基础构建模块。就像在 AWS 上,如果你想自己搭建 agent 工作流,你可以直接使用这些模块:比如 memory 组件、安全执行环境、权限管理能力等。你可以自行配置这些能力,并组合出适合自己业务的 agent 系统。现在已经有客户在生产环境中运行这些能力,而且做出了不少很酷的应用。
主持人:但不是用 OpenAI。
Matt Garman: 但不是用 OpenAI。今天他们必须使用不同的模型,这是真的。其实,不对,这也不完全对。我们确实有人在用 OpenAI 做这件事。
主持人:哦,只是调用另一个云上的模型,或者类似方式。
Matt Garman: 他们就是直接调用 OpenAI 模型。所以今天确实已经有人用 OpenAI 来做这件事,只是不是以 Bedrock 原生方式在里面使用,但他们仍然在使用它。这是一个开放生态,你可以拉取不同的能力,去构建你想构建的任何东西。我打赌,人们还会继续这么做。
外面有些建设者很喜欢——借用 Sam 的类比——即便今天已经没有必要,他们仍然喜欢在家自己组装电脑。人们喜欢构建。我们认为,在很长一段时间里,人们都会继续构建自己的 agents。但其中绝大多数人会希望有一种更简单的方式,他们不想自己配置所有这些部分。这正是我们这次合作推出的东西之一。
主持人:我想把这个区别说得更清楚一点。Bedrock Managed Agents 是一种托管式服务;但用户也可以用 AgentCore,自己去接入不同模型,无论模型是在 AWS 上,还是在别的云上。Sam,这是不是就构成了它和 OpenAI 在 Azure 上那种形式的区别?简单说,在 Azure 上,用户主要是直接访问 OpenAI API;而在 Amazon 上,这次是一个更完整的托管式 agent 服务。这样理解对吗?
Sam Altman: 正确,是的。
主持人:你对此很有信心?它在各种条款和范围上都界定正确,未来不会成为问题?
Sam Altman: 是的。我认为事情会随着时间推移而演进,但作为一个起点,我对这个方式非常有信心。
主持人:这会是 AWS 的独家产品吗?还是说你们也预计会在其他云上提供类似的托管式使用体验(managed experience)?
Sam Altman: 是的,我们会和 Amazon 独家做这件事,我们对此很兴奋。
主持人:这种独家的成分有多少是因为,「看,我们用的是 Amazon 的所有 API,所以它当然只在 Amazon 上」?还是说,这不是简单的「我们用了 Amazon API」,而是整个托管式使用体验(managed experience)的理念本身,目前就会放在 Amazon 上?
Sam Altman: 从精神上说,我们希望这是两家公司之间的一次共同努力。
主持人:明白了。公关稿里提到了一点,这也回到 Matt 刚才说的:你理论上可以调用其他 API,然后自己把所有东西粘在一起。但在这个案例里,客户数据会留在 AWS 之内。所以 OpenAI 到底能看到什么?这句话是什么意思?
Matt Garman: 是的。整个东西基本上都会留在你的 VPC 里,所以数据会在 Bedrock 环境内受到保护。
注:VPC 是 Virtual Private Cloud,可以理解为企业在 AWS 里划出来的一块「私有云网络空间」
主持人:明白了。这个产品会通过 Bedrock 运行在 OpenAI 模型上,而这些模型会跑在 Trainium 上吗?
Matt Garman: 它们会通过不同方式混合运行——有一部分会在 Trainium 上,有一部分会在 GPU 上。
注:Trainium 是 AWS 自研的 AI 加速芯片,用于支持大模型训练和推理。与英伟达 GPU 类似,它属于底层算力基础设施。对于普通企业客户来说,通常不需要直接接触 Trainium,而是通过 Bedrock 这类托管服务间接使用底层算力
主持人:这只是时间因素造成的吗?因为我记得你们几个月前的公告里提到……
Matt Garman: 一部分是时间因素,一部分是能力因素。我认为我们会在共同构建系统的过程中混合使用不同组件,为不同部分使用合适的基础设施。但随着时间推移,越来越多部分会运行在 Trainium 上。
Sam Altman: 我们非常期待让这些模型跑在 Trainium 上。
主持人:我可以想象。Matt,关于 Trainium,我有一个快速问题,也是一个更一般性的问题。我现在是这样理解 Trainium 的,想确认一下是不是正确。Trainium 这个名字非常不幸,因为未来它真正重要的地方其实会是推理。它最主要的呈现方式,会是通过 Bedrock 这样的托管式服务(managed services)。也就是说,客户甚至不一定知道自己具体在使用什么计算资源。这样理解公平吗?
Matt Garman: 首先,我愿意为 AWS 所有服务的糟糕命名承担责任。
主持人:没关系,我有一个靠口口相传的网站叫 Stratechery,所以我完全理解糟糕命名这件事。
Sam Altman: 我觉得 Trainium 这个词挺酷的。
Matt Garman: 它确实挺酷。
主持人:这个词是挺酷的,只是感觉它更像一颗推理芯片,而不是训练芯片。
Matt Garman: 是的。不过,先不谈命名,它对于训练和推理都有用。说真的,这是一颗让我们非常兴奋的芯片。无论是当前世代还是后续版本,我们都认为它会成为一个巨大的业务,也会成为我们共同要做的很多事情的重要推动力。
顺便说一句,我认为和 GPU 一样,你会通过抽象层来和很多这类加速芯片交互。绝大多数客户其实也不会直接和 GPU 交互,除非可能是在自己的笔记本电脑上用于图形之类的场景。但当你和 OpenAI 交互时,即便它们底层跑在 GPU 上,你也不是在和 GPU 对话;当你和 Claude 对话时,不管它底层是 GPU、Trainium 还是 TPU,你也不是在和那些芯片对话,你是在和接口对话。
而外面绝大多数推理,都是由少数几个模型完成的。所以无论是 5 个、10 个、20 个还是 100 个模型,都不是几百万人在直接面向这些芯片编程。未来也会如此,因为这些系统太复杂、规模太大。如果你要去训练一个模型,没有多少人有足够的钱去训练模型,也没有多少人真正有能力管理它们。它们是非常复杂的系统,而 OpenAI 团队从大型计算集群中榨取价值的能力非常惊人。但没有多少人拥有这样的团队。无论具体是什么芯片,我认为这对所有加速芯片来说都会成立。
Sam Altman: Ben,我越来越觉得,我们作为一家公司要做的事情,是成为一家 token 工厂。但客户真正关心的是,我们能以最低价格交付最好的 intelligence unit,而且能按他们想要的数量、按他们想要的容量交付。
主持人:你认为我们会继续坚持现在这种定价方式吗?也就是说,按 tokens 定价。从长期看,这合理吗?
Sam Altman: 不合理。事实上,我们刚发布的 5.5 模型就是一个有趣的例子。它的单 token 成本比 5.4 高很多,但它完成同样答案所需的 token 数量大幅减少。实际上,你并不关心这个答案花了多少 token,你只想让这件工作完成。你想要的是一个价格,以及你能够获得的容量。
所以也许我刚才说「token 工厂」是错的。我们更像是一家智能工厂(ntelligence factory),或者类似的东西。我们想以最低价格提供尽可能多的「智能能力(intelligence units)」。至于是一个更大的模型跑更少的 tokens,还是一个更小的模型跑很多 tokens;是 GPU、Trainium,还是别的东西;或者我们用其他任何创造性的方式来做,我不认为客户会在意。
事实上,他们根本不会直接接触这些东西。当你把东西放进 Codex,或者在 SRE,也就是 Stateful Runtime Environment 里构建一种新的 agent 时,你根本不应该需要思考这些问题。你应该只是惊讶于自己用这么低的成本得到了这么多东西。
主持人:token 使用量减少,是模型本身带来的,还是配套系统(Harness)带来的?
Sam Altman: 主要是模型,也有一点点配套系统(Harness)的作用。
主持人:明白了。Matt,顺便问一下,刚才我问了 Sam 关于独家的问题。你是否预计未来会为其他模型提供类似的 managed service?
Matt Garman: 我们现在专注于和 OpenAI 做这件事。我们对双方正在共同构建的东西非常兴奋。至于更长远的未来,那是很长的一段时间。
主持人:「更长远的未来是很长的一段时间」,这个回答我先让你保留。没关系,我必须问这个问题。
关于客户,我还有一个问题。Sam,结合你刚才的观点,我也想听听你们两位的看法。当客户真正进入生产环境时,OpenAI 的责任到哪里结束,AWS 的责任从哪里开始?在我听起来,如果所有数据都在 AWS 上,并且数据留在那里,而客户是在更高层面操作,那么这最终是 AWS 的责任?从消费者角度看,我这样理解对吗?
Matt Garman: 是的,我认为这是对的。当你需要联系某个人时,你会联系 AWS support 来帮你。这是你 AWS 环境的一部分,是你在 AWS 上构建出来的。你的 AWS account reps 会在那里帮助你。当我们构建它时,也会请 OpenAI 的同事参与,帮助你弄清楚如何最好地利用这个产品,或者处理类似问题。在某些情况下,如果我们遇到需要他们帮助解决的 bug,我们会升级给他们。但 AWS 会是你直接交互的一线支持。
主持人:Sam,你怎么看这项业务相对于 OpenAI 核心 API 业务的规模?
Sam Altman: 我希望它会非常大。我们正在为此投入大量精力,也承诺购买大量算力。我相信这里会有很多收入来支撑这一切。我越来越相信的一个框架是:当价格足够低时,对 intelligence 的需求本质上是没有上限的。
主持人:所以从这个角度看,它的需求弹性很强?价格下降,需求上升?
Sam Altman: 当然有这一点。但换个例子,你降低水的价格,也许你会多喝一点水,也许你会从一天洗一次澡变成一天洗两次澡,这里面有一定弹性。但到某个程度,你会说:「你知道吗?我的水已经够了。」
主持人:而且如果你必须要水,无论它多贵你都会买。
Sam Altman: 对于其他公用事业也是这样。如果电更便宜,你当然会用更多电。但如果你把 intelligence 想成一种公用事业,我不知道还有哪种公用事业会让我觉得:「我就是想要更多。只要价格足够低,我就会继续用更多。」
Matt Garman: 有意思的是,计算能力在很大程度上其实也是这样。想想今天一个计算周期的成本,相比 30 年前不知道便宜了多少个数量级,而今天售出的计算量比以往任何时候都多。
主持人:对。至少在达到极高规模、成本变得重要之前,人们通常不会真的去想计算成本。总体来说,从战略角度看,大家只是默认自己拥有计算能力。那 AI 要走到这一步,还需要多长路?也就是说,大家不再把「我在这里花了多少钱」作为第一反应。
Sam Altman: 我不认为这现在是第一反应。现在有远更多客户问我们:「不管价格多少,你能不能给我更多?我只需要更多容量,我愿意多付钱。」相比之下,和我们争价格的人少得多。
但我确实认为,我们会继续把价格大幅降下来,降幅会非常惊人。也许我们越这么做,想要流入这个领域的财富就越多、越来越多、越来越多。但我有信心,我们会继续显著降低当下这个 intelligence 水平的成本。
有一件事多少让我有点惊讶,我不知道它会不会一直如此,但至少在今天,总市场需求中有相当大一部分集中在绝对前沿模型上。
主持人:对,这方面有很多问题。服务前沿模型非常昂贵,人们其实可以用前一个版本。但你的意思是,不管怎样,人们就是想用最前沿的?
Sam Altman: 到目前为止,是的。
Matt Garman: 我认为这是一个很好的信号,说明我们离真正想达到的状态还很远,需求还有太多没有被满足。我确实认为这有点像 40 年前的计算需求。当时一台电脑极其昂贵,而现在每个人手机里的计算能力都远远超过当时,而且我们卖出了数十亿台这样的设备。
我认为 AI 世界也会发生同样的事情。今天,所有人都想使用前沿模型,因为你需要它才能完成大量有用的工作,而且大家对外面的能力非常兴奋。
我认为随着时间推移,你会拥有一组混合模型。顺便说一句,一些较小模型将能够完成某些事情,甚至是最新 OpenAI 模型尚未能完成的事情。但它们会随着时间推移变得更小、更便宜、更快。同时,也会有那些超大型模型,去尝试攻克癌症以及其他类似问题。
但我认为我们仍然处在可能性的早期阶段。当你在可能性的早期阶段就看到这么多需求和这么快的增长时,未来会非常令人兴奋。
主持人:有没有一种比较犬儒的看法:Sam,你有一批客户会说,「我们很想用 OpenAI 模型,但我们的所有东西都在 AWS 上,我们不搬。」Matt,你这边则是,「看,我们所有东西都在 AWS 上,你能不能把 OpenAI 模型弄过来?」所以这件事只是满足这种需求。而事实证明,因为 AWS 是最大的,所以这个需求量大到天文数字。这是不是最简单的答案?还是说这里还有另一层,即你们确实认为能交付一种高度差异化的东西,并且它也会为你们双方吸引新客户?
Sam Altman: 我们当然非常高兴能够接触到 AWS 客户,而且很多人都非常喜欢 AWS。是的,这句话是真的。
Matt Garman: 这一部分肯定是真的。
主持人:(笑)对。
Matt Garman: 反过来也一样,我们的客户也非常兴奋能够获得 OpenAI 技术。
Sam Altman: 但我确实认为,我们可以一起构建出某种不可思议的新东西。我希望一年后,当人们回头看这件事时,大家谈论的最重要内容不会是:「哦,终于可以通过 AWS 访问这些模型了。」或者类似的话。而是:「哇,我们之前没有意识到这个新产品有多重要。」
我认为,在模型、配套系统(Harness)和能力层面,我们已经接近一种全新的计算形态。它会让人感觉和现有这些「我需要这个模型的 API」之类的思路非常不同。
Matt Garman: 我完全同意,这正是关键。第一部分很好,也很不错;但第二部分,我认为才是让我们所有人真正兴奋的地方。
主持人:说到这一点,我刚才提到,我想回到这个话题。我有一个理论,不一定正确,我很好奇你们怎么看,也就是关于「还有什么东西需要被构建」。具体来说,最终可能会出现一个真正的 middleware 或中间层。在一个组织中,会有各种不同的数据库、SaaS 应用,以及各种数据碎片,它们横跨不同系统。上面会有一个 agent layer 或配套系统(Harness)。中间似乎还有一些东西需要被构建。OpenAI Frontier 在某种程度上触及了这个问题。这是不是其中的一部分?还是说这是未来要构建的东西?又或者我完全想错了,我们根本不需要这个东西?
Sam Altman: 你完全说对了,我们确实需要那里的某种东西。最近我和客户交流,尤其是大型企业,他们会说:「我想要某种 agent runtime environment;我想要一个管理层,可以把我的数据连接到 agents,同时确保我理解 token 花费在哪里、没有花在哪里,并且有某种监督能力;我还想要某种 workspace」——希望那会是 Codex——「也就是给我的员工使用的类似东西。」
人们所要求的这组东西,正在变得非常一致。但现在还需要去把整个产品真正构建出来。
主持人:听起来几乎需要一个双重 agent layer。一个 agent layer 用来维护中间层,不断深入各种数据源里探索;另一个则是真正的用户界面层,人们在那里实际进行交互。这符合我们要走的方向吗?还是我说偏了?
Sam Altman: 对这两点,我都同意这是今天世界可能呈现出来的样子。但随着模型变得真正聪明,我不认为我们已经知道未来架构到底会是什么样。
现在,在你可以称之为 user agent layer 的这一层,人们确实想和多个 agents 交互。我们让你可以为这个东西构建 agent,为那个东西构建 agent,它们可以彼此对话,等等。然后在公司管理层,人们会有各种控制机制,帮助 AI 去探索文件系统中的文件。
主持人:然后在某个时刻,你会意识到,自己只是没有理由地抱着过去不放。这些事情本来就应该在模型里完成。
Sam Altman: 这正是我想说的。在某个时刻,你可能会说:「事实上,我们已经有如此惊人的能力了,那就重新设计整个架构吧。」
Matt Garman: 是的,我同意。我认为这里确实会出现某种不同的东西。我不确定我们现在是否已经都知道它到底是什么,但这也是这件事的美妙之处。你让客户去使用、去构建,然后你可以从他们那里学习,弄清楚如何让这些东西对他们来说更容易、更快、更好。
主持人:Sam,这是我们第二次做这种产品发布访谈。上一次是和 Kevin Scott 一起聊 New Bing。当时你对自己给 Google 带来的威胁相当有信心。你觉得后来结果如何?
注:Kevin Scott 是 Microsoft 首席技术官。New Bing 是 Microsoft 于 2023 年 2 月推出的 AI 搜索产品,由 OpenAI 技术支持,试图将传统搜索从「返回链接」升级为「直接生成答案与辅助完成任务」的交互方式。当时,New Bing 被视为 Microsoft 借 OpenAI 挑战 Google 搜索霸权的重要尝试。
Sam Altman: 我觉得我们做得比我预期更好。ChatGPT 是,我认为,自 Facebook 以来第一个真正大规模的新消费级产品。
主持人:这其实就是答案吗?也就是说,你们做得比你预期更好,但它主要体现在 ChatGPT 上,而不是其他领域?
Sam Altman: 不,我认为我们在 API 上也做得相当好,尤其是 Codex。但那并不是我当时想的东西。当时我想的是,也许这些新型语言界面会改变人们在互联网上寻找信息的方式。而且,Google 也是一家绝对非凡的公司。我认为从它所做事情的广度和深度来看,Google 在很多方面仍然被低估了。但相对而言,我对 ChatGPT 的表现感到满意。
主持人:Matt,我也有一个类似的 Google 问题想问你。Google 这周刚刚在台上,Thomas Kurian(Google Cloud 的 CEO)讲了他们完全整合的技术栈,从模型到芯片,再到 agent layer,上上下下都是一体化的。你今天是和另一家公司高管一起出现,从定义上说,Amazon 并不是完全内部整合的。
此前有很多人批评你们没有一个前沿级 edge model。但现在我们进入了推理时代,你们又习惯服务大量公司。那么有没有一种情况是,你们因为保持某种中立性,反而处在了一个更好的位置?这是有意为之,还是说你们意外地来到了一个很好的位置,只是之前没意识到它会变得这么重要?
Matt Garman: 有一点是有意的。自从我们开始做 AWS 以来,我们一直把合作伙伴视为支持终端客户的关键部分。从一开始,这就是我们战略中非常重要的一部分:与合作伙伴深度合作。也许和其他一些公司不同,我们认为,如果合作伙伴成功了,如果他们是在我们之上或者和我们一起构建,那么我们也就成功了,这很棒。
我们把它看作是在一起把蛋糕做大,那就是胜利。但这不一定是其他人看世界的方式。有时候他们会说,「我必须拥有一切。」这也没问题,这是一种看法。
但我认为选择权很重要。这样最好的产品才会胜出。顺便说一句,在这样的世界里,你可以有第一方产品,也可以有很多第三方产品。但我们的观点是,我们希望客户能够选择最适合他们的东西。如果最适合他们的是你自己构建的东西,那很好。
对我们来说,如果最好的东西是我们的合作伙伴构建的,但它运行在我们之上,我们也把这看作胜利,因为这是对客户最好的东西。我们长期以来一直这么想,而这实际上也是我们在 AI 世界里构建 Bedrock 平台的方式。我们希望支持广泛的模型,支持广泛的能力。事实一直如此,从数据库到计算平台,再到其他东西都是如此。
所以我认为,这是一项有意的战略。我也认为,这是客户欣赏的一种战略,因为他们喜欢这种方式。我们也很兴奋能继续沿着这个方向深入下去。
主持人:是的,这很有意思。这里有软件、平台、基础设施之间的平衡,每个人都说自己会服务所有人。但感觉上,如果回到 AWS 刚开始的时候,它是从 I,也就是 Infrastructure 开始的。从我的角度看,这几乎给了你们最大的灵活性,让你们可以和 Sam 在中间相遇。Sam 有很强的 S,也就是 Software;你们一起构建的是一个 P,也就是 Platform。我想可以这么说。
Matt Garman: 没错。确实有些地方会变得比较难。比如我们说,「我们只有一个 S3」,并没有其他 S3 产品,这一部分是真的。所以有些核心组件,就像你说的,在基础设施层面,我们确实会非常重视自己构建的东西。
但当你沿着技术栈往上走时,我认为能力集合会变得更广。无论如何,我都不认为任何一家公司会拥有所有应用。当你沿着技术栈向下走,进入模型和服务层时,数量会变少;再往下到基础设施层,数量会更少。而我们的观点是,拥抱整个合作伙伴集合,对我们的终端客户来说是好事。
主持人:Sam,有什么最后想说的吗?
Sam Altman: 我觉得 Matt 说得非常好。我真的认为,现在开发者可以构建的新一代产品,蕴含着巨大的潜力。考虑到我们预期未来一年模型能力会以非常陡峭的曲线进步,我们能够一起踏上这段旅程,并努力真正构建一个平台来赋能它,这个时机非常好。我认为人们会喜欢它。
主持人:很好。Matt、Sam,感谢你们来到 Stratechery。
Matt Garman: 太棒了。感谢邀请我们。
Sam Altman: 谢谢。