币安博文:Web3 X AI —— 去中心化在哪里发挥作用?

Marsbit
媒体专栏
热度: 21397

深入探讨了AI的Web3基础设施的发展,计算需求和机会领域的当前挑战。

原文标题:Web3 X AI: Where Does Decentralization Come Into Play?

原文作者:Binance

原文来源:Binance Blog

编译:Kate, Marsbit

主要要点:

• 人们对人工智能(AI)越来越感兴趣,同时也对其与Web3潜在的协同作用非常兴奋,这个领域不容忽视。然而,这种新生的集成揭示了人工智能基础设施需求与现有区块链框架之间的脱节。

• 在本系列中,我们将探讨AI与Web3之间的关系,以及Web3中的挑战、机遇和垂直应用。

• 本系列的第一部分深入探讨了AI的Web3基础设施的发展,计算需求和机会领域的当前挑战。

人工智能(AI)和区块链技术是过去十年中最具创新性的两项技术,它们激发了公众的想象力。人工智能在Web2领域的发展是毋庸置疑的,今年风投的投资数量不断增加。从Inflection AI在2023年6月获得微软和英伟达投资的13亿美元融资,到OpenAI的竞争对手Anthropic在2023年9月从亚马逊获得12.5亿美元融资。

然而,用这些用例和Web3的交集仍然令人怀疑。Web3在AI的发展中发挥了作用吗?如果是这样,我们为什么需要区块链?我们看到的一种说法是,Web3有可能彻底改变生产关系,而人工智能有能力改变生产力本身。然而,事实证明,将这些技术结合在一起非常复杂,这揭示了基础设施需求的挑战和机遇。

AI基础设施和GPU危机

我们目前在AI中看到的主要瓶颈是GPU危机。大型语言模型(LLM),如OpenAI的GPT-3.5,已经解锁了我们今天看到的第一个杀手级应用,ChatGPT。它是最快在6周内达到1亿MAU的应用,相比之下,YouTube和Facebook花了4年时间。这打开了利用LLM模型的新应用程序的大门,其中一些例子是基于Stable Diffusion的StableLM构建的Midjourney,以及支持谷歌的Bard、API、MakerSuite和Workspace的PaLM2

深度学习是一个漫长而大规模的计算密集型过程——LLM拥有的参数越多,需要的GPU内存就越多。模型中的每个参数都存储在GPU内存中,模型需要在推理期间将这些参数加载到内存中。如果模型大小超过可用的GPU内存,则ML模型将停止工作。像OpenAI这样的领先玩家也遇到了GPU短缺的问题,这导致其难以部署具有更长的序列长度模型(8k VS 32k)的多模态模型。由于芯片供应严重短缺,大规模应用已经达到了LLM的极限,这使得人工智能初创公司竞相争夺GPU能力,以获得先发优势。

GPU解决方案:中心化和去中心化方法

在短期内,像英伟达2023年8月发布的tensorRT-LLM这样的集中式解决方案,提供了优化的推理和更高的性能,以及预计在2024年第二季度推出的Nvidia H200s,预计将解决GPU的限制。此外,像CoreWeaveLambda Labs这样的传统矿业公司正在转向提供以GPU为中心的云计算,Nvidia H100租金为每小时2- 2.25美元。挖矿公司利用ASIC(专用集成电路),因为它们通过特定于算法的设计和专用硬件架构来提高哈希能力,从而在提高挖矿效率方面比通用计算机或 GPU 具有更大的优势。

在Web3方面,一个类似Airbnb的GPU市场的想法一直是一个流行的概念,有几个项目正在尝试这样做。区块链中的激励机制对于自启动网络来说是理想的,它是一种有效的机制,可以以去中心化的方式吸引具有空闲GPU的参与者或实体。通常情况下,获得GPU的访问权限需要与云提供商签订长期合同,而应用程序不一定要在整个合同期内使用GPU。

另一种称为Petals的方法涉及将LLM模型分成几个层,这些层托管在不同的服务器上,类似于分片的概念。它是由Hug Face、华盛顿大学和Yandex等公司的工程师和研究人员合作开发的BigScience项目的一部分。任何用户都可以作为客户端以去中心化的方式连接到网络,并将模型应用于他们的数据。

AI X Web3基础设施应用的机会

虽然仍然存在一些缺点,但 Web3 基础设施有可能应对人工智能集成带来的挑战,并为创新解决方案提供了机会,我们将在下面进行探讨。

去中心化人工智能计算网络

去中心化的计算网络将需要计算资源的个人与拥有未使用计算能力的系统联系起来。在这种模式下,个人和组织可以在不产生额外费用的情况下将空闲资源贡献给网络,与中心化提供商相比,这种模式允许网络提供更具成本效益的定价。

在基于区块链的点对点网络的推动下,分布式GPU渲染有可能在Web3游戏中扩展AI驱动的3D内容创建。然而,去中心化计算网络的一个重大缺点在于,由于不同计算设备之间的通信开销,机器学习训练期间可能会出现减速。

去中心化的人工智能数据

训练数据作为初始数据集,用于教导机器学习应用程序识别模式或满足特定标准。另一方面,使用测试或验证数据来评估模型的准确性,并且由于模型已经熟悉训练数据,因此需要单独的数据集进行验证。

目前正在努力创建人工智能数据源和人工智能数据标签市场,区块链将成为大公司和机构提高效率的激励层。然而,在目前的早期发展阶段,这些垂直行业面临着一些障碍,比如需要人工审查和围绕区块链数据的担忧。

例如,有专门为ML模型训练设计的SP计算网络。SP计算网络是针对特定用例定制的,通常采用一种架构,将计算资源整合到一个统一的池中,类似于超级计算机。SP计算网络通过gas机制或社区控制的参数来确定成本。

去中心化的Prompts

虽然完全去中心化的LLM带来了挑战,但项目正在探索通过鼓励自我训练技术的贡献来去中心化Prompts的方法。这种方法激励创作者创造内容,为更多参与者提供经济激励结构。

早期的例子包括人工智能聊天机器人平台,这些平台为内容创建者和人工智能模型创建者提供了激励,以训练聊天机器人,这些聊天机器人随后可以成为可交易的NFT,从而允许访问用户许可的数据以进行模型训练和微调。另一方面,去中心化的提示市场旨在通过允许他们的数据和提示的所有权在市场上交易来激励Prompts创建者。

零知识机器学习(ZKML)

2023年确实是LLM展示其力量的一年。为了让区块链项目充分发挥人工智能的潜力,这些模型必须在链上运行。然而,gas限制和计算成本的挑战仍然给人工智能集成带来了复杂性。

如果LLM可以在链下运行,它们的输出结果用于驱动链上的决策和活动,同时生成这些决策是由ML AI模型而不是随机输出做出的证据,那会怎么样?这就是ZKML的本质。随着OpenAI的GPT-5和Meta的Llama3即将推出,LLM的规模越来越大,功能也越来越强。ZKML的主要目标是最小化证明的大小,这使其成为 ZK 证明与 AI 技术相结合的天然选择。例如,ZK证明可以应用于去中心化ML推理或训练中的压缩模型,用户通过将数据提交给链上网络上的公共模型来为训练做出贡献。

我们目前正处于使用链上零知识证明进行计算验证的初级阶段。然而,算法的进步正在扩大用例可以实现的范围,例如模型完整性,其中 ZK 证明可以用来证明相同的 ML 算法正在不同用户的数据上以相同的方式运行避免偏见。同样,随着算法生成的肖像和深度伪造的兴起,ZK证明可以应用于人格证明,在不泄露个人私人信息的情况下验证一个独特的人。

总之,Web3基础设施和人工智能的整合代表了令人兴奋的技术创新前沿,同时通过代币化激励促进了贡献。虽然Web2见证了人工智能的重大进步,但Web3和人工智能的交集仍然是一个值得探索的主题。

随着我们的发展,Web3和人工智能之间的协同作用具有巨大的潜力,有望重塑技术格局和我们处理人工智能基础设施的方式。请继续关注AI X Web3系列的下一部分,我们将深入探讨Web3游戏中的AI用例。

声明:本文为入驻“MarsBit 专栏”作者作品,不代表MarsBit官方立场。
转载请联系网页底部:内容合作栏目,邮件进行授权。授权后转载时请注明出处、作者和本文链接。未经许可擅自转载本站文章,将追究相关法律责任,侵权必究。
提示:投资有风险,入市须谨慎,本资讯不作为投资理财建议。
免责声明:本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况,及遵守所在国家和地区的相关法律法规。