加密货币和人工智能交叉领域正在进行的实验和最终采用背后的驱动力与推动加密货币最有前途的用例的驱动力相同——访问无需许可和去信任化的协调层,从而更好地促进价值转移。
原文标题:Understanding the Intersection of Crypto and AI
原文作者:Lucas Tcheyan
原文来源:galaxy
公共区块链的出现是计算机科学历史上最深刻的进步之一。而人工智能的发展将会并且已经在对我们的世界产生深远的影响。如果说区块链技术为交易结算、数据存储和系统设计提供了新的模板,那么人工智能则是计算、分析和内容交付方面的一场革命。这两个行业的创新正在释放新的用例,从而可能在未来几年加速这两个行业的采用。本报告探讨了加密货币和人工智能的持续集成,重点关注试图弥合两者之间差距、利用两者力量的新颖用例。具体来说,本报告研究了开发去中心化计算协议、零知识机器学习 (zkML) 基础设施和人工智能代理的项目。
加密货币为人工智能提供了无需许可、无需信任且可组合的结算层。这解锁了用例,例如通过去中心化计算系统使硬件更容易访问,构建可以执行需要价值交换的复杂任务的人工智能代理,以及开发身份和来源解决方案来对抗 Sybil 攻击和深度伪造。人工智能为加密货币带来了许多我们在 Web 2 中看到的相同好处。这包括通过大型语言模型(即经过专门训练的 ChatGPT 和 Copilot )增强用户和开发人员的用户体验 (UX),以及显着地改进智能合约的功能和自动化的潜力。 区块链是人工智能所需的透明的数据丰富环境。 但区块链的计算能力也有限,这是直接集成人工智能模型的主要障碍。
加密货币和人工智能交叉领域正在进行的实验和最终采用背后的驱动力与推动加密货币最有前途的用例的驱动力相同——访问无需许可和去信任化的协调层,从而更好地促进价值转移。鉴于巨大的潜力,该领域的参与者需要了解这两种技术交叉的基本方式。
人工智能是利用计算和机器来模仿人类的推理和解决问题的能力。
神经网络是人工智能模型的一种训练方法。他们通过离散的算法层运行输入,对其进行改进,直到产生所需的输出。神经网络由具有权重的方程组成,可以修改权重来改变输出。它们可能需要大量的数据和计算来进行训练,以便其输出准确。这是开发人工智能模型最常见的方式之一(ChatGPT 使用依赖于 Transformer 的神经网络过程)。
训练是开发神经网络和其他人工智能模型的过程。它需要大量数据来训练模型以正确解释输入并产生准确的输出。在训练过程中,模型方程的权重不断修改,直到产生令人满意的输出。培训费用可能非常昂贵。例如,ChatGPT 使用数万个自己的 GPU 来处理数据。资源较少的团队通常依赖专门的计算供应商,例如 Amazon Web Services、Azure 和 Google Cloud 供应商。
推理是实际使用 AI 模型来获取输出或结果(例如,使用 ChatGPT 为有关加密货币和 AI 交集的论文创建大纲)。在整个培训过程和最终产品中都会使用推理。由于计算成本的原因,即使在训练完成后,它们的运行成本也可能很高,但其计算强度低于训练。
零知识证明 (ZKP) 允许在不泄露基础信息的情况下验证声明。这在加密货币中很有用,主要有两个原因:1) 隐私和 2) 扩展。为了保护隐私,这使用户能够在不泄露敏感信息(例如钱包中有多少 ETH)的情况下进行交易。对于扩展而言,它使链下计算能够比重新执行计算更快地在链上得到证明。这使得区块链和应用程序能够廉价地在链外运行计算,然后在链上验证它们。有关零知识及其在以太坊虚拟机中的作用的更多信息,请参阅 Christine Kim 的报告 zkEVMs:以太坊可扩展性的未来。
人工智能和加密货币集成的项目仍在构建支持大规模链上人工智能交互所需的底层基础设施。
去中心化计算市场正在兴起,以提供训练和推理人工智能模型所需的大量物理硬件,主要以图形处理单元 (GPU) 的形式。这些双向市场将那些租赁和寻求租赁计算的人连接起来,促进价值的转移和计算的验证。在去中心化计算中,正在出现几个提供附加功能的子类别。除了双边市场之外,本报告还将审查专门提供可验证培训和微调输出的机器学习培训供应商,以及致力于连接计算和模型生成以实现人工智能的项目,也经常被称为智能激励网络。
zkML 是希望以经济有效且及时的方式在链上提供可验证模型输出的项目的一个新兴重点领域。这些项目主要使应用程序能够处理链下繁重的计算请求,然后在链上发布可验证的输出,证明链下工作负载是完整且准确的。zkML 在当前实例中既昂贵又耗时,但越来越多地被用作解决方案。这在 zkML 供应商和想要利用 AI 模型的 DeFi/游戏应用程序之间的集成数量不断增加中显而易见。
充足的计算供应以及验证链上计算的能力为链上人工智能代理打开了大门。代理是经过训练的模型,能够代表用户执行请求。代理提供了显着增强链上体验的机会,使用户只需与聊天机器人对话即可执行复杂的交易。然而,就目前而言,代理项目仍然专注于开发基础设施和工具,以实现轻松快速地部署。
人工智能需要大量计算来训练模型和运行推理。在过去的十年中,随着模型变得越来越复杂,计算需求呈指数级增长。例如,OpenAI 发现,从 2012 年到 2018 年,其模型的计算需求从每两年翻一番变为每三个半月翻一番。这导致对 GPU 的需求激增,一些加密货币矿工甚至重新利用其 GPU 来提供云计算服务 。随着访问计算的竞争加剧和成本上升,一些项目正在利用加密技术来提供去中心化计算解决方案。他们以具有竞争力的价格提供按需计算,以便团队能够以经济实惠的方式训练和运行模型。在某些情况下,权衡可能是性能和安全性。
最先进的 GPU(例如 Nvidia 生产的 GPU)的需求量很大。9 月,Tether 收购了德国比特币矿商 Northern Data 的股份,据报道,该公司斥资 4.2 亿美元购买了 10,000 个 H100 GPU(用于 AI 训练的最先进 GPU 之一)。获得一流硬件的等待时间可能至少为六个月,在许多情况下甚至更长。更糟糕的是,公司经常被要求签署长期合同,以获取他们甚至可能不会使用的计算量。这可能会导致存在可用计算但市场上不可用的情况。去中心化计算系统有助于解决这些市场效率低下的问题,创建一个二级市场,计算所有者可以在接到通知后立即转租其过剩容量,从而释放新的供应。
除了有竞争力的定价和可访问性之外,去中心化计算的关键价值主张是抗审查性。尖端人工智能开发日益由拥有无与伦比的计算和数据访问能力的大型科技公司主导。2023年的AI指数年度报告中强调的第一个关键主题是,工业界在人工智能模型的开发方面日益超越学术界,将控制权集中在少数技术领导者手中。这引发了人们的担忧,即他们是否有能力在制定支撑人工智能模型的规范和价值观方面产生巨大影响力,特别是在这些科技公司推动监管以限制其无法控制的人工智能开发之后。
近年来出现了几种去中心化计算模型,每种模型都有自己的重点和权衡。
Akash、io.net、iExec、Cudos 等项目都是去中心化计算的应用程序,除了数据和通用计算解决方案之外,它们还提供或即将提供用于 AI 训练和推理的专用计算的访问权限。
Akash 是目前唯一完全开源的“超级云”平台。它是使用 Cosmos SDK 的权益证明网络。AKT 是 Akash 的原生代币,作为一种支付形式,用于保护网络安全并激励参与。Akash 于 2020 年推出了第一个主网,专注于提供无需许可的云计算市场,最初以存储和 CPU 租赁服务为特色。2023 年 6 月,Akash 推出了一个专注于 GPU 的新测试网,并于 9 月推出了 GPU 主网,使用户能够租赁 GPU 进行人工智能训练和推理。
Akash 生态系统中有两个主要参与者 - 租户和供应商。租户是想要购买计算资源的 Akash 网络的用户。供应商是计算供应商。为了匹配租户和供应商,Akash 依靠逆向拍卖流程。租户提交他们的计算要求,在其中他们可以指定某些条件,例如服务器的位置或进行计算的硬件类型,以及他们愿意支付的金额。然后,供应商提交他们的要价,最低出价者将获得任务。
Akash 验证器维护网络的完整性。 一套验证器目前限制为 100 个,并计划随着时间的推移逐步增加。任何人都可以通过质押比当前质押 AKT 数量最少的验证者更多的 AKT 来成为验证者。AKT 持有者还可以将其 AKT 委托给验证者。网络的交易费用和区块奖励以 AKT 形式分配。此外,对于每笔租赁,Akash 网络都会按照社区确定的费率赚取“收取费用”,并将其分配给 AKT 持有者。
去中心化计算市场旨在填补现有计算市场的低效率。供应的限制导致公司囤积超出其可能需要的计算资源,并且由于与云供应商的合同结构将客户锁定在长期合同中,即使可能不需要持续访问,供应也进一步受到限制。去中心化计算平台释放了新的供应,使世界上任何拥有计算需求的人都可以成为供应商。
AI 训练对 GPU 的需求激增是否会转化为 Akash 上的长期网络使用还有待观察。 例如,Akash 长期以来一直为 CPU 提供市场,以 70-80% 的折扣提供与集中式替代品类似的服务。 然而,较低的价格并没有带来显着的采用。 网络上的活跃租约已经趋于平缓,到 2023 年第二季度,平均只有 33% 的计算、16% 的内存和 13% 的存储。虽然这些都是链上采用的令人印象深刻的指标(作为参考,领先的存储提供商 Filecoin 已经 2023 年第三季度存储利用率为 12.6%),这表明这些产品的供应仍然超过需求。
Akash 推出 GPU 网络已经过去了半年多的时间,现在准确评估长期采用率还为时过早。迄今为止,GPU 的平均利用率为 44%,高于 CPU、内存和存储,这是需求的一个迹象。这主要是由对最高质量 GPU(如 A100)的需求推动的,超过 90% 已出租。
Akash 的每日支出也有所增加,相对于 GPU 出现之前几乎翻了一番。 这部分归因于其他服务使用量的增加,尤其是 CPU,但主要是新 GPU 使用量的结果。
定价与 Lambda Cloud 和 Vast.ai 等中心化竞争对手相当(或者在某些情况下甚至更贵)。对最高端 GPU(例如 H100 和 A100)的巨大需求意味着该设备的大多数所有者对在面临竞争性定价的市场上市兴趣不大。
虽然初期的利润是正向的,但采用仍然存在障碍(下面进一步讨论)。 去中心化计算网络需要采取更多措施来产生需求和供应,团队正在尝试如何最好地吸引新用户。 例如,2024 年初,Akash 通过了第 240 号提案,增加 GPU 供应商的 AKT 排放量并激励更多供应,特别针对高端 GPU。 团队还致力于推出概念验证模型,向潜在用户展示其网络的实时功能。 Akash 正在训练他们自己的基础模型,并且已经推出了聊天机器人和图像生成产品,可以使用 Akash GPU 创建输出。 同样,io.net 开发了一个稳定的扩散模型,并正在推出新的网络功能,以更好地模仿网络的性能和规模。
除了能够满足人工智能需求的通用计算平台外,一组专注于机器学习模型训练的专业人工智能GPU供应商也正在兴起。例如,Gensyn 正在“协调电力和硬件来构建集体智慧”,其观点是,“如果有人想要训练某种东西,并且有人愿意训练它,那么就应该允许这种训练发生。”
该协议有四个主要参与者:提交者、解决者、验证者和举报人。提交者向网络提交带有培训请求的任务。这些任务包括训练目标、要训练的模型和训练数据。作为提交过程的一部分,提交者需要为解决者所需的估计计算量预先支付费用。
提交后,任务将分配给对模型进行实际训练的解决者。然后,解决者将已完成的任务提交给验证者,验证者负责检查训练以确保正确完成。举报人有责任确保验证者诚实行事。为了激励举报人参与网络,Gensyn 计划定期提供故意错误的证据,奖励举报人抓住他们。
除了为人工智能相关工作负载提供计算之外,Gensyn 的关键价值主张是其验证系统,该系统仍在开发中。为了确保 GPU 提供商的外部计算正确执行(即确保用户的模型按照他们想要的方式进行训练),验证是必要的。Gensyn 采用独特的方法解决了这个问题,利用了称为“概率学习证明、基于图形的精确协议和 Truebit 式激励游戏”的新颖验证方法。这是一种乐观求解模式,允许验证者确认解决者已正确运行模型,而无需自己完全重新运行模型,这是一个成本高昂且低效的过程。
除了其创新的验证方法之外,Gensyn 还声称相对于中心化替代方案和加密货币竞争对手而言具有成本效益 - 提供的 ML 培训价格比 AWS 便宜高达 80%,同时在测试方面胜过 Truebit 等类似项目。
这些初步结果是否可以在去中心化网络中大规模复制还有待观察。Gensyn 希望利用小型数据中心、零售用户以及未来手机等小型移动设备等供应商的多余计算能力。然而,正如 Gensyn 团队自己承认的那样,依赖异构计算供应商带来了一些新的挑战。
对于谷歌云和 Coreweave 等中心化供应商来说,计算成本昂贵,而计算之间的通信(带宽和延迟)却很便宜。这些系统旨在尽快实现硬件之间的通信。Gensyn 颠覆了这一框架,通过让世界上任何人都可以提供 GPU 来降低计算成本,但同时也增加了通信成本,因为网络现在必须在相距较远的异构硬件上协调计算作业。Gensyn 尚未推出,但它是构建去中心化机器学习训练协议时可能实现的概念证明。
去中心化计算平台也为人工智能创建方法的设计提供了可能性。Bittensor 是一种基于 Substrate 构建的去中心化计算协议,试图解答“我们如何将人工智能转变为协作方法?”。Bittensor 旨在实现人工智能生成的去中心化和商品化。该协议于 2021 年推出,希望利用协作机器学习模型的力量来不断迭代并产生更好的人工智能。
Bittensor 从比特币中汲取灵感,其原生货币 TAO 的供应量为 2100 万,减半周期为四年(第一次减半将于 2025 年)。Bittensor 不是使用工作量证明来生成正确的随机数并获得区块奖励,而是依赖于“智能证明”,要求矿工运行模型来响应推理请求而生成输出。
Bittensor 最初依赖专家混合 (MoE) 模型来生成输出。当提交推理请求时,MoE 模型不会依赖一个广义模型,而是将推理请求转发给给定输入类型的最准确的模型。想象一下建造一栋房子,您聘请了各种专家来负责施工过程的不同方面(例如:建筑师、工程师、油漆工、建筑工人等......)。MoE 将其应用于机器学习模型,尝试根据输入利用不同模型的输出。正如 Bittensor 创始人 Ala Shaabana 所解释的那样,这就像“与一屋子聪明人交谈并获得最佳答案,而不是与一个人交谈”。由于在确保正确路由、消息同步到正确模型以及激励方面存在挑战,这种方法已被搁置,直到项目得到进一步开发。
Bittensor 网络中有两个主要参与者:验证者和矿工。验证者的任务是向矿工发送推理请求,审查他们的输出,并根据他们的响应质量对它们进行排名。为了确保他们的排名可靠,验证者会根据他们的排名与其他验证者排名的一致程度给予“vtrust”分数。验证者的 vtrust 分数越高,他们获得的 TAO 排放量就越多。这是为了激励验证者随着时间的推移就模型排名达成共识,因为就排名达成一致的验证者越多,他们的个人 vtrust 分数就越高。
矿工,也称为服务器,是运行实际机器学习模型的网络参与者。矿工们相互竞争,为验证者提供针对给定查询的最准确的输出,输出越准确,赚取的 TAO 排放就越多。矿工可以按照自己的意愿生成这些输出。例如,在未来的情况下,Bittensor 矿工完全有可能之前在 Gensyn 上训练过模型,并用它们来赚取 TAO 排放量。
如今,大多数交互直接发生在验证者和矿工之间。验证者向矿工提交输入并请求输出(即训练模型)。一旦验证者查询网络上的矿工并收到他们的响应,他们就会对矿工进行排名并将其排名提交到网络。
验证者(依赖 PoS)和矿工(依赖模型证明,PoW 的一种形式)之间的这种互动被称为 Yuma 共识。它旨在激励矿工产生最好的输出来赚取 TAO 的排放,并激励验证者对矿工输出进行准确排名,以获得更高的 vtrust 分数并增加他们的 TAO 奖励,从而形成网络的共识机制。
Bittensor 上的交互主要包括验证者向矿工提交请求并评估其输出。然而,随着贡献矿工的质量提高和网络整体智能的增长,Bittensor 将在其现有堆栈之上创建一个应用程序层,以便开发人员可以构建查询 Bittensor 网络的应用程序。
2023 年 10 月,Bittensor 通过 Revolution 升级引入了子网,朝着实现这一目标迈出了重要一步。子网是 Bittensor 上激励特定行为的单独网络。Revolution 向任何有兴趣创建子网的人开放网络。自发布以来的几个月内,已经启动了超过 32 个子网,包括用于文本提示、数据抓取、图像生成和存储的子网。随着子网的成熟并成为产品就绪,子网创建者还将创建应用程序集成,使团队能够构建查询特定子网的应用程序。一些应用程序(如聊天机器人、图像生成器、推特回复机器人、预测市场)目前确实存在,但除了 Bittensor 基金会的资助之外,没有正式的激励措施让验证者接受和转发这些查询。
为了提供更清晰的说明,下面是一个示例,说明应用程序集成到网络中后 Bittensor 可能如何工作。
子网根据根网络评估的性能赚取 TAO。根网络位于所有子网之上,本质上充当一种特殊的子网,并由 64 个最大的子网验证者按权益进行管理。根网络验证器根据子网的性能对子网进行排名,并定期将 TAO 排放分配给子网。通过这种方式,各个子网充当根网络的矿工。
Bittensor 仍在经历成长的烦恼,因为它扩展了协议的功能以激励跨多个子网的智能生成。矿工们不断设计新的方法来攻击网络以获得更多 TAO 的奖励,例如通过稍微修改其模型运行的高评价推理的输出,然后提交多个变体。影响整个网络的治理提案只能由完全由 Opentensor 基金会利益相关者组成的 Triumvirate 提交和实施(值得注意的是,提案需要在实施之前得到由 Bittensor 验证者组成的 Bittensor 参议院的批准)。该项目的代币经济正在进行修改,以提高对 TAO 跨子网使用的激励。该项目还因其独特的方法而迅速声名狼藉,最受欢迎的人工智能网站之一 HuggingFace 的首席执行官表示 Bittensor 应该将其资源添加到该网站。
在核心开发人员最近发表的一篇名为“Bittensor Paradigm”的文章中,该团队阐述了 Bittensor 的愿景,即最终发展为“对所测量的内容不可知”。理论上,这可以使 Bittensor 开发子网来激励由 TAO 提供支持的任何类型的行为。仍然存在相当大的实际限制——最值得注意的是,证明这些网络能够扩展以处理如此多样化的流程,并且潜在的激励措施推动的进步超过了中心化产品。
上述部分提供了正在开发的各种类型的去中心化人工智能计算协议的深度概述。在开发和采用的早期,它们提供了生态系统的基础,最终可以促进“人工智能构建块”的创建,例如 DeFi 的“金钱乐高”概念。无需许可的区块链的可组合性为每个协议构建在另一个协议之上提供了可能性,以提供更全面的去中心化人工智能生态系统。
例如,这是 Akash、Gensyn 和 Bittensor 可能全部交互以响应推理请求的一种方式。
需要明确的是,这只是未来可能发生的事情的一个例子,而不是当前生态系统、现有合作伙伴关系或可能结果的代表。 相互操作性的限制以及下面描述的其他考虑因素极大地限制了当今的集成可能性。 除此之外,流动性分散和使用多种代币的需要可能会损害用户体验,Akash 和 Bittensor 的创始人都指出了这一点。
除了计算之外,还推出了其他几种去中心化基础设施服务,以支持加密货币新兴的人工智能生态系统。列出所有这些超出了本报告的范围,但一些有趣且有说明性的示例包括:
总的来说,这些都指向探索支持人工智能模型的去中心化市场模型或开发它们所需的周边基础设施的几乎无限的机会。目前,这些项目大多处于概念验证阶段,需要更多的研究和开发来证明它们能够以提供全面人工智能服务所需的规模运行。
去中心化计算产品仍处于开发的早期阶段。他们刚刚开始推出最先进的计算能力,能够在生产中训练最强大的人工智能模型。为了获得有意义的市场份额,他们需要展示与中心化替代方案相比的实际优势。更广泛采用的潜在触发因素包括:
智能合约是任何区块链生态系统的核心构建块。在给定一组特定条件的情况下,它们会自动执行并减少或消除对受信任第三方的需求,从而能够创建复杂的去中心化应用程序,例如 DeFi 中的应用程序。然而,智能合约的功能仍然有限,因为它们根据必须更新的预设参数执行。
例如,部署借出/借入协议的智能合约,其中包含根据特定贷款与价值比率何时清算头寸的规范。虽然在静态环境中有用,但在风险不断变化的动态情况下,这些智能合约必须不断更新以适应风险承受能力的变化,这给不通过集中流程管理的合约带来了挑战。例如,依赖去中心化治理流程的 DAO 可能无法快速反应以应对系统性风险。
集成人工智能(即机器学习模型)的智能合约是增强功能、安全性和效率同时改善整体用户体验的一种可能方法。然而,这些集成也带来了额外的风险,因为不可能确保支撑这些智能合约的模型不会被利用或解释长尾情况(鉴于数据输入的稀缺,长尾情况很难训练模型)。
机器学习需要大量的计算来运行复杂的模型,这使得人工智能模型由于成本高昂而无法直接在智能合约中运行。例如,为用户提供收益优化模型的 DeFi 协议,如果不支付过高的Gas费用,将很难在链上运行该模型。一种解决方案是增加底层区块链的计算能力。然而,这也增加了对链验证器集的要求,可能会破坏去中心化特性。相反,一些项目正在探索使用 zkML 以去信任化的方式验证输出,而不需要密集的链上计算。
说明 zkML 有用性的一个常见示例是,当用户需要其他人通过模型运行数据并验证其交易对手实际上运行了正确的模型时。也许开发人员正在使用去中心化计算供应商来训练他们的模型,并担心该供应商试图通过使用输出差异几乎无法察觉的且更便宜的模型来削减成本。zkML 使计算供应商能够通过其模型运行数据,然后生成可以在链上验证的证明,以证明给定输入的模型输出是正确的。在这种情况下,模型提供者将具有额外的优势,即能够提供他们的模型,而不必透露产生输出的基础权重。
也可以做相反的事情。如果用户想要使用他们的数据运行模型,但由于隐私问题(即,在医疗检查或专有商业信息的情况下),不希望提供模型的项目访问他们的数据,那么用户可以在他们的数据上运行模型而不共享数据,然后通过证明验证他们运行了正确的模型。这些可能性通过解决令人望而却步的计算限制,极大地扩展了人工智能和智能合约功能集成的设计空间。
鉴于 zkML 领域的早期状态,开发主要集中在构建团队所需的基础设施和工具,以将其模型和输出转换为可以在链上验证的证明。这些产品尽可能地提取了零知识方面的开发。
EZKL 和 Giza 是通过提供机器学习模型执行的可验证证明来构建此工具的两个项目。两者都帮助团队构建机器学习模型,以确保这些模型能够以可以在链上以可信方式验证结果的形式执行。这两个项目都使用开放神经网络交换 (ONNX) 将用 TensorFlow 和 Pytorch 等通用语言编写的机器学习模型转换为标准格式。然后,他们输出这些模型的版本在执行时也会生成 zk 证明。EZKL 是开源的,生产 zk-SNARKS,而 Giza 是闭源的,生产 zk-STARKS。这两个项目目前仅兼容 EVM。
过去几个月,EZKL 在增强 zkML 解决方案方面取得了重大进展,主要侧重于降低成本、提高安全性和加快证明生成速度。例如,2023 年 11 月,EZKL 集成了一个新的开源 GPU 库,可将聚合证明时间缩短 35%;1 月,EZKL 发布了 Lilith,这是一种软件解决方案,用于在使用 EZKL 证明时集成高性能计算集群和编排并发作业系统。Giza 的独特之处在于,除了提供用于创建可验证的机器学习模型的工具外,他们还计划实现相当于 Hugging Face 的 web3,为 zkML 协作和模型共享开放用户市场,并最终集成去中心化计算产品。一月份,EZKL 发布了一项基准评估,比较了 EZKL、Giza 和 RiscZero(如下所述)的性能。EZKL 展示了更快的证明时间和内存使用。
Modulus Labs 还在开发一种专为 AI 模型定制的新的zk证明技术。 Modulus 发表了一篇名为《智能成本》的论文(暗示在链上运行 AI 模型的成本极高),该论文对当时现有的zk证明系统进行了基准测试,以确定改进 AI 模型里zk证明的能力和瓶颈。 该论文于 2023 年 1 月发布,表明现有产品过于昂贵且效率低下,无法大规模实现人工智能应用。 在最初研究的基础上,Modulus 在 11 月推出了 Remainder,这是一种专门的零知识证明器,专门用于降低 AI 模型的成本和证明时间,其目标是使项目在经济上可行,将模型大规模集成到智能合约中。 他们的工作是闭源的,因此无法与上述解决方案进行基准测试,但最近在 Vitalik 关于加密和人工智能的博客文章中引用了他们的工作。
工具和基础设施开发对于 zkML 空间的未来增长至关重要,因为它可以显着减少需要部署运行可验证的链下计算与所需的zk团队的线路的摩擦。创建安全接口,使从事机器学习工作的非加密原生构建者能够将他们的模型带到链上,这将使应用程序能够通过真正新颖的用例进行更大的实验。工具还解决了更广泛采用 zkML 的一个主要障碍,即缺乏知识渊博且对零知识、机器学习和密码学交叉领域工作感兴趣的开发人员。
正在开发的其他解决方案(称为“协处理器”)包括 RiscZero、Axiom 和 Ritual。协处理器这个术语主要是语义上的——这些网络履行许多不同的角色,包括验证链上的链下计算。与 EZKL、Giza 和 Modulus 一样,他们的目标是完全提取零知识证明生成的过程,创建本质上能够执行链下程序并生成链上验证证明的零知识虚拟机。RiscZero 和 Axiom 可以为简单的 AI 模型提供服务,因为它们是更通用的协处理器,而 Ritual 是专门为与 AI 模型一起使用而构建的。
Infernet 是 Ritual 的第一个实例,包含一个 Infernet SDK,允许开发人员向网络提交推理请求并接收输出和证明(可选)作为回报。Infernet 的节点接收这些请求并在返回输出之前处理链下计算。例如,DAO 可以创建一个流程,确保所有新的治理提案在提交之前满足某些先决条件。每次提交新提案时,治理合约都会通过 Infernet 触发推理请求,调用 DAO 特定治理训练的 AI 模型。该模型会审查提案,以确保提交所有必要的标准,并返回输出和证据,批准或拒绝提案的提交。
在接下来的一年里,Ritual 团队计划推出更多功能,形成称为 Ritual 超级链的基础设施层。前面讨论的许多项目都可以作为服务供应商插入 Ritual。Ritual 团队已经与 EZKL 集成以生成证明,并且可能很快会添加其他领先供应商的功能。Ritual 上的 Infernet 节点还可以使用 Akash 或 io.net GPU 以及在 Bittensor 子网上训练的查询模型。他们的最终目标是成为开放人工智能基础设施的首选供应商,能够为任何网络、任何工作负载的机器学习和其他人工智能相关任务提供服务。
zkML有助于调和区块链和人工智能之间的矛盾,前者本质上是资源受限的,而后者则需要大量的计算和数据。正如 Giza 的一位创始人所说,“用例非常丰富……这有点像以太坊早期问智能合约的用例是什么……我们所做的只是扩展智能合约的用例。” 然而,如上所述,当今的开发主要发生在工具和基础设施级别。应用程序仍处于探索阶段,团队面临的挑战是证明使用 zkML 实现模型所产生的价值超过了其复杂性和成本。
目前的一些应用包括:
zkML 仍处于实验阶段,大多数项目都专注于构建基础设施原语和概念证明。如今的挑战包括计算成本、内存限制、模型复杂性、有限的工具和基础设施以及开发人员人才。简而言之,在 zkML 能够以消费产品所需的规模实施之前,还有相当多的工作要做。
然而,随着该领域的成熟以及这些限制的解决,zkML 将成为人工智能和加密集成的关键组成部分。从本质上讲,zkML 承诺能够将任何规模的链外计算引入链上,同时保持与链上运行相同或接近相同的安全保证。然而,在这一愿景实现之前,该技术的早期用户将继续必须在 zkML 的隐私和安全性与替代方案的效率之间进行权衡。
人工智能和加密货币最令人兴奋的集成之一是正在进行的人工智能代理实验。代理是能够使用人工智能模型接收、解释和执行任务的自主机器人。这可以是任何事情,从拥有一个随时可用的根据您的偏好进行微调的个人助理,到雇用一个根据您的风险偏好来管理和调整您的投资组合的金融代理人。
由于加密货币提供了无需许可和去信任化的支付基础设施,代理和加密货币可以很好地结合在一起。经过培训后,代理将获得一个钱包,以便他们可以自行使用智能合约进行交易。例如,今天的代理可以在互联网上抓取信息,然后根据模型在预测市场上进行交易。
Morpheus 是 2024 年在以太坊和 Arbitrum 上上线的最新开源代理项目之一。其白皮书于 2023 年 9 月匿名发布,为社区的形成和构建提供了基础(包括 Erik Vorhees 等著名人物) 。该白皮书包括一个可下载的智能代理协议,它是一个开源的LLM,可以在本地运行,由用户的钱包管理,并与智能合约交互。它使用智能合约排名来帮助代理根据处理的交易数量等标准确定哪些智能合约可以安全地进行交互。
白皮书还提供了构建 Morpheus 网络的框架,例如使智能代理协议运行所需的激励结构和基础设施。这包括激励贡献者构建用于与代理交互的前端、供开发人员构建可插入代理以便他们可以相互交互的应用程序的 API,以及使用户能够访问运行代理所需的计算和在边缘设备上存储的云解决方案。该项目的初始资金已于 2 月初启动,完整协议预计将于 2024 年第二季度启动。
去中心化自治基础设施网络 (DAIN) 是一种新的代理基础设施协议,在 Solana 上构建代理到代理经济。DAIN 的目标是让来自不同企业的代理可以通过通用 API 无缝地相互交互,从而大大开放 AI 代理的设计空间,重点是实现能够与 web2 和 web3 产品交互的代理。一月份,DAIN 宣布与 Asset Shield 首次合作,使用户能够将“代理签名者”添加到其多重签名中,这些签名者能够根据用户设置的规则解释交易并批准/拒绝。
Fetch.AI 是最早部署的 AI 代理协议之一,并开发了一个生态系统,用于使用 FET 代币和 Fetch.AI 钱包在链上构建、部署和使用代理。该协议提供了一套用于使用代理的全面工具和应用程序,包括用于与代理交互和订购代理的钱包内功能。
Autonolas 的创始人包括 Fetch 团队的前成员,它是一个用于创建和使用去中心化人工智能代理的开放市场。Autonolas 还为开发人员提供了一套工具来构建链下托管的人工智能代理,并可以插入多个区块链,包括 Polygon、Ethereum、Gnosis Chain 和 Solana。他们目前拥有一些活跃的代理概念验证产品,包括用于预测市场和 DAO 治理。
SingularityNet 正在为人工智能代理构建一个去中心化的市场,人们可以在其中部署专注的人工智能代理,这些代理可以被其他人或代理雇用来执行复杂的任务。AlteredStateMachine 等其他公司正在构建 AI 代理与 NFT 的集成。用户铸造具有随机属性的 NFT,这些属性赋予他们在不同任务上的优势和劣势。然后可以对这些代理进行训练,以增强某些属性,以用于游戏、DeFi 或作为虚拟助手并与其他用户进行交易。
总的来说,这些项目设想了一个未来的智能体生态系统,这些智能体能够协同工作,不仅可以执行任务,还可以帮助构建通用人工智能。真正复杂的代理将有能力自主完成任何用户任务。例如,完全自主的代理将能够弄清楚如何雇用另一个代理来集成 API,然后执行任务,而不必确保代理在使用之前已经与外部 API(例如旅行预订网站)集成。从用户的角度来看,不需要检查代理是否可以完成任务,因为代理可以自己确定。
2023 年 7 月,闪电实验室推出了在闪电网络上使用代理的概念验证实施方案,称为 LangChain 的比特币套件。该产品特别有趣,因为它旨在解决 Web 2 世界中日益严重的问题——Web 应用程序的门禁且昂贵的 API 密钥。
LangChain 通过为开发人员提供一套工具来解决这个问题,使代理能够购买、出售和持有比特币,以及查询 API 密钥和发送小额支付。在传统的支付轨道上,小额支付由于费用而成本高昂,而在闪电网络上,代理商可以每天以最低的费用发送无限的小额支付。当与 LangChain 的 L402 支付计量 API 框架结合使用时,公司可以根据使用量的增加和减少调整其 API 的访问费用,而不是设定单一的成本高昂的标准。
在未来,链上活动主要由智能体与智能体交互所主导,这样的事情将是必要的,以确保智能体能够不以成本过高的方式相互交互。这是一个早期的例子,说明如何在无需许可且经济高效的支付轨道上使用代理,为新市场和经济互动开辟了可能性。
代理领域仍处于新生阶段。项目刚刚开始推出功能代理,可以使用其基础设施处理简单的任务——这通常只有经验丰富的开发人员和用户才能访问。然而,随着时间的推移,人工智能代理对加密货币的最大影响之一是所有垂直领域的用户体验改进。交易将开始从基于点击转向基于文本,用户能够通过法学硕士与链上代理进行交互。Dawn Wallet 等团队已经推出了聊天机器人钱包,供用户在链上进行交互。
此外,目前尚不清楚代理商如何在 Web 2 中运作,因为金融轨道依赖于受监管的银行机构,这些机构不能全天24小时运营,也无法进行无缝跨境交易。正如林恩·奥尔登(Lyn Alden)所强调的那样,由于缺乏退款和处理微交易的能力,与信用卡相比,加密的轨道尤其有吸引力。然而,如果代理成为一种更常见的交易方式,现有的支付供应商和应用程序很可能会迅速采取行动,实施在现有金融轨道上运营所需的基础设施,从而削弱使用加密货币的一些好处。
目前,代理可能仅限于确定性的加密货币交易,其中给定输入保证给定输出。这两种模型都规定了这些代理弄清楚如何执行复杂任务的能力,而工具则扩大了它们可以完成的范围,都需要进一步开发。为了让加密代理在新颖的链上加密用例之外变得有用,需要更广泛的集成和接受加密作为一种支付形式以及监管的明确性。然而,随着这些组件的发展,代理准备成为上述去中心化计算和 zkML 解决方案的最大消费者之一,以自主的非确定性方式接收和解决任何任务。
AI 为加密货币引入了我们在 web2 中看到的相同创新,增强了从基础设施开发到用户体验和可访问性的各个方面。然而,项目仍处于发展早期,近期加密货币和人工智能集成将主要由链下集成主导。
像 Copilot 这样的产品将使开发人员效率“提高 10 倍”,Layer 1和 DeFi 应用程序已经与微软等大公司合作推出人工智能辅助开发平台。Cub3.ai 和 Test Machine 等公司正在开发用于智能合约审计和实时威胁监控的人工智能集成,以增强链上的安全性。LLM 聊天机器人正在使用链上数据、协议文档和应用程序进行培训,为用户提供增强的可访问性和用户体验。
对于真正利用加密货币底层技术的更高级集成来说,挑战仍然是证明在链上实施人工智能解决方案在技术上是可行的,在经济上也是可行的。去中心化计算、zkML 和 AI 代理的发展指向有前景的垂直领域,这些领域为加密货币和人工智能深度互联的未来奠定了基础。