
文章分析OpenClaw背书引发的隐私AI热潮,聚焦Venice、NEAR、Sahara AI、Phala Network等项目如何依托隐私计算与AI Agent基础设施叙事获得市场关注,强调隐私保护、可验证执行、去中心化数据确权等技术方向成为加密领域新焦点。
原创 | Odaily星球日报(@OdailyChina)
作者 | 叮当(@XiaMiPP)

当红炸子鸡 OpenClaw 开始为隐私 AI 背书,“绝望的币圈韭菜”似乎又开始找到了新的炒作方向。
也正是在这样的叙事语境下,一批与隐私计算以及 AI Agent 基础设施相关的项目,开始重新进入市场视野。Odaily 星球日报梳理发现,在这波讨论升温的过程中,已经有多个项目成为潜在受益者。
Venice 是一个主打无审查+隐私的 AI 生成平台,定位是去中心化版的 ChatGPT。围绕隐私 AI 炒作的起点便是由 Venice 而来。因为 OpenClaw 曾经在官方文档中将 Venice 高亮推荐,但是在 24 小时内又火速移除。虽然推荐可以移除,但是这一操作也让更多人开始注意到 Venice,以及它的隐私优先特性。
与大多数 AI 项目不同, Venice 的核心叙事并不是 AI 模型能力,而是隐私本身。在主流 AI 平台逐渐强化内容审查的背景下,AI 数据泄漏与模型训练争议持续累计下,这种“不记录、不审查”的产品定位,恰好击中了加密社区最敏感的价值观。
在 AI Agent 热潮迅速发酵的时代,Venice 刚好踩中了这个“时代红利”。更为巧合的是, Venice 项目方正在主动削减 VVV 的代币供应,减少通胀。需求增加碰上供应缩减,进一步强化了 VVV 代币的正反馈预期。
阅读参考:《OpenClaw 力挺 Venice.ai,代币 VVV 一月暴涨超 500%》
Near Protocol,这个曾以高性能著称的老牌公链项目,在 AI 浪潮的冲击下也正在展开积极自救。它不再只是追求 TPS 和低 gas 的“传统 L1”,而是逐渐将叙事重心转向 AI Agent 时代的执行层与结算基础设施,试图在新一轮技术周期中找到新的增长叙事。
自 2025 年开始,便大力推进 NEAR Intents(意图系统),这套系统让用户或 AI 代理只需表达“最终想要的结果”,后台会自动跨 35+ 条链完成复杂操作,无需手动桥接、换钱包或管路由。
2026 年 2 月 25 日,NEAR 正式把这个意图系统升级,推出了 Confidential Intents。这一版本在原有意图执行框架上引入了隐私计算能力,通过 Near 的隐私分片机制结合可信执行环境(TEE),使跨链交易在执行过程中能够隐藏关键细节,例如兑换路径、交易规模或具体策略。不过,它也并不是像 Zcash 或 Monero 那样对所有交易实施强制隐私,而是为意图执行增加了一层 可选的隐私保护层。其主要目标并非匿名化交易,而是防止 MEV、抢跑以及三明治攻击等链上套利行为,从而让交易在执行过程中更加安全。
未来 AI 代理可能会成为区块链的主要“用户”,它们会自主拥有资产、跨链交易、执行策略、甚至互相协调。在这样的设想下,区块链不仅需要处理高频交易,还必须提供可验证执行、隐私计算以及跨链协调等能力。
Near 当前的布局,正是围绕这一想象展开。它试图构建一个 既能支持 AI 代理自动执行复杂任务,又能保证过程可验证与安全的开放网络。在 AI 浪潮不断冲击的背景下,这种转型既可以被视为一次主动拥抱新叙事的尝试,也可以理解为一个老牌公链在新周期中的自我重塑。
Sahara AI 的核心目标是构建一个去中心化、透明、安全的 AI 生态系统,让 AI 的开发、训练、部署和商业化过程更加公平和可信。项目致力于解决当前 AI 行业面临的数据隐私、算法偏见、模型所有权不清等问题。
因为 AI Agent 的兴起正带来一个新问题:这些 Agent 所使用的数据、模型和能力,究竟属于谁?在当前的 AI 产业结构中,这个问题其实并没有被很好地解决。训练模型所需的数据往往来自大量分散的贡献者,但最终收益却高度集中在少数 AI 公司手中;模型开发者即便拥有技术能力,也往往只能依附于平台生态;而随着 AI Agent 开始自主调用模型、数据与工具,整个价值链条会变得更加复杂。如果没有一套明确的确权与分润机制,未来的 AI 经济很可能仍然会重复 Web2 的路径,数据归用户所有,价值却被平台攫取。
Sahara AI 正是试图在这一环节建立新的规则。其 ClawGuard 安全系统为 AI 代理提供可验证的安全护栏,确保 AI 代理在预设规则内安全运行,数据服务平台(DSP)则允许用户通过标注和贡献 AI 训练数据获得代币激励,逐步形成一个去中心化的数据市场。在这一机制下,数据贡献者不仅能够参与 AI 模型训练过程,还可以在数据被使用时获得持续收益,同时平台也通过链上机制确保数据质量与隐私保护。
Phala Network 是一个基于 Substrate 构建的隐私智能合约平台,旨在为 Web3 应用提供可验证的隐私保护计算服务。要理解 Phala 为什么会受益于 AI Agent 热潮,首先需要回答一个更基础的问题:AI Agent 的运行究竟依赖哪些基础设施?
如果把当前的 Agent 生态拆开,其技术栈大致可以分为几个层次。最上层是模型层,即各类大语言模型或推理模型,例如 OpenAI、Claude 以及一系列开源模型;其下是 Agent 框架层,包括 LangChain、AutoGPT、OpenClaw 等工具,它们负责组织任务、调度模型并调用外部工具;再往下是执行环境层,也就是 Agent 实际运行代码、调用 API、执行自动化任务的地方;此外还存在支付与身份层,用于处理 Agent 之间的支付、身份和信誉系统;而在最底层,则是算力与隐私层,负责保证计算过程可信、数据安全不被泄露。
从这个结构来看,Phala 所处的位置恰恰横跨了执行环境层与算力隐私层。其核心技术——基于 TEE(可信执行环境)的机密计算网络,使得 AI Agent 可以在链下安全运行程序,同时保证计算过程可验证、数据不被外部窥探。这一点在 Agent 经济中尤为关键。
在具体生态落地方面,Phala 也已经开始与 AI Agent 项目产生结合。例如,Phala 与 ai16z 合作,为其 Eliza 多代理框架构建了 TEE 组件,将可信执行技术直接集成到 Agent 运行环境之中;与此同时,一些 AI Agent 发币项目(如 aiPool)也采用了 Phala 的 TEE 技术来管理私钥与链上资产。
未来,随着 AI Agent 从“聊天工具”演化为能够持有资金、执行交易甚至运营协议的数字实体,安全执行环境将逐渐成为整个 Agent 生态不可或缺的基础设施层,而 Phala 正试图占据这一位置。
在复盘这些项目时,一个有意思的发现是:这些代币真正开始上涨的时间,其实都早于这两天的推荐事件。也就是说,在 Venice 将“隐私 AI”推到台前之前,市场中已经有一部分资金提前注意到了这一方向,只是当时缺少一个足够明确的叙事触发点。OpenClaw 的推荐事件,只是一根点燃注意力的导火索。
事实上,无论是 a16z 还是 Delphi Digital,他们在 2025 年的年度投研报告中都将隐私和 AI 列为 2026 年重点关注赛道。只不过,当这些宏观判断真正落到市场时,往往需要一个具体事件来触发共识。而在 2026 年初,隐私和 AI 就以这样结合体的方式走到了我们的面前。
至于这究竟会成为下一轮长期趋势,还是又一次短暂的主题炒作,恐怕仍需要时间给出答案。