AI的十字路口:DeAI的理想与挑战

图像

本文作者:Jeff

Web3 AI 的产品市场契合度——有效方案及其解决的挑战
回顾 Web3 AI 自 2024 年第四季度诞生以来的发展历程相当有趣
  • 人格化代理(文本型)大多已消失 ➙ 仅剩 aixbt 仍在运作
  • 当年大多数阿尔法代理都已消亡 ➙ 如今仅存 aixbt 和人们仍在使用的独特阿尔法终端,如 Gigabrain、Elfa(尚未发行代币)
  • AI 偶像模式尚未跑通 ➙ 我们仍未见到具备优质 3D 模型、动态效果、持久记忆/上下文保持能力且拥有独特人格的个性化 AI 偶像
  • 投资型 DAO 未能规模化 ➙ 由于 DAO 无法像 DAT 那样通过发行债务和股权来融资,多数项目偃旗息鼓,不得不转向开发实际产品或服务
  • 专注 Web2 工作流的大多数垂直领域代理未能形成规模优势超越 Web2 传统企业,这些工作流正被 OpenAI、Anthropic 等前沿 AI 实验室严重冲击
  • 游戏与 AI 的结合未能起飞,因为 Web3 游戏实在难以实现(既要打造有趣的游戏玩法,又要设计能升值的代币,难度极高)

从上面二月份的 Web3 AI 行业图谱可以看出,大多数被提及的项目要么未能实现规模化,要么根本就行不通

当时行业正处于炒作和投机推高估值溢价的阶段。极端的代币化(团队不断推出代币和智能体)、产品功能快速试错的过程,让我们看清了哪些方法有效哪些无效

最终存活(并蓬勃发展)的,是那些展现出韧性的顶尖团队——他们能构建可扩展的基础设施,交付备受追捧的产品,精准把握分发渠道,或直接实现真实用户增长、实际影响力、切实收入和真实痛点解决

本文将深入探讨在这些方面乃至更多维度表现突出的垂直领域、技术方案和团队。让我们开始探索 ↓

首先让我简要介绍一下去中心化人工智能(DeAI)的概念

DeAI = 不依赖单一中心化机构或基础设施来构建、训练和运行的人工智能系统

相比之下,当今大多数人工智能系统都是中心化的,尤其是由 OpenAI、Anthropic、Google DeepMind、Meta、微软等科技巨头开发的强大 LLMs 和生成式 AI 系统

为什么会这样呢?

训练尖端模型需要海量专有数据集和拥有数千个 GPU/TPU 的超级计算集群——这些资源只有极少数机构能够承担。

除了技术壁垒,中心化还使实验室能够监控使用情况、修补漏洞并执行安全策略。

由于这些科技巨头投入数十亿美元进行训练,它们通常通过 API 提供访问权限来保持对模型的控制,将所有智能/知识产权保留在自己手中。

这正是去中心化人工智能(DeAI)的用武之地……

通过将计算和训练分散到多个节点/参与者,分布式人工智能(DeAI)降低了对单一权威的依赖。它使个人、社区和小型组织能够共同构建和运营 AI 模型。

DeAI 还为更高的透明度和所有权打开了大门。用户可以通过联邦学习等方法在保持数据本地化的同时,仍为全球模型改进做出贡献。区块链技术能为算力或知识共享添加信任层、可审计性及激励机制。

DeAI 概览

开源 AI 运动正在加速 DeAI 的普及。深度求索(DeepSeek)和 Kimi K2 等项目证明,顶级 AI 模型完全可以开源发布,其性能甚至能媲美或超越中心化系统。

这一趋势不仅让强大模型的使用更加民主化,也推动全球开发者无需经过层层审批就能进行实验和创新。

人工智能领域的关键挑战及其去中心化人工智能解决方案

  1. 支付与智能工作流

传统支付渠道速度缓慢且专为人类设计——如果两个 AI 智能体需要相互支付服务费用,它们无法等待数日完成结算、处理退款争议,或依赖人工审批每个步骤。

这就是像 Coinbase 的 x402 这样的方案发挥作用的地方,它允许智能体以原生、即时和自主的方式进行支付、结算和交互(x402 将支付直接嵌入 HTTP 协议,并利用稳定币进行区块链结算)

在智能体工作流方面,谷歌的 A2A 提供了一个开放标准,允许来自不同初创公司/项目的 AI 智能体无缝沟通与协作。但问题是…A2A 假设智能体之间相互信任(或在受信任的环境中运行)

这就是 ERC-8004 发挥作用的地方。8004 在 A2A 之上增加了信任层,使智能体能够以安全的方式发现、验证并与未知对等方交互(可以将其视为数字护照系统,让智能体能够证明自己的身份以及在以太坊和任何其他 L2 上被允许执行的操作)

  1. 部署大型模型的复杂性

运行大规模 AI 模型在技术上要求高且成本昂贵。除了硬件之外,还存在扩展、编排和模型版本控制等方面的挑战,这些都是复杂的问题。

@chutes_ai@TargonCompute这样的参与者通过提供去中心化、无服务器的 AI 计算平台,帮助项目和开发者减轻这一痛点,该平台简化了顶级 AI 模型的部署、运行和扩展。

Chutes 每天在 Openrouter 上处理 700 亿至 1000 亿个 token,支持 DeepSeek、Qwen、Mistral 模型,以及最近的@NousResearchHermes 4 模型。还有像@comput3ai这样的参与者,能够访问 Blackwell B200.为 DeepSeek 和 Kimi K2 模型提供基础设施。

这个特定领域产生了实际影响力和收入,因为开发者(无论是 Web2 还是 Web3)都需要这种基础设施来开始试验和构建应用程序/工作流。

  1. 隐私与数据所有权

如今,模型训练通常涉及集中式数据聚合,暴露敏感信息并面临机密数据泄露的风险。贡献者很少保留对其生成数据集的所有权或控制权。

DeAI 改变了这一点,通过联邦学习等技术确保隐私保护训练,同时赋予贡献者(客户、训练师、验证者及其他利益相关方)权利,并让他们从共同创造的智能成果中获得潜在收益。

数据保持私密的同时将训练验证工作外包,与客户共同打造其所需的垂直领域解决方案

对于希望将其数据货币化的用户而言,@vana等生态系统参与者构建了一套基础设施,让个人或组织能够将数据汇集至 DataDAO(成员通过贡献数据、控制访问权限并共享其产生的经济价值的去中心化自治组织)与科技巨头未经许可提取并货币化用户数据的方式不同,DataDAO 确保数据贡献者成为资产的共同所有者。他们可以决定数据的访问对象、使用目的及授权条件——无论是用于训练 LLM、推动研究还是构建行业特定应用。

  1. 可靠性与幻觉问题

LLM 虽功能强大,但容易产生幻觉并输出不可靠的结果。在多个智能体、应用程序和服务交互的去中心化环境中,幻觉效应会呈指数级放大。

这正是验证层至关重要的环节,也是@Mira_Network发挥作用的地方。

Mira 将 LLM 输出分解为独立的事实主张或陈述。这些主张随后被路由至由独立验证模型组成的网络。每个验证器评估主张的准确性,系统仅在达成强烈共识时才会核准该主张。

这种”群体智慧”方法利用多个 AI 模型的优势进行交叉验证,能捕捉单一模型因训练数据偏差或固有局限可能遗漏的错误。

最终效果是准确率大幅提升——经过验证后,原始 LLM 的幻觉率从 27-70%降至 4-5%。

另一些则选择构建全新架构来克服 LLMs 的幻觉问题——这正是@Almanak__采用多智能体/LLMs 集群+智能合约基础设施的方案

Almanak 提供的是高度可扩展的基础设施,摆脱了 LLMs 的不稳定性。这套基础设施能自主扩展 DeFi 能力与可访问性,并消除 DeFi 的复杂性。
5. 智能分发与共同所有权
中心化人工智能将控制权与价值攫取集中在少数企业手中。模型训练过程秘不示人,知识产权被严密掌控,经济收益几乎全数归于掌控基础设施的公司。
相比之下,去中心化人工智能(DeAI)构想了一个智力共有的世界,数据提供者、算力贡献者和专业知识贡献者都能共享发展红利。
DeAI 将训练过程视为智能协作市场,而非单向的数据榨取流程。
这一转变的核心是分布式训练 ——即大型 AI 模型可以通过多个独立节点进行训练,每个节点贡献资源以换取所有权份额或奖励。这使 AI 开发变得更像是一个开放、去中心化的经济体系,而非封闭的企业产品流水线。致力于此的知名项目包括@NousResearch@PluralisHQ@PrimeIntellect@gensynai以及@tplr_ai
在应用层,我们看到分发网络、启动平台和 AI 生态系统的兴起,这些系统协调着开发者在闭源和开源模型之上构建智能体、工作流和应用程序的协作。
这些生态系统将去中心化人工智能的愿景扩展到基础设施之外,使开发者和用户能够共同创造、共同拥有并共同获取价值。
@virtuals_io率先提出了 AI 智能体代币化的概念——将加密代币与 AI 产品配对,使用户可以直接共同拥有或参与该智能体的成功。这逐步发展为他们的智能体商业协议(ACP),该协议允许通过单一聊天界面协调、打包智能体服务并交付给用户,初步展现了智能体原生市场的形态。
@CreatorBid作为 Bittensor 子网智能的桥梁,将其转化为可用的应用程序、工作流程和 AI 代理形式。其生态系统因两大优势而日益受到关注:(1) 培育了多元化的独特团队和产品,(2) 持续改进的启动机制能协调建设者与投资者的利益,确保双方都能从参与中获得回报。
@openservai专注于 Web3 业务流程自动化,致力于解决企业和用户利用 AI 简化运营的实际痛点。除了发掘该领域的优秀团队外,OpenServ 正在开发一款类似 n8n 的产品,让任何人都能创建可定制的 Web3 工作流——本质上是一个去中心化自动化的无代码工具包。
核心要点
迄今为止,Web3 人工智能的发展历程充满了快速实验、炒作周期和惨痛教训。早期的各种尝试——无论是人格化智能体、AI 偶像、投资 DAO 还是游戏与 AI 的结合——都向我们展示了当通证化和投机行为先于产品市场契合度时会出现哪些问题。
但在这些喧嚣中,真正能创造价值的路径已逐渐清晰。
  • 为智能体提供安全交易与交互方式的支付及信任层。
  • 使大规模模型部署成为可能的去中心化算力。
  • 保护隐私的人工智能,在促进协作的同时将控制权和收益返还给贡献者。
  • 验证层显著减少幻觉并增强信任。
  • 新架构使 DeFi 与 AI 系统具备可扩展性且不易产生幻觉
  • 分布式训练与 AI 智能体经济实现智力共同所有权,并将可扩展应用变为现实
这一演进过程向我们展示,去中心化人工智能不仅关乎基础设施的去中心化,更是机会的民主化。
曾经被少数实验室独占的价值,如今正由建设者、数据贡献者、算力提供者和整个社区共同分享(这难道不酷吗?)。
我们正迈向一个新时代——智能本身将成为可共同持有、交易和培育的资产,建立在真实产品、实际影响力和切实进展之上的新兴智能资本市场正在形成。
个人笔记 :非常感谢阅读!您看到的这篇文章是精简版本(如需完整观点,请参阅 Substack 版本)
如果你想了解更多我期待的 DeAI 精选项目/即将推出的 DeAI 项目,请查看 《After Hour》 系列,就在我的 Substack 上。
免责声明 :本文档仅供信息参考与娱乐目的。文档中表达的观点 不应被解释为投资建议或推荐。文档接收者应在投资前进行 尽职调查,综合考虑其具体 财务状况、投资目标 及风险承受能力(本文档 未考虑这些因素)。本文档不构成 任何要约,亦非征求要约,用以买卖文中提及的 任何资产

了解 RecodeX 的更多信息

立即订阅以继续阅读并访问完整档案。

继续阅读