AI的十字路口:DeAI的理想与挑战
本文作者:Jeff
-
人格化代理(文本型)大多已消失 ➙ 仅剩 aixbt 仍在运作
-
当年大多数阿尔法代理都已消亡 ➙ 如今仅存 aixbt 和人们仍在使用的独特阿尔法终端,如 Gigabrain、Elfa(尚未发行代币)
-
AI 偶像模式尚未跑通 ➙ 我们仍未见到具备优质 3D 模型、动态效果、持久记忆/上下文保持能力且拥有独特人格的个性化 AI 偶像
-
投资型 DAO 未能规模化 ➙ 由于 DAO 无法像 DAT 那样通过发行债务和股权来融资,多数项目偃旗息鼓,不得不转向开发实际产品或服务
-
专注 Web2 工作流的大多数垂直领域代理未能形成规模优势超越 Web2 传统企业,这些工作流正被 OpenAI、Anthropic 等前沿 AI 实验室严重冲击
-
游戏与 AI 的结合未能起飞,因为 Web3 游戏实在难以实现(既要打造有趣的游戏玩法,又要设计能升值的代币,难度极高)
从上面二月份的 Web3 AI 行业图谱可以看出,大多数被提及的项目要么未能实现规模化,要么根本就行不通
当时行业正处于炒作和投机推高估值溢价的阶段。极端的代币化(团队不断推出代币和智能体)、产品功能快速试错的过程,让我们看清了哪些方法有效哪些无效
最终存活(并蓬勃发展)的,是那些展现出韧性的顶尖团队——他们能构建可扩展的基础设施,交付备受追捧的产品,精准把握分发渠道,或直接实现真实用户增长、实际影响力、切实收入和真实痛点解决
本文将深入探讨在这些方面乃至更多维度表现突出的垂直领域、技术方案和团队。让我们开始探索 ↓
首先让我简要介绍一下去中心化人工智能(DeAI)的概念
DeAI = 不依赖单一中心化机构或基础设施来构建、训练和运行的人工智能系统
相比之下,当今大多数人工智能系统都是中心化的,尤其是由 OpenAI、Anthropic、Google DeepMind、Meta、微软等科技巨头开发的强大 LLMs 和生成式 AI 系统
为什么会这样呢?
训练尖端模型需要海量专有数据集和拥有数千个 GPU/TPU 的超级计算集群——这些资源只有极少数机构能够承担。
除了技术壁垒,中心化还使实验室能够监控使用情况、修补漏洞并执行安全策略。
由于这些科技巨头投入数十亿美元进行训练,它们通常通过 API 提供访问权限来保持对模型的控制,将所有智能/知识产权保留在自己手中。
这正是去中心化人工智能(DeAI)的用武之地……
通过将计算和训练分散到多个节点/参与者,分布式人工智能(DeAI)降低了对单一权威的依赖。它使个人、社区和小型组织能够共同构建和运营 AI 模型。
DeAI 还为更高的透明度和所有权打开了大门。用户可以通过联邦学习等方法在保持数据本地化的同时,仍为全球模型改进做出贡献。区块链技术能为算力或知识共享添加信任层、可审计性及激励机制。
DeAI 概览
开源 AI 运动正在加速 DeAI 的普及。深度求索(DeepSeek)和 Kimi K2 等项目证明,顶级 AI 模型完全可以开源发布,其性能甚至能媲美或超越中心化系统。
这一趋势不仅让强大模型的使用更加民主化,也推动全球开发者无需经过层层审批就能进行实验和创新。
人工智能领域的关键挑战及其去中心化人工智能解决方案
- 支付与智能工作流
传统支付渠道速度缓慢且专为人类设计——如果两个 AI 智能体需要相互支付服务费用,它们无法等待数日完成结算、处理退款争议,或依赖人工审批每个步骤。
这就是像 Coinbase 的 x402 这样的方案发挥作用的地方,它允许智能体以原生、即时和自主的方式进行支付、结算和交互(x402 将支付直接嵌入 HTTP 协议,并利用稳定币进行区块链结算)
在智能体工作流方面,谷歌的 A2A 提供了一个开放标准,允许来自不同初创公司/项目的 AI 智能体无缝沟通与协作。但问题是…A2A 假设智能体之间相互信任(或在受信任的环境中运行)
这就是 ERC-8004 发挥作用的地方。8004 在 A2A 之上增加了信任层,使智能体能够以安全的方式发现、验证并与未知对等方交互(可以将其视为数字护照系统,让智能体能够证明自己的身份以及在以太坊和任何其他 L2 上被允许执行的操作)
- 部署大型模型的复杂性
运行大规模 AI 模型在技术上要求高且成本昂贵。除了硬件之外,还存在扩展、编排和模型版本控制等方面的挑战,这些都是复杂的问题。
像@chutes_ai和@TargonCompute这样的参与者通过提供去中心化、无服务器的 AI 计算平台,帮助项目和开发者减轻这一痛点,该平台简化了顶级 AI 模型的部署、运行和扩展。
Chutes 每天在 Openrouter 上处理 700 亿至 1000 亿个 token,支持 DeepSeek、Qwen、Mistral 模型,以及最近的@NousResearchHermes 4 模型。还有像@comput3ai这样的参与者,能够访问 Blackwell B200.为 DeepSeek 和 Kimi K2 模型提供基础设施。
这个特定领域产生了实际影响力和收入,因为开发者(无论是 Web2 还是 Web3)都需要这种基础设施来开始试验和构建应用程序/工作流。
- 隐私与数据所有权
如今,模型训练通常涉及集中式数据聚合,暴露敏感信息并面临机密数据泄露的风险。贡献者很少保留对其生成数据集的所有权或控制权。
DeAI 改变了这一点,通过联邦学习等技术确保隐私保护训练,同时赋予贡献者(客户、训练师、验证者及其他利益相关方)权利,并让他们从共同创造的智能成果中获得潜在收益。
数据保持私密的同时将训练验证工作外包,与客户共同打造其所需的垂直领域解决方案
对于希望将其数据货币化的用户而言,@vana等生态系统参与者构建了一套基础设施,让个人或组织能够将数据汇集至 DataDAO(成员通过贡献数据、控制访问权限并共享其产生的经济价值的去中心化自治组织)与科技巨头未经许可提取并货币化用户数据的方式不同,DataDAO 确保数据贡献者成为资产的共同所有者。他们可以决定数据的访问对象、使用目的及授权条件——无论是用于训练 LLM、推动研究还是构建行业特定应用。
- 可靠性与幻觉问题
LLM 虽功能强大,但容易产生幻觉并输出不可靠的结果。在多个智能体、应用程序和服务交互的去中心化环境中,幻觉效应会呈指数级放大。
这正是验证层至关重要的环节,也是@Mira_Network发挥作用的地方。
Mira 将 LLM 输出分解为独立的事实主张或陈述。这些主张随后被路由至由独立验证模型组成的网络。每个验证器评估主张的准确性,系统仅在达成强烈共识时才会核准该主张。
这种”群体智慧”方法利用多个 AI 模型的优势进行交叉验证,能捕捉单一模型因训练数据偏差或固有局限可能遗漏的错误。
最终效果是准确率大幅提升——经过验证后,原始 LLM 的幻觉率从 27-70%降至 4-5%。
另一些则选择构建全新架构来克服 LLMs 的幻觉问题——这正是@Almanak__采用多智能体/LLMs 集群+智能合约基础设施的方案
-
为智能体提供安全交易与交互方式的支付及信任层。
-
使大规模模型部署成为可能的去中心化算力。
-
保护隐私的人工智能,在促进协作的同时将控制权和收益返还给贡献者。
-
验证层显著减少幻觉并增强信任。
-
新架构使 DeFi 与 AI 系统具备可扩展性且不易产生幻觉
-
分布式训练与 AI 智能体经济实现智力共同所有权,并将可扩展应用变为现实


