去中心化算力:新的基础要素

本文信息来源:chainofthought
去中心化计算网络正是这一变革生根发芽的地方。而且它们真的有可能取得胜利。
摘要
-
计算力正成为加密领域的下一个基础要素:稀缺、可验证,并且无需许可即可获取。
-
去中心化计算网络(DCN)将在 AI 需求超过中心化供应时填补空白,尤其适用于边际和对成本敏感的工作负载。
-
DCN 从小型数据中心、加密货币矿工和个人手中采购 GPU。具有竞争力的定价和代币激励使其非常适合推理工作负载。
-
以推理为先的平台如 Inference.net 和 Chutes,凭借更好的性能和可用性正在取得进展。通用型网络则服务于更广泛的用例。
-
机会是真实存在的,但需求仍处于早期阶段。
-
大多数 DCN 面临五大结构性障碍:协调、开发者体验、技术可靠性、合规性和经济可持续性。解决这些问题不是可选项。
-
关键用例:开源 AI 模型的托管和真正主权的自主 AI 代理
-
开发者依然关心两件事:成本和可靠性。能够屏蔽底层复杂性并证明自身有效的网络将会胜出。
加密货币的第一幕是货币。
比特币让它无法被审查。以太坊让它可编程。这些都是突破,但也决定了后续发展的形态:以金融为核心,逻辑作为附加层的系统。
但如果下一个核心原语不是一种新货币呢?
这是我们在人工智能与加密领域的下一个重大想法:
算力成为一种新的原语:稀缺、可验证且具备流动性。
当我们说“原语”时,我们指的是某种原始且赋能的东西,比如土地,或者存储。要让算力具备这种资格,它必须摆脱中心化的协调,成为任何人都能无须许可地访问、使用和构建的资源。
去中心化计算网络将成为这一转变扎根的地方。
压力来自人工智能。需求的增长速度远超供应链的适应能力。
计算需求激增
我们不仅仅处于一个 GPU 周期中,而是处于全球计算资源重新分配的时代。
2024 年,NVIDIA 出货了超过 370 万块数据中心 GPU。GB200 和 H100 的出货速度已经超过了晶圆厂的生产速度。公司计划今年将产量提高三倍。需求仍然远远超过供应。

来源:麦肯锡
去年,云基础设施支出达到 3300 亿美元。AI 现在已成为 AWS、Azure 和 Google Cloud 的主要增长驱动力。经济重心正在向上游转移。Gartner 预计,到 2025 年,生成式 AI 的支出将达到 6440 亿美元,其中大部分将用于基础设施和硬件。
扩展的物理极限正在被打破。麦肯锡估计,到 2030 年,生成式 AI 每年将需要 2.5 × 10³¹次浮点运算。这是数量级的飞跃。所有这些都需要供电和冷却。
高盛认为全球数据中心的用电量到 2030 年将增长 160%。国际能源署(IEA)预测为 945 太瓦时,几乎相当于日本的全年用电量。而且问题不仅仅是电力:还包括土地、延迟、热量、供应链和合规性。
即使单价在下降——每 PFLOP(训练)或每百万 tokens(推理)的成本正在迅速降低——对算力的总需求却在激增。
杰文斯悖论再次出现:效率提升反而导致使用量增加。更好的模型带来更多应用,进而带来更多使用,这又加重了基础设施的压力。
计算正变得更加具有战略意义。而且分布也更加不均。这正是加密原生系统开始变得重要的地方。
以下是我们对计算需求曲线演变的看法:

目前,对去中心化计算的需求还很小。但我们认为这种情况不会持续下去。随着压力的增加,曲线会发生变化。在某个时刻,DCN(去中心化计算网络)将开始真正占据全球工作负载的一部分。
本文的其余部分将简要说明我们认为这种转变即将到来的原因。
旧模式:计算作为托管服务
如今,你并不拥有你的计算资源。你只是租用它。按照别人的规则。
如果你现在要训练或运行 AI 模型,你会去哪里?
-
超大规模云服务商 (AWS、Azure、GCP)依然占据着制高点。他们提供规模化和高度集成。大型企业依赖他们的安全性、可靠性和深度集成。无论好坏,对于大多数团队来说,他们仍然是默认选择。
-
新云服务商提供了一种战术性的替代方案。像 CoreWeave 和 Lambda 这样的新兴公司承诺更低的成本和更快的访问速度,专为 AI 工作流优化。他们自有硬件,省去了中间环节,并将节省下来的成本让利给用户。在 AWS 上一块 H100 每小时可能需要 4 到 5 美元,而在新云服务商上可能只需一半的价格。但它们依然是中心化的。
-
然后是去中心化算力 。我之所以犹豫要不要把它列在同一清单里,是因为目前真正使用它的人非常少。与其他模式不同,这种模式允许任何人将算力贡献到一个全球、无需许可的池子中。你最终可能会用到来自圣保罗游戏玩家的电脑,或者柏林研究人员工作站的资源来训练你的模型。
这时,算力看起来就不再像一张水电账单,而更像一种原语 。

去中心化计算网络 (DCN)
如果计算要成为真正的基础要素,就需要一种机制,使其能够被汇集、定价,并且无需许可即可访问。
去中心化计算网络 (DCNs)就是这种机制。
这个想法很简单:一个市场,任何拥有闲置算力的人都可以将其出租给他人,而没有传统云服务商的加价。
供给主要来自三个来源:
-
配备企业级 GPU(H100 及以上)但客户覆盖有限的中小型数据中心
-
拥有大量闲置 GPU 矿机仓库的前加密货币矿工
-
个人用户提供来自游戏设备或专业工作站的闲置算力。
核心优势在于价格。与固定费率的超大规模云服务商不同,去中心化网络依赖于竞争性竞价。价格会实时调整。服务提供者为争夺任务而竞争。仅此一点就能大幅降低成本。再加上代币激励,经济模型会进一步优化。
结果是:
-
GPU 使用成本可比 AWS 便宜 20% 到 80%
-
代币奖励有助于补贴使用成本,并为双方引导流动性
对于初创公司和独立团队来说,这种差距不仅仅是节省成本。它还意味着获取资源的机会、可扩展性,以及从超大规模云服务商限制中急需的逃生阀。
这种模式已经开始获得关注:
-
在低端 GPU 方面,Spheron 已经聚合了 50 万个 CPU 线程和 7,000 块 GPU。
-
Render Network 正在为 Stability AI 的训练任务提供算力
-
Inference.net (前身为 Kuzco)和 Atoma 正以更低成本、去中心化的方式,作为 OpenAI 的替代方案,专注于推理工作负载。
像 Ionet、Akash 和 Spheron 这样的通用型 DCN 覆盖面广。他们为从网站托管到游戏再到 AI 等各种应用提供算力。多功能,但不专精。
以推理为核心的 DCN,如 Inference.net(没错!)和 Chutes,选择了一条更为专注的道路。它们的整个技术栈都针对单一类型的工作负载进行了优化:以低延迟和可预测的成本运行 AI 模型。
|
|
通用型市场 |
推理型市场 |
|
专注 |
为各种应用程序(人工智能、游戏、托管等)提供算力 |
专为人工智能推理优化 |
|
目标用例 |
为需要多样化算力的企业提供服务 |
部署和运行 AI 模型 |
|
优化 |
提供通用的硬件/软件配置;可能需要为 AI 进行设置 |
为 AI 框架提供 API、工具,并针对低延迟推理进行优化 |
|
成本与效率 |
对一般任务具有成本效益;但可能未针对 AI 推理进行专门优化。 |
在 AI 推理方面,可能提供更优的性价比。 |
推理,而非训练,是切入点
如果算力要成为真正的基础要素,就需要一个切实可行的切入点。推理就是这个切入点。
训练仍然依赖于数据中心中高度耦合、高带宽的环境,这对于任何旨在去中心化的事物来说都是一个难以逾越的限制。
推理则是另一回事。
它更轻量,更宽容,对硬件差异的敏感度更低。一旦模型训练完成,挑战就变成了吞吐量,而不是协调。这为更灵活的架构打开了大门。
你不需要 NVLink,也不需要定制的网络结构。推理可以在工作站、几块老旧的 GPU,甚至高端笔记本电脑上运行。尤其是随着更小、更精炼的模型变得更强大。

三个因素正在迅速汇聚:
-
消费级硬件性能强大 。经过优化的模型可以在游戏电脑甚至移动设备上进行推理。最新的搭载 M4 Pro 芯片的苹果 Mac 系列非常适合运行模型。
-
AI 模型变得更小但更强大
-
边缘推理正在增长。对于增强现实、游戏和个人助理等实时应用,本地计算能够降低延迟并让数据保持在本地。
新的推理模型正在加速推动这一转变。
OpenAI 的 o1 和 o3 系统在生成输出的同时还会生成推理轨迹,这会增加令牌数量和 GPU 时间。现在,单个答案所消耗的计算量比以前高出几个数量级。早期估算显示,o1 的运行成本是 GPT-4 的 25 倍。
这改变了经济模型。随着需求的扩大,成本也随之增加。中心化推理开始显现压力,而去中心化网络则展现出潜力:
-
Exo Labs 在 MacBook 和 Mac Mini 上运行拥有 4500 亿参数的 Llama 3 模型。
-
Inference.net 的推理服务成本比传统服务商(如 Together.ai)低高达 90%。
推理任务频繁、分布广且成本高昂。这种组合使其成为理想的切入点。
DCN 市场已经在适应这一战略重点。
🦄 并非所有算力都是平等的!
我们经常把 GPU 和 FLOP 等术语混用,但语境很重要。
一个模型在 AWS 和去中心化网络上运行的方式可能是相同的,输出结果看起来也完全一致。但其背后的信任模型却截然不同。
去中心化计算提供了超大规模云服务商无法提供的保障:抗审查、用户可控的数据,以及没有单一控制点的基础设施。
这本应带来溢价。但如今并非如此。大多数开发者仍然以价格为优先,而非控制权。
这种情况将会改变。随着监管压力的增加,以及越来越多的工作负载需要中心化服务商无法提供的保障,价值将会转移。先是缓慢发生,然后是结构性转变。最终,定价也会随之改变。
但:当前需求依然乏力
供应不是问题。代币激励在吸引服务提供者方面做得还不错。更难的是让真正的 AI 团队信任这些网络来运行生产级工作负载。
以下是一些算力网络的实际表现快照,以实际支出(需求)为基准。
Akash
Akash 每天在计算作业上的美元支出为 1.1 万美元(年化约为 400 万美元)。Akash 对网络上的每一项操作都收取费用。
Io.net
Io.net 每天为算力提供者带来 3.3 万美元的网络收入(年化约为 1200 万美元)。IO 对 USDC 支付收取 2%的费用
Aethir
Aethir 似乎展现出对算力的强劲需求,每周收入约为 200 万美元(年化约为 1.1 亿美元)。不过,这些数据都无法在链上验证。据我们了解,Aethir 专注于将算力供应与企业客户进行匹配。
Spheron
我们要表扬 Spheron 将其协议收入指标上链并实现可验证。每个 DCN 都应该效仿他们的做法。
从 4 月 28 日到 5 月 19 日,该协议累计收入 1.8 万美元(年化约 30 万美元)。
Nosana
Nosana 展示了每日有工作任务的节点数量在不断增长,尽管基数仍然较小(不到 1,000 个节点)。
Chutes
Chutes 是 Bittensor 上的一个推理网络,每天处理约 670 亿个 token。假设平均价格为每百万 token 0.30 美元,这相当于每天 2 万美元(年化 700 万美元)。
因此,你可以看到,当前去中心化计算网络的收入相比全球计算需求来说只是沧海一粟。
我们可以从这一差距中推断出两点:
-
即使它们在成本上具有竞争力,仍然存在真正的采用障碍。
-
即使它们在全球计算需求中获得了适度的市场份额增长(例如几个百分点),也会带来多倍的收入增长,因为它们的起点非常低。
尽管如此,这些网络的一些代币已经以九位数的估值进行交易。投资者正在为未来的价值捕获定价,预计这些网络将在未来几个月内大幅扩张。
DCN 亟需改进的地方
采用速度依然缓慢,尤其是在企业领域,而企业占据了大部分算力需求。

在 Semianalysis 最近的 GPU Cloud 排名(2025 年 3 月)中,只有两个去中心化平台——Akash 和 Prime Intellect——有上榜。两者都被列在底部,被标记为表现不佳。其余的平台甚至未能入选。
这是一个有用的现实检验。它同样突显了该行业仍处于早期阶段,还有很大的提升和成长空间。
如果我们要总结目前限制去中心化计算网络(DCN)需求的五大关键挑战:
-
协调/编排
-
开发者体验不佳
-
安全性和技术可靠性差
-
信任与合规
-
经济可持续性

1. 协调是限制因素
根据 Semianalysis,约 90%的企业团队在推理工作负载中更喜欢使用 Kubernetes。半数团队在训练时使用 Slurm。顶级 GPU 服务商深知这一点,并通过为两者提供全托管、可投入生产的环境而取得了成功。
DCN 也需要做到这一点。
超大规模云服务商和新型云服务商在这方面具有优势。他们掌控着自己的数据中心,管理着硬件和网络。而去中心化计算网络则没有这种便利。
从理论上看,这个模式很简单:接入闲置资源,分发任务,奖励贡献者。但在实际操作中,关键不在于流动性,而在于编排能力。
在网络中拥有几千块 GPU 在仪表盘上看起来很不错。但要将其转化为可用的基础设施,远不止于可用性。你需要这些机器像一个有机的系统一样协同工作,而不是一堆零散的部件。在大规模应用时,问题就会暴露出来。
有三件事需要同步运作:
-
作业请求与兼容硬件之间的发现与匹配
-
支付与激励,通常通过智能合约路由的代币或稳定币。
-
工作负载编排 ,包括数据传输、错误处理和节点可靠性
大多数基础设施都是基于机器已知、可信且一致的假设构建的。当每个节点都成为特殊情况时,这一切就会崩溃。
即使在高度受控的环境中,这也很难。Kubernetes 源自 Google 内部十多年的研发。即使如此,要大规模运行它仍然需要持续的工程投入。现在想象一下,要在一群你不拥有、由你从未见过的人运营的机器上协调 AI 推理。
问题很快就会暴露出来。同步问题会拖慢一切进程。故障节点会悄无声息地失效。而要验证一个节点是否真的完成了它声称的工作?这依然没有解决。
这就是为什么许多团队正在悄悄地重新引入某种程度的中心化。指定的调度器。经过筛选的节点池。当系统出现故障时的备用系统。这并不是哲学上的胜利,但它能让系统持续运行。而大多数用户宁愿选择稳定性而不是意识形态。
如果某个去中心化网络真的构建出了兼容 Slurm 的编排层 (内置节点质押、工作负载复制和容错机制),那将是一次突破。
解决了编排问题,去中心化计算就成为了可行的基础。
2. 安全性与技术可靠性
当多个客户使用同一套 GPU 硬件时,确保他们彼此隔离至关重要,这样就没有人能够窥探或入侵他人的环境。
只有少数 DCN 拥有基本的 SOC2 或 ISO 27001 安全认证。仅凭这一点,许多企业就会直接放弃选择它们。
中心化服务商受益于高速互连、精心挑选的硬件以及对每一层的全面控制。去中心化系统则没有这些优势。
网络和存储是常见的难点。许多 DCN 在速度上表现不佳,缺乏优化的存储路径。很少有完善的主动和被动健康检查,因此很难保证 GPU 在任何时刻都能高效运行。
结果是性能不稳定。在线时间波动。延迟激增。带宽成为限制因素。训练任务可能会在没有警告或明确诊断的情况下失败。
完整性依然是一个悬而未决的问题。如果你将数据发送到第三方节点,如何确认结果的有效性?如何证明计算确实被执行了?
目前有几种路径正在被测试。可信执行环境可以对工作负载本身进行加密。声誉和质押模型试图对齐激励机制并惩罚不良行为。
3. 开发者体验
DCN 正在采取不同的方法,但需要确保使用起来足够简单
思维模式应该是:启动、服务、扩展。这正是 AWS 的运作方式。大多数去中心化平台还没有做到这一点。
工具分散,链上支付让新用户感到困惑,从中心化云迁移数据还可能产生隐藏成本。这些都不利于推广。
真正的可用性意味着:
-
可与 PyTorch、TensorFlow 和 Hugging Face 即时兼容
-
简洁直观的界面
-
API 访问以及与 OpenAI API 的兼容
如果没有这一点,对于大多数开发者来说,成本节约仍然只是理论上的。
这一情况正在改善。 Io.net 和 Spheron 现在提供了更完善的开发者仪表盘。Atoma 和 Inference.net 提供兼容 OpenAI 的 API,使开发者只需极少的代码更改即可切换到去中心化推理。
4. 信任与合规
大型组织希望有正式的服务级别协议(SLA),要求 99%的正常运行时间、法律责任以及企业级客户支持。
数据合规又增加了一层复杂性。如果一个网络无法就数据处理,尤其是在受影响地区的 GDPR 或 HIPAA,提供明确的政策,企业就不会冒险使用。
一些网络正在尝试适应。例如,Aethir 正在构建带有服务商 KYC 和审计追踪的基础设施,以实现合规。这有助于建立可信度,但也削弱了去中心化。这就是核心矛盾。网络必须选择一条道路,或者至少让这种权衡对用户来说是清晰可见的。
5. 经济可持续性
目前,DCN 的引擎是代币激励。网络通过积分或代币补贴参与者,以实现快速增长。这种方式有效……直到失效为止。
当代币价格下跌或发行枯竭时,供给就会消失。这种脆弱性无法支撑真实的工作负载。持久的网络需要无需激励也能持续的需求、能够为真实现金流持续在线的服务商,以及不会每六个月就让整个系统失稳的代币模型。
一些协议已经开始重新设计激励机制。但大多数还没有找到解决办法。
一线希望
去中心化算力不需要超越 AWS 的工程能力。它只需要足够好 :便宜、易用,并且在一定范围内可靠。
如今,DCN 最适合用于托管开源模型,在这种场景下,灵活性和价格比高度集成更为重要。
对于运行推理或批处理任务的团队来说,价格往往是限制因素。如果一个平台能够以更低的成本提供稳定的性能和便捷的集成,它就会被采用。一旦融入工作流程,切换就会变得困难。
因此,DCN 的当务之急很简单:
易用。可靠。更便宜。

在合适的推动力下,去中心化算力有望快速扩展。两大转变将推动其普及。
首先, 新用例 。如果 DCN 能够以极低的开销支持多节点、去中心化的训练,就能解决中心化云之外最难的问题之一。自主 AI 代理也将需要持续的算力访问。DCN 天然契合这一需求。
其次, 推理需求已经超过了训练。随着 AI 在更多应用中出现,推理量持续攀升。中心化基础设施可能跟不上步伐。这为更便宜、更灵活的选择打开了大门,而去中心化算力正具备优势。
展望未来
黄仁勋曾表示,人工智能的需求可能会增长“十亿倍”。这并不是夸张,而是他对整个公司的方向性押注。
人工智能的下一个阶段将需要比任何单一供应商所能提供的更多算力。即使 NVIDIA 正在扩大产能,随着人工智能在各个领域的扩展,对 GPU 的需求仍可能持续超过供应量。
这并不新鲜。每一次计算周期——大型机、个人电脑、移动设备——都在中心化基础设施上遇到了瓶颈。应对方式始终如一:分布式。建立新的激励机制。让市场来协调。
DCN 有能力吸收部分溢出。并不是全部,也不是在所有地方。但它们可以服务于边缘市场:那些超大规模云服务商无法支持,或无法提供有竞争力价格的工作负载。
未来很可能是混合的。一些去中心化平台在特定任务上找到了产品与市场的契合点。它们与传统云服务商竞争,或与之集成。
市场会保持分散吗?还是会出现一个元平台,将多个网络抽象为单一接口?历史表明,最终聚合会胜出。但目前,这一领域仍然开放。
🍎 随着算力成为下一个基础要素,值得关注的事项:
-
这些网络是否展示了可验证的链上收入, 而不仅仅是列出闲置的 GPU?
-
谁在发布 NCCL 基准测试或说明 SOC 2 时间表 ?这才是真正关注性能和安全的信号。
-
开发者体验是否通过简洁的 UI 和更好的编排变得更好?
-
他们是否开始通过 SLA 和在线率保证赢得企业信任 ?
归根结底,大多数开发者关心的只有两件事:成本和可靠性。其他一切都是阻碍。能够隐藏复杂性的网络将会胜出。
有一件事没有改变:供给很容易,需求才是难点。
致敬,
Teng Yan
欢迎在 X 上分享你的看法或简要总结,并@@cot_research(或我 ),我们会转发。
P.S. 喜欢这篇内容吗?点击订阅,抢先获取下一个重大观点。
加分项:我们密切关注的10个去中心化算力网络
Spheron 提供可编程的 GPU 集群,可以在几分钟内为 LLMs 或智能体后端启动容器,使用 USDC 计费,同时以其原生 SPE 代币奖励节点运营者。该协议将自己定位为自动化智能体算力流水线中比超大规模云服务商更便宜的替代方案
→ 我们在这里对 Spheron 进行了深度解析 点击查看
Chutes 是一个专注于无服务器 AI 算力和高吞吐量推理的 Bittensor 子网,让开发者无需管理基础设施即可部署开源模型。其由 Rayon Labs 管理的运营者,常年位列所有 Bittensor 子网中 TAO 收益最高的矿工之一。
Hyperbolic 正在通过联合闲置 GPU 并通过无服务器推理层对外开放,构建一个“开放访问的 AI 云”。用户可以发起任务或转售算力,平台则负责调度、支付和信誉评分。
Atoma 正在 Sui 区块链上为开源 AI 构建去中心化的超大规模计算平台。它利用可信执行环境提供私密、可验证的推理服务,并通过兼容 OpenAI 的 API 和 SDK,将可扩展、保护隐私的算力集成到 Web3 应用中。
→ 我们在这里写过一篇关于 Atoma 的深度解析
Bless Network 将闲置的消费级设备变成全球共享的边缘计算机,用户通过捐赠 GPU 算力参与 AI 和数据处理任务获得奖励。它是较新的参与者,提供轻量级浏览器扩展,让算力共享几乎无摩擦。
Akash Network 运行一个无需许可的市场,云服务提供商在这里拍卖多余的 CPU/GPU 算力,开发者则以通常低于 AWS 竞价价格的费用部署 Docker 容器。该链的链上竞价和结算流程让工作负载能够自动迁移到最低成本的节点,而服务提供商则因在线时长和性能获得 AKT 奖励。
io.net 将闲置 GPU 聚合成一个基于 Solana 的“GPU 互联网”,AI 团队可以通过类似传统云 SDK 的 API 进行租用。Hack VC 和 Solana Labs 的最新投资支持其扩展到数万个节点、以实现大规模训练和推理的计划。
Aethir 提供面向实时工作负载(如 3A 云游戏和生成式 AI 推理)的分布式 GPU 云,将任务路由到最近的边缘节点以降低延迟。其架构将来自数据中心合作伙伴和社区主机的企业级 NVIDIA 显卡整合在一个按需付费的界面下。
Inference.net(前身为 Kuzco)在 Solana 上运营着一个分布式 GPU 集群,贡献者通过 OpenAI 兼容 API 提供 LLM 推理工作负载可获得 KZO 积分。该网络报告称拥有数千个活跃节点,自 2024 年中以来,随着更多 GPU 上线,每日支付额已翻倍
Nosana 通过基于 Solana 的市场,将 AI 团队与全球数千个 GPU 连接起来,自动将任务匹配到最便宜的可用节点。其路线图包括针对推理的专门优化和链上遥测,用户在租用前可审计性能和可靠性评分。
感谢 Spheron 的 Prashant 审阅并分享了他的反馈意见。
本文仅用于教育目的,不构成任何财务建议。本文并非对买卖资产或做出财务决策的认可。在进行投资时,请务必自行研究并谨慎行事。






