AI 时代的算力
>
作者:David Talpalar · 2026 年 4 月 16 日
算力是整个 AI 生态系统的基础层
每一次重大的技术平台转移都有一个决定性的物理约束。正如移动需要频谱和基站密度、云需要数据中心容量和光纤连接,AI 依赖于算力。争夺算力的竞赛正在以远远超出硅谷范围的方式重塑全球经济。
如果你正在 AI 领域构建、投资 AI,或者只是试图理解为什么地球上最大的公司在基础设施上花费数千亿美元,你需要理解算力。它是使 AI 堆栈中其他一切成为可能的基础资源,围绕它的动态将决定哪些公司获胜、哪些市场扩张、哪些国家领先。
算力到底是什么
算力,最简单地说,就是处理能力——硬件执行数学运算的能力。在 AI 的语境中,算力具体指训练和运行 AI 模型所需的计算资源。训练是将海量数据集喂给神经网络以便它学习模式和关系的过程。推理是使用训练好的模型生成输出的过程——例如回答问题、编写代码、安排约会、生成图像。
几十年来,算力按照摩尔定律扩展:芯片上的晶体管密度大约每两年翻一倍,提供可预测的性能增益。AI 打破了这一模式。过去十年算力需求的增长速度超过摩尔定律的两倍,由更大的模型、更复杂的架构和迅速扩展的用例驱动。一个 AI 任务可能需要比传统网络搜索多达 1000 倍的电力。为此提供动力的硬件——主要是 NVIDIA 制造的 GPU——已成为技术领域最具战略重要性的商品。
NVIDIA 的轨迹讲述了这个故事。该公司在截至 2026 年 1 月的财年报告了 2160 亿美元的收入,同比增长 65%,仅第四季度数据中心收入就达到 623 亿美元。其下一代 Blackwell GPU 正在向全球数据中心发货,公司将 2027 财年第一季度收入指引定为 780 亿美元。NVIDIA 的 GPU 是这场淘金热中的镐和铲,每个主要云提供商、AI 实验室和主权政府都在尽可能多地购买。
从训练到推理的转变
目前算力中正在发生的最重要结构性转变是从训练主导的工作负载向推理主导的工作负载迁移。2023 年,所有 AI 算力中大约三分之一用于推理。到 2025 年,这一比例为一半。在 2026 年,推理占总 AI 算力的约三分之二,针对推理优化的芯片市场预计今年将超过 500 亿美元。
这很重要,因为训练和推理有根本不同的硬件要求。训练需要在数千个互联 GPU 上进行大规模并行处理——巨大规模的暴力。推理优先考虑跨分布式基础设施的低延迟、高吞吐量和能源效率。这种分歧为专用推理芯片打开了大门:NVIDIA 在去年年底与 Groq 签订了 200 亿美元的非独家许可协议,因为 Groq 拥有快速、低成本的推理基础设施。
推理的经济效益正在创造一个每家 AI 公司——以及每位投资者——都在关注的悖论。Token 成本在过去两年下降了大约 280 倍。然而由于使用量增加,企业 AI 总支出的上升速度比成本下降的速度更快。代理 AI 工作流每个任务触发 10–20 次模型调用。检索增强生成将上下文窗口扩大 3–5 倍。始终在线的监控代理持续消耗算力,即使没有人在观察。虽然智能的单位成本在暴跌,但大规模部署它的总成本并不在下降。
我此前写过关于代理浏览器自动化作为新兴 AI 核心能力的内容。每个浏览器代理在 Web 界面上导航、推理工作流并执行多步骤任务时,都在燃烧推理 token。当这些代理从实验阶段移向企业的生产级时,总推理需求以大多数成本模型 18 个月前未预料到的方式复合。
6000 亿美元以上的基础设施建设
超大规模运营商以企业投资史上真正前所未有的资本支出承诺响应了这一需求。亚马逊已承诺 2026 年资本支出 2000 亿美元。Google 预计 1750–1850 亿美元。Meta 概述了 1150–1350 亿美元。Microsoft 走向 1200 亿美元或更多。加在一起,五大超大规模运营商(包括约 500 亿美元的 Oracle)预计今年将在基础设施上花费超过 6000 亿美元。这些资本支出的约 75% 用于 AI。
把这放在背景中:自 GPT-4 发布以来,超大规模运营商的资本支出平均每年增长 72%。这些公司将在 2026 年将约 90% 的运营现金流用于资本支出,高于 2025 年的 65%。亚马逊预计今年自由现金流为负。Alphabet 的自由现金流可能下降近 90%。世界上最大的公司正在做出存在性赌注,赌 AI 将产生足够大的回报,以证明将几乎所有可用现金转化为物理基础设施是合理的。
这也是一个债务故事。超大规模运营商在 2025 年筹集了 1080 亿美元债务。Alphabet 发行了 100 年期债券。摩根士丹利预计 2026 年超大规模运营商总借款将超过 4000 亿美元。这种规模的资本流动直接或间接地影响着我们所有人。
电力是瓶颈
我曾写过美国对持续能源独立的追求。随着电力需求急剧上升,这意味着我们需要更多的能源输入。
IEA 预计 2026 年全球数据中心电力消耗将达到约 1000 TWh——相当于日本全国的消费量。一个超大规模 AI 数据中心需要 100–300 兆瓦的连续电力,大约相当于一个小城市的电力负荷。AI 数据中心到 2027 年可能需要 68 吉瓦的总电力容量,几乎相当于加州整个电网的容量。
美国电网约 70% 建于 1950 年代到 1970 年代之间,并非为此设计。在北弗吉尼亚等地区,电网连接申请现在需要四到七年。多年前获得土地和融资的数据中心开发商被困住了,等待尚不存在的变电站和输电容量。AI 扩张的主要瓶颈已从制造约束(芯片)转向基础设施约束(电力),而这一基础设施按十年期规划周期运作,AI 需求按 18 个月周期运作。
这些是解释为什么电池基础设施和核能已成为如此关键投资领域的一些主要动态。
这对风险投资意味着什么
算力经济学将位于每个商业模式决策之下。目前,早期风险投资界假设算力将继续变得更便宜、更丰富。但便宜多少、丰富多少,将是 AI 渗透经济程度的关键因素。推理成本决定毛利率。推理基础设施的可用性决定可扩展性。每个 token 成本下降 10 倍都意味着一组新的垂直领域在经济上对 AI 原生平台变得可行。
另一方面,超大规模运营商的建设在供应链上创造了巨大的机会集:发电和电网基础设施、冷却系统、数据中心建设、芯片设计和封装,以及在异构硬件上编排工作负载的软件层。它也创造了风险。如果推理需求不能足够快地扩展以证明每年 6000 亿美元以上资本支出的合理性,产能过剩的宿醉将很严重。市场正在为一个 AI 成为各行各业主导计算范式的未来定价。这在方向上可能是对的。它在共识时间表上是否正确,是一个数万亿美元的问题。
对于更广泛的市场,算力正在成为像能源储备一样具有重大影响的地缘政治资产。控制芯片制造、确保足够发电、建设数据中心容量的国家将设定 AI 时代的条款。那些不能做到的国家将成为 AI 的消费者,而非生产者。