原创报道
2026.05.06 03:16 约 5 分钟 AI 人工智能

DeepInfra B轮融资1.07亿美元:红杉前工程师联手NVIDIA,重构AI云基础设施应对代理工作流爆发

项目速览
项目名称 DeepInfra
融资轮次 Series B
融资金额 $107M
投资方 500 Global (co-lead), Georges Harik (co-lead), Nvidia, Samsung Next, Supermicro

当AI创业公司还在为“如何让聊天机器人不说胡话”焦头烂额时,一场关于“谁为AI工作提供真正算力”的军备竞赛,已经在硅谷的服务器机房里悄然白热化。DeepInfra,这家由前谷歌早期云工程师和通讯应用imo创始人联手打造的基础设施新贵,刚刚用1.07亿美元的B轮融资,向市场宣告了它的野心:不仅要为AI模型提供跑腿服务,更要重新定义“算力”这门生意的底层规则。

一场从“聊天”到“干活”的算力大迁徙

DeepInfra的故事,始于一个朴素却尖锐的洞察:AI行业正从“实验性聊天机器人”的玩具时代,迈入“生产级代理工作流”的工业时代。这意味着,算力需求不再是偶尔的文本生成,而是需要支持自主代理(Agent)在后台持续、稳定、低成本地执行复杂任务。DeepInfra的创始人Nikola Borisov,这位曾将通讯应用imo带到2亿用户的连续创业者,敏锐地捕捉到了这一断层。他意识到,传统云基础设施是为“人类点击”设计的,而非为“机器调用”设计的。于是,DeepInfra选择了一条重资产、高壁垒的路径:自建硬件,全栈控制。从GPU到API,从美国本土八个数据中心到NVIDIA的Dynamo分布式推理平台,DeepInfra试图将每一层效率压榨到极致,最终实现其宣称的“高达20倍的推理成本效率提升”。

“全栈主义”背后的豪赌与算计

在云计算巨头AWS、Azure和GCP垄断的阴影下,任何声称要“重新设计云基础设施”的初创公司,都像是在巨人脚下玩火。但DeepInfra的策略并非正面硬刚,而是精准切入“推理”这一高附加值环节。它不卖虚拟机,不提供通用计算,而是专注于为AI模型提供“即插即用”的推理API,支持超过190个开源模型。这种“全栈”控制,虽然带来了高昂的初始资本支出,却赋予了DeepInfra两样核心武器:极致的成本优化和深度的技术定制。通过拥抱NVIDIA最新的Blackwell和Vera Rubin GPU,并深度集成Dynamo平台,DeepInfra能够动态调配算力,将闲置率降至最低。更值得注意的是,其超过30%的代币(Token)流量来自自主代理——这意味着其客户并非人类,而是其他AI系统。这种“机器对机器”的商业模式,对延迟和稳定性的要求远高于人类用户,也构成了DeepInfra的技术护城河。

投资人名单里的“暗线”:从NVIDIA到三星的算力合谋

这轮融资的领投方——500 Global和Georges Harik——本身就充满了象征意义。Harik作为谷歌最早的云工程师之一,其个人背书无疑为DeepInfra的技术路线提供了“正统性”。但更值得玩味的,是跟投名单:NVIDIA、三星Next、超微电脑(Supermicro)。这几乎是一场围绕“AI算力供应链”的合谋。NVIDIA需要像DeepInfra这样的合作伙伴来展示其最新芯片(Blackwell、Vera Rubin)在真实推理场景中的性能,从而向云巨头和大型企业证明“买我的卡,跑你的模型,更划算”。三星和超微电脑则希望借助DeepInfra的定制化需求,推动其存储、散热和服务器设计在AI时代的应用。对于DeepInfra而言,这些战略投资者的加入,不仅带来了资金,更锁定了未来最先进的硬件供应——在GPU供不应求的当下,这比任何技术方案都更关键。

开源模型的“代理人战争”与商业悖论

DeepInfra宣称支持超过190个开源模型,这既是优势,也是陷阱。开源模型的繁荣,为DeepInfra提供了丰富的“弹药”,使其能快速响应市场变化,无需像OpenAI那样背负沉重的自研模型成本。然而,开源模型本身是“无利可图的商品”——任何人都可以免费下载并运行。DeepInfra的核心价值在于“托管和优化”,但一旦某个开源模型(如Llama或Mistral)的开发者推出官方托管服务,或大型云厂商以更低价格打包销售,DeepInfra的差异化将瞬间被侵蚀。更深的悖论在于,随着AI代理工作流越来越复杂,客户可能会要求更深的定制化,甚至要求与私有数据集成。届时,DeepInfra“通用API”的模式,可能面临向“解决方案平台”转型的巨大压力。它必须在“开源中立性”和“客户锁定”之间找到平衡,否则很容易沦为巨头价格战中的炮灰。

辩证的终局:效率之王还是生态附庸?

DeepInfra的崛起,是AI基础设施“去中心化”趋势的一个缩影。它证明了,在巨头垄断的阴影下,通过极致的工程优化和精准的市场定位,依然可以撕开一道口子。其1.07亿美元的B轮融资,是对其“全栈推理”路线的一次重要投票。然而,这并不意味着胜利。DeepInfra的成功,高度依赖于两个外部变量:一是NVIDIA芯片的持续供应和性能提升,二是开源模型生态的持续繁荣。如果NVIDIA未来推出自己的托管推理服务,或开源模型被少数大模型(如GPT-4o、Claude)边缘化,DeepInfra的生存空间将急剧压缩。它目前更像是一个“效率优化器”,而非“规则改变者”。真正的考验在于,当AI代理工作流成为主流,当客户开始要求“算力+数据+模型”的一体化解决方案时,DeepInfra能否从“卖铲子的人”进化为“造矿场的人”。否则,它终将只是AI淘金热中,一个技术精湛但命运不由己的“超级包工头”。

想免费报道? 请给我们发私信
@RecodeX_AI