即便市值已经突破 4 万亿美元,我们还是低估了英伟达,大大的低估了。
在不少人的印象中,英伟达依然是那个「核弹厂」。其实,在 AI 急需的芯片之外,英伟达始终有一个云平台的野心。
2023 年,英伟达的 DGX Cloud 高调登场,一台实例配备八块 H100,月租 36999 美元,定价直达天花板,也被外界视作英伟达挑战 AWS、Azure 这些老牌云厂商的信号。
然而,2025 年中,这个「亲儿子」却悄然退出 C 位。英伟达不再将其数十亿美元的云支出承诺对齐 DGX Cloud,其角色转向内部基础设施与研发用途,而非面向企业市场的主打产品。
取而代之的,是 2025 年新上线的 Lepton——一个 GPU 租赁与调度的市场型产品。从定义来看,新的 Lepton 是一个算力管理和分发平台,更像是一个算力需求的「入口」。
DGX Cloud 为什么退场?Lepton,能不能接承接住英伟达在 AI 时代成为云计算霸主的野心?
01
以退为进
很多人或许都还记得 2023 年的「GPU 荒」,企业即便有钱,也往往买不到 H100。于是英伟达顺势推出了 DGX Cloud,把自有的高端算力集群「按月出租」,企业开通即用。
在推出的*年,DGX Cloud 的确收获了热度。到 2024 年底,英伟达的财报显示其软件与服务收入达到了 20 亿美元的年化水平。
然而,转折点出现在 2024 年下半年后,随着 GPU 供应逐渐缓解,亚马逊、微软、谷歌等云厂商纷纷「砍价」,DGX Cloud 的优势随之消散。以亚马逊的 AWS 为例,其对 H100 和 A100 实例降价幅度高达 45%,远低于 DGX Cloud 的租赁价格。
对客户而言,DGX Cloud 的紧缺溢价很快失去立足点。

更现实的问题还在于「渠道冲突」。
亚马逊、微软和谷歌是英伟达*的芯片买家,对英伟达的营收构成了极大支撑。DGX Cloud 的直接客户模式意味着英伟达和这些合作伙伴抢生意。每一份 DGX Cloud 合同,都有可能挤压 AWS、Azure 或 GCP 的收入。
买家的担心是可预期的,更长远的后果,是推着这些伙伴加码自研芯片,如 AWS 的 Trainium、谷歌的 TPU,以降低对英伟达的结构性依赖。
而且短时间内,建立起稳定的客户黏性也是挑战,有些企业会把 DGX Cloud 当作临时方案,在产能紧绷、项目启动急的窗口期租上几个月,随后再迁回长期合作的 AWS、Azure 或谷歌云。
考虑到这些,到最新的财年,英伟达的财务披露中不再将巨额的云支出承诺归于 DGX Cloud,这项服务仍然列在收入类别中,但其角色已明显转向内22部基础设施。换句话说,DGX Cloud 仍然存在,但它逐渐退回英伟达内部,不再打算与微软、亚马逊、谷歌等公司正面竞争。
除了选择把 DGX Cloud「转为内用」,英伟达还把外部注意力引向一个新的平台化入口:
Lepton。
英伟达在 2025 年 5 月推出这个新平台,也在 DGX Cloud 体系名下,但不同于 DGX Cloud 那种把「英伟达自己的 AI 芯片直接租给客户」的模式,Lepton 完全不碰 GPU 库存,它只是负责「把需求导向合适的云服务商」,包括 AWS、Azure,也包括英伟达自己一手扶持的云服务商。
「Lepton 会将我们的全球 GPU 云提供商网络与 AI 开发者连接起来。」英伟达创始人兼 CEO 黄仁勋在发布 Lepton 时称,目标是:
「打造一个全球规模的 AI 工厂」。
简而言之,为了不缓解和渠道的竞争,英伟达的策略重点已经不再是一个「英伟达云」。
02
Nvidia「朋友圈」
但 DGX Cloud 角色的淡出并不意味着英伟达放弃了云。在过去两年里,英伟达一直在扶持自己的云服务商「小弟」。而且还出现过让人觉得匪夷所思的一幕——英伟达一边把 GPU 卖给云伙伴,一边又从这些伙伴那租回算力。
以 CoreWeave 为例,英伟达不仅在 2023 年投资了 CoreWeave 1 亿美元,还向其优先供货 H100 GPU。在供需紧张时期,这让 CoreWeave 成为少数能大规模提供英伟达 GPU 的云服务商。而英伟达自己又回过头来,从 CoreWeave 租用这些 GPU。
Lambda 也类似,这是一家规模小得多的 GPU 云服务提供商。2025 年 9 月,英伟达与 Lambda 签订了一份价值 15 亿美元的租赁协议,租期为四年,其中包括租回 1 万台搭载自家* GPU 服务器,总价值约 13 亿美元。这个交易让英伟达成为 Lambda *的客户,而英伟达自己的研发团队将使用这些 GPU 训练模型。
具体来说,英伟达先通过销售芯片获得即时收入,让财报好看、股东满意;合作伙伴则依靠出租 GPU 获得稳定现金流,从而扩大规模;随后英伟达再以租赁的方式把算力锁定在自己手中,确保关键时刻不会断供。此外,这和普通公司选择租用云服务而不是自建机房的逻辑是一样的,可以更灵活地应对研发波峰和波谷。
这个操作的精妙之处在于,芯片卖出的那一刻,收入立刻计入英伟达账面,支出则后置,租金在未来几年慢慢摊销,转化为运营成本。与此同时,英伟达无需自建数据中心,资产压力最小化。
对合作伙伴来说,英伟达成了*甲方,算力与现金流被绑定,强化了其生态黏性。更微妙的是,这种操作还能稳定市场心理。当连英伟达都愿意以这个价格回租,便相当于为AI 算力行情做了一次背书,锚定了价格预期,最终变成一石三鸟。
这套玩法复制到了各种英伟达系云计算初创公司中:卖芯片-投资客户-租回服务-再次卖芯片,最终变成一个自循环的 AI 芯片生态资金链。
与此同时,英伟达还通过旗下专门的风险投资部门 Nventures,在更广阔的 AI 生态下注。它投资了很多初创公司,从模型开发,到应用层的初创企业。虽然这些公司并非都做云服务,但逻辑是一致的:通过投资绑定潜在客户和未来生态,只要这些初创公司成长壮大,它们的算力需求最终都会转化为对英伟达芯片的采购。
可以说,英伟达不仅仅是在卖芯片,它就像是在经营一个庞大的 AI 创业孵化器,来打造一套「英伟达系」云生态。
03
AI 算力的「App Store」
说回 Lepton,它与英伟达「卖一手、租一手」的本质有一点相似,就是给算力「做市」。
与 DGX Cloud 直接对客户不同,Lepton 并不亲自经营云服务,而是作为「流量调度者」,把客户的任务分发给生态合作伙伴的数据中心。
它本质上是一个算力市场,用户只需在 Lepton 平台提交需求,Lepton 会自动匹配到可用的 H100 或 Blackwell GPU,无论这些硬件位于 CoreWeave、Lambda,还是 AWS、Azure 的机房。
而且,Lepton 将所有 GPU 云资源整合到英伟达的软件栈之下,比如 NIM 微服务和 NeMo 框架。开发者无需关心背后的提供商,只需通过 Lepton 平台即可获得一致的开发体验和环境。
更关键的是,Lepton 化解了英伟达与云巨头的冲突。在这种模式下,英伟达不再是 AWS、Azure 的直接竞争对手,而是中立的调度平台。AWS 和微软也加入了 Lepton,原因很简单,通过这个市场,它们能够接触到额外的算力需求。
对于英伟达来说,与合作伙伴对抗的风险太大,远不如退到幕后,转而做算力市场的调度者和掌控者。这是典型的「退一步,海阔天空」,不再冒犯合作伙伴,反而继续掌控生态入口,不论客户选择哪家云,最终都离不开英伟达的 GPU 和软件栈。
于是,放弃构建自己的云服务就不是软弱的表现,Lepton 对英伟达来说是一个鱼与熊掌兼得的策略。
当然,Lepton 的推广也非一帆风顺。一些中小型云厂商担心英伟达借此插足客户关系,或影响定价,它并非一夜之间就能改变游戏规则。但当 AWS 和 Azure 都进入市场后,Lepton 的存在无法忽视。未来 AI 算力的跨云调度,有可能会通过某个平台来完成。
对开发者来说,「在哪里算」变得次要;能不能算、多久能算、成本如何才是核心,而这些正是 Lepton 试图统一的体验层。
英伟达不再需要自建一个「英伟达云」,也不必在 IaaS 层与伙伴正面相撞,它想做的是把所有玩家拉入自己的体系,让所有云使用英伟达的 GPU、调用英伟达的框架、通过英伟达的入口完成采购与调度。
如果顺利,它看似只是一个 GPU 聚合市场,实则可以成为算力世界的控制面板。谁接到单子,谁活得下去,分配权掌握在英伟达手中。更长线的收益是数据与感知,Lepton 在跨云调度过程中天然能观察到哪类任务最活跃、哪些地域更紧张、哪一代 GPU 使用更频繁、价格弹性如何,反过来辅助商业决策。
就像苹果通过 App Store 掌控了移动互联网,英伟达想用 Lepton 做到同样的事,只是对象从 App 换成了算力。
这也解释了英伟达当下的市场逻辑。简言之,它并不需要拥有云,它只需要拥有算力栈和需求入口。只要全球 AI 训练与推理仍以其 GPU 为核心,无论算力最终落在亚马逊 AWS、微软 Azure、谷歌 GCP,还是 CoreWeave、Lambda,无论客户选择谁,只要掌控价值链,英伟达都能获得价值。
从 AI 芯片,到 DGX Cloud,再到现在的 Lepton,英伟达的计划早已经从硬件过渡到「算力」和「平台」的阶段——任何一家公司市值突破 4 万亿美元、其产品已经成为 AI 时代重要生产资料的公司,都不可能没有更大的野心,不是吗?
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。