Posted in

全文

NVIDIA 今天公布了 2026 年第三季度财务报告。收入为 5700.6 万美元,同比增长 62%,环比增长 22%。净利润为319.1亿美元,同比增长65%,环比增长21%。调整后的非 GAAP 净利润为 317.67 亿美元,同比增长 59%,环比增长 23%。 (注:Nvidia的财年与日历年不同步,2025年1月下旬至2026年1月下旬期间为2026财年。)
更多信息请参见:英伟达第三财季营收为570.06亿美元,净利润同比增长65%。
财报发布后,NVIDIA创始人、董事长兼首席执行官黄仁勋、执行副总裁兼首席财务官Colette Kress等高管参加了随后召开的财报电话会议,讨论财报要点并回答分析师提问。
主要内容分析问题及解答如下。
摩根士丹利分析师约瑟夫·摩尔:管理层此前曾表示,该公司的Blackwell & Rubin架构和相关高性能计算数据中心收入将在2025-2026年达到5000亿美元。当时据说相关产品已交付1500亿美元。现在,许多季度过去了,剩余的 3500 亿美元目标应该在未来 14 个月左右的时间内完成。考虑到这段时间市场需求可能还没有完全释放出来,未来这些销量是否有可能进一步增加?
Colette Kress:情况正如你所说。我们正在努力实现5000亿美元的计划目标。目前进展符合计划。即使经过几个季度的进展,仍然有足够的时间来实现目标。到2026年底,这个数字肯定会增加。我们相信,到 2026 财年,我们将能够满足对更多计算能力的需求。本季度我们发货了价值 500 亿美元的产品,并且可能还有更多订单正在酝酿中。例如,今天我们与沙特阿拉伯达成协议,在未来三年内额外供应 400,000 至 600,000 个图形处理单元 (GPU)。同时,我们增加了Essel(分布式GPU云计算提供商)作为新的合作伙伴。因此,除了我们宣布的 5000 亿美元目标之外,收入肯定还有进一步增长的空间。
C.J. Cantor Fitzgerald分析师Muse:当前市场非常关注人工智能(AI)基础设施建设规模、相关项目的融资担保以及投资回报率。但同时,您说图形处理器产品供不应求,订单排满。业界尚未充分利用 B300 提供的巨大优势,更不用说新推出的 Rubin 平台和 Gemini 3 型号,以及 Gronk5 正在路上。基于这样的行业背景,未来12到18个月算力供应是否有望赶上市场需求,还是供需缺口进一步持续?
黄仁勋:众所周知,我们擅长供应链规划。 NVIDIA的供应链几乎覆盖了全球所有相关科技公司,包括台积电的封装业务、计算机设备供应商、存储、各种原始设计制造商(ODM)等合作伙伴。大家正在与我们一起努力,共同推动计划的实施,确保我们为这个重要的一年做好充分准备。
一段时间以来,行业正在经历上述三个重要变革。一是从通用计算向加速计算的转变。值得注意的是,AI不仅包括代理AI,还包括生成式AI,这正在改变以前超大型公司依赖中央处理器的模式(CPU)来完成工作。在生成式人工智能的帮助下,大型公司可以将搜索、推荐系统和其他服务从 CPU 中解放出来。这种转变仍在进行中。无论是开发生成式人工智能,还是用于推荐系统和数据处理,还是用于开发智能聊天机器人的 GPU,NVIDIA 产品都可以提高运营效率。虽然这些应用场景各有不同,但得益于AI模型质量的不断提升,它们都在快速发展,并且能够在NVIDIA GPU上流畅运行。
生成式人工智能的应用场景仍在不断扩大。以代码支持领域为例:Nvidia 本身就广泛使用此类技术,该领域的许多公司也是如此。光标编程助手、云代码工具、开放AI代码生成模型、代码托管平台编程助手等混合应用都在其中。当今增长最快的应用程序类型。如今,这些工具不再仅限于软件工程师。借助可视化编程技术,可供公司内的工程师、营销人员和供应链规划人员使用。类似的用例还有很多,例如医疗领域的 OpenEvidence 和数字视频编辑领域的 Runway。人工智能的日常使用持续增长,许多新初创公司积极利用生成式人工智能和代理技术。
人工智能模型的训练也在稳步推进。今天我收到了谷歌人工智能公司 DeepMind 首席执行官 Demis Hassabis 发来的消息。他表示,AI模型的预训练和后期优化进展顺利。谷歌Gemini 3人工智能模型充分利用了逃避法则,其性能和质量有了很大的飞跃。该行业正在同时经历多个增长时期。我们回到核心lo并分析这些关键行业的变化趋势:从通用计算到加速计算、生成式人工智能的兴起、人工智能逐渐取代传统机器学习、智能人工智能新领域的出现。由于多种变化的综合作用,算力供需需要一段时间才能达到平衡。
美银美林分析师Vivek Arya:我想知道,鉴于该公司的目标规模为5000亿美元,每吉瓦的拟议数字是多少? Xin的资本支出基于什么假设?我们听到的行业数据差异很大,相关产品的每吉瓦价值最低为250亿美元,最高为30至400亿美元。我想澄清一下,在设定 5000 亿美元的发电量时,您对电力消耗和每吉瓦相应的美元价值做出了哪些假设等人。此外,黄仁勋此前表示,到2030年,数据中心市场规模将达到3-4万亿美元,其中有多少来自厂商融资,有多少来自大客户、政府或企业的现金流?
Jen-Hsun Huang:公司的各种芯片架构,从 Ampere 到 Hopper、Blackwell 和 Rubin,每一代产品都在推动数据中心价值的增长。 Hopper系列的产品价值约为每吉瓦200亿至250亿美元。 Blackwell系列,尤其是Grace Blackwell,售价在3万美元左右。而Rubin系列可能会更高一些。每一代产品的性能都得到了数倍的提升,客户的总体拥有成本(TCO)也得到了数倍的优化。重要的是,数据中心通常限制为 1 吉瓦,因此每瓦性能或建筑能效非常重要,并且无法通过h蛮力。在1吉瓦功率限制下,每瓦性能直接决定底线。这将帮助您选择正确的架构。这也是选择的核心重要性。今天,世界没有资源可以浪费。因此,我们在整个技术堆栈中实施“协同设计”的概念,包括框架和模型、数据中心电力和冷却系统的端到端优化,以及供应链和生态系统。因此,经济贡献增加,每一代产品的交付价值也增加。最重要的是,每一代产品的能效都有质的提升。
至于为客户提供新的融资来源,则由客户自行决定。我们相信未来的增长空间很大,目前市场的焦点主要集中在超大规模数据中心提供商。这一点至关重要,因为投资 NVIDIA GPU 不仅可以增加规模、速度d、降低整体计算成本,但摩尔定律的发展明显放缓。摩尔定律的核心是降低成本,实现计算成本的长期通缩。然而,这种趋势现在正在减弱。因此,超大型公司需要新的方法来持续管理成本,而 NVIDIA GPU 计算是最佳选择。
其次,英伟达还可以通过现有的商业模式增加收入。推荐系统是世界上最大的公司的主要驱动力。上传短视频、推荐书籍、推荐购物车中的商品、推荐广告和新闻,这一切从根本上来说都是基于推荐系统的。互联网上有数十亿内容。如果没有复杂的推荐系统,公司就无法在小屏幕上准确地向用户提供内容。现在,推荐系统已经彻底转变为生成式人工智能。数千亿美元的资本我上面提到的支出完全可以由客户现金流来支付。在此基础上,Agent AI正经历着历史上最快的增长,新的收入和消费需求同时催生了大量的新应用。理解资本投资背后的逻辑,揭示了这三个核心因素。
最后,之前美国虽然我们讨论了位于 的云提供商,但重要的是要记住每个国家都为自己的基础设施提供资金。世界上有很多国家和行业,其中大多数还没有涉足人工智能代理,但大多数都已经涉足,包括我们合作的自动驾驶公司,为世界各地新建工厂、工厂和仓库构建物理人工智能数字孪生的公司,以及许多已获得资金加速药物开发的数字生物初创公司。一些行业已经开始参与并计划筹集自己的资金。所以而不是集中注意力当您希望构建基础设施未来结构时,依靠超大规模数据中心提供商,它必须放眼全球并覆盖所有行业。企业层面的IT部门将负责该行业的相关融资需求。
Melius 研究分析师 Ben Reitzes:我想向黄仁勋询问现金流的问题。参考上述5000亿美元,该公司未来几年可产生约5000亿美元的自由现金流。您对这笔资金有何计划?股票回购和生态系统投资之间的关系是如何映射的?您如何看待生态系统投资?目前市场对于此类合作的运营模式以及企业投资 Anthropic、OpenAI 等公司的标准存在很多困惑。我希望管理层能够做出回应。
黄仁勋:首先是用现金流来支撑公司的成长。就我们所说的增长规模而言,没有其他公司拥有 Nvidia 所拥有的供应链合作伙伴关系和资源的广度和深度。世界各地的客户能够信任我们的一个关键原因是我们建立了一条有弹性的供应链并拥有强大的资产负债表作为支持。当我们购买时,我们的供应商可以放心地与我们合作。醋。当我们与他们分享我们的业务预测和联合计划时,他们会认真对待。这一切都归功于我们稳健的资产负债表。我们的容量需求不是从头开始创建的,而是有明确的基础的。多年来,我公司与供应商保持密切的策划合作,积累了较高的声誉和信任。支持如此巨大的规模、增长率和数量需要强大的资产负债表,这就是资本本金。其次,我们将继续推动股票回购,并将这一举措继续下去。
在投资生态系统时,这对我们非常重要。迄今为止,我们所有的投资都已投入电子领域扩大我们的 CUDA(Nvidia 开发者编程工具)平台的覆盖范围和生态系统。以投资OpenAI为例。我们与该公司的合作始于 2016 年,当时我们向 OpenAI 交付了世界上第一台人工智能超级计算机。从那时起,我们就建立了密切、良好的合作关系。如今,OpenAI 的整个业务都依赖于 NVIDIA 技术。 NVIDIA 产品用于我们部署的各种云服务以及我们的模型训练和推理工作。我们将很高兴与您合作。我们与OpenAI合作的核心是深化技术层面的合作,支持我们的快速发展。这家公司正在以惊人的速度扩张。我们不仅要关注媒体表面的信息,更要关注其背后的众多环保合作伙伴和推动者。两者都在推动相关技术的应用。当前人工智能产品质量有所提升与一年前相比增加了很多,反响效果非常好。因此,我们对 OpenAI 的投资是为了建立深入的协作和共同开发关系,这不仅会扩大我们的生态系统,还会加速其发展。当然,这种投资模式并不是出售自己公司的股份,而是收购对方的股份。由于这是对一家优秀且创新的公司的千载难逢的投资,因此我们期望获得丰厚的回报。如果你看看Anthropic、Nvidia,这是我们第一次采用这种架构。 Anthropic 产品是全球用户数量第二大的人工智能系统,在企业市场中表现出色。公司的Claude代码工具和Claude核心产品受到全球企业客户的广泛好评。我们现在有机会与他们建立密切的合作关系,并将 Claude 完全融入 NVIDIA 平台米。
NVIDIA的架构和平台是世界上唯一可以运行任何AI模型的架构和平台。我们支持OpenAI、Anthropic等多家公司的运营,也可以运行Gemini、Google的Thinking Machines等各种模型,以及来自全球各个领域的科学模型,如生物模型、DNA模型、遗传模型、化学模型等,都可以在我们的平台上运行。人工智能不仅限于认知智能领域,正在影响全球各行各业。通过我们的生态系统投资,我们能够与世界上最大、最好的公司建立深入的技术合作,这不仅扩大了我们自己的生态系统的范围,而且使我们能够投资于这些成功的、高潜力且经常创新的公司。这是我们主要的投资逻辑。
高盛分析师 James Schneider:管理层过去曾表示,约 40% 的产品出货量与 AI 信息相关业务。展望明年,公司预计这一比例将如何变化?另外,您能告诉我们您明年计划推出的Rubin CPX产品吗?例如,该产品能够占据的潜在目标市场的总规模是多少?另外,这个产品的目标客户应用场景是什么?
Jensen Huang:CPX 产品专为长上下文生产工作负载而设计。所谓长上下文,简单来说就是人工智能在生成响应之前,必须处理大量的信息(例如,一份PDF文档、一系列视频、3D图像数据等),并且必须首先充分理解这些上下文信息。这意味着它必须被吸收。因此,CPX的核心定位是适应长期工作负载,每美元产出的性能非常好,完美满足此类场景的需求。
这是一个神秘的商业问题。目前,三项大型标准ds 正在同时快速发展。首先是事前培训,其有效性仍然非常重要。二是训练后优化。该领域不断涌现的创新算法可以显着提高人工智能分析问题并逐步解决问题的能力。此外,训练后优化呈指数级增长,意味着投入的计算能力不断增加。功率越高,模型的智能程度越高。三是推理。思维链和推理能力的提高意味着人工智能本质上是在给出答案之前进行阅读和思考。加上上述训练前和训练后的优化要求,这三种场景的叠加利用了推理所需的计算能力。因此,很难准确预测贸易出货量的百分比是多少。给他们提供信息在某一特定时刻出现。但推理业务规模越大,意味着人工智能将应用到更多场景、使用更频繁,所以我们希望推理业务能够占领很大的市场份额。这是所有人都期待的局面。
Grace Blackwell在推理领域的表现远超全球同类产品。当前第二层的顶级平台是H200,但是通过我们实施的水平可扩展网络技术MP Link 72,GB300和GB200(Grace Blackwell系列产品)的性能优势非常明显。 Colette此前也谈到过相关的基准测试。这是迄今为止进行的最大规模的单一推理性能测试。 GB200与MP Link 72的性能相似。比他们的产品好10-15倍。这在性能上是一个巨大的飞跃,对于我们的竞争来说将需要很长时间或将迎头赶上,而我们在这一领域的领先地位无疑将在未来许多年继续保持。因此,我非常希望推理业务能够成为行业焦点,并且我们在推理方面的领先地位是无与伦比的。
瑞银 (UBS) 分析师蒂莫西·阿库里 (Timothy Arcuri):该公司的许多客户在其工厂中安装了自己的电力系统。公司最担心的是什么以及限制其发展的最大障碍是什么?是电源问题、资金问题还是存储设备或晶圆代工等其他问题?
黄仁勋:其实这些都是需要尽快解决的问题,也是发展过程中的局限性。毕竟以我们现在的增速和业务规模,没有什么是容易实现的。 NVIDIA目前正在进行的显然是开创性的、前所未有的工作,也开辟了一个全新的工业领域。 。一方面,我们正在推动计算模型从传统计算方式的转变。面向加速计算和人工智能计算的传统、经典和通用计算模型。另一方面,我们也在打造一个新的产业,叫做“人工智能工厂”。基本逻辑是,今天的软件要顺利运行,必须依赖这些工厂来生成每个数据单元,而不是简单地检索以前存储的信息。我认为这样一个全面的转变,应该是一个相当大的规模。当然,我们对供应链有非常严格的控制和透明度。我们拥有深厚的供应链管理知识和与我们合作33年的优质合作伙伴。因此,我们对我们供应链的这方面充满信心。目前,我们与多家企业建立了合作关系,涉及土地、电力、工厂建设等领域,贯穿整个供应链,金融领域也不例外。这些都很难无法操纵,但它们值得取得进展,而且都是有解决方案的问题。
当前我们的首要任务是规划。除了规划上游供应链外,还必须协调下游环节。同时,我公司发展了一大批合作伙伴,拥有丰富的市场渠道。最重要的是,我们的架构必须为客户创造最大价值。目前,我认为NVIDIA的架构不仅具有最好的单位成本计算能力性能,而且还具有最好的每瓦计算能力性能。这意味着无论投入多少能量,我们的架构都能产生最大的效益。此外,公司发展势头持续向好。与去年同期相比,我们的表现更加亮眼。越来越多的客户积极寻求与我们合作,许多公司在考虑其他类似平台后选择了我们。的数量se客户不断增加,并且永远不会减少。显然,我多年来提出的发展思路正在成为现实或者正在逐步结出硕果。
Stacey Razgon,伯恩斯坦研究分析师:我有几个关于利润率的问题要问 Colette。您表示明年计划将毛利率保持在中高水平,即75%左右。我们首先要了解成本增加的最大推动因素是什么?只是内存芯片还是还有其他因素?为了实现这个目标,你正在做出哪些努力?成本优化、初始采购和定价策略在多大程度上发挥了作用?考虑到明年的收入可能会显着提高,您应该如何看待明年运营费用 (OpEx) 与当前水平相比的增长?
Colette Kress:让我们从本财年开始。我记得今年早些时候我说过,通过成本优化和产品结构调整,毛利率将达到30%。到该时期结束时,d 至高水平约为 75%。我们目前正在实现这一目标,并计划在第四季度继续这个方向。展望明年,我们预计行业将面临更大的投入价格压力,我们的系统产品变得更加复杂,包含许多零部件,结构独特,涉及多种环境。节日,我们要妥善处理这个问题。但如果我们继续优化成本、缩短生产周期、优化产品结构,我们相信我们将能够保持75%左右的中高毛利率。这是明年毛利率的总体规划。
在运营费用方面,我们现在的主要重点是支持我们的工程团队和各个业务团队继续创新,为市场创造更多的系统产品。如您所知,我们正在推出新的架构,我们的团队正在努力实现它。雅阁另外,我们将继续加大软件、系统、硬件等领域的创新投入,运营费用也会相应增加。
黄仁勋:我完全同意Colettea的观点。我想补充一点,我们与供应链进行计划、预测和谈判。我们的供应链合作伙伴很早就了解我们的市场需求和期望,双方多年来保持着密切的合作和协商。虽然最近市场需求的增长确实引人注目,但您应该知道我们的供应链合作伙伴已经与我们合作多年。在许多情况下,我们已经获得了重要的供应资源。毕竟我们是这个领域世界领先的公司。同时,我们在财务层面与他们保持密切沟通,以确保预测和计划的实施。因此,这些前期准备工作为应对成本压力、维持毛利率目标提供了有力支撑。
威尔斯法rgo 分析师 Aaron Lakes:鉴于公司刚刚宣布的围绕 Anthropic 的合作计划,以及 NVIDIA 广泛的客户群,我很好奇管理层是否改变了对人工智能专用集成电路 (ASIC) 在构建此类架构中的作用的看法。黄仁勋过去一直坚称,其中许多项目永远不会实施。我想知道今天的情况如何?我们是否更倾向于 GPU 架构?
黄仁勋:首先我们要明确的是,行业内的竞争本质上是团队之间的竞争。在全球范围内,能够真正创造出如此复杂产品的顶级团队屈指可数。众所周知,在Hopper和Ampere架构时代,推出一个图形处理器就相当于创建了一个完整的人工智能加速的计算机系统。但现在我们需要打造的是一套完整的机柜我们需要开发三种不同类型的交换机来满足垂直扩展、水平扩展和跨平台扩展的需求。而且,目前的计算节点的构建还无法用单芯片来实现。现代计算机系统有许多新的要求。例如,人工智能现在需要过去不存在的存储能力。现在我们需要能够保存信息。所需的存储容量和上下文数据都非常大,这也给存储架构的设计带来了很大的挑战。此外,人工智能模型的类型呈爆炸式增长,从混合专家模型、密集模型、扩散模型到自回归模型,以及遵循物理定律的生物模型。近年来,这些型号的数量显着增加。目前行业面临的挑战是,不仅技术研发不够变得更加复杂,但人工智能模型的多样性也达到了前所未有的水平。我们之所以能够保持领先地位,主要得益于以下五个好处。首先,我们可以在您技术转型的每个阶段提供高效的加速支持。统一计算架构及其扩展技术实现了通用加速计算的平滑过渡。我公司在生成人工智能和代理技术领域均拥有较高的技术能力。客户可以简单地采用我们的架构,适应不同阶段的不同阶段,而无需投入额外的成本来适应它们。轻松适应不断变化的工作负载。
其次,我们在整个人工智能过程中表现良好。大家都知道我们在模型预训练阶段的优势,在模型调优阶段我们的优势也很明显。事实上,我们模型推理领域知识丰富,推理技术难度极大。有些人可能认为推理是一种一次性计算过程。这看起来很简单,任何人都可以涉足这个领域。然而,真实情况却恰恰相反。推理技术是所有方面中最困难的。这是因为让一个系统像人一样“思考”并不容易。
第三,我们的架构是世界上唯一能够适应所有人工智能模型的架构。我们的架构能够有效运行各种尖端或开源人工智能模型。无论是科学模型、生物模型还是机器人相关模型,都完全兼容。无论模型是自回归的、基于扩散原理的,还是针对各种主流平台量身定制的,我们的架构都可以轻松处理,这是世界上任何其他架构都无法比拟的。
四、我们的技术涵盖了v云场景的多样性。开发人员喜爱我们产品的主要原因之一是我们技术的全面覆盖。我们的产品兼容所有主流云平台,也允许我们为客户构建小型专用计算集群。从云端到本地机房,从机器人系统到外围设备、个人电脑等终端,只要使用我们的架构,一切都会顺利运行。这种兼容性在业界是一个很大的优势。
最后一点,也许也是最重要的一点,是它是云服务提供商还是像Humane、CoreWeaver(AI云计算公司)、Nebius(云原生AI平台)或Oracle Cloud这样的创新公司。它是一家基础设施公司还是什么? NVIDIA 是您最佳的平台选择。主要原因是我们可以实现产品销售多元化,帮助合作伙伴拓展市场。在数据中心部署中,永远不会可以为特定应用随机选择 IC。需要考虑很多问题,比如产品市场在哪里,如何保证业务多样性,如何保持系统稳定性、架构的通用性和功能的丰富性等。 NVIDIA不仅销售范围广泛,还拥有庞大的产业生态系统。
只有依靠五个关键优势:完全转型阶段的加速、人工智能流程的完全适配、模型的完全兼容、场景的完全覆盖以及最终各个市场的销售保障,我们才能够在行业中保持持续的领先地位。 (完)
新浪财经公众号
我们每天24小时播放最新的财经新闻和视频。更多粉丝福利,请扫描二维码关注我们(新浪财经)

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注