出品|网易情报作者|小编|王凤智摄:黄仁勋在 CES 2026 上的演讲,来源:NVIDIA 官网 “没有计算,你就无法生成代币。没有代币,你就无法赚钱。”该公司创始人兼首席执行官黄仁勋在 NVIDIA 刚刚结束的 2026 年第四季度财务报告电话会议上。他用这个简单的结论概括了当今AI行业的核心商业逻辑。数据显示,英伟达财务指标依然强劲,季度营收681亿美元,同比增长73%,净利润大幅增长,毛利率保持在75%的高位。但黄仁勋和首席财务官科莱特·克雷斯较少关注过去的财务数据,而更多地关注“计算机科学作为收入”推动的行业未来。黄仁勋在财报发布会上指出,智能座席行业正处于拐点。以 Anthropic 和 OpenAI 为例。一个尽管前者的收入一年内增长了十倍,但仍然受到算力瓶颈的影响。后者也面临着巨大的算力需求。如今,Claude Code、Codex等智能工具开始为企业创造真正的经济价值,云服务提供商能够投入的算力将意味着他们能够以多快的速度实现收入增长。支撑这一远大愿景的,是NVIDIA日积月累构建的软硬件生态壁垒。 大会透露,即使是六年前推出的A100芯片,在云端仍然稀缺。NVIDIA GPU架构。这种兼容性使 Nvidia 能够在软件工程方面进行大胆而重大的投资。现代软件优化有利于世界各地的大量设备库存,使旧架构能够从新技术中受益。此外,网络业务是NVIDIA基础设施环境的重要组成部分。onment。进入以太网交换市场仅仅两年后,NVIDIA 就迅速确立了自己的全球领导者地位。在被分析师问及能否保持75%的高毛利率时,黄詹勋回应称,专注于技术迭代。我们高毛利率背后的主要驱动力是为我们的客户带来性能的代际飞跃,并继续创造远远超过系统成本的价值。黄仁勋推断,在当前的智能AI浪潮之后,下一波浪潮将是物理AI,将更深入地渗透到制造和机器人领域。此外,黄仁勋还对大会上的“空间计算”照片表示期待。他认识到,虽然目前空间数据中心的经济表现较差,并面临气流不足、无法液冷等严重的物理冷却挑战,但未来潜力巨大。照片:Jen-Hsun Huang在GTC上的演讲,来源:NVIDIA官网 下面是来自NVIDIA财报的会议文字记录。首先,黄仁勋先生致开幕词。本季度,我们显着加深和扩大了与领先模型制造商的合作伙伴关系。我们最近庆祝了 OpenAI 的 GPT-5.2 Codex 的发布。该模型的训练和推理基于Grace Blackwell和NVL72系统。 GPT-5.2 Codex 可以处理长时间运行的任务,包括浏览、工具使用和复杂的执行。 5.3 Codex 也在 NVIDIA 上广泛实现。我们的工程师也喜欢它!我们非常兴奋。我们与 OpenAI 的持续合作。这是一家革命性的公司,我很自豪能够自成立以来一直参与其中。我感到很荣幸。元超级智能研究所正在以闪电般的速度扩张。上周,我们宣布 Meta 正在部署数百万个 Blackwell 和 Rubin GPU、NVIDIA CPU 和 Spectrum-X 以太网用于训练和推理。蒂第二季度,我们还宣布与 Anthropic 建立合作伙伴关系,投资 100 亿美元。 Anthropic 对 Grace Blackwell 和 Vera Rubin 进行训练和推理。 Anthropic的Claude Cowork代理平台具有创新性,为公司内部的AI应用打开了大门。在 Claude Cowork 和 OpenClaw 之间,计算需求正在快速增长。通过与 Anthropic、Meta、OpenAI 和 xAI 的合作,NVIDIA 提供了跨所有云平台的全面覆盖。与此同时,我们从头开始构建完整的人工智能基础设施并提供端到端云支持的能力使我们处于独特的地位,可以在每个阶段与领先的模型构建者密切合作,包括训练、推理和扩展您的人工智能工厂。最后,我们最近签署了 Groq 及其低延迟推理技术的非独家许可协议,并欢迎世界一流的工程团队加入 NVIDIA。正如我们当年整合 Mellanox 一样,我们将利用 Groq 创新来推动 boNVIDIA 架构的基础架构,提升基础设施、性能,并将 AI 提升到新的高度。分析师问答:Vivek Arya,美国银行证券分析师:感谢您回答我的问题。您之前说过,到 2027 年的增长现在是清晰可见的,购买承诺显然支持了这种信心。振顺,我很好奇,如果你看看你们公司最大的云服务客户,今年的云资本支出已经接近7000亿美元,很多投资者认为明年很难维持这个增长率。我们担心一些客户产生现金流的能力也面临压力。我知道您对您的产品路线图、采购承诺等非常有信心,但是您对客户继续增加资本支出的能力有多大信心?即使资本支出不再进一步增长,英伟达能否在当前预算内找到增长之路?谢谢。黄仁勋:我对其现金流增长充满信心,原因很简单。我们看到人工智能代理及其在世界各地公司中的使用出现了拐点。它表现出了极大的实用性。这导致了令人难以置信的计算需求。在这个人工智能的新世界中,计算是一种收入。没有计算就无法生成代币。没有代币你就无法赚钱。在这个人工智能的新世界中,计算就等于收入。至此,随着Codex和Claude Code的商业化,业界对Claude Cowork的期待,以及对OpenClaw及其企业版的热情,我认为每个企业ISV(独立软件供应商)都在该工具平台之上构建代理系统。我相信我们不仅正处于一个转折点,而且已经跨越了这一里程碑。我们正在生成有利可图的代币,这不仅提高了我们这些客户的生产力,而且还使云服务提供商受益。这背后的简单逻辑和想法是计算范式已经改变。过去,软件运行在计算机上,这需要一定数量的计算机。假设每年的资本支出为 300 至 4000 亿美元。所有这些资金现在都投资于人工智能。就人工智能而言,生成代币需要计算能力,这直接转化为增长,进而直接转化为收入。摩根士丹利分析师乔·摩尔:嗯,谢谢你们取得的优异成绩并表示祝贺。非常感谢。您谈到了您在 Anthropic 进行的一些战略投资,以及可能与 OpenAI、CoreWeave 以及英特尔、诺基亚和 Synopsys 等合作伙伴的合作。您显然处于行业的中心。您能否谈谈这些投资的作用以及您认为如何将 ba 用作增强 Nvidia 在生态系统中的地位并分享增长红利的工具? Jen-Hsun Huang:我们在 NVIDIA 所做的一切工作的核心都是生态系统。人们热爱我们的业务,因为我们拥有丰富的生态系统。世界上几乎所有的创业公司都是在NVIDIA平台上开发。我们遍布每个云和每个本地数据中心。我们在机器人和尖端系统领域拥有全球影响力。数以千计的 AI 原生公司依赖 NVIDIA 基础设施。我们希望利用新计算时代、向新计算平台过渡的开端所带来的巨大机遇,让所有人都能使用 NVIDIA 平台。一切都已经建立在 CUDA 之上,因此您有一个非常好的起点。当我们开发整个人工智能生态系统时:语言人工智能、物理人工智能、物理人工智能、生物学、机器人、制造,我们希望在 NVIDIA 构建所有这些生态系统。这是投资跨技术堆栈生态系统的绝佳机会。我们的生态系统现在也比过去更加丰富。以前我们主要提供基于GPU的计算平台,现在我们是一家拥有全维度计算平台的AI计算基础设施公司。除此之外,还有一个对应的g IT 技术堆栈,从计算到 AI 模型、网络和 DPU。如上所述,企业、制造业,无论是工业、科学还是机器人,每个生态系统都有不同的技术堆栈,我们希望继续对其进行投资。我们的投资方向非常明确,是战略性地专注于扩大和深化我们生态系统的影响力。 Harlan Sarr,摩根大通分析师:网络在整个数据中心业务中所占的比例持续增长。在整个 2026 财年,其网络收入逐季度同比增长。如上所述,第四季度同比增长率为3.6倍。这显然得益于其在延伸和扩展网络产品组合方面的强大实力。我记得去年上半年Spectrum-X以太网交换平台的年运营率在100亿美元左右。看来去年下半年可能已升至110亿至120亿美元的水平年。 Jensen 先生,看看您的订单簿,特别是 Spectrum-XGS 的推出和即将推出的 102T Spectrum-6 交换平台,Spectrum 目前的势头如何?您对今年年底有何期望?黄仁勋:大家知道,我们认为自己是一家人工智能基础设施公司,人工智能计算基础设施包括CPU和GPU。 YoWe 发明了 NVLink,将单个计算节点扩展到巨大的计算机架。我们发明了“机架级计算机”的概念。我们不提供计算节点,我们提供完整的机架计算系统。这个基于NVLink交换机的扩展系统随后使用Spectrum-X和InfiniBand进行扩展。我们支持这两种技术。我们还使用 Spectrum-X 水平扩展技术来扩展您的数据中心。我们正在使网络成为计算之家。我认为这是一个自然的延伸。我们开放提供一切,因此客户可以在不同规模上进行混合和匹配,并按照他们的方式集成到定制数据中心中想。毕竟这些都是我们平台的重要组成部分。 NVLink的发明无疑极大地促进了我们网络业务的发展。每个机架有九个交换节点,每个节点有两个芯片,还有更多。每个机架内实现的更改数量确实令人难以置信。我们也是目前全球最大的互联网公司。就以太网而言,大约两年前我们进入了以太网交换市场。今天,我们可能是世界上最大的以太网公司。它很快就会站稳脚跟。 Spectrum-X 以太网网络为我们带来了巨大成功。如您所知,我们始终考虑客户希望如何建立他们的网络。有些人确实喜欢 InfiniBand 的低延迟和扩展功能,因此我们将继续支持它。一些公司更喜欢基于以太网整合数据中心之间的网络。我们利用我们在人工智能流程方面的专业知识创建了一种新型以太网功能在数据中心中突破以太网的极限。我们的 Spectrum-X 性能确实证明了这一点。如果你建造一座 100 亿美元或 200 亿美元的人工智能工厂,你可以很容易地看到网络效率和利用率有 20% 的差异,而这种差异会转化为真正的效益。英伟达的网络业务增长非常快,我认为这只是因为我们正在有效地构建我们的人工智能基础设施,而人工智能基础设施业务本身的增长速度令人难以置信。 Cantor Fitzgerald 分析师 CJ Muse:CPX 用于大上下文窗口,Groq 用于解码。我感兴趣的是他们应该如何考虑未来的路线图,因为他们可能会添加专用的解决方案。我们是否应该考虑定制芯片,无论是按工作负载还是按客户端,这在 Nvidia 越来越受到关注,特别是由于向小芯片架构的转变?太感谢了。黄仁勋:每个人都应该推迟采用chiplet架构尽量。原因是每次跨越小芯片边界时,都需要跨越物理接口。每次遍历接口都会增加延迟并导致不必要的功耗。我们并不反对小芯片。事实上,我已经在使用它了,但只是在我别无选择的情况下。如果你看看 Grace Blackwell 和 Rubin 的架构,他们使用了两个达到掩模尺寸限制的巨大芯片,并将它们无缝地连接在一起,以减少架构之间的通信开销。较小芯片的额外开销反映在竞争对手架构的低效率上。当你看NVIDIA的时候,人们常说这是软件优势,但很难说软件的限制在哪里,硬件架构在哪里开始和结束。我们的软件之所以有效,是因为我们的架构非常好。没有并且怀疑CUDA架构比现有的计算架构更有效和高效。因为 t通过这种架构设计方式,您可以获得更好的每浮点性能和每瓦性能。关于如何考虑 Groq 和低延迟解码器,我有一些很棒的想法,我想在 GTC 上与大家分享。因此,感谢 CUDA,我们的基础设施非常通用,我们将继续保持这一优势。如您所知,我们所有的 GPU 在架构上都是兼容的。因此,当您今天为 Blackwell 进行模型优化时,一切都与软件堆栈和新内容有关,您将致力于优化新模型。排版工作也让霍珀和安培受益匪浅。这就是为什么 A100 在全球推出多年后仍然充满活力和功能。架构兼容性使这成为可能。这使我们能够在软件工程和优化方面进行重要投资,因为我们知道我们的整个 GPU 安装基础、云端、本地、任何地方以及所有架构代都会感受到好处。我们将继续这样做。这使我们不仅可以延长硬件的使用寿命,还可以提供创新、灵活性和速度,从而实现对客户最重要的性能:每美元性能和每瓦性能。我们将在 GTC 上透露有关 Groq 的更多信息,但我们将使用 Groq 作为加速器来扩展我们的架构,就像我们集成 Mellanox 来扩展 NVIDIA 架构一样。伯恩斯坦分析师史黛西·拉斯贡(Stacy Rasgon):科莱特,我想详细阐述一下您关于全年环比增长的陈述。因此,其数据中心业务本季度连续增长超过 100 亿美元,而这一指引似乎表明,新的 100 亿美元环比增长大部分仍来自其数据中心业务。您如何看待今年的情况,特别是现在鲁宾将在今年晚些时候开始提高产量?从那时起,Blackwell 的增长速度显着加快。当我们收购鲁宾时,我们能期待同样的事情吗?也请告诉我们您的期望游戏业务的系统。据我了解,这受到内存供应等问题的影响。您认为2027财年游戏业务能够逐年增长吗?或者他们会因为记忆问题而面临额外的压力吗?克雷斯:让我们从未来的收入预测开始。同样,我们倾向于按季度分析收益。展望全年,我们将继续销售和交付Blackwell,同时Vera Rubin也将进入市场。它可能会发生。这是一个很棒的架构,可以让客户快速实施,为不同的客户规划不同的订单。现在判断 Vera Rubin 今年下半年的初始产量有多大还为时过早,但时间会证明一切。毫无疑问,存在着巨大的需求和兴趣。我们希望几乎所有客户都会购买 Vera Rubin。问题是您能多快将产品推向市场以及您的客户能多快是否将其部署在他们的数据中心?这是你问题第一部分的答案。下半场是关于赌博的事情。我们希望有更多的供应,但我们相信未来几个季度的供应将非常紧张。如果年底前情况好转,就有机会实现同比增长。虽然现在下结论还为时过早,但我们会第一时间告知您最新消息。 Atif Malik,花旗银行分析师:谢谢您回答我的问题。 Renshun,我很好奇你是否能谈谈 CUDA 的重要性,因为人工智能投资资金正在投入推理工作负载。 Jen-Hsun Huang:如果没有 CUDA,我们不知道如何处理推理。我们的整个软件堆栈,包括我们几年前推出的 TensorRT-LLM,仍然是世界上性能最高的推理技术堆栈。优化 NVLink 需要探索和设计在 CUDA 上运行的新并行化算法分配工作负载和推理任务以利用 NVLink 交换机的全部带宽。 NVLink 交换机的每瓦发电性能提高了 50 倍。这是一次令人难以置信的跳跃,也是一次自然的跳跃。 NVLink 开关是一项伟大的发明,但要做好却很难。我们都知道开发交换技术、解耦交换机和构建机架系统对我们来说是多么困难,所有这些都是我们在整个行业的注视下公开进行的。但结果却令人惊讶。瓦特每美元性能提高 50 倍,每美元性能提高 35 倍,推理方面实现了令人难以置信的飞跃。现在,客户必须认识到推理等于收入,这一点很重要。由于代理产生如此多的代币,因此它的作用非常重要。当代理编码时,通常需要几分钟到几小时才能执行,生成数千、数十万甚至数百万个令牌。这些系统,代理系统,允许不同的代理作为一个团队一起工作。生成的代币数量呈指数级增长。推理必须跑得更快,当推理跑得更快时,每个代币就直接货币化,直接转化为收入。推理性能等于客户收入。对于数据中心来说,推理阶段每瓦产生的代币数量直接转化为 CSP(云服务提供商)的收入。原因是每个人都面临能源瓶颈。这意味着无论您有多少个数据中心,每个数据中心都有一个功率限制,例如 100 兆瓦或 1 吉瓦。每瓦产生的任何性能代币都可以货币化,因此具有最高每瓦性能的架构非常重要。每瓦代币转化为每瓦美元,这直接转化为千兆瓦的数据中心收入。您会发现现在每个 CSP 都明白这一点,每个超大规模提供商都明白这一点。资本投资转化为计算能力。使用正确的架构准则进行计算计算等于收入,计算等于收入。如果没有能力投资和信息投资,目前的收入增长就不可能实现。Attica。我想每个人都明白这一点。计算结果等于您的收入。选择正确的架构非常重要。这不仅仅是一个战略问题,也是一个战略问题。它对您的结果有直接影响。关键在于选择正确的架构,即每瓦性能最佳的架构。图片:Jen-Hsun Hua 在 CES 2026ng 上发言,来源:Ben Reitzes,Melius 研究分析师,NVIDIA 官方网站:首先,我要祝贺您将股票薪酬纳入非 GAAP 指标。我认为这是一个很好的举措,但这不是我的问题。我的问题围绕着毛利率及其75%左右的长期可持续性。我们是否应该将持续到 2027 年的供应可见性解释为毛利率可以维持到那时?仁顺,那之后呢?你能透露一下吗围绕内存消耗的一些创新会给我带来更多的好处。您对长期维持这种毛利率水平有信心吗?谢谢。黄仁勋:我们高毛利率背后的主要因素实际上是为我们的客户带来了业绩的代际飞跃。这是最重要的。如果我们能够实现每瓦性能远远超过摩尔定律所能实现的世代跨越,如果我们能够实现每美元性能远远超过系统成本和价格的世代跨越,我们将能够可持续地维持毛利率。这是一个简单但非常重要的概念。我们之所以增长如此之快,首先是因为我们经历的拐点导致全球对代币的需求完全呈指数级增长。我想我们都见过这样的情况,即使是六年前发布的云GPU也被彻底消耗殆尽,价格上涨。我们知道歌曲需要的计算量现代软件开发方法的热情正在呈指数级增长。我们的战略是每年提供完整的人工智能基础设施。今年我们推出了六款新芯片。 Rubin及其下一代产品还将推出多款新芯片。在每一代产品中,我们都力求提供数倍于上一代产品的每瓦性能和每美元性能。这种迭代速度和参与极端协同设计的能力使我们能够为客户提供这种价值和利益。就我们提供的价值而言,这是最重要的。 Antoine Chkaiban,新街研究分析师:关于太空数据中心,我想问一下你们的客户是否正在考虑这一点。您认为这有多可行?时间表是什么?目前经济效益如何?您认为未来将如何发展?谢谢。黄仁勋:目前的经济表现很差,但随着时间的推移会有所改善。如你所知,宇宙万物ks与地球非常不同。尽管能源充足,太阳能电池板体积庞大,但空间充足。从散热的角度来看,空间是寒冷的,但没有空气流动,因此散热的唯一方式是传导,并且需要创建的散热器非常大。液体冷却显然不起作用,因为它很重并且会结冰。我们在地球上使用的方法与在太空中使用的方法略有不同。实际上有许多不同的计算问题需要在太空中完成。 Nvidia 已经是世界上第一家将 GPU 送入太空的公司,Hopper 也已经在那里了。 GPU 在太空中的最佳用例之一是成像。它利用光学和人工智能以非常高分辨率显示图像,并可以在不同角度进行重投影计算。提高分辨率、减少噪音、看得更清楚并创建非常大、非常高分辨率、非常大比例、非常快的图像。据我们所知,将 PB 级的图像数据发送到地球进行处理极其困难。直接在太空中进行会更容易。您可以忽略所有常规数据收集和处理,直到找到有价值的东西。太空中的人工智能将创造出非常酷且有趣的应用。 Mark Lipacis,Evercore ISI 分析师:我想跟进您对收入多元化声明的评论。 Colette,我想您提到超大规模企业占收入的 50% 以上,但这种增长是由其他数据中心客户推动的。我想确认一下以确保我理解正确。这意味着非超大规模企业的客户正在快速增长。如果是这样,您能帮助我了解非超大规模企业的区别是什么吗?他们的做法是否与超大规模企业不同,或者他们做的事情是否相同,只是规模不同?您认为这种趋势会持续下去吗?您是否期望您的客户群增长到非超大规模企业成为大型企业的程度?您业务的一部分?谢谢。 Cress:让我来回答这个问题。如果你看看我们的前五名客户,正如我之前提到的,他们是 CSP(云服务提供商)、超大规模提供商,目前约占我们总收入的 50%。与此同时,我们拥有由许多不同类型的公司组成的庞大且多样化的客户群并与之合作,包括人工智能模型制造商、企业、超级计算和主权国家客户。这涵盖了各种利基市场。正如你所说,这也是一个增长非常快的领域。我们在我们的平台上拥有与多家云提供商相比的强势地位。如今,我们在世界各地拥有非常多元化的客户群。认识到多样性并能够服务所有这些细分市场确实很有价值。我去问仁讯看看是否需要补充。 Jen-Hsun Huang:这是我们生态系统的好处之一,一切都建立在CUDA之上。我们是唯一存在于所有领域的加速计算平台来自所有计算机制造商的云,并且可以在边缘使用,我们现在正在深入通信行业。很明显,未来的无线电将由人工智能提供动力,未来的无线网络也将是计算平台。这是已成定局,但必须有人发明技术才能使其成为可能。为了实现这一目标,我们创建了一个名为 Aerial 的平台。几乎所有的事情都是机器人,所有的自动驾驶汽车都是我们的身影。我们的能力,以及 CUDA 能力,涉及专用处理器的性能,例如 GPU 中的张量核心。还有性能优势。另一方面,C.U.DA的灵活性使其能够解决语言问题、计算机视觉问题、机器人问题、生物学问题、物理问题以及几乎所有类型的人工智能和所有类型的计算算法。我们客户群的多样性是我们最大的优势之一。第二点当然,即使处理器是可编程的,正如我们今天所讨论的,如果没有自己的生态系统、培育它、投资未来的生态系统并继续加强它们,也很难克服“为别人的生态系统接受设计请求”的增长天花板。感谢我们创建的平台,我们可以以非常自然的方式发展和扩展我们的生态系统。最后但并非最不重要的一点是我们与 OpenAI、Anthropic、xAI、Meta,当然还有世界上几乎所有开源社区的合作伙伴关系。 Hugging Face 拥有 150 万个 AI 模型,全部运行在 NVIDIA CUDA 上。整个开源社区可能是世界第二大建模生态系统。 OpenAI 是最大的。第二大可能是所有开源模型的集合。 NVIDIA 可以运行所有这些模型,使我们的平台非常通用、非常易于使用且投资非常安全。这在所有领域创造了客户多样性、平台多样性和可访问性恩特里。因为,如您所知,我们支持世界各地的生态系统。富国银行分析师亚伦·湖人队:好的。感谢您回答我的问题。虽然它坚持平台和极端的协同设计理念,但我认为本季度的一些新闻清楚地表明 Nvidia 要么有能力将 Vera CPU 作为独立解决方案推向市场,要么正在推动它们这样做。我很好奇 Vera 将在我们未来架构的演变中扮演什么重要角色。干草。这是由于推理工作负载的多样性吗?我很好奇你认为这如何适合 Nvidia 的业务,尤其是离散 CPU 方面的发展。谢谢。 Jen-Hsun Huang:我们想分享更多关于GTC的信息。但从宏观架构的角度来看,我们对CPU的架构决策与世界上其他CPU有着根本的不同。这是数据中心中唯一支持LPDDR5的CPU。旨在专注于非常高的数据处理能力。原因我们感兴趣的大部分计算问题都是基于数据的,人工智能就是其中之一。在这个带宽比下,其单线程性能是惊人的。我们做出这个架构决定是因为人工智能的每一步,从数据处理开始,都需要在训练之前进行数据处理。需要进行数据处理、预训练,在后训练阶段,AI学习如何使用工具。在工具使用方面,许多工具运行在纯CPU环境或GPU加速的CPU环境中。 Vera 被设计为在锻炼后阶段成为一个出色的 CPU。对于某些用例,人类内部的人工智能进程需要大量 CPU。如您所知,我们热爱 CPU 就像热爱 GPU 一样。如果您像我一样想将算法加速到极限,阿姆达尔定律需要非常快的单线程 CPU。所以我们构建了 Grace,它对于单线程性能非常好,但 Vera 更好。蒂姆阿库里,瑞银肛门yst:Colette,我想知道您是否可以谈谈资本部署。我知道他们已经大幅增加了采购承诺,但看来他们已经克服了产能瓶颈,今年可能会产生约 1000 亿美元的现金流。 y无论公司业绩有多好,股价似乎涨幅都没有那么大。我认为目前的估值看起来对于在这里进行大规模股票回购来说是一个相当不错的价格。我想知道你是否可以谈谈这一点,但问题是,我们为什么不设定一个更激进的目标并在这里进行一些大额股票回购?谢谢。 Cress:我们正在非常仔细地评估我们的资本回报计划,并相信我们能做的最重要的事情之一就是全力支持摆在我们面前的庞大生态系统问题。这个生态系统无处不在,涵盖了我们必须做的工作,以确保我们的供应商拥有他们所需的供应并支持他们的供应能力,就像我们支持我们的供应商一样供应商和早期开发者在我们的平台上构建人工智能解决方案。我们将继续使其成为我们业务流程和战略投资的非常重要的一部分。当然,我们目前正在回购自己的股票并继续支付股息。我们将在今年继续寻找适当且独特的机会来进行这些不同的资产配置。高盛分析师 Jim Schneider:Jenksan,您之前描述到 2030 年数据中心资本支出可能达到 3 万亿至 4 万亿美元,表明增长率可能会加快,我对下季度的预测也支持了我们。问题是:哪些关键应用领域最有可能推动这种加速?是物理人工智能、代理人工智能还是其他领域?您对3-4万亿美元的市场规模还乐观吗?谢谢。黄仁勋:我们退一步,从不同的角度来推理。首先,从第一原理出发,软件使用AI的方式未来将是代币驱动的。我认为每个人都在谈论代币经济和生成代币的数据中心。推理本质上是生成令牌,而我们是生成它们的引擎。如您所知,我们刚刚讨论了代币和 NVIDIA 的 NVLink 平台。我们讨论了如何使用 Switch 来生成与上一代相比能效提高 50 倍的代币。代币生成将成为未来与软件和计算相关的几乎所有事物的核心。如果我们回顾以前的计算方法,过去软件所需的计算量只是未来所需计算量的一小部分。人工智能已经到来。人工智能不会回来。人工智能将继续发展。如果你想一想,全世界每年在经典计算上的投资在 300 到 4000 亿美元之间。随着人工智能的出现,所需的计算量是以前计算方法的1000倍s。计算需求正在迅速增长。如果我们仍然相信它们具有价值(稍后我们会讨论这一点),那么世界将继续投资于这些代币的生成。世界所需的代币生成能力的投资规模远远超过 7000 亿美元。我们确信我们将来会继续生成代币。我们将继续投资计算能力。基本上,所有公司都会生成代币,因为所有公司都依赖于软件,而所有软件都依赖于人工智能。这就是为什么我称它们为人工智能工厂。无论你是否是云数据中心公司,都有人工智能工厂通过生成代币来产生收入。如果您是企业软件公司,请在工具中为代理系统生成令牌。如果你是一家机器人工厂或一家自动驾驶汽车公司,第一个迹象是你拥有一台巨型超级计算机(基本上是人工智能工厂),它可以生成进入你的汽车并成为人工智能的代币。此外,还必须有一台计算机放置在车辆中以不断生成代币。我们现在非常确定这就是计算的未来。为什么我们相信这是计算的未来?原因是过去软件开发的方式是预先记录的。一切都是预先确定的。预编译软件和内容编写并预录制视频。现在一切都是实时生成的。实时生成内容时,会考虑人类背景、情况、查询和意图,以生成称为 AI(AI 代理)的新软件结果。这比预记录模式需要更多的计算。正如计算机比 DVD 播放器具有更多的计算能力一样,人工智能也比用于开发软件的方法需要更多的计算能力。现在,关于计算可持续性的话题,首先,在计算层面,这是计算的未来。因为归根结底,在行业层面上,所有公司都运行在软件上,云公司也运行在软件上。如果新软件需要生成代币,这些代币可以货币化,按理说,建设数据中心将直接带来收入的增加。计算机科学产生了 ingresos。 Creo que todos entienden esto。我认为人们开始越来越理解这一点。归根结底,人工智能给世界带来的好处最终必须转化为收入。我们看到人工智能代理达到了一个拐点,这在过去几个月确实发生了。当然,业内人士知道这一趋势已有六个月左右的时间了。现在全世界都意识到人工智能代理已经到了一个转折点。这些代理人非常聪明,正在解决实际问题。现在,代理系统明确支持编码,在 NVIDIA,我们所有的程序员都经常使用 Claude Code 或 OpenAI Codex 代理系统,并且根据用例,我们使用游标(通常是三者的组合)和游标。他们使用智能代理进行协同设计和工程NG合作伙伴帮助解决问题。 IA están 的企业发展迅速。您可以看到这一点。就 Anthropic 而言,我认为他们的收入在一年内增长了 10 倍,但他们受到计算能力的严重限制,因为需求令人难以置信。对代币的需求非常高,代币生成率呈指数级增长。当然,OpenAI也是如此,OpenAI的需求也非常大。您在线上的计算能力越强,您的收入增长就越快。这证实了我之前的评论。在这个新世界里,推理就是收入,计算等于收入。因此,从很多方面来说,这都是一场新的工业革命。新工厂、新基础设施正在建设中,这种新的计算形式不会倒退。尽管我们相信代币生成是计算的未来,我坚信这一点,并且我认为整个行业也是如此,但我将开始我们将建立这种能力现在我们将继续扩展。我们目前看到的是代理人工智能的浪潮,下一波将是物理人工智能,将人工智能和这些代理系统应用于物理应用(制造、机器人等)。这对未来来说是一个很好的机会。

推荐文章

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注