本周最令市场震惊的数字莫过于 1 万亿美元。黄仁勋在 NVIDIA 年度 GTC 开发者大会上发表主题演讲时表示,NVIDIA 的下一代 AI 加速芯片架构 Blackwell 和下一代 Rubin 产品预计到 2027 年底将产生至少 1 万亿美元的累计收入,并且这个数字不包括独立 Vera CPU 和 LPX 机架解决方案的销售额。 Nvidia 的芯片收入预计将在六个月内从 5000 亿美元翻一番至 1 万亿美元。在这个“AI泡沫”的游戏市场中,黄仁勋先生为何能做出远超市场预期的决策?这个目标可以实现吗?信心从何而来?黄仁勋的“数百万美元收入”预期背后有三大支柱。 1、极高的订单可见度。 GTC 2026 期间接受外媒采访时,黄仁勋强调 Monda 公布的超过 1 万亿美元营收预测具有很强的“可见性”y。 NVIDIA 预计实现、预订和交付超过 1 万亿美元的业务,并对实现“超过 1 万亿美元”的目标“充满信心”。这种“能见度高”的说法并非空穴来风。黄仁勋指出,如今客户的主要诉求不是价格,而是“保证供应充足”。这反映出AI算力市场仍处于典型的供给瓶颈阶段。需求远远超过供应,客户更关心可用性而不是价格。 Omdia指出,先进封装行业正面临危机。台积电的 CoWoS 产能预计将从 2025 年的每月 75,000 片晶圆扩大到 2026 年底的每月 120,000 至 130,000 片晶圆。然而,他们仍然无法满足增加的需求,最终导致交货时间更长、价格更高,以及更多地将产能分配给更大的客户。黄仁勋进一步分析云提供商和IASHe指出,大公司AC询价让公司对订单、预订和发货具有高度的确定性,这也是公司愿意做出“强可见性”决定的关键原因。从产业角度来看,OpenAI、Meta、微软、谷歌、亚马逊等科技巨头持续加码AI数据中心建设,算力需求快速增长。摩根大通指出,与目前华尔街普遍预测的 2026-2027 年数据中心收入相比,1 万亿美元意味着至少有 500 亿至 700 亿美元的增长潜力。 2.人工智能已经进入“推理时代”。与近两年聚焦“模型训练”不同,黄仁勋在GTC 2026大会上反复强调,AI行业正在进入“推理拐点”。所谓推理,是指AI模型在现实应用中的实时计算需求。当用户向 ChatGPT 询问问题时,使用 Midjourney 生成绘制图像或要求自动驾驶汽车做出决定,其背后都有推理计算的支持。与训练阶段的大型一次性计算不同,推理是一种持续的计算需求,随着用户规模的增长而线性或指数增长。黄仁勋在主题演讲中指出:“训练一个模型并让它做它的事情会让模型变得更加智能。”选举人,但推理将让AI渗透到千家万户。每次用户交互都需要计算能力,并且随着人工智能代理的激增,推理需求将远远超过训练需求。 “市场规模计算: – 训练市场:相对集中,主要由少数科技巨头主导,逐个项目需求爆发 – 推理市场:从边缘设备到消费级应用和企业级解决方案的云 API,需求保持增长。 3. 产品迭代+平台策略。GTC 的 Jen-Hsun Huang 1 美元颤音2026 年公布的离子预测仅涵盖 Blackwell 收入和架构 Next-gen Rubin 这意味着 NVIDIA AI 业务的整体潜在规模甚至可能超出其目前的估计 – Blackwell Arch.itecture (2024-2025):目前已量产,B200 芯片的训练性能是 H100 的 4 倍,推理性能最高可达 30 倍。 – Rubin 架构(2026-2027):大规模部署将于 2026 年开始,预计性能将进一步提升。 – Feynman 架构(2028 年及以后):长期的下一代架构已经在开发中。更重要的是,英伟达正在从“卖芯片”转向“卖AI工厂”。会上,黄仁勋表示,凭借Dynamo的开源推理操作系统、物理AI数据工厂模型,以及与全球工业软件巨头的合作,他们正在构建完整的AI基础设施。分析师指出,这一平台战略意味着英伟达未来营收将大幅增长。不仅限于单个 GPU,而是将扩展到整个数据中心系统。英伟达不仅在人工智能的大浪潮中乘风破浪,还在扩大对支持人工智能的基础设施的控制,并表示“万亿美元的目标将继续增长”。 “通向1万亿美元之路面临多重挑战 尽管黄仁勋的言论充满信心,但累计收入达到1万亿美元(2027年底)仍然面临多重挑战。首先,NVIDIA累计收入达到1万亿美元的时间线不到两年,从2026年3月到2027年底。财年(2025年1月),其收入升至1305亿美元——NVIDIA财年2026年收入(相当于2025年2月至2026年1月)为2159亿美元,2027财年收入达到约2159亿美元。 300-4000亿美元 – 2025-2027年三年的累计收入约为600-7000亿美元 – 2年内收入将达到1万亿美元。仅 027 一项就需要超过 5000 亿美元,英伟达预计 2027 年将实现同比增长近 2 倍。这意味着我们需要实现双倍增长,这对任何硬件公司来说都是前所未有的挑战。其次,市场竞争加剧。 AMD于2025年推出的MI400系列被业界视为对Nvidia Blackwell的直接挑战。 “我们在AI市场的份额正在不断扩大。对于某些工作负载,MI400的性价比比Blackwell更好,这使得它对价格敏感的客户非常有吸引力,”AMD首席执行官苏姿丰在最近的采访中表示。最大的威胁来自英伟达的主要客户,他们正在加速采用本土人工智能芯片。 – Google TPU v6:用于训练和推理Gemini 2.0,性能接近Blackwell – Amazon Trainium3/Inferentia3:在AWS上大规模部署,成本比NVIDIA解决方案低30-40% – Microsoft Maia 200:完全部署在Azure上2025 年底 – MTIA 目标:到 2027 年底推出 4 代本地 AI 计划推出芯片。一位前谷歌芯片工程师表示:“TPU 在训练 Transformer 模型方面的效率已经超越了 GPU。虽然它们不如 CUDA 通用,但本地芯片的经济性对于工作负载定义明确的大型企业来说非常有吸引力。云制造商的目标是到 2027 年,本地芯片将占其 AI 计算能力的 30% 到 40%。” Seaport Research分析师指出:“英伟达比以往任何时候都更需要寻求利润。此外,供应链可能会出现瓶颈。目前,台积电的CoWo先进封装能力是主要瓶颈。台积电正在加速扩产,但高端AI芯片的供需缺口预计将持续到2026年底,如果扩产没有按预期进行,英伟达可能会面临没有订单的尴尬局面,但中东的动荡也在影响着英伟达。”韩国,拥有仓储制造能力。据韩国国际贸易协会2025年统计,韩国氦气进口对卡塔尔的依存度达到64.7%。半导体制造工艺严重依赖氦气来冷却硅晶圆,目前没有可行的替代品。值得注意的是,霍尔木兹海峡的关闭使全球油价一直维持在每桶100美元的高位,这对消耗大量能源的计算机数据中心来说是一个打击。由于能源成本抵消了芯片效率的提高,全球人工智能投资计划可能被迫缩减。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注