您好:决胜麻将外卦神器下载安装这款游戏是可以开挂的 ,软件加微信【添加图中微信】确实是有挂的,很多玩家在这款游戏中打牌都会发现很多用户的牌特别好,总是好牌,而且好像能看到其他人的牌一样 。所以很多小伙伴就怀疑这款游戏是不是有挂 ,实际上这款游戏确实是有挂的,添加客服微信【添加图中微信】安装软件.
1.决胜麻将外卦神器下载安装这款游戏是可以开挂的,确实是有挂的 ,通过添加客服微信【添加图中微信】安装这个软件.打开.
2.在"设置DD辅助功能DD微信麻将辅助工具"里.点击"开启".
3.打开工具加微信【添加图中微信】.在"设置DD新消息提醒"里.前两个选项"设置"和"连接软件"均勾选"开启".(好多人就是这一步忘记做了)
亲,这款游戏原来确实可以开挂,详细开挂教程
1、起手看牌
2 、随意选牌
3、控制牌型
4、注明 ,就是全场,公司软件防封号、防检测 、 正版软件、非诚勿扰。
2022首推。
全网独家,诚信可靠 ,无效果全额退款,本司推出的多功能作 弊辅助软件。软件提供了各系列的麻将与棋 牌辅助,有 ,型等功能 。让玩家玩游戏,把把都可赢打牌。
详细了解请添加《》(加我们微)
本司针对手游进行破解,选择我们的四大理由:
1、软件助手是一款功能更加强大的软件!
2 、自动连接,用户只要开启软件 ,就会全程后台自动连接程序,无需用户时时盯着软件。
3、安全保障,使用这款软件的用户可以非常安心 ,绝对没有被封的危险存在 。
4、打开某一个微信【添加图中微信】组.点击右上角.往下拉."消息免打扰"选项.勾选"关闭"(也就是要把"群消息的提示保持在开启"的状态.这样才能触系统发底层接口)
说明:决胜麻将外卦神器下载安装是可以开挂的,确实是有挂的,。但是开挂要下载第三方辅助软件 ,
英伟达公司今日宣布在人工智能软件和网络创新方面取得重大进展,旨在加速AI基础设施建设和模型部署。
作为驱动AI经济发展的图形处理单元制造商,英伟达为其专门针对AI工作负载设计的Spectrum-X以太网交换平台推出了Spectrum-XGS"千兆级"技术 。Spectrum-X能够连接数据中心内的整个集群 ,让海量数据集在AI模型间流动。而Spectrum-XGS则进一步扩展了这一能力,提供数据中心间的编排和互连功能。
"大家听过我们使用'向上扩展'和'向外扩展'这些术语 。现在我们引入一个新概念——'跨域扩展',"英伟达加速计算产品总监戴夫·萨尔瓦托表示。"这些交换机专门用于支持多站点规模扩展 ,让不同数据中心能够相互通信,本质上就像一个超大GPU。"
在数据中心应用方面,"向上扩展"意味着更大的机器,"向外扩展"指的是数据中心内更多的机器 。然而 ,许多数据中心在功耗或散热能力方面存在限制,超过阈值就会影响效率。这限制了特定位置可部署的机器数量或计算能力。
萨尔瓦托表示,该系统能最大程度降低抖动和延迟——即数据包到达时间的变化和发送数据与接收响应之间的延迟。这两个因素在AI网络中至关重要 ,因为它们决定了跨站点分布的GPU之间能够实现的带宽 。
相比之下,英伟达在5月发布的网络结构技术NVLink Fusion,允许云服务提供商扩展数据中心规模 ,同时处理数百万个GPU。NVLink Fusion和Spectrum-XGS共同构成了AI基础设施扩展的两个层次:数据中心内部扩展和跨多个数据中心扩展。
Dynamo是英伟达的推理服务框架,负责模型部署和知识处理 。
英伟达一直在研究如何使用该平台通过名为"分离式服务"的专门技术来部署模型。这种技术将"预填充"(上下文构建)和"解码"(Token生成)分配到不同的GPU或服务器上。
这点非常重要,因为推理服务曾经被认为是模型训练的次要任务 ,但在智能体AI时代已成为严峻挑战,推理模型生成的Token数量远超早期模型 。Dynamo正是英伟达针对这一问题的解决方案,提供更快 、更高效、更具成本效益的处理方式。
"以GPT OSS这样的模型交互性为例——这是OpenAI刚发布的最新社区模型 ,我们能够实现每秒Token数量约4倍的提升,"萨尔瓦托说道。"在DeepSeek上,我们也取得了显著改进,实现了2.5倍的性能提升 。"
英伟达还在研究"推测解码"技术 ,使用第二个较小的模型来猜测主模型对给定提示的输出,以此加速处理过程。"这种技术的工作原理是使用所谓的草稿模型,这是一个较小的模型 ,试图生成潜在的下一个Token,"萨尔瓦托解释道。
由于较小的模型速度更快但准确性较低,它可以生成多个猜测供主模型验证 。
"这里的关键在于 ,草稿模型推测性地正确猜中下一个Token的次数越多,就能获得越多的性能提升,"萨尔瓦托解释说。"我们已经看到使用这些技术能带来约35%的性能提升。"
据萨尔瓦托介绍 ,主要的AI模型会根据其学习到的概率分布并行进行验证。只有被接受的Token才会被提交,被拒绝的Token则被丢弃 。这将延迟控制在200毫秒以内,他称之为"快速且交互性强"。
Q1:Spectrum-XGS技术是什么?它有什么作用?
A:Spectrum-XGS是英伟达为Spectrum-X以太网交换平台推出的"千兆级"技术 ,专门针对AI工作负载设计。它能提供数据中心间的编排和互连功能,让不同数据中心相互通信,本质上就像一个超大GPU,实现"跨域扩展" 。
Q2:Dynamo推理服务框架如何提升AI模型性能?
A:Dynamo通过分离式服务技术 ,将"预填充"和"解码"分配到不同GPU或服务器上。在GPT OSS模型上能实现每秒Token数量约4倍提升,在DeepSeek上实现2.5倍性能提升,为智能体AI时代提供更高效的处理方式。
A:推测解码使用较小的草稿模型来猜测主模型的输出 ,加速处理过程 。草稿模型速度快但准确性低,能生成多个猜测供主模型验证。英伟达已通过这项技术实现约35%的性能提升,延迟控制在200毫秒以内。
本文为澎湃号作者或机构在澎湃新闻上传并发布 ,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台 。申请澎湃号请用电脑访问http://renzheng.thepaper.cn。
Android版
iPhone版
iPad版
沪ICP备14003370号
沪公网安备31010602000299号
? 2014-2025 上海东方报业有限公司
专题:英伟达营收再创新高 营收展望难称亮眼
英伟达公布截至2025年7月30日的2026财年第二财季财报:营收为467.43亿美元 ,同比增长56%,环比增长6%;净利润为264.22亿美元,同比增长59% ,环比增长41%;不按照美国通用会计准则的调整后净利润为257.83亿美元,同比增长52%,环比增长30%(注:英伟达财年与自然年不同步,2025年1月底至2026年1月底为2026财年)。
详见:英伟达第二财季营收467.43亿美元 净利润同比增长59%
财报发布后 ,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问 。
以下是分析是问答环节主要内容:
Cantor Fitzgerald分析师C.J. Muse:从晶圆下线到机架出厂的交付周期长达12个月,管理层在今天的电话会议中也已确认 ,Rubin平台将按计划在下半年实现营收贡献。这一类投资显然大多是跨年度的项目,能否推进还取决于电力 、冷却等配套条件。所以我希望管理层能谈谈对于2026年及以后增长的展望;如果能同时说明网络业务与数据中心业务在整体增长中所起到的作用,对于投资者将非常有帮助。
黄仁勋:从最核心的驱动因素来看 ,关键在于推理型智能体的演进与落地 。简而言之,过去的聊天机器人都是“一次性交互 ”模式:你输入一个指令,它就生成一个答案。而现在的人工智能(AI)能自主开展研究、进行思考、制定计划 ,甚至还会使用工具。这种能力被称为“深度思考”,通常它思考的时间越长,生成的答案质量就越高 。对比“一次性交互”模式与推理型智能体AI模型:后者所需的计算量可能是前者的100倍 、1000倍 ,甚至在需要进行大量研究、文本阅读与理解任务时,计算量还会更高。因此,智能体AI的出现,使得整体计算需求实现了爆发式增长 ,其效用也随之大幅提升。得益于智能体AI,AI的“幻觉现象”(指生成虚假或错误信息)发生率显著下降,如今我们可以借助AI使用工具、执行任务 ,企业级应用市场也由此被打开 。正是在智能体AI与视觉语言模型的推动下,我们如今在物理AI领域,包括机器人技术、自主系统 ,看到了突破性进展。过去一年,AI领域取得了巨大进步,而智能体AI系统 、推理系统的出现 ,无疑是一场彻底的革命。
为了顺应这一趋势,我们打造了Blackwell平台及NVLink 72系统,这是一套面向当下需求的机架级计算系统 。我们为此研发了数年时间 ,去年,我们实现了从NVLink 8(节点级计算,每个节点就是一台计算机)到NVLink 72(机架级计算,每个机架就是一台计算机)的技术跃迁。将NVLink 72整合为机架级系统的过程极具挑战性 ,但成果却非同凡响,借助NVLink 72,我们实现了数量级的速度提升 ,进而提升了能源效率,也降低了Token生成——也就是AI处理数据的核心环节——的成本。至于你提到的长期展望,未来几年 ,乃至未来五年,我们将依靠Blackwell、Rubin以及后续迭代平台,逐步切入一个规模可观的市场 。确切地说 ,这是一个价值3万亿至4万亿美元的AI基础设施机遇,而在过去几年,仅头部四家云服务提供商(CSP)的资本开支就实现了翻倍 ,如今已达到约6000亿美元。我们正处于这场基础设施建设的起步阶段,而AI技术的进步,也确实让AI能够被更多行业采纳,用于解决各类实际问题。
美银美林分析师Vivek Arya:能否先请管理层澄清一下关于中国市场20-50亿美元(H20发货金额)的两个问题:一是要实现这一目标需要哪些条件?二是进入第四季度后 ,中国业务可持续增长的基础是什么?另外,请教黄仁勋与市场竞争格局相关的问题,目前公司的多家大型客户已开展或计划推进多个 专用集成电路(ASIC)项目 ,其中有一家竞争对手曾表示,其ASIC业务明年有望实现55%-60%的增长。是否认为存在这样一种可能性,即市场会更多地向ASIC倾斜 ,而减少对英伟达产品的依赖?投资者也希望了解客户的实际态度,他们是如何平衡商用芯片与ASIC的使用比例的?
科莱特·克雷斯:关于H20产品发货需满足哪些条件的问题,目前市场对我们的H20产品存在需求 ,我们也已收到首批许可 。此外,我们的供应链已准备就绪,能够提供充足货源 ,这也是我们此前表示本季度H20产品潜在发货金额可能达到20-50亿美元的原因。不过目前我们仍在等待一些地缘政治相关问题的明确结果,政府间的沟通仍在持续,同时企业也在评估自身采购需求与决策方向。因此,现阶段这一金额仍存在不确定性 ,我们尚无法确定本季度最终的发货总额 。但如果后续市场需求进一步增加、获得更多许可,我们仍有能力额外生产并交付更多H20产品。
黄仁勋:英伟达在ASIC方面从事的是全然不同的工作,当下许多ASIC相关项目已启动 ,也涌现了不少初创公司,但最终投入量产的产品却寥寥无几,原因在于 ,开发ASIC确实难度极高。加速计算不同于通用计算,在加速计算的场景中,不能简单编写软件后就将其编译到处理器上运行 ,加速计算涉及全栈代码设计难题 。近年来,AI工厂变得愈发复杂,因为其处理的问题规模大幅增长 ,显然,这已成为世界上前所未有的最具挑战性的计算机科学难题。栈结构非常复杂,模型的变化速度同样惊人,从基于自回归的生成式模型 ,到基于扩散的生成式模型 、混合模型,再到多模态模型。以Transformer模型为基础衍生或进化而来的各类模型层出不穷,数量之多令人却步 。
英伟达的优势之一在于 ,我们的产品遍布各大云平台,所有计算机公司均可采用。凭借同一编程模型,我们的产品可广泛应用于云端、本地、边缘端乃至机器人领域。因此 ,全球所有框架对英伟达提供支持是顺理成章的事 。开发新模型架构时,在英伟达平台上发布通常是最合理的选择。我们的平台具备出色的多样性,不仅能适配任何架构 ,且应用广泛,还能加速整个流程——从数据处理 、预训练、借助强化学习进行的后训练,到推理的每一个环节。所以 ,采用英伟达平台搭建数据中心,能实现最佳效用,并拥有更长的有效使用周期。
此外,ASIC的发展已经演变成一个极其复杂的系统问题 。人们常常讨论芯片本身 ,在提及ASIC的时候,许多人会想到GPU,但为了构建Blackwell及Rubin平台 ,我们需要打造能连接高速内存的CPU,还要有适用于智能体AI所需大型KV缓存的超低能耗内存,并将其与GPU、超高速网卡相连;还需要扩展式交换机 ,即我们具有革命性的NVLink产品,其如今已发展至第五代;也需要分布式交换机,例如量子交换机或Spectrum X以太网交换机;并且 ,现在我们需要跨交换机扩展,从而为具备数吉瓦计算能力并实现互联互通的AI超级工厂奠定基础,这就是我们本周在HotChips大会上发布的Spectrum XGS。因而 ,我们所开展的工作极为繁杂特殊,且都是在超大规模下进行的。
最后我还想说一点,英伟达被各大云平台接纳是有充分理由的 。我们的产品拥有最佳的能效表现,每瓦性能在所有计算平台中居于首位。在数据中心供电受限的情况下 ,每瓦性能直接关乎收益。大家应该听我讲过,很多情况下,投入越多 ,增长越多 。鉴于我们具备卓越的每美元性能表现(单位资本投入带来的性能),客户也能获取丰厚的利润。所以,英伟达架构蕴含的增长机遇与毛利润机遇是无与伦比的。这也解释了为何所有云厂商 、初创企业以及计算机公司都会选用英伟达 。我们为AI工厂提供的 ,是真正全面的全栈式解决方案。
Melius Research分析师Ben Reitzes:我想请教管理层关于“数据中心基础设施支出会在2030年末达3至4万亿美元 ”的预测。此前管理层曾提到,到2028年仅计算领域的支出规模就可能在1万亿美元级别 。若结合过往的表述,3至4万亿美元的总支出规模 ,似乎意味着计算领域的支出可能会超过2万亿美元。我想确认这一推测是否正确,以及这是否是管理层观察到的2030年末的市场趋势。同时也想了解在这一市场中英伟达会取得多少份额,因为大家知道目前英伟达在整体基础设施的计算领域份额已经非常高了。此外 ,我还想请教,要实现3至4 万亿美元的支出规模,管理层是否担心存在某些瓶颈,比如电力供应问题?
黄仁勋:正如大家所知 ,仅头部四家超大规模云厂商的资本开支,就在两年内实现了翻倍 。随着AI革命全面推进、AI竞赛正式打响,它们的年度资本开支已增至6000亿美元。从现在到2030年末还有五年时间 ,而这 6000 亿美元还仅仅是头部四家厂商的投入规模。除此之外,其他企业仍在建设本地数据中心,全球范围内还有众多云服务提供商在持续布局 。目前美国的计算能力约占全球的 60% ,而长期来看,AI 的发展规模理应与 GDP 规模及增长相匹配,当然 ,AI 本身也会推动 GDP 增长。
至于英伟达在其中的贡献,以一座吉瓦级 AI 工厂为例,其整体投入规模通常在 500 亿至 600 亿美元之间 ,误差约为 10%,而英伟达在其中的份额约为 350 亿美元左右,这同样存在一定误差,也就是说 ,在每座投入 500 亿美元左右的吉瓦级数据中心中,英伟达的产品及解决方案占比约为 350 亿美元。当然,我们提供的并非只有 GPU 。大家都知道 ,英伟达因研发并发明 GPU 而闻名,但过去十年间,我们已真正转型为一家 AI 基础设施公司。仅构建一套 Rubin AI 超级计算机 ,就需要六种不同类型的芯片,若要将其扩展到吉瓦级规模,则需要数十万个 GPU 计算节点 ,以及大量机架设备。因此,我们本质上是一家 AI 基础设施企业,我们希望继续为行业发展贡献力量 ,让 AI 的应用价值更高 。
同时至关重要的是,持续提升 “每单位能耗性能”。为什么这一点很重要?正如你所提到的,未来的限制因素很可能始终是电力供应,或是 AI 基础设施建设过程中的其他制约条件 ,所以,我们需要尽可能从每单位能源中挖掘最大性能。英伟达产品的每单位能耗性能,直接决定了 AI 工厂的收入增长 ,这种影响是直接的:一座 100 兆瓦(megawatt)的工厂,其每 100 兆瓦的能耗对应的就是收入,具体可体现为 “工厂每 100 兆瓦能耗产生的 Token 数量” 。同时 ,我们产品在 “花费每美元所产生的产品性能 ” 方面也极具优势,这能帮助客户实现更高的业务毛利率。当然,电力供应方面的情况确实是未来需要应对的限制因素 ,但总体而言,未来五年,数据中心基础设施支出达 3 万亿至 4 万亿美元的预测 ,是相当合理的。
摩根士丹利分析师Joseph Moore: 祝贺贵公司重新获得中国市场机会。能否请管理层谈谈其长期前景?管理层曾提到中国拥有人工智能软件领域约一半的力量 。想了解英伟达在中国业务能实现多大的增长,以及最终获得平台架构授权对你们来说有多重要?
黄仁勋:我估计,如果我们能用具备竞争力的产品开拓中国市场,今年有望为我们创造约 500 亿美元的市场机会。如果今年能够实现这样的水平 ,再考虑到全球其他地区人工智能市场也在增长的情况,预计未来中国市场每年会有 50% 的增幅。中国是人工智能研究人员的汇聚地,全球约 50% 的人工智能研究人员都在中国 。众多领先的开源模型也在中国诞生 ,所以,我认为美国科技公司开拓中国市场是相当重要的。中国的开源模型质量极高,DeepSeek 已获得全球关注 ,通义千问、豆包 、Kimi也非常出色,另外还有大量新模型不断涌现,它们大多为强大的多模态语言模型 ,都有力推动了全球企业对人工智能的采用。
企业期望构建自身定制的专有软件堆栈,因此,开源模型对企业至关重要 ,对想要打造专有系统的软件即服务(SaaS)企业同样意义重大,其对全球机器人技术的发展也起到了惊人的推动作用 。所以,开源极为重要,而且中国必然会成为一个规模庞大的市场。我们正与政府沟通 ,强调美国公司进军中国市场的重要性。大家知道,面向不在实体清单上的公司的 H20 芯片出口已获批,并且许多许可证也已签发 ,因此,我认为我们确实有可能将 Blackwell 系列产品推向中国市场 。
富国银行分析师Aaron Rakers:我想回到本周发布的 Spectrum XGS 产品上,目前公司的以太网产品年化收入已突破 100 亿美元。想请教管理层 Spectrum XGS 的市场机遇在哪里?我们是否可以将其定位为 “数据中心互联(DCI)解决方案”?另外 ,在整个网络产品组合中,您对这一产品的市场规模有何判断?
黄仁勋:我们目前提供三类网络技术,分别对应 “纵向扩展(scale up)”“横向扩展(scale out) ” 和 “跨域扩展(scale across)” 三种场景。首先是纵向扩展 ,目的是构建尽可能强大的虚拟 GPU 。NVLink 技术在这方面具有革命性意义:正是 NVLink 72 的推出,让 Blackwell 平台相比采用 NVLink 8 的 Hopper 平台实现了代际飞跃。当前,随着深度思考模型、智能体 AI 和推理系统的发展 ,NVLink 的核心作用是提升内存带宽,这对推理系统至关重要,因此 NVLink 72 的价值极为突出。
其次是横向扩展,我们为此提供两类技术方案。其中一类是 InfiniBand(无限带宽技术) ,它无疑是延迟最低、抖动最小、横向扩展能力最强的网络技术 。不过,该技术对网络管理专业度要求较高,对于超级计算场景及顶尖模型研发团队而言 ,量子 InfiniBand 是无可争议的首选。如果对 AI 工厂进行性能基准测试,会发现搭载 InfiniBand 的工厂性能表现最佳。第二类是针对已大规模部署以太网的客户,我们推出了定制化的 Spectrum 以太网 ,它并非通用型产品,而是集成了低延迟 、低抖动、拥塞控制等一系列新技术,性能能无限接近 InfiniBand ,也就是我们所说的 Spectrum X 以太网 。最后是跨域扩展,对应的产品就是 Spectrum XGS,它是面向 “吉瓦级” 场景的技术 ,可将多个数据中心、多个 AI 工厂连接成一个 “超级工厂 ”的巨型系统。
显然,网络技术在 AI 工厂中至关重要,事实上,选择合适的网络技术能显著提升性能与吞吐量 ,比如将效率从 65% 提升至 85% 甚至 90%,这种性能飞跃相当于让网络方面的投入近乎为零。要知道,一座吉瓦级 AI 工厂的投入约为 500 亿美元 ,若能通过网络技术将工厂效率提升十几个百分点,就能带来 100 亿至 200 亿美元的实际收益,投资回报率极高 。这也是英伟达在网络领域投入巨大资源的原因 ,包括我们在五年半前收购迈络思(Mellanox)也是出于这一战略考虑。正如我们之前提到的,Spectrum X 目前已成为规模可观的业务,而它推出才不过一年半时间 ,堪称爆款产品。未来,上面提到的三类网络技术——包括 NVLink 负责纵向扩展 、Spectrum X 与 InfiniBand 负责横向扩展、Spectrum XGS 负责跨域扩展——都将拥有广阔市场前景 。
伯恩斯坦研究分析师Stacy Rasgon:我有一些问题想提给科莱特。管理层提到超过 70 亿美元中绝大部分将来自数据中心业务的贡献,投资者应如何看待 Blackwell、Hopper 和网络业务在这 70 亿美元中所占的份额?本季度 Blackwell 的收入似乎可能达到 270 亿美元 ,而上季度是 230 亿美元。在推出 H20 之后,Hopper 仍有 60 到 70 亿美元的收入 。管理层认为 Hopper 的强劲势头会持续下去吗?究竟该如何分析这 70 亿美元在各个业务中的占比情况?
科莱特·克雷斯:针对你的问题,首先,可以参照我们第二季度到第三季度的增长情况。就数据中心业务而言 ,Blackwell 仍将占据最大份额。但要知道,这既有益于我们的计算业务,也有助于网络业务的增长。因为我们销售的大型系统采用了刚刚提到的 NVLink 技术 。我们仍在销售 Hopper ,包括 H100 和 H200,它们均为 HGX 系统。不过我依旧认为,Blackwell 会在我们的业务中占主导地位 ,所以,我们会继续推进。关于本季度末的具体情况,我们没有更多细节可供提供 。但大家可以预期 Blackwell 会再次成为增长的驱动力。
高盛集团分析师James Schneider:管理层此前明确阐述了你们看到的推理模型市场方面的机遇 ,也相对详细地介绍了 Rubin 平台的技术规格。能否进一步说明,管理层如何看待 Rubin 平台未来的产品迭代节奏?它能为客户带来哪些新增的服务能力?另外,从性能与功能提升的角度来看 ,相比 Blackwell 平台的升级幅度,Rubin 平台的提升会更大 、更小,还是处于相近水平?
黄仁勋:我们正遵循年度迭代的节奏推进,选择这样的节奏 ,核心目的是通过持续升级帮助客户加快成本降低速度、最大化收入产出 。当我们提升每瓦性能,也就是单位能耗下的 Token 生成量时,实际上是在直接推动客户的收入增长。以推理系统为例 ,Blackwell 平台的每瓦性能比 Hopper 平台高出一个数量级(10 倍左右)。而所有数据中心本质上都受电力供应限制,因此采用 Blackwell 平台的客户,能在相同能耗下实现收入最大化 ,这一优势无论是相较于我们过往的产品,还是当前全球任何其他平台,都十分显著 。此外 ,Blackwell 平台的每美元性能也极具竞争力,能够帮助客户提升毛利率。正因我们每一代产品都有突破性的技术构想,通过推出新架构 ,就能不断帮助客户提升收入、增强 AI 能力 、改善盈利水平。因此,我们建议合作伙伴与客户根据年度节奏来规划数据中心的建设与升级 。
至于 Rubin 平台,该平台将承载大量创新技术,从现在到明年正式发布前 ,我还有足够时间向大家逐步介绍 Rubin 的所有突破,它确实包含很多出色的设计,但目前还不能透露更多细节 ,我会留到 GTC 大会(英伟达全球开发者大会)上再详细说明。不过可以明确的是,未来一年,我们将全力推进 Grace Blackwell(GB200)以及 Blackwell Ultra(GB300)的量产与落地 ,加速向数据中心市场交付。今年显然是创纪录的一年,我预计明年也将如此。一方面,我们会持续提升 AI 性能 ,朝着超人工智能(ASI)的方向迈进;另一方面,也会不断增强超大规模云厂商的收入提升能力 。
瑞银分析师Timothy Arcuri:管理层此前曾表示 AI 市场的复合年增长率为 50%,我想知道明年的市场能见度有多高?基于这一增长率 ,将公司明年数据中心业务收入的增长目标设定为与之持平,是否合理?我认为英伟达的增速至少能达到这一复合年增长率,不过想了解其中是否存在可能影响增速的利好或利空因素?
黄仁勋:我可以提供一个看待此问题的最佳方式,那就是对于明年而言 ,我们已从大型客户那里获得了相当可观的需求预测,而且我们仍在不断赢得新业务,同时市场上还在涌现大量新创公司。提醒大家注意的一点是 ,去年 AI 原生初创公司的融资额达 1000 亿美元,而今年尚未结束,融资额已达 1800 亿美元。若观察 AI 原生领域 ,去年营收最高的一批 AI 原生初创公司总收入为 20 亿美元,今年已增至 200 亿美元;明年营收较今年再增长 10 倍,也并非不可能 。此外 ,开源模型如今正推动大型企业、SaaS 公司、工业企业及机器人公司加入 AI 革命,这成为了又一个增长来源。
无论是 AI 原生企业 、企业级 SaaS 公司、工业 AI 领域还是初创公司,目前市场对 AI 的关注度和需求都极为旺盛。想必大家都有所耳闻 ,当前市场的热度极高,所有产品都已售罄,H100、H200 均断货;大型 CSP 甚至开始从其他同行那里租赁算力;AI 原生初创公司更是在拼命争抢算力资源,以训练其推理模型 。可见当前需求确实非常强劲。
再看长期前景。从现状来看 ,仅头部超大规模云厂商的资本开支就在两年内实现了翻倍,目前年开支约为 6000 亿美元 。对我们而言,在这 6000 亿美元的年资本开支中占据重要份额 ,是合理且可实现的。因此我认为,在未来数年乃至整个本十年内,我们面前无疑将是一个增长速度快、规模极为可观的市场机遇。
黄仁勋财报会结语:
Blackwell 平台是全球期待已久的下一代人工智能平台 ,它实现了卓越的代际飞跃 。英伟达的 NVLink 72 机架级计算技术具有革命性意义,其推出恰逢其时 —— 推理型人工智能模型正推动训练与推理性能需求实现数量级增长。目前,Blackwell Ultra 正全速量产 ,市场需求异常旺盛。
我们的下一代平台 Rubin 已进入晶圆制造阶段。该平台包含 6 款全新芯片,且所有芯片均已交付台积电生产 。Rubin 将成为我们的第三代 NVLink 机架级人工智能超级计算机,因此我们预计其供应链将更加成熟 ,且能实现全面规模化部署。2030 年之前,Blackwell 与 Rubin 这两大人工智能工厂平台,将共同助力我们切入规模达 3 万亿至 4 万亿美元的全球人工智能工厂建设市场。
当前,客户正在构建规模空前的人工智能工厂:从过去 “数万台 Hopper GPU 支撑数十兆瓦数据中心” ,发展到如今 “数十万台 Blackwell GPU 支撑百兆瓦设施”;而在不久的将来,我们还将部署数百万台 Rubin GPU 平台,为多吉瓦级 、多站点的人工智能超级工厂提供算力支持 。每一代平台的迭代 ,都只会让市场需求进一步增长。
过去的 “一次性交互聊天机器人 ”,如今已进化为具备推理能力的智能体 AI, 这类 AI 能自主开展研究、制定计划、使用工具 ,直接推动训练与推理所需的计算量实现数量级跃升。目前,智能体人工智能已日趋成熟,并推动企业级市场迎来新机遇:企业可针对自身业务流程 、产品及服务 ,构建领域专属或公司专属的人工智能智能体 。物理AI已然来临,这为机器人技术、工业自动化领域开辟了全新赛道。未来,每个行业、每家工业企业都需建设两类工厂:一类用于制造机器 ,另一类用于研发机器所需的机器人人工智能系统。
本季度,英伟达实现了营收新高,在发展历程中达成了又一个非凡里程碑 。未来的机遇规模空前,新一轮工业革命已然开启 ,人工智能竞赛正全面展开。感谢大家今日参与会议,期待在下一次财报电话会议中与各位再会。(完)