不论谁赢了ChatGPT大战 英伟达都是最后的赢家

极客公园 閱讀 31236 2023-3-2 15:55
分享至
微信掃一掃,打開網頁後點擊屏幕右上角分享按鈕

近日,英伟达公布了 2023 财年及其第四季度财报。在加密货币低迷、消费需求疲软、去库存的种种压力下,英伟达在 2023 财年的总营收基本与上一财年持平,约为 270 亿美元。其中,第四季度营收为 60.5 亿美元,较去年同期下降了 21%。

尽管如此,其业绩表现依然好于分析师此前的预期。财报发布当天,英伟达股价大涨 14%,市值达到 5800 亿美元。事实上,人们对英伟达的乐观情绪已经蔓延数月。自今年 1 月以来,英伟达的市值涨幅最高达 60%。

这多亏了 OpenAI,其发布的 ChatGPT 和 DALL-E 2 这样的大型语言模型(Large Language Model)将生成式 AI 引入了公众的视线——几乎所有软件将被 AI 重塑,黄仁勋更是将其比作「AI 的 iPhone 时刻」。

就此,时代的风口由元宇宙和 web3 突然切换到生成式 AI,FAAMG 等硅谷巨头们匆忙备战随时「开打」。而英伟达,稳稳地成为这场时代之战的「最大军火商」。

作为当下「AI 超级周期的跳动心脏」,英伟达的 GPU(图形处理芯片)是训练和操作机器学习模型的最佳选择,因而被视为「2023 年云资本支出重心转向人工智能的最大受益者」。

其实,这不是英伟达第一次乘上时代的风车——加速计算、深度学习、挖矿、元宇宙,英伟达屡次踩中时代的风口。在它成立的短短 30 年里,芯片江湖已然换了人间,当年与 90 家显卡商厮杀落败的初创公司,早已成为市值最高的芯片霸主。

英伟达屡次「躺赢」,离不开其掌舵者黄仁勋的战略眼光——总是能精准预判下一个技术变革,提前下手。在近日的财报电话会上,黄仁勋透露了:这一次,他提前看到的未来及其相应的战略布局。面对大语言模型加持的生成式 AI,「核弹厂」的野心远非提供「军火」。

ChatGPT 大战背后的「战争之王」

去年 11 月底以来,OpenAI 让人们见识到了「通用智能」的厉害,依托大语言模型的 ChatGPT 所展现的思维链条(Chain of Thought)和自发涌现的各种能力(Emergence)令人惊艳——尽管 ChatGPT 本身没有知识和智慧,但是它做到了「让你以为它有知识甚至智慧」的程度。

不久前,在加州大学伯克利分校哈斯商学院的炉边谈话上,黄仁勋兴奋地评价 ChatGPT 将开启科技行业的新纪元,也是人工智能和计算行业有史以来最美妙的事情。

他说:「上一次看到一项如此多才多艺、可以解决问题并经常以多种方式带给人们惊喜的科技是什么时候?它可以写一首诗,可以填写电子表格,可以编写 SQL 查询并执行,可以写 Python 代码……对于很多一直致力于此的人来说,我们一直在等待这一刻,这是人工智能的 iPhone 时刻。我现在可以将它用作 API 并连接到电子表格、PPT、各个应用程序,它有让一切变得更好的潜力」。

不论谁赢了ChatGPT大战 英伟达都是最后的赢家

这是「AI 将重塑所有软件」的际遇,而要让生成式 AI 能够像 ChatGPT 这样展现五花八门的通识才能,必须依托像 GPT3.5 这样的底层大语言模型。人们将其比作移动互联网时代里安卓或 iOS。因此,大语言模型也就成为大厂和创业公司的必争之地。

无论是「造」出这样一个大模型,还是运行这样一个大模型,都需要极大的算力,需要成千上万个 GPU。据报道,OpenAI 用了 10000 个英伟达的 GPU 来训练 ChatGPT。花旗集团估计,ChatGPT 的使用可能会在 12 个月内为英伟达带来 30 亿至 110 亿美元的销售额。

此前,《中国电子报》采访业内人士表示,「大模型技术涉及 AI 开发、推理、训练的方方面面,所谓模型的『大』主要是参数量大、计算量大,需要更大体量的数据和更高的算力支撑。对于 GPU 厂商来说,大模型是值得期待的算力红利,尤其是通用性极强的英伟达」。

全球来看,大算力芯片领域主要有两个玩家,英伟达和 AMD,从市占率来说,英伟达远超 AMD。根据 John Peddie Research 的数据,英伟达占据了 GPU 市场约 86% 的份额。

这也就不难理解,在炙手可热的生成式 AI 浪潮下,英伟达被视为最大的潜在赢家。从财报上看,这波生成式 AI 对于英伟达的需求主要反映在数据中心业务。事实上,2023 整个财年的四个季度,数据中心已经替代了英伟达起家的支柱业务——游戏,成为第一大业务。

不论谁赢了ChatGPT大战 英伟达都是最后的赢家

2022 财年第 4 季度——2023 财年第 4 季度,英伟达各个板块的营收 | 截图来源:Nvidia

2023 财年,数据中心总收入增长了 41%,达到创纪录的 150.1 亿美元。仅就第四季度而言,数据中心收入为 36.2 亿美元,贡献了英伟达全公司收入的 60% 左右。

数据中心增长的基本盘来自于新一代旗舰产品 H100 的出货量持续走高、云的渗透率持续增长、以及超大规模客户扩大了 AI 布局。

就 H100 而言,其收入在第二季度就已经远远高于 A100,后者的营收份额连续下降。据悉,H100 在训练方面比 A100 快 9 倍,在基于 Transformer 的大型语言模型推理方面比 A100 快 30 倍。

同时,英伟达正在为越来越多的、快速增长的云服务商(Cloud Service Providers,简称 CSP)提供服务,包括甲骨文和一些专注于 GPU 的云服务提供商(GPU specialized CSPs)。在过去的 4 个季度中,CSP 客户贡献了数据中心收入的 40% 左右。

下一步:AI 即服务

财报电话会上,老黄透露了英伟达的新动向——AI 企业级服务上云。尽管更多信息会在十几天后的 GTC 大会上才宣布,但英伟达正与领先的云服务商合作提供 AI 即服务(AI-as-a-service),让企业可以访问英伟达的 AI 平台。据官方消息,客户将能够把 NVIDIA AI 的每一层(包括 AI 超级计算机、加速库软件或预训练的生成式 AI 模型等)作为云服务来使用。

老黄阐述道,「技术突破的积累使 AI 到了一个拐点。生成式 AI 的多功能性和能力引发了世界各地企业开发和部署 AI 战略的紧迫感。然而,AI 超级计算机基础设施、模型算法、数据处理和训练技术仍然是大多数人无法克服的障碍。」

不论谁赢了ChatGPT大战 英伟达都是最后的赢家

基于这样的行业痛点,英伟达商业模式的下一个层次是:帮助每个企业客户都能使用 AI。

客户使用自己的浏览器,就可以通过 NVIDIA DGX Cloud 来使用 NVIDIA DGX AI 超级计算机,该服务已经在 Oracle Cloud Infrastructure 上可用,预计不久后也将在 Microsoft Azure、Google Cloud 和其他平台上线。在 AI 平台软件层,客户将能够访问 NVIDIA AI Enterprise,以训练和部署大型语言模型或其他 AI 工作负载。而在 AI 模型即服务层,英伟达将向希望为其业务建立专有生成式 AI 模型和服务的企业客户提供 NeMo 和 BioNeMo 可定制 AI 模型。

就其市场前景,黄仁勋认为,ChatGPT 让人们意识到计算机编程的民主化,几乎任何人都可以用人类语言向机器解释要执行的特定任务。因此,全世界 AI 基础设施的数量将会增长,「你会看到这些 AI 工厂无处不在」。人工智能的生产将会像制造业一样,在未来,几乎每个公司都会以智能的形式生产软件产品。数据进来了,只做一件事,利用这些数据产生一个新的更新模型。

他进一步解释了 AI 工厂,「当原材料进入时,建筑或基础设施就会启动,然后一些改进的东西就会出现,这是非常有价值的,这就是所谓的工厂。所以我希望在世界各地看到 AI 的工厂。其中一些将托管在云中。其中一些将是本地的。会有一些很大,有些会非常大,然后会有一些更小。所以我完全期待这会发生。」

事实上,老黄关于 AI 工厂愿景正在发生,上个月,他在公开演讲中声称,自从 ChatGPT 出现以来,可能已经有大约 500 家新创业公司开发出令人愉快的、有用的 AI 应用程序。

基于这一前景,英伟达对数据中心的未来充满信心。CFO Cress 表示,通过新的产品周期、生成式 AI 以及人工智能在各个行业的持续采用,数据中心部门将持续实现增长。她说:「除了与每个主要的超大规模云服务商合作外,我们还与许多消费互联网公司、企业和初创企业合作。这一机会意义重大,推动数据中心的强劲增长,并将在今年加速增长。」

汽车向上,游戏向下

除了数据中心,英伟达其他的业务板块——游戏、汽车、专业视觉等,本季度的表现则有好有坏。

其中,车用业务表现亮眼。财年总收入增长 60%,达到创纪录的 9.03 亿美元。第四季度收入创下 2.94 亿美元的纪录,较去年同期增长 135%,较上一季度增长 17%。

无论是环比还是同比,车用业务均持续增长。根据英伟达,这些增长反映了自动驾驶解决方案的销售增长,面向电动汽车制造商的计算解决方案以及 AI 座舱解决方案的销售强劲。电动汽车和传统 OEM 客户的新项目助推了这一增长。

值得注意的是,在今年 1 月初举行的 CES 大会上,英伟达宣布与富士康建立战略合作伙伴关系,共同开发基于 NVIDIA DRIVE Orin 和 DRIVE Hyperion 的自动驾驶汽车平台。

相比之下,游戏业务依然深处泥潭之中。

过去几个季度,RTX 4080 销售疲软、视频游戏行业下滑、加密货币市场疲软、以及去库存压力等因素,让英伟达的游戏业务持续低迷,尤其第三季度,游戏业务营收同比暴跌 51%。但就像 CFO Cress 所言,「最低点可能已经过去,而且事情可以改善前进。」

第四季度,英伟达游戏营收为 18.3 亿美元,同比下降 46%,环比增长 16%,整个财年收入下降 27%。该季度和财年的同比下降反映了销售减少,背后是全球宏观经济低迷和中国放开疫情管控对游戏需求的影响。

但环比三季度,英伟达的游戏业务还是取得了一定增长。这是由于受到基于 Ada Lovelace 架构的新 GeForce RTX GPU 的推出推动。黄仁勋也肯定了这一看法,他说:「游戏业正在从新冠肺炎疫情后的低迷中复苏,而且玩家们热烈欢迎使用 AI 神经渲染的 Ada 架构 GPU。」

近日,游戏行业一个复苏的好迹象是:动视暴雪(Activision Blizzard)在第四季度实现了营收正增长,超出了预期。但仍要警惕——动视暴雪在 PC 和主机上销售游戏,而只有 PC 销售与英伟达相关,主机制造商使用 AMD 显卡。

此外,在财报发布的前一天,英伟达宣布与微软签订了一项为期 10 年的协议,将 Xbox PC 游戏阵容引入 GeForce NOW,包括《我的世界(Minecraft)》、《光环(Halo)》和《微软模拟飞行(Microsoft Flight Simulator)》。待微软完成收购动视之后,GeForce NOW 将新增《使命召唤(Call of Duty)》和《守望先锋(Overwatch)》等游戏。

除了游戏业务之外,专业视觉和 OEM 这两个部门的业务也较上一年有大幅下降。从中可以看出:半导体市场正在经历罕见的下行周期。

专业视觉业务第四季度收入为 2.26 亿美元,较去年同期下降 65%,较上一季度增长 13%。财年总收入下降 27% 至 15.4 亿美元。该季度和财年同比下降反映了向合作伙伴销售较少以帮助减少渠道库存。环比增长是由台式工作站 GPU 推动的。

OEM 和其他收入同比下降 56%,环比增长 15%。财年收入下降 61%。该季度和财年同比下降是由笔记本 OEM 和加密货币挖掘处理器(CMP)推动的。在财年 2023 中,CMP 收入微不足道,而在财年 2022 中为 5.5 亿美元。

风口上的赢家,为什么又是英伟达

英伟达 30 年的发展史可以分为两段。从 1993 年到 2006 年,英伟达的目标是在竞争激烈的图形卡市场中存活下来,并创造了 GPU 这一革命性的技术;从 2006 年到 2023 年的转型,则主要是如何利用 CUDA 这一平台,将 GPU 应用于机器学习、深度学习、云计算等领域。

后者让英伟达走上人工智能之旅,今天市值已经超过老牌霸主英特尔和 AMD,也是在今天生成式 AI 热潮下,英伟达再次站上风口的前提。

在 2019 年的一次主题演讲中,黄仁勋分享了英伟达一次次重溯行业的缘起——找到了真正重要的问题并坚持。他说:「这使我们能够一次又一次地发明、重塑我们的公司、重溯我们的行业。我们发明了 GPU。我们发明了编程着色。是我们让电子游戏变得如此美丽。我们发明了 CUDA,它将 GPU 变成了虚拟现实的模拟器。」

回到英伟达的起点。当时 Windows 3.1 刚刚问世,个人电脑革命才刚刚要开始。英伟达想要能找到一种方法让 3D 图形消费化、民主化,让大量的人能够接触到这项技术,从而创造一个当时不存在的全新行业——电子游戏。他们认为,如果做成,就有可能成为世界上最重要的技术公司之一。

原因在于:三维图形主要表现为对现实的模拟,对世界的模拟相当复杂,如果知道如何创建难辨真假的虚拟现实,在所做的一切中模拟物理定律,并将人工智能引入其中,这一定是世界上最大的计算挑战之一。它沿途衍生的技术,可以解决惊人的问题。

最有代表性的案例,就是通过 CUDA 等方案为计算、人工智能等带来了革新性影响,也让它在这一波生成式 AI 浪潮中处于最佳生态位。

尽管 GPU 作为计算设备的发现经常被认为有助于引领围绕深度学习的「寒武纪大爆炸」,但 GPU 并不是单独工作的。英伟达内外的专家都强调,如果英伟达在 2006 年没有将 CUDA 计算平台添加到组合中,深度学习革命就不会发生。

CUDA(Compute Unified Device Architecture)计算平台是英伟达于 2006 年推出的软件和中间件堆栈,其通用的并行计算架构能够使得 GPU 解决复杂的计算问题。通过 CUDA,研究人员可以编程和访问 GPU 实现的计算能力和极致并行性。

而在英伟达发布 CUDA 之前,对 GPU 进行编程是一个漫长而艰巨的编码过程,需要编写大量的低级机器代码。使用免费的 CUDA,研究人员可以在在英伟达的硬件上更快、更便宜地开发他们的深度学习模型。

CUDA 的发明起源于可程式化 GPU 的想法。英伟达认为,为了创造一个美好的世界,第一件要做的事情就是先模拟它,而这些物理定律的模拟是个超级电脑负责的问题,是科学运算的问题,因此,关键在于:怎么把一个超级电脑才能解决的问题缩小、并放进一台正常电脑的大小,让你能先模拟它,然后再产生画面。这让英伟达走向了可程式化 GPU,这是个无比巨大的赌注。

彼时,英伟达花了三四年时间研发 CUDA,最后却发现所有产品的成本都不得不上升近一倍,而在当时也并不能给客户带来价值,客户显然不愿意买单。

若要让市场接受,英伟达只能提高成本,但不提高售价。黄仁勋认为,这是计算架构的事情,必须要让每一台电脑都能跑才能让开发者对这种架构有兴趣。因此,他继续坚持,并最终打造出了 CUDA。但在那段时间,英伟达的利润「摧毁性」地下降,股票掉到了 1.5 美元,并持续低迷了大约 5 年,直到橡树岭国家实验室选择了英伟达的 GPU 来建造公用超级电脑。

接着,全世界的研究人员开始采用 CUDA 这项技术,一项接着一项的应用,一个接着一个的科学领域,从分子动力学、计算物理学、天体物理学、粒子物理学、高能物理学……这些不同的科学领域开始采用 CUDA。两年前,诺贝尔物理学奖和化学奖得主,也都是因为有 CUDA 的帮助才得以完成自己的研究。

当然,CUDA 也为英伟达的游戏提供了动力,因为虚拟世界里和现实世界的流体力学是一样的,像是粒子物理学的爆炸、建筑物的崩塌效果,和英伟达在科学运算中观察到的是一样的,都是基于同样的物理法则。

然而,CUDA 发布后的前六年里,英伟达并未「全力投入」AI,直到 AlexNet 神经网络的出现。

在即将到来的 GTC 大会上,黄仁勋邀请了 OpenAI 联创兼首席科学家 Ilya Sutskever,而 Sutskever 见证了英伟达这段在人工智能领域崛起的故事。

不论谁赢了ChatGPT大战 英伟达都是最后的赢家

Sutskever 与 Alex Krizhevsky 及其博士生导师 Geoffrey Hinton 一起创建了 AlexNet,这是计算机视觉领域开创性的神经网络,在 2012 年 10 月赢得了 ImageNet 竞赛。获奖论文表明该模型实现了前所未有的图像识别精度,直接导致了此后十年里人工智能的主要成功故事——从 Google Photos、Google Translate 和 Uber 到 Alexa 和 AlphaFold 的一切。

根据 Hinton 的说法,如果没有英伟达,AlexNet 就不会出现。得益于数千个计算核心支持的并行处理能力,英伟达的 GPU 被证明是运行深度学习算法的完美选择。Hinton 甚至在一次演讲上告诉在场的近千名研究人员都应该购买 GPU,因为 GPU 将成为机器学习的未来。

在 2016 年接受福布斯采访时,黄仁勋说自己一直都知道英伟达图形芯片的潜力不止于为最新的视频游戏提供动力,但他没想到会转向深度学习。

事实上,英伟达的深度神经网络 GPU 的成功是「一个奇怪的幸运巧合」,一位名叫 Sara Hooker 的作者在 2020 年发表的文章「硬件彩票」探讨了各种硬件工具成功和失败的原因。

她说,英伟达的成功就像「中了彩票」,这在很大程度上取决于「硬件方面的进展与建模方面的进展之间的正确对齐时刻」。这种变化几乎是瞬间发生的。「一夜之间,需要 13000 个 CPU 的工作两个 GPU 就解决了」她说。「这就是它的戏剧性。」

然而,英伟达并不同意这种说法,并表示,从 2000 年代中期开始英伟达就意识到 GPU 加速神经网络的潜力,即使他们不知道人工智能将成为最重要的市场。

在 AlexNet 诞生的几年后,英伟达的客户开始购买大量 GPU 用于深度学习,当时,Rob Fergus(现任 DeepMind 研究科学家)甚至告诉英伟达应用深度学习研究副总裁 Bryan Catanzaro,「有多少机器学习研究人员花时间为 GPU 编写内核,这太疯狂了——你真的应该研究一下」。

黄仁勋逐渐意识到 AI 是这家公司的未来,英伟达随即将把一切赌注押在 AI 身上。

于是,在 2014 年的 GTC 主题演讲中,人工智能成为焦点,黄仁勋表示,机器学习是「当今高性能计算领域最激动人心的应用之一」。「其中一个已经取得令人兴奋的突破、巨大的突破、神奇的突破的领域是一个叫做深度神经网络的领域。」黄仁勋在会上说道。

此后,英伟达加快布局 AI 技术,再也不只是一家 GPU 计算公司,逐渐建立了一个强大的生态系统,包括芯片、相关硬件以及一整套针对其芯片和系统进行优化的软件和开发系统。这些最好的硬件和软件组合平台,可以最有效地生成 AI。

可以说,GPU + CUDA 改变了 AI 的游戏规则。中信证券分析师许英博在一档播客节目中评价道:英伟达一直在做一件非常聪明的事情,就是软硬一体。在 GPU 硬件半导体的基础上,它衍生出来了基于通用计算要用的 CUDA。这促成了英伟达拿到了软件和硬件的双重规模效应。

在硬件端,因为它是图形和计算的统一架构,它的通用性保证了它有规模性,而规模性摊薄了它的研发成本,所以硬件上本身通过规模性可以拿到一个比较优势的研发成本。

在软件端,因为它有庞大的开发者的生态,而这些宝贵的软件开发人员,即便是这些软件开发人员换了一个公司,但他可能还是在继续用 CUDA 的软件。

主要参考文献:

1)《ChatGPT 火了,英伟达笑了》——中国电子报

2)Nvidia: The GPU Company (1993-2006)

3)Nvidia: The Machine Learning Company (2006-2022)

4)NVIDIA CEO Jensen Huang - AI Keynote Session at MSOE

5)Jensen Huang Q&A: Why Moore』s Law is dead, but the metaverse will still happen

6)How Nvidia dominated AI—and plans to keep it that way as generative AI explodes

7)中信证券许英博:从英伟达看国产 GPU 的挑战与前景 - 小宇宙 - 创业内幕

btcfans公众号

微信掃描關注公眾號,及時掌握新動向

來源鏈接
免責聲明:
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
標籤: 英伟达 ChatGPT
上一篇:Terra Classic (LUNC) 起死回生以恢复币安 LUNC Burn 下一篇:以太坊 ERC-4337“智能账户”在 WalletCon 上发布

相關資訊