英伟达的春季发布会 让元宇宙有了希望
3月22日,玩家和AI从业者们又爱又恨的老黄,带着他的新“核弹”来了。遗憾的是,这次的新“核弹”与玩家没有太大关系,主要是针对企业和工业市场,与玩家有关的RTX 40系估计最快也要等到9月份才会有消息。
好了,废话不多说,让我们看看老黄这次又拿了怎样的“大宝贝”出来。首先是A100显卡的接任者,新一代计算卡皇H100闪亮登场,H100采用全新的Hopper架构和台积电最新的4nm工艺,各方面的参数对比上一代的A100都有明显的提升。
英伟达的超级服务器芯片Grace也再度曝光,对比上一次给出的数据,此次曝光的Grace芯片性能有了惊人的提升,根据发布会的描述来看,英伟达似乎也走上与苹果相同的道路,用更多的芯片拼装成一颗处理器。
除了硬件方面的产品曝光和发布,英伟达在软件领域同样带来了不少新东西,比如主打云端协作的Omniverse Cloud,让多名用户可以在云端直接参与同一个媒体文件的编辑和渲染等工作。
此外英伟达还展示了不少基于虚拟现实环境的工业、交通模拟案例,还有一套由AI驱动的虚拟角色系统,该系统可以通过深度学习进行动作训练,训练结束后不需要额外的骨骼动作设计等操作就能够依照指令做出对应动作,这下不仅是AI从业者狂喜,电影及游戏从业者也要狂喜。
不得不说,老黄这次带来的东西并不少,每一样都能对AI等行业的发展带来明显的改变,下面我们就来详细的看看英伟达到底都发布了什么吧。
H100与Grace
从去年开始,就有消息称英伟达将会在今年发布新一代计算卡,并且将用上全新的Hopper架构。目前来看消息准确的,只不过当初大家猜测新一代计算卡将采用台积电5nm工艺,但是如今看来英伟达选择一步到位使用了最新的4nm工艺,虽然本质上是5 nm+,但是在功耗方面则有着更好的表现,而且也可以集成更高的晶体管。
实际上,从H100的核心规格来看,也不难理解为什么英伟达最终选了4nm,高达800亿的晶体管集成度,比上一代A100多了整整260亿个,内核数量则是提高到了16896个,这是目前世界上内核数量最高的芯片核心,同时也是上一代100的2.5倍。
夸张的内核参数提升带来的性能提升也极为夸张,根据英伟达官方给出的数据,H100的浮点计算和张量核心运算能力将比上一代提升至少3倍,FP32高达60万亿次/秒,而上一代的A100为19.5万亿次/秒。
H100还将是首款支持PCIe 5.0和HBM3,让内存带宽达到惊人的3TB/s,老黄表示只需要20张H100就可以处理目前全球的网络流量,虽然听起来很夸张,但是确实体现出了H100夸张的性能参数。
强大性能也伴随着夸张的功耗,英伟达给出的H100功耗高达700W(真正意义上的“核弹”显卡),作为对比上一代A100的功耗仅400W,不过用2倍的功耗换来3倍的性能提升,整体来说也不亏。
H100还针对AI训练等所要用到的模型进行针对性优化,为Transformer搭载了优化引擎,让大模型的训练速度可以提升至原来的6倍,极大的降低了大型AI模型等训练所需要的时间,这个特性也与下面将会谈到的AI虚拟角色系统相呼应。
在英伟达给出的测试数据中,训练一个拥有1750亿参数的GPT-3模型,时间将由原来的一周降低到仅需19小时,而一个拥有3950亿参数的Transforme模型也仅需21小时就可以完成训练,效率提升近9倍。
虽然参数看起来十分美好,但是实际的性能表现如何还有待后续的实际测试结果来揭晓,至少从RTX 30系和A100的经验来看,最终的实际性能提升幅度可能在2倍-2.5倍之间,不太可能真的达到3倍,不过即使只有2倍提升也已经相当出色,至少在AI方面已经完全碾压了AMD的计算卡。
而且,H100还引入了英伟达最新的NVIDIA NVLink第四代互连技术,该技术能够进一步提升多GPU串联的效率,在英伟达给出的数据中,串联后的I/O带宽能够扩展至900GB/s,比上一代提升了50%。
再来看看英伟达的新“玩具”Grace,这是英伟达为服务器业务准备的超级服务器芯片,此前就有过不少的曝光,这次则是有了更多的信息,同时还带来了全新的系列产品。Grace芯片采用最新的Arm V9架构,英伟达以此为基准打造了两款超级芯片——Grace Hopper和Grace CPU超级芯片。
其中,Grace Hopper由一个Grace CPU和一个Hopper架构的GPU的GPU组成,两者将会形成一个完整的运算系统,只需要一颗芯片就可以搭建出一个强大的运算服务器,同时也可以将多个芯片串联起来组成更庞大的运算阵列。
而Grace CPU超级芯片则是由两颗Grace CPU组成,两颗芯片通过NVIDIA NVLink-C2C技术互连,组成一个内置了144个Arm核心并且拥有1TB/s内存带宽的巨无霸级芯片(Grace CPU Ultra?)。
说实话,英伟达的这颗Grace CPU超级芯片很难不让人联想到苹果在春季发布会上发布的M1 Ultra,同样是基于Arm架构,同样是由两颗芯片组合而成,同样也有着夸张的内存带宽和性能表现。
显然,芯片互联拼装技术已经成为行业的趋势之一,AMD方面也曝光有采用类似技术的CPU正在研发中,最早将在2023年与大家见面。只能说如今单颗芯片的性能发展已经接近极限,接下来想要拥有更大的提升,或许将不得不借助类似的互联技术进行芯片堆叠了。
不过,Grace CPU超级芯片的功耗并不低,英伟达官方给出的数据是500W,已经远远超过了传统的x86架构CPU,当然,考虑到Grace CPU超级芯片的夸张性能:SPECrate跑分740分,较第二名提升60%,这个功耗也不是不能接受。
显然,在Arm服务器领域,英伟达的野心是非常大的。
英伟达的虚拟世界
除了一堆高性能的硬件,英伟达此次也展出了不少的软件示范案例,其中就包括使用H100等硬件来模拟一个虚拟现实环境,用以进行各种测试和模拟。在英伟达的示范中,未来的企业可以通过强大的英伟达硬件构建一个拟真的虚拟测试环境,并在其中测试自动驾驶、智能工厂的运作等。
通过虚拟测试环境的使用,研究者可以更轻松的测试自动驾驶面对各种突发状况时的反馈,并且在测试中直接定位问题,降低整体的测试成本。此外,还可以构建一个1:1的“数字化工厂”提前模拟运行,寻找提高效率和找到可能出现的问题,降低工厂正式运行后出现问题的概率。
英伟达将这一套应用称为“数字孪生”,能够大幅度降低自动化工厂和自动驾驶等方面的研究及测试投入。
Omniverse Cloud是英伟达新推出的一款云端创作服务,用户通过Omniverse Cloud可以在任意地点访问和编辑大型3D场景,并且无须等待大量数据的传输,并且还可以让用户能够直接在线协作共同搭建3D模型。
在过去,3D模型和3D场景的协同构建都需要在一个服务器上进行,而在Omniverse Cloud推出后,相关创作者就可以通过任意支持Omniverse Cloud的终端,直接用网络访问协作空间并参与其中,极大的提升了创作者的响应速度和工作自由。
另外,英伟达还为创作者们准备了第二个惊喜,一套由AI驱动的虚拟角色系统,该系统可以让AI在短时间内完成训练,学会各种指令所对应的动作。比如一个简单的劈砍动作,在正常的制作流程中首先需要动作架构师通过对动作骨架的一步步调整(俗称K帧),然后再放到场景中进行测试,整个流程需要耗费大量的时间,而且每个不同的动作都需要重新进行调试。
而在这套AI虚拟角色系统的帮助下,当你想要虚拟模型做出劈砍的动作,只需要一条指令,AI就会从已学习的动作中找出关联动作并自动运行,直接节省了大量的时间和人力,对于游戏开发者和特效制作者而言,这个系统将让他们能够将更多的精力放在其它地方。
英伟达的此次发布会,虽然并没有太多的提到元宇宙,但是从硬件到软件都是未来构建元宇宙的基础。目前元宇宙无法成为现实的原因主要是两点,一个是硬件性能无法满足我们的需要,另一个就是软件领域尚不成熟,无法提供实时的拟真环境模拟,而这两者是点亮元宇宙科技的基础。
在此之前,我们首先需要的就是更强大的计算硬件及更智能的AI系统。英伟达的H100,虚拟现实环境及AI虚拟角色系统的出现,将让我们朝着真正的元宇宙再迈进一大步。
微信掃描關注公眾號,及時掌握新動向
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場
2.本文版權歸屬原作所有,僅代表作者本人觀點,不代表比特範的觀點或立場