“AI春晚”英伟达放大招:亮算力“杀器”、助游戏“捏人”;黄仁勋帮算账:GPU多买多省

摘要
“AI热潮”最大赢家之一、英伟达背后的那个身穿黑色皮衣的男人又来了。前脚才交出亮眼业绩狂拉股价,英伟达CEO黄仁勋后脚就在昨日的COMPUTEX大会上宣布,“我们已到达生成式AI引爆点。从此,全世界的每个角落,都会有计算需求。”

  “AI热潮”最大赢家之一、英伟达背后的那个身穿黑色皮衣的男人又来了。

  前脚才交出亮眼业绩狂拉股价,英伟达CEO黄仁勋后脚就在昨日的COMPUTEX大会上宣布,“我们已到达生成式AI引爆点。从此,全世界的每个角落,都会有计算需求。”

  如今英伟达掌握着全球多家科技公司“算力命脉”,而在这场大会上,黄仁勋激情演讲2个小时,甩出了多项重磅新发布,包括算力“杀器”DGX GH200超级计算机、针对游戏的ACE代工服务、MGX服务器规范等内容。

  算力“杀器”:DGX GH200超级计算机+GH200超级芯片

  先看“集成了英伟达最先进加速计算和网络技术”的DGX GH200人工智能超级计算机

  这款超算专为大规模生成式AI的负载所设计,由256块GH200超级芯片组成,拥有1 exaflop超凡AI性能、144TB内存(是英伟达目前DGX A100系统的近500倍)、150英里光纤、2000多个风扇。

  DGX GH200重达40000磅(约合18143千克),堪比四只成年大象的体重。

  预计DGX GH200将于今年年底投入问世,英伟达暂未公布价格,而谷歌云、Meta与微软将是首批用户

  同时,英伟达也正在打造自家基于DGX GH200的大型AI超级计算机NVIDIA Helios,以支持其研究和开发团队的工作。其中采用4个DGX GH200系统、1024颗Grace Hopper超级芯片,每个都将与英伟达Quantum-2 InfiniBand网络连接,带宽高达400Gb/s,将于今年年底上线。

  值得一提的是,黄仁勋透露,DGX GH200集成的GH200 Grace Hopper超级芯片已进入全面生产

  “拉踩”CPU:成本、功耗、处理数据量不如GPU

  在本次大会上,黄仁勋还“拉踩”了一波CPU。他从功耗、处理数据量等方面,指出使用GPU胜过CPU。

  举例来说,花费1000万美元,可以建设一个有960颗CPU的数据中心,其可处理1X LMM(大语言模型)数据量,需要11GWh功耗;

  同样成本下,也可以建设一个有48个GPU的数据中心,其可处理44X LLM数据量,仅需要3.2GWh功耗。

  若只想处理1X LMM数据量,则只需40万美元,便可拥有一个搭载2个GPU、功耗仅0.13GWh的数据中心。

  “买越多,省越多(The more you buy, the more you save)。”黄仁勋再次表示。

  同时,他也列出了数据中心成本公式:数据中心总持有成本=f[成本(芯片、系统、硬件生态系统)、吞吐量(GPU、Algo软件、网络、系统软件、软件生态系统)、使用率(Algo Lib, 软件生态系统)、采购运营、生命周期最佳化、电力]

  ACE代工服务:用AI激活NPC生命

  游戏一直是备受关注的一大AI应用落地领域。英伟达也在大会上宣布,推出面向游戏的定制AI模型代工服务NVIDIA Avatar Cloud Engine(ACE)

  它能赋予非玩家角色(NPC)更智能且不断进化的对话技能,中间件、工具和游戏开发者可使用它来构建和部署定制的语音、对话和动画AI模型

  其中包括:英伟达NeMo,使用专有数据构建、定制和部署语言模型;英伟达Riva,用于自动语音识别和文本转语音实现实时语音对话;英伟达Omniverse Audio2Face,用于即时创建游戏角色表情动画,以匹配任何语音轨道。

  开发人员可选择集成整个NVIDIA ACE for Games解决方案,也可仅使用需要的组件。

  新参考工作流程:帮助建设数字化智能工厂

  黄仁勋表示,全球电子制造商正在使用一种全新的综合参考工作流程推进工业数字化工作,该工作流程结合了英伟达用于生成式AI、3D协作、仿真和自主机器的技术,包括:

  英伟达Omniverse,其连接了顶级计算机辅助设计应用以及生成式AI的API和前沿框架;用于模拟和测试机器人的英伟达Isaac Sim应用程序;英伟达Metropolis视觉AI框架,用于自动光学检测。

  同时,黄仁勋现场展示了一个完全数字化的智能工厂的演示。

  目前富士康工业互联网、宜鼎国际、和硕、广达和纬创正在使用这一参考工作流程,具体用例包括电路板质保检测点自动化、光学检测自动化、建设虚拟工厂、模拟协作机器人、构建及运营数字孪生等。

  MGX服务器规范:快速高效构建百余种服务器配置

  英伟达发布NVIDIA MGX服务器规范,为系统制造商提供模块化参考架构,满足各种规模的数据中心需求。系统制造商可使用它快速且经济高效地构建100多种服务器配置,以适应广泛的AI、HPC及NVIDIA Omniverse应用。

  MGX支持英伟达全系列GPU、CPU、DPU和网络适配器、各种x86、完整软件堆栈及Arm处理器,还可集成到云和企业数据中心中。

  华硕、和硕、QCT、超微(Supermicro)等都将采用MGX构建下一代加速计算机,可将开发成本削减多达3/4,并将开发时间缩短2/3至仅需6个月

  其中,QCT和超微基于MGX的设计将于8月面世。超微昨日公布的ARS-221GL-NR系统将采用Grace CPU,而QCT的S74G-2U系统将采用Grace Hopper。

  推出Spectrum-X网络平台 构建超大规模生成式AI超级计算机Israel-1

  另外,黄仁勋宣布推出NVIDIA Spectrum-X网络平台,旨在提高基于以太网的AI云的性能和效率。

  相比传统以太网结构,Spectrum-X可实现1.7倍的整体AI性能和能效提升,并具有高度通用性,可用于各种AI应用。它使用完全基于标准的以太网,并可与基于以太网的堆栈互操作。该平台支持256个200Gb/s端口,通过单个交换机连接,或在两层leaf-spine拓扑中提供16000个端口,以支持AI云增长和扩展,在保持性能的同时最大限度减少网络延迟。

  全球领先云计算提供商正在采用Spectrum-X平台扩展生成式AI服务,而Spectrum-X、Spectrum-4交换机、BlueField-3 DPU等已在戴尔、联想等系统制造商处提供。

  此外,作为Spectrum-X参考设计的蓝图和测试平台,英伟达正构建一台超大规模生成式AI超级计算机Israel-1。这台AI超算价值数亿美元,将采用戴尔PowerEdge XE9680服务器、英伟达HGX H100超级计算平台、内置BlueField-3 DPU和Spectrum-4交换机的Spectrum-X平台。

  结语

  “40年来,我们创造了PC、互联网、移动、云,现在是人工智能时代。你会创造什么?不管是什么,都要像我们一样追赶它。要奔跑,不要走。要么为了食物奔跑,要么作为食物奔跑。”

  在5月27日的台湾大学发表了毕业典礼演讲上,黄仁勋再次强调了掌握AI技术的重要性:很多人担心,AI会抢走自己的工作。但真正会抢走你饭碗的,是掌握了AI技术的人。

  他表示,从各方面来看,AI的兴盛是计算机产业的再生契机。在下个十年,我们的产业将使用新型AI电脑,取代价值万亿美元的传统电脑。

  而从昨日大会上黄仁勋的展示中,人工智能时代的未来轮廓似乎已逐渐浮现。

关键词阅读:英伟达 算力

责任编辑:赵路 RF13155
精彩推荐
加载更多
全部评论
金融界App
金融界微博
金融界公众号