首页 > 资讯 >

世界动态:信息技术行业动态点评:英伟达发布AI超级计算机 智能算力浪潮汹涌

2023-05-31 16:15:21 来源:东方财富证券股份有限公司

【事项】

5 月29 日,英伟达在当日的COMPUTEX 大会推出了NVIDIA DGX GH200人工智能(AI)超级计算机,这款计算机由NVIDIA GH200 Grace Hopper超级芯片和NVIDIA NVLink Switch System 提供支持。DGX GH200 集成了256 颗GH200 Grace Hopper 超级芯片,拥有144TB 共享内存,可以为大型生成式人工智能模型以及其他应用提供高达1exaflop 的计算能力。英伟达CEO 黄仁勋在大会上宣布,公司的Grace Hopper超级芯片现已全面投产。

黄仁勋表示,DGX GH200 AI 超级计算机集成了英伟达最先进的加速计算和网络技术,以拓展人工智能的前沿领域。同时,英伟达正致力于使DGX GH200 在今年年底上市。谷歌云、Meta 和微软将会是首批有望获得DGX GH200 访问权的公司。


【资料图】

【评论】

自去年年底OpenAI 发布ChatGPT 以来,生成式人工智能逐渐确定成为新趋势,而创建文本、图像、视频等内容需要通过超强算力来实现,算力已经成为AI 的刚需,芯片巨头英伟达生产的人工智能芯片在该领域至关重要。此前,英伟达在AI 训练端先后推出了V100、A100、H100 三款芯片,以及为了满足美国标准,向中国大陆销售的A100 和H100 的带宽缩减版产品A800 和H800。

DGX GH200 人工智能超级计算平台是英伟达针对最高端的人工智能和高性能计算工作负载而设计的系统和参考架构,目前的 DGX A100 系统只能将八个 A100 GPU 联合起来作为一个单元,考虑到生成型人工智能的爆炸式增长,英伟达的客户迫切需要更大、更强大的系统,DGXGH200 就是为了提供最大的吞吐量和可扩展性而设计的,它通过使用英伟达的定制 NVLink Switch 芯片来避免标准集群连接选项(如InfiniBand 和以太网)的限制。通过256 块超级芯片组成的DGX GH200显然有着超越前代产品DGX A100 的计算能力。而且,英伟达也正在打造基于DGX GH200 的大型AI 超级计算机NVIDIA Helios,其中采用4 个DGX GH200 系统、1024 颗Grace Hopper 超级芯片,每个都将与英伟达Quantum-2 InfiniBand 网络连接,带宽高达400Gb/s,预计于今年年底上线。

芯片巨头的算力迭代极其迅速,说明下游云厂商以及企业侧对于生成式AI 技术具备强烈需求,相关算力板块(包括GPU、服务器、光模块、数据中心等)有望具备较大业绩弹性。

AI 芯片是AI 算力的根基。需求逐渐爆发,数据海量增长,大模型参数趋多,对计算性能要求愈发严格。GPU 相较于CPU,优势在于并行计算。在大会上,黄仁勋向传统CPU 服务器集群发起“挑战”,直言在人工智能和加速计算这一未来方向上,GPU 服务器有着更为强大的优势。随着需要大量计算能力的AI 应用出现,GPU 将成为主角,英伟达主导了当前全球AI GPU 市场。举例来说,训练一个LLM 大语言模型,将需要960 个CPU 组成的服务器集群,这将耗费大约1000 万美元(约合人民币7070 万元),并消耗11 千兆瓦时的电力。相比之下,同样以1000 万美元的成本去组建GPU 服务器集群,将以仅3.2 千兆瓦时的电力消耗,训练44 个LLM 大模型。如果同样消耗11 千兆瓦时的电量,那么GPU 服务器集群能够实现150 倍的加速,训练150 个LLM大模型,且占地面积更小。而当用户仅仅想训练一个LLM 大模型时,则只需要一个40 万美元左右,消耗0.13 千兆瓦时电力的GPU 服务器即可。相比CPU 服务器,GPU 服务器能够以4%的成本和1.2%的电力消耗来训练一个LLM,这将带来巨大的成本节省。在大模型时代背景和高景气的需求带动下,GPU 将会成为算力产业链中至关重要不可或缺的一环。

建议关注:

算力芯片:景嘉微、寒武纪、海光信息(电子组覆盖)、云天励飞等算力服务:中科曙光、浪潮信息、中国长城等

边缘算力:网宿科技、首都在线、润泽科技(未覆盖)、优刻得(未覆盖)等

【风险提示】

人工智能技术落地应用不及预期;

竞争格局恶化;

信创不及预期。

关键词

最近更新