基础架构

128核EPYC问世,AMD全方位布局人工智能

LensNews

技术的飞速进步,离不开强大的基础架构支持。今年初,ChatGPT引发了一系列AI革命,似乎各行各业都开始为走向AI化而做好准备,与此同时基于AI的算力需求也与日俱增。

正是在这个算力需求大爆发的时刻,AMD携众多新品而来,为整个企业级市场注入了新活力。当地时间6月13日,数据中心和人工智能技术首映式(Data Center and Al Technology Premiere)开幕,AMD董事会主席及CEO苏姿丰(Lisa Su)博士宣布推出了最新的第4代AMD EPYC 97X4处理器、基于3D V-Cache技术的EPYC及Instinict MI300A、MI300X加速器,并正式进军DPU领域,发布了AMD Pensando DPU系列产品,从而构建起全方位的数据中心基础架构算力阵营。

此次大会新推出的处理器最为吸睛,代号为"Bergamo”的第4代AMD EPYC 97X4首次将物理核心拓展至128颗。与之前外界猜测的相似,此次AMD继续“魔改”Zen4核心,通过将CCD单元扩大、优化缓存等方式,缩小核心尺寸,从Zen4核心的3.84平方毫米,减至2.48平方毫米,缩小了多达35.4%,节省出来的空间可以放置更多核心。

以CCD为单元,Zen4C的面积仅比Zen4增加了9.7%,但却将CCD内核心数量从8颗增加至16颗,并依此带来了更加出色的性能。

原本就性能强劲的AMD EPYC 9004系列,在将核心拓展至Zen4C后又再次刷新了多项性能纪录。从上图可以看出,在云相关应用、数据库性能等测试中,拥有128颗核心的EPYC 9754表现出了压倒性优势,众多项目中领先竞争对手8490H超过两倍。

在云平台容器测试中,EPYC 9754的数据吞吐性能惊人,并可支持更多的容器,这无疑能够大幅度降低企业及云服务商的运营成本。

在核心数量与性能大幅度提升的同时,基于Zen4C的EPYC 9754也将能效比拓展至一个新的“境界”。从上图我们可以看到,仅凭15台2P服务器,就可替代43台Altra Max M128-30或38台Platinum 8490H的2P服务器。能够帮助用户明显降低能源消耗所带来的碳排放,并减少空间占用及后期运维成本。

题外话:Platinum 8490H这次又被AMD“抓到”并拿来对比,可以说“遭老罪了”。

与此同时,AMD也宣布了与AWS的最新合作关系,并公布了下一代由第四代AMD EPYC处理器提供支持的Amazon Elastic Compute Cloud(Amazon EC2)M7a实例。据了解,EC2 M7a实例还会提供诸如AVX3-512、VNNI和BFloat16等全新的处理器功能,并可让客户获得比M6a实例高出50%的计算性能,同时带来更广泛的工作负载。

此次大会上,除Zen4C的EPYC 97X4系列之外,拥有超大容量3D V-Cache的小胖子也如约登场。

3D V-Cache版EPYC基于Zen4核心,拥有1.1GB的L3缓存,能够使其在更加繁重的工作负载中释放出更高性能。并针对计算流体动力学(CFD)、有限元分析(FEA)、电子设计自动化(EDA)和结构分析等应用进行了优化。

同样地,在这些专业级应用面前,3D V-Cache版EPYC 9684X的性能表现非常给力,以两倍以上的优势领先于竞争对手。

在今年的全球超算TOP500上,AMD大放异彩,基于EPYC CPU处理器、GPU加速卡驱动的“Frontier”实现了三连冠。同时榜单上出现了121套采用AMD平台的超算系统,比去年增加了29%。

在这些性能强大的超算中,总能看到AMD Instinict系列加速卡的身影,而今天该系列又迎来了两名新成员:Instinct MI300X和MI300A。

AMD此次推出的Instinct MI300X加速器,同样面向生成式人工智能等领域。MI300X基于下一代AMD CDNA3加速器架构并支持高达192GB的HBM3内存,提供了充分计算和存储效率,可满足大型语言模型的推理和生成式的 AI工作负载需求。

众所周知,大型语言模型推理这样的AI相关应用对内存容量及性能要求很高,因此AMD为Instinct M300X配备了192GB容量的HBM3内存以保证性能输出。AMD也表示,仅需一套独立的MI300X GPU加速器,就可以完成像Falcon-40B这样拥有400亿参数的模型训练,性能表现惊人。

此外,AMD还推出了AMD Infinity Architecture Platform系统,它汇集了8个MI300X加速器和24核心的Zen4处理器,支持CPU+GPU共享内存机制,能够独立完成生成式人工智能推理和训练等任务。“单机”就可以构建起一套完整的解决方案,适用性很强。

在网络加速方面,AMD推出了Pensando DPU、超低延迟网卡和自适应网卡三大类别产品。据了解,AMD Pensando DPU通过强大的堆栈与“零信任安全”和领先的可编程数据包处理器,构建起了一套高性能的DPU系统。

AMD代号为“Giglio”的下一代 DPU,能够为客户带来更高的性能和能效,它预计将于 2023 年底上市。AMD还发布了AMD Pensando软件芯片化开放工具包,帮助客户能够快速开发或迁移服务,以部署在AMD Pensando P4可编程DPU上,同时利用AMD Pensando平台实现丰富的功能,为基础设施提供网络虚拟化及安全功能。

近年来,我们看到了AMD在企业级领域的飞速发展,并在处理器性能等方面持续保持着领先地位。同时,面向当今炙手可热的AI,AMD也提供了丰富的产品阵营,并形成了一套完整的基础架构算力生态。

未来是什么样子,我们暂时还无法确定。但可以相信的是,随着算力的提升AI必将改变世界,而更高能效的IT硬件将在AI发展之路上为其推波助澜。

(4)

本文由 计算杂谈 作者:云中子 发表,转载请注明来源!

关键词:
LensNews

热评文章

发表评论