资讯公告
AMD推出Instinct人工智能加速器与Nvidia竞争
发布时间:2023-12-08 发布者:FebHost



AMD 加入人工智能加速领域,获得业界广泛支持。首款出货产品是配备 AMD Instinct MI300X 的戴尔 PowerEdge XE9680。

尽管 AMD 的加速器为世界上速度最快的超级计算机提供了动力,但在 GPU 加速 HPC 市场上,AMD 一直远远落后于 Nvidia。随着 Instinct MI300X 数据中心 GPU 的推出,AMD 正寻求在这一领域取得进展。

AMD 首席执行官丽莎-苏(Lisa Su)宣布发布会开始,并将人工智能革命与 30 年前开始的互联网革命相提并论。"但人工智能的不同之处在于,其采用速度要快得多。因此,尽管已经发生了很多事情,但事实上,现在我们才刚刚开始人工智能时代。我们可以看到,人工智能能够触及我们生活的方方面面,"她说。

公司在今年早些时候的 CES 上首次推出了 Instinct MI300 系列。本周四,在加州圣何塞举行的 "推进人工智能 "活动上,该公司正式推出了Instinct MI300X及其CPU-GPU混合芯片Instinct MI300A,这标志着该公司对Nvidia在HPC加速竞赛中的主导地位发起了最大的挑战。

原始设备制造商的支持是毋庸置疑的。包括戴尔科技、惠普企业、联想和超微在内的多家原始设备制造商表示,他们将在服务器中配备 MI300X 加速卡。此外,HPE、Supermicro、技嘉和 Atos 子公司 Eviden 也将在明年推出 MI300A 卡。

在云计算方面,MI300X 将用于为微软 Azure 即将推出的虚拟机实例和甲骨文云基础设施的裸机实例提供动力。此外,Aligned、Akron Energy、Cirrascale、Crusoe和Denvr Dataworks等小型云服务提供商也表示将支持MI300X。

AMD 还宣布更新其 ROCm 6 GPU 编程平台,并将其作为 Nvidia CUDA 编程语言的替代方案。该更新针对生成式人工智能(尤其是大型语言模型)进行了优化,并支持新的数据类型、高级图形和内核优化、优化库和高级注意力算法。


AMD Instinct MI300X GPU


与 Nvidia 一样,AMD 也将其商用 GPU 技术重新用于数据中心工作,只是做了一些必要的修改。在这种情况下,Instinct MI300X 基于 CDNA 3 架构,而 CDNA 3 架构又基于 RDNA GPU 架构。

两种不同的 Instinct 显卡有两个不同的目标市场。MI300X 主要针对大型语言模型(如 Meta 的 Llama2 和 Bloom)的训练和推理,而 MI300A 则侧重于一般的 HPC 和 AI 工作负载。

AMD 首席执行官苏丽莎毫不犹豫地将 MI300X 与 "竞争对手 "相提并论。MI300X 大约有一个饮料杯垫那么大,按照任何处理器的标准都是巨大的,拥有 192GB 的 HBM3 高带宽内存(是 Nvidia H100 显卡 HBM3 容量的 2.4 倍)。其内存带宽为 5.3 TB/s,比 H100 的 3.3 TB/s 高出 60%。它的功耗也更高,为 750 瓦,高于 H100 的 700 瓦。

在 HPC 性能方面,AMD 表示,MI300X 的 FP32 双精度矩阵数学运算速度可达 163.4 teraflops,FP64 向量运算速度可达 81.7 teraflops,这两个数字都比 H100 快 2.4 倍。

在单精度浮点运算(也称为 FP32)方面,MI300X 的矩阵和矢量运算均可达到 163.4 teraflops。AMD 声称,该芯片的矢量性能是 H100 的 2.4 倍。


AMD MI300A APU


AMD 将 Instinct MI300A 称为 "全球首款面向 HPC 和 AI 的数据中心 APU"。APU是该公司的术语,指在同一芯片上集成 CPU 内核和 GPU 内核的单芯片。自 2008 年以来,AMD 一直在为 PC 提供此类桌面处理器产品,但这是首款服务器产品。

MI300A 采用与 AMD EPYC 服务器处理器相同的 Zen 4 内核。这些内核与基于最新 GPU 架构的 GPU 内核相结合,共享 128GB HBM3 内存。该芯片的内存带宽与 MI300X 相同,为 5.3 TB/s,但其低端功耗为 550 W,远低于其老大哥 MI300X。

在 FP32 数学运算方面,MI300A 的矩阵和矢量运算均可达到 122.6 teraflops,仅比 MI300X 稍低一点。

虽然 MI300A 的 GPU 性能略低于 MI300X,但它在能效方面却有所弥补。"MI300A每瓦特的高性能计算性能是最接近的竞争对手的两倍。因此,客户可以在其整体设施的电力预算中容纳更多节点,并更好地支持其可持续发展目标,"AMD 公司数据中心解决方案业务部执行副总裁兼总经理 Forrest Norrod 说。

"第二个优势是能够优化 CPU 和 GPU 之间的电源管理。这意味着可以根据工作负载的需要,动态地将功率从一个处理器转移到另一个处理器,从而优化应用性能,"Norrod 说。

文章相关标签: 人工智能 Instinct Nvidia AMD
购物车