资讯公告
Nvidia宣布推出新的DPU和GPU
发布时间:2023-03-27 发布者:FebHost

Nvidia在其GPU技术大会上发布了一系列硬件和软件新闻,所有这些新闻都围绕着人工智能。

第一个大型硬件公告是BlueField-3网络数据处理单元(DPU),旨在从CPU卸载网络处理任务。BlueField来自Nvidia收购的Mellanox,是一个SmartNIC智能网卡。

BlueField-3的Arm处理器内核数量是上一代产品的两倍,而且总体上有更多的加速器,运行工作负载的速度比上一代产品快八倍。BlueField-3可以为混合环境下的高性能计算和人工智能工作负载加速跨越云和场所的网络工作负载。

Nvidia网络副总裁Kevin Durling表示,Bluefield将MPI集体操作从CPU上卸载下来,实现了近20%的提速,这相当于为大型超级计算机节省1800万美元的成本。

甲骨文公司是第一家在其甲骨文云基础设施服务中与Nvidia的DGX云GPU硬件一起提供BlueField-3加速的云供应商。BlueField-3合作伙伴包括思科、戴尔-EMC、DDN、Juniper、Palo Alto Networks、Red Hat和VMware。

新的GPU


Nvidia还宣布了基于GPU的新产品,其中第一个产品是Nvidia L4卡。这是Nvidia T4的继任者,使用被动冷却,不需要电源连接器。

Nvidia将L4描述为高效视频、AI和图形的通用加速器。因为它是一个低矮的卡,它将适合任何服务器,把任何服务器或任何数据中心变成一个AI数据中心。它通过新的编码器和解码器加速器专门为人工智能视频进行了优化。

Nvidia表示,这款GPU比其前身T4快四倍,比传统的CPU服务器快120倍,比传统的CPU服务器能耗低99%,并能解码来自不同移动设备的1040个视频流。

谷歌将成为这块卡的启动合作伙伴,L4支持谷歌云客户的生成性人工智能服务。

另一个新的GPU是Nvidia的H100 NVL,这基本上是在一张卡上的两个H100处理器。这两个GPU作为一个整体工作,部署大型语言模型和GPT推理模型,从50亿个参数一直到2000亿个参数,使其比X86处理器的吞吐量快12倍,Nvidia声称。

DGX云的细节


Nvidia给出了关于DGX Cloud的更多细节,其AI系统由云服务提供商托管,包括微软Azure、谷歌云和甲骨文云基础设施。Nvidia首席执行官Jensen Huang此前在上个月与分析师的财报电话会议上宣布了这项服务,但没有详细说明。

DGX Cloud不仅仅是硬件,还有一个完整的软件堆栈,将DGX Cloud变成一个交钥匙的培训即服务产品。只要指出你想训练的数据集,说出结果的去向,就可以进行训练了。

DGX云的实例起价为每月每实例36,999美元。它也可用于购买和部署在企业内部。

Nvidia进入处理器光刻技术领域


当你处理以纳米为单位的晶体管时,制造芯片并不是一个微不足道的过程。创建芯片的过程被称为光刻技术,或称计算摄影,在计算机上创建的芯片设计被打印在一块硅片上。

随着芯片设计变得越来越小,需要更多的计算处理来制作图像。现在,整个数据中心除了处理计算摄影外,什么都不做。

Nvidia提出了一个名为cuLitho的解决方案。它们是新的算法,以加速计算摄影的基础计算。到目前为止,使用Hopper架构,Nvidia已经证明了执行计算的速度提高了40倍。500个Hopper系统(4,000个GPU)可以完成40,000个CPU系统的工作,而使用八分之一的空间和九分之一的功率。一个通常需要两周时间处理的芯片设计,现在可以在一夜之间处理完毕。

这意味着处理和创建芯片的时间大大减少。更快的制造意味着更多的供应,并希望价格下降。芯片制造商ASML、台积电和Synopsys是最初的客户。cuLitho预计在2023年6月投入生产。

购物车