浪潮发布了五款采用NVIDIA A100 Tensor Core GPU的新型AI服务器
新时代,高科技越来越发达。朋友们读了很多关于科技的重要新闻。我们也应该在生活中使用很多这些高科技的东西。朋友应该注意什么?今天,我想和大家分享一条关于科技的知识。我希望你会喜欢它。
Inspur发布了五款全新的AI服务器,完全支持全新的NVIDIA Ampere架构。新服务器支持多达8或16个NVIDIA a100 TensorCore GPUs,拥有高达40pb的出色AI计算性能,并提供巨大的GPU到GPU P2P无阻塞带宽,最高可达600 GB/s。
领先的数据中心和AI全栈解决方案提供商Inspur宣布全面升级其AI服务器,以全面支持全新的NVIDIA A100 Tensor Core GPU。
这五款服务器将分别解决多种AI计算场景,支持8到16个最新的NVIDIA A100 TensorCore GPUs。A100 GPU中的第三代Tensor Core速度更快、更灵活、更易于使用,使这些服务器能够提供高达40pb的AI计算性能。有了下一代NVIDIA NVSwitch,从GPU到GPU的P2P通信速度提高了一倍,达到600 GB/秒。更高的计算性能和更新的GPU到GPU带宽将带来AI计算效率,从而使AI训练适用于更大的数据规模和更复杂的模型。此外,NVIDIA A100 GPU拥有40GB的HBM2内存,并以1.6TB/s的速度提升了70%的内存带宽,以支持更大的深度学习模型进行训练。每台人工智能服务器都为多种应用场景提供硬件设计,包括:
inspirur nf 5488 M5-D在4U空间内可容纳8个A100 GPU和2个主流CPU,为用户提供领先的AI计算技术和成熟的生态系统支持。
Inspur NF5488A5通过第三代NVlink支持8个A100 GPU和2个PCI-E Gen4 CPU,为用户提供高带宽的数据流水线通信。
Inspur NF5488M6是一款针对HPC和AI计算用户的高度优化系统。它将集成8个采用NVSwitch技术的A100 GPU和2个下一代主流CPU。
Inspur NF5688M6具有出色的可扩展性,可支持8个A100 GPU,可容纳10台以上的PCIe第4代设备,实现了GPU、NVMe存储和NVIDIA Mellanox InfiniBand网络的1: 1: 1平衡比例。
Inspur NF5888M6可以支持16个A100 GPU通过NVSwitch互联在一个系统中。计算性能可达40pb,对于追求最终性能的用户来说,是最强大的AI超级服务器。
Inspur还将升级其领先的AI计算资源平台AIStation和自动机器学习平台AutoML Suite,以支持NVIDIA A100,从而提供更灵活的AI计算系统资源管理和强大的AI建模算法开发支持。
此外,Inspur计划在其边缘服务器产品组合中添加新的EGX A100配置,以在边缘提供增强的安全性和前所未有的性能。EGX A100融合加速器结合了NVIDIA Mellanox SmartNIC和全新NVIDIA Ampere架构支持的GPU,让企业在边缘更安全地运行AI。
本文就为大家讲解到这里了。