Supermicro推出全新服务器为AI、HPC和云工作负载加速
作者:杜玉梅 来源:TechWeb 发布时间:2021-10-18 06:56
作为企业计算、存储、网络解决方案和绿色计算技术的全球提供商,它宣布推出全新系统(SupermicroX12系列),配备第三代英特尔至强可扩展处理器、NVIDIAAmperearchitectureGPU和内置AI加速器。
这些服务器专为需要低延迟和高应用性能的人工智能应用而设计。2UNVIDIAHGXA1004-GPU系统适用于高速CPU-GPU和GPU-GPU互联的现代AI训练集群的大规模部署。另一方面,Supermicro2U2-Node系统可以通过共享电源和冷却风扇来降低能耗和成本,减少碳排放。同时,它可以选择多个GPU加速器来匹配工作负载。这两个系统都包含由最新英特尔软件保护扩展启用的高级安全功能。
Supermicro总裁兼首席执行官梁瀚昭表示,Supermicro工程师再次为我们丰富多样的高性能GPU服务器系列打造新产品,与市场上其他设计相比,可以节省成本、空间和能耗。凭借创新设计,我们提供了2U高密度GPU系统,可配备四个NVIDIAHGXA100 GPU加速器(代码:红石),用于客户的人工智能和高性能计算工作负载。此外,我们的2u 2节点系统经过独特设计,可共享电源和冷却组件,从而降低运营成本和环境影响。双引号
2UNVIDIAHGXA100服务器采用第三代英特尔至强可扩展处理器平台,支持英特尔学习技术,针对分析、培训和推理工作负载进行了优化。该系统可以配备四个A100GPU,通过NVIDIANVLink技术完全互联,提供高达2.5倍的AI性能。其高达320GB的GPU内存可以加速企业数据科学和AI的突破。对于复杂的会话式AI模型,如BERT大规模推理,该系统比上一代GPU快4倍,在BERT大规模AI训练中的性能提升3倍。
此外,这些系统采用先进的散热和散热设计,非常适合节点密度和能效优先的高性能集群。这些系统也可以采用液冷系统,从而节省更多的运行成本。该平台还支持英特尔持久内存,可以在GPU上处理之前,将大型模型存储在接近CPU的内存中。对于需要多系统交互的应用,系统还可以配备4个NVIDIA ConnectX-6200 GB/s InfiniBand卡,支持1:1GPU-DPU比例的GPUDirectRDMA。
新的2U2节点是一种节能和节省资源的架构,其设计使每个节点最多支持3个双宽度图形处理器。每个节点还配备了第三代英特尔至强可扩展处理器,最多40个内核,内置人工智能和高性能计算加速器。各种人工智能、渲染和虚拟显示应用都可以从这种CPU和GPU的平衡设计中受益。系统配备Supermicro高级I/O模块扩展槽,具备快速灵活的网络连接功能,在运行工作量大、处理深度学习模式时可加载巨大的数据流量,满足AI/ML应用、深度学习训练和推理的高需求。该系统也是多人高级云游戏和许多其他计算密集型虚拟桌面应用的理想选择。此外,虚拟内容分发网络(vCDN)可以满足日益增长的流媒体服务需求。系统内置的备用电源使任何节点在发生故障时都能使用相邻节点的电源。