推出 NVIDIA HGX 架构并灵活配备 8x NVIDIA H100/H200 GPU 或 8x AMD MI300X GPU。
加速并行计算性能,满足最极端的 AI-HPC 工作负载需求
1、用于 HPC/AI 训练(例如 LLM/NLP)的多 GPU 服务器。
2、搭载 2 个第四代 AMD EPYC9004 处理器,并与未来的下一代 AMD EPYC™ 处理器兼容。
3、推出 NVIDIA HGX 架构并灵活配备 8x NVIDIA H100/H200 GPU 或 8x AMD MI300X GPU。
4、18x SFF 全 NVMe 驱动器托架用于 GPUDirect 存储和启动驱动器。
5、10x OCP NIC 3.0 TSFF 用于 GPUDirect RDMA。
6、模块化设计,方便维护。
搭载 2 个第四代 AMD EPYC9004 处理器,并与未来的下一代 AMD EPYC™ 处理器兼容。
推出 NVIDIA HGX 架构并灵活配备 8x NVIDIA H100/H200 GPU 或 8x AMD MI300X GPU。
18x SFF 全 NVMe 驱动器托架用于 GPUDirect 存储和启动驱动器。
10x OCP NIC 3.0 TSFF 用于 GPUDirect RDMA。