B300较B200在FP4浮点运算能力(FLOPS)上提升了50%,HBM容量增加到了288GB,显存提升50%,GB300的网卡采用800GConnectX-8SNIC。
8个NVIDIA B200 SXM GPU,1.4TB HBM3e GPU内存空间
DP AMD 10U 系统,搭载 NVIDIA HGX B200 8 块 GPU
DP Intel 10U 系统,搭载 NVIDIA HGX B200 8 块 GPU
8个英伟达SXM B200 GPU,1.4TB的GPU内存空间
DP AMD 4U 液冷系统,搭载 NVIDIA HGX B200 8 块 GPU
8个NVIDIA SXM B200 GPU,1.4TB的GPU内存空间,24 个 DIMM 插槽,ECC RDIMM / MRDIMM DDR5 最高 8800MT/s (1DPC).
ASUS液冷ESC NM2N721-E1服务器NVIDIA GB200 NVL72AI训练与推理,配备72个NVIDIA Blackwell GPU、36个NVIDIA Grace CPU和第五代NVIDIA NVLink的完整机架,支持万亿参数LLM推理和训练。支持液冷和可扩展生态系统。
NVIDIA SXM:HGX H100 8-GPU(80GB)、HGX H200 8-GPU(141GB)
NVIDIA SXM: HGX H100 4-GPU (80GB)
NVIDIA SXM: HGX A100 4-GPU (80GB)
4 个 350 W DW PCIe x16 GPU 12 个 75 W SW PCIe x8 GPU
NVIDIA HGX™ H100 with 8 x SXM5 GPUs
NVIDIA MGX™ Arm Server - NVIDIA GH200 Grace Hopper Superchip - 2U UP 4-Bay Gen5 NVMe
NVIDIA HGX™ H100 with 4 x SXM5 GPUs
NVIDIA GH200 Grace Hopper Superchip - 2U 2-Node 8-Bay Gen5 NVMe
NVIDIA GH200 Grace Hopper Superchip - 2U 4-Node 16-Bay Gen5 NVMe DLC
7U NVIDIA HGX H100 8-GPU 服务器配备双 AMD EPYCTM 9004 处理器,专为大规模 AI 和 HPC 设计,具有多达 12 PCIE 插槽,24 DIMM,10 NVMe,双 10Gb LAN 和 OCP 3.0 (选购)
7U NVIDIA HGX™ H100/H200 八个 GPU 服务器,配备双第5代 Intel Xeon 可扩展处理器,专为大规模 AI 和 HPC 设计,具有多达 12 个 PCIE 插槽、32 个 DIMM、10 个 NVMe、双 10Gb LAN 和 OCP 3.0(可选)
8 个 Hopper H100 SXM5 GPU 模块,带 HGX 底板
推出 NVIDIA HGX 架构并灵活配备 8x NVIDIA H100/H200 GPU 或 8x AMD MI300X GPU。
8 NVIDIA HGX H20 96GB 500W SXM5 GPU
AMD Instinct™ MI250 OAM Accelerator 4U
NVIDIA SXM: HGX H100 8-GPU (80GB), HGX H200 8-GPU (141GB)