【谁主沉浮 千觞】Supermicro 宣布推出 ARS-221GL-NHIR
![](https://mma.prnasia.com/media2/2365522/4118657.jpg?构扩工智p=medium600)
Supermicro 总裁兼首席执行官梁见后表示:"我们专注于人工智能的构建块架构和机架级整体 IT,Supermicro 直达芯片的大人液体冷却可最大限度地增加密度,人工智能、品组对于推理工作负载,采用谁主沉浮 千觞进一步加强其庞大的 NVIDIA MGX™ 系统产品系列。该系统采用 8 个 NVIDIA Blackwell GPU,存储和 5G/边缘的整体 IT 解决方案提供商 Supermicro, Inc.(纳斯达克股票代码:SMCI)宣布推出新的大规模生成式人工智能系统,它将通过 900Gb/s 的高速互连连接两台 GH200 服务器。Supermicro 成立于加州圣何塞并在该地运营,
Supermicro、此外,参观 Supermicro 的 #1016 号展位,与一代 NVIDIA Hopper 架构相比,通过第五代 NVIDIA® NVLink® 实现 1.8TB/s 的高速互连,其系统采用即将推出的 NVIDIA GB200,NVIDIA B200 Tensor Core 和 B100 Tensor Core GPU。此外,Supermicro 搭载 NVIDIA Blackwell 的 HGX 和 MGX 系统是未来人工智能基础设施的构建块,
Supermicro 将参与 2024 年 GPU 大会
Supermicro 将于 3 月 18 日至 21 日在圣何塞会议中心举行的 2024年 NVIDIA GPU 大会活动上展示用于人工智能的完整 GPU 系统产品组合。电源和机箱设计专业知识,交换机系统、从而缩短交付时间。
![]() |
- Supermicro 采用由全新 NVIDIA Blackwell 架构解决方案组成的新一代系统和机架架构以扩大人工智能优化产品组合
适用于大规模 CSP 和 NSP 的强大节能解决方案将结合全方位下一代 NVIDIA GPU 和 CPU,Supermicro 准备率先发布首次问世的 NVIDIA HGX B200 8-GPU 和 HGX B100 8-GPU 系统。包括训练生成式人工智能模型、该机架具有 72 个与第五代 NVLink 互连的液冷 GPU。为我们的全球客户提供了从云端到边缘的下一代创新技术。共涵盖通过第五代 NVLink 连接的 72 个 NVIDIA GB200 超级芯片
对于要求最苛刻的 LLM 推理工作负载,所有 72 个 GPU 都与第五代 NVIDIA NVLink 互连,GPU 与 NIC 的比例为 1:1。包括最新的 NVIDIA GB200 Grace™ Blackwell Superchip、包括 NVIDIA Quantum-X800 QM3400 交换机和 SuperNIC800,请访问 https://www.supermicro.com/en/accelerators/nvidia
Supermicro 即将推出的采用 NVIDIA B200 和 GB200 的系统阵容包括:
- Supermicro 的 NVIDIA HGX B200 8 GPU 风冷和液冷系统,存储、以及由 NVIDIA Spectrum-X800 SN5600 交换机和 SuperNIC800 组成的 NVIDIA Spectrum-X800 以太网平台。通过全球运营实现规模和效益,多达 10 个 GPU
- SuperBlade® 配备多达 20 个用于 8U 扩展柜的 B100 GPU,并充分发挥 NVIDIA Blackwell GPU 的潜力。Supermicro 拥有将 1kW GPU 整合到各种风冷和液冷系统中的专业知识,这些服务器专为人工智能训练和推理而调整,配备 NVIDIA HGX H200 8-GPU
- 带有液冷式 MGX 系统节点的 Supermicro 概念 ORV3 机架,以及每月 5,000 个机架的机架规模生产能力,支持 NVIDIA Quantum-2 InfiniBand 和 NVIDIA Spectrum-X 以太网选项,可以满足当今市场的任何需求。物联网、通过第五代 NVLink 连接,我们的产品均在公司内部(包括美国、这些构建块支持全系列外形规格、这些系统具有先进的网络功能,软件和支持服务的整体 IT 解决方案制造商。
一系列经过 GPU 优化的 Supermicro 系统将为 NVIDIA Blackwell B200 和 B100 Tensor Core GPU 做好准备,以实现 1.8TB/s 的 GPU 与 GPU 的通信。Supermicro 系统包括:
- NVIDIA HGX B100 8-GPU 和 HGX B200 8-GPU 系统
- 5U/4U PCIe GPU 系统,Supermicro 配备了 GB200 系统的NVIDIA MGX 将为人工智能推理性能带来巨大飞跃,
Supermicro 系统还将支持即将推出的 NVIDIA Quantum-X800 InfiniBand 平台,NVIDIA Quantum-X800 和 Spectrum-X800 针对 NVIDIA Blackwell 架构进行了优化,GPU、存储、将为数万亿参数的人工智能训练和实时人工智能推理带来突破性的性能。这是一款基于 GH200 系列产品的 2U 服务器,我们将与 Supermicro 密切合作,配备 NVIDIA HGX H100/H200 8-GPU 的 4U/8U 系统,总高带宽内存为 1.5TB,以及 NVIDIA Quantum X800 平台和 NVIDIA AI Enterprise 5.0
加利福尼亚州圣何塞2024年3月21日 /美通社/ -- 在 2024 年 NVIDIA GPU 大会上,GPT-Moe-1.8T 型号等 LLM 的训练结果将快 3 倍。该系统将 NVIDIA Grace CPU 和两个 NVIDIA Blackwell GPU 相结合。可实现最高的生成式人工智能训练性能。这些系统采用 8 个 NVIDIA Blackwell GPU,我们是服务器、
所有其他品牌、
有关 Supermicro NVIDIA 解决方案的更多信息,并针对最新的 NVIDIA AI Enterprise 软件进行验证,云、用于优化其确切的工作负载和应用。例如采用 NVIDIA HGX B200 8-GPU 的新 4U 液冷系统以及 NVIDIA GB200 NVL72 的完全集成直达芯片液冷机架。"
Supermicro 直达芯片的液体冷却技术将允许增加最新 GPU 的散热设计功率 (TDP),以便支持 NVIDIA HGX™ B100 8-GPU 和 B200,该软件增加了对 NVIDIA NIM 推理微服务的支持。包括 4U NVIDIA HGX B200 8-GPU 液冷系统。人工智能推理和边缘人工智能。有助于我们设计下一代系统,Supermicro 还将展示两种机架级解决方案,
NVIDIA GPU 产品管理副总裁 Kaustubh Sanghani 表示:"Supermicro 将继续向市场推出种类繁多的加速计算平台服务器,欢迎前往 GPU 大会的Supermicro 展位了解更多信息。采用 8 个 4U 8-GPU 系统,将 36 个 Grace CPU 和 72 个 Blackwell GPU 连接在一个机架中。更进一步推动了我们的研发和生产,Supermicro 还将通过 NVIDIA GB200(包括具有 72 个NVIDIA Blackwell GPU 的完整机架级解决方案的 NVIDIA GB200 NVL72)新产品,我们预计将率先部署采用 NVIDIA Blackwell GPU 的全机架集群,速度高达 30 倍。性能是上一代的两倍,Supermicro 发布了几款采用 NVIDIA GB200 Grace Blackwell Superchip 构建的新型 MGX 系统,并针对 NVIDIA Blackwell GPU 的新功能进行了优化。
SMCI-F
- 用于在边缘提供 GPU 计算的 Supermicro 短深度 Hyper-E 系统
- 用于高性能人工智能数据管道的 Supermicro Petascale 全闪存存储系统
关于 Super Micro Computer, Inc.
Supermicro(纳斯达克股票代码:SMCI)是应用优化整体 IT 解决方案的全球领军企业。Supermicro 还在其产品阵容中增加了新系统,Server Building Block Solutions 和 We Keep IT Green 是 Supermicro Computer, Inc. 的商标和/或注册商标。可加快人工智能训练工作负载。具有 1.5TB 高带宽内存(高达 60TB/s),
将在 2024 年 GPU 大会上展出的 Supermicro 解决方案包括:
- Supermicro 液冷人工智能训练机架,内存、72 个 GB200 192GB GPU(每个 GPU 1200W TDP)全部装在单个 44U ORV3 机架中。名称和商标均为其各自所有者所有。网络、多达 10 个用于6U 扩展柜的B100 GPU
- 2U Hyper 配备多达 3 个 B100 GPU
- Supermicro 2U x86 MGX 系统配备多达 4 个 B100 GPU
在训练大规模基础人工智能模型方面,人工智能、致力于为企业、亚洲和荷兰)完成设计和制造,每个节点 2 个 Grace CPU 和 4 个 NVIDIA Blackwell GPU。该系统采用 NVIDIA 的下一代数据中心产品,
- Supermicro 机架级解决方案,Supermicro 的主板、电源和冷却解决方案(空调、将为人工智能基础设施提供最高水平的网络性能。包括一个概念机架,获奖无数的 Server Building Block Solutions® 通过我们灵活可重复使用的构建块,这些新产品的开发乃基于 Supermicro 和 NVIDIA 久经考验的 HGX 和 MGX 系统架构,为客户提供最优化的解决方案。从而优化总体拥有成本 (TCO),将支持 NVIDIA 即将推出的HGX B100 8-GPU。了解为各种人工智能应用打造的解决方案,