NVIDIAGH200GPU采用世界上最快的HBM3e内存可提供5TB/s带宽

NVIDIA刚刚宣布推出增强型GH200GPU,该GPU现在配备了世界上最快的内存解决方案HBM3e。

NVIDIA为全球最快的AIGPU配备全球最快的内存:GH200HBM3e版!

据NVIDIA称,HopperGH200GPU现在是世界上第一款HBM3e芯片,它不仅提供更高的内存带宽,而且还提供更高的内存容量。双GraceHopper系统现在提供比现有产品高3.5倍的容量和3倍的带宽。该系统现在可提供高达282GB的HBM3e内存。

HBM3e内存本身的速度比现有HBM3标准快50%,每个系统可提供高达10TB/s的带宽,每个芯片可提供高达5TB/s的带宽。HBM3e内存现在将用于为一系列采用GH200的系统(400个及以上)提供支持,其中包括NVIDIA最新CPU、GPU和DPU架构(包括Grace、Hopper、AdaLovelace和Bluefield)的各种组合,以满足人工智能领域的需求激增。

NVIDIA尚未特别宣布他们将从谁那里采购用于其GH200AIGPU的全新HBM3e内存芯片,但据报道SKHynix最近收到了NVIDIA的请求,要求为其下一代HBM3eDRAM提供样品。与此同时,三星还拥有更快的HBM3芯片,每个堆栈可以提供高达5TB/s的带宽,尽管SKHynix似乎可能是GH200GPU的选择。

NVIDIA今天宣布推出下一代NVIDIAGH200GraceHopper平台,该平台基于配备全球首款HBM3e处理器的全新GraceHopper超级芯片,专为加速计算和生成式AI时代而打造。

该新平台旨在处理世界上最复杂的生成式人工智能工作负载,涵盖大型语言模型、推荐系统和矢量数据库,将提供多种配置。

与当前一代产品相比,双配置的内存容量增加了3.5倍,带宽增加了3倍,包括一台具有144个ArmNeoverse核心、8petaflops的AI性能和282GB最新HBM3e内存技术的服务器。

HBM3e内存比当前HBM3快50%,提供总共10TB/秒的组合带宽,使新平台能够运行比之前版本大3.5倍的模型,同时通过快3倍的内存带宽提高性能。

NVIDIA还表示,首批采用采用全新HBM3e内存技术的HopperGH200GPU的系统将于2024年第二季度推出,略晚于AMDInstinctMI300XGPU,后者将搭载类似的5TB/s+带宽HBM3芯片,至192GBVRAM容量。

免责声明:本文章由会员“李同”发布如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务如因作品内容、版权和其他问题请于本站联系

李同
免责声明:本文章由会员“李同”发布,如果文章侵权,请联系我们处理,本站仅提供信息存储空间服务;如因作品内容、版权和其他问题请于本站联系