欢迎来到亿配芯城! | 免费注册
你的位置:JSCJ长晶科技CJ(JCET长电科技)-亿配芯城 > 芯片资讯 > 英伟达推出最新AI芯片H200显存带宽提速到了4
英伟达推出最新AI芯片H200显存带宽提速到了4
发布日期:2024-03-28 08:28     点击次数:75

最近,英伟达在2023年全球超级计算机会议(SC23)上推出了最新的人工智能芯片H200,用于人工智能大模型的培训。与上一代产品H100相比,H200的性能提高了约60%至90%。这款新芯片英伟达H100的升级版,与H100一样,它也基于Hopper架构。

HBM3e显存主要增加在H200的升级中,显存带宽从H100的3.35TB/s增加到4.8TB/s。这种升级为大模型训练提供了更强的性能支持。在大模型推理性能方面,H200在700亿参数的Llama2大模型中的推理速度是H100的两倍,H200的推理能耗直接比H100低一半。这意味着在保证计算精度的同时,可以大大提高计算效率,降低计算成本。

英伟达推出了最新的AI芯片H200.jpg

对于显存密集型HPC(高性能计算)应用,H200较高的显存带宽可以保证数据的有效访问,最多可以比CPU提高110倍。这意味着使用H200可以大大缩短计算时间,提高工作效率。

由于H200与H100的架构相同,它们与软件兼容。这意味着H200将具备H100的所有功能,包括对各种人工智能框架的支持。英伟达声称H200是大型Llama 2、GPT-3.5的输出速度分别是H100的1.9倍和1.6倍。这说明H200在处理大型AI模型时性能有了显著提高。

英伟达加速计算总经理兼副总裁伊恩·巴克 (Ian Buck)“如果你想通过生成人工智能和HPC应用程序创建智能,你必须使用大型、快速的GPU来高速、高效地处理大量数据。在H200的帮助下, 亿配芯城 行业领先的端到端人工智能超级计算平台将变得更快,世界上一些最重要的挑战将得到解决。这说明英伟达认为H200在解决世界上的一些重大挑战方面起着重要作用。

在过去,英伟达数据中心的人工智能芯片通常每两年更新一次芯片架构。然而,由于市场对人工智能芯片的强劲需求,英伟达决定从每两年发布一次新架构到每年发布一次新架构。英伟达还告诉投资者,它将于2024年发布基于Blackwell架构的B100芯片。这表明,英伟达在人工智能芯片领域的研发速度正在加快。

根据英伟达的说法,H200将于2024年第二季度发货。从明年开始,亚马逊云科技、谷歌云、微软Azure 和甲骨文云将成为第一批基于H200实例部署的云服务提供商。这将使这些云服务提供商在大规模人工智能培训和推理方面具有更强的性能和能力。

一般来说,英伟达推出的新人工智能芯片H200在性能、效率和功能方面都有了显著的提高。这表明,英伟达正在积极应对市场对人工智能芯片的需求,加快研发步伐,推出更具竞争力的产品。随着人工智能技术的不断发展,我们可以期待英伟达未来推出更多创新的人工智能芯片,以满足市场需求,促进人工智能应用的进步。

电子元器件商城.jpg