11月14日消息,据外媒报道,当地时间周一,英伟达发布了人工智能(ai)芯片hgx h200,该gpu利用hopper架构来加速人工智能应用。
据外媒报道,h200是去年发布的h100 gpu的后续产品。h100是英伟达首款基于hopper架构打造的gpu,此前是英伟达最强大的人工智能gpu芯片。
英伟达称,h200是首款提供hbm3e内存的gpu。得益于hbm3e, h200可提供141gb内存和每秒4.8tb的带宽,可加速生成式人工智能和大型语言模型(llm),同时可以处理人工智能和超级计算工作负载所需的大量数据。
该公司还表示,h200的推出将带来进一步的性能飞跃,包括在llama 2(一个具有700亿参数的llm)上的推理速度比 h100快了近一倍。预计在未来的软件更新中,h200的性能将进一步领先和提高。
英伟达表示,全球系统制造商和云服务提供商将从2024年第二季度开始使用h200。
来源:techweb.com.cn
以上是网络信息转载,信息真实性自行斟酌。










