英伟达发布了下一代人工智能超级计算机芯片,这些芯片将在深度学习和大型语言模型(LLM)方面发挥重要作用,比如OpenAI的GPT-4。新芯片相比上一代有了显著的飞跃,将被用于数据中心和超级计算机,处理诸如天气和气候预测、药物发现、量子计算等任务。
此次发布的关键产品是基于英伟达的“Hopper”架构的HGXH200GPU,是H100GPU的继任者,也是该公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大型语言模型。英伟达称:“借助HBM3e,英伟达H200以每秒4.8TB的速度提供141GB的内存,与A100相比,容量几乎是其两倍,带宽增加了2.4倍。”
在人工智能方面,英伟达表示,HGXH200在Llama2(700亿参数LLM)上的推理速度比H100快了一倍。HGXH200将以4路和8路的配置提供,与H100系统中的软件和硬件兼容。它将适用于每一种类型的数据中心(本地、云、混合云和边缘),并由AmazonWebServices、GoogleCloud、MicrosoftAzure和OracleCloudInfrastructure等部署,将于2024年第二季度推出。