时隔19个月,英伟达对AI芯片明星产品H100进行升级,推出H200芯片。由于AI芯片价格高昂、利润可观,并将在生成式AI发展中扮演关键角色,因此H200的发布引起科技市场和金融市场的双重关注。当地时间11月13日,在国际超算大会SC23上,英伟达发布了新一代数据中心用GPU芯片H200。这款芯片采用当前最先进的存储技术HBM3e,在多款流行的生成式AI大模型上展现出前所未有的性能。
在2023年前三个季度中,H200的上一代产品H100成为科技市场上的当红硬件,给英伟达创造了数百亿美元的收入及或达到1000%的利润率。H200将从2024年第二季度起在全球售卖,或将成为下一款畅销芯片,并继续成为英伟达业绩增长的关键动力。
进入11月以来,在美联储暂缓加息的宏观背景下,英伟达股价继续上涨。按照11月13日收盘价每股486.2美元计算,英伟达目前市值达到1.2万亿美元。
H200芯片性能大升级
H200是一款新的GPU芯片,也是当今用于AI工作的核心硬件之一。此次技术升级反映出,当前的AI芯片市场主要围绕存储技术进行竞争。此外,除了训练能力之外,推理能力也日臻重要。
H200使用的存储技术是HBM3e,这种高带宽存储技术问世于2023年5月。当时,韩国存储巨头SK海力士率先宣布了这项技术,计划在2024年上半年投入规模化生产。在随后的7月26日和10月20日,另两大存储大厂美光和三星也相继宣布可以生产HBM3e产品。尽管如此,这种存储技术依然被三大巨头垄断,且在制造端受到产量制约。
(图文部分来源网络,侵删)
存储技术正成为AI芯片升级的一大关键。在SC23会议上,英伟达副总裁Ian Buck直言:“如果要处理生成式AI的大量数据和高性能计算应用,高速、大容量的GPU存储是必要的配置。”
搭载HBM3e后,H200的存储容量升级至141GB,带宽升级至每秒4.8TB,而前一代H100存储容量最高为80GB,带宽为每秒3.35TB。
除此以外,申万宏源在11月14日的行业点评中称,H200相对H100进行了软件升级,大幅强化了推理功能和HPC性能,显著降低能耗和整体成本。
这种堆满“高精尖”技术的芯片,目前在AI大模型开发市场上尤为受欢迎。英伟达用一些市面流行的知名AI大模型进行了运行演示,结果显示,在参数量700亿的Llama 2大模型上,H200的推理速度比H100快90%;在参数量1750亿的GPT-3大模型上,H200的推理速度比H100快60%。
从技术上,H200将可以全面取代H100。同时,无论是在服务器里,还是在另一款超级芯片GH200中,H200都可以代替H100。英伟达还宣布,亚马逊云AWS、谷歌云、微软Azure云和Oracle云,将在2024年开始成为首批用上H200的云服务商。
此外,价格也是核心焦点。英伟达目前没有列出新芯片的价格,内山表示定价由英伟达的合作伙伴确定。据美国媒体CNBC报道,上一代H100估计每个售价在25000到40000美元之间,要想在最高水平上运行,可能需要数千个H100芯片。
目前全球的人工智能公司还面临着“算力荒”,急切寻找H100芯片成为常态(H100被视为高效训练和运行生成式人工智能和大语言模型的最佳选择)。这些芯片已经成为了“硬通货”,甚至有公司将H100芯片用作贷款的抵押品,在硅谷谁拥有多少H100芯片也是热门的八卦话题。