为AI热潮再添动力 英伟达发布新一代芯片H200
英伟达,半导体巨头,于周一发布了新一代人工智能(AI)芯片H200,旨在培训和部署各种人工智能模型。该芯片是对用于训练最先进大语言模型H100芯片的升级产品,集成了141GB的内存,更擅长进行“推理”。在用于推理或生成问题答案时,性能较H100提高60%至90%。
根据英伟达官网消息,H200基于英伟达的“Hopper”架构,是该公司第一款使用HBM3e内存的芯片。这种内存速度更快、容量更大,更适合大语言模型。英伟达表示,借助HBM3e,H200以每秒4.8TB的速度提供141GB的内存,与A100相比,容量几乎是其两倍,带宽增加了2.4倍。
H200预计将于2024年第二季度上市,将与AMD的MI300X GPU展开竞争。与H200类似,AMD的芯片比其前身拥有更多的内存,有助于大语言模型运算推理。
英伟达表示,H200将与H100兼容,这意味着已经在使用H100进行训练的人工智能公司,不需要改变他们的服务器系统或软件来适应H200。
英伟达副总裁伊恩·巴克表示:“为了训练生成式人工智能和高性能计算应用程序,必须使用高效能GPU。有了H200,业界领先的人工智能超级计算平台可以更快地解决一些世界上最重要的挑战。”
英伟达加速计算首席产品经理迪翁·哈里斯表示:“市场上大模型尺寸正在急速膨胀,这是我们继续引领最新技术的又一个例子。”
根据美国金融机构Raymond James透露,H100芯片成本仅3320美元,但英伟达对其客户的批量价格仍然高达2.5万至4万美元,导致H100的利润率可能高达1000%,成为有史以来最赚钱的芯片之一。
在训练大语言模型时,需要数千个H100集群工作,这导致科技巨头、初创公司和政府机构都在争夺英伟达有限的芯片供应。由于对其产品的需求似乎是个无底洞,英伟达今年的销售额井喷,股价上涨了230%,市值突破了1.2万亿美元的大关。英伟达预计第三财季营收约为160亿美元,同比增长170%。公司将在下周向投资者提供更清晰的业绩细节,计划于11月21日公布最新财报。
文章为作者独立观点,不代表财盛证券_股票配资网址_股票配资行情观点