训练AI模型最高阶晶片 Nvidia推出新一代H200图形处理器 – 云端运算 – TechNice科技岛-掌握科技与行销最新动态

编译/李寓心

全球知名的半导体公司Nvidia(辉达),日前推出一款H200的图形处理器(GPU),用於训练和部署各种人工智慧模型,其中还包括141GB下一代的「HBM3」内存,未来将有助於使用在AI模型的生成文字、图像和预测分析等,以持续推动生成式AI发展的浪潮。

Nvidia推出新一代H200图形处理器,训练AI模型最高阶晶片。(图片翻摄自 CNBC)

根据报导,Nvidia新推出的GPU为OpenAI用於训练最先进的大型语言模型GPT-4晶片H100的升级版,是许多大型企业、新创公司和政府机构,皆在相互争夺的限量晶片。因为从Raymond James调查显示估计,H100晶片的成本,约25,000美元至 40,000美元不等,同时需要数千个晶片运作,才能在「训练」的过程中,创建最大的AI模型。

更多新闻:Nvidia计画向中国发布三款新人工智慧晶

新一代GPU的优势

Nvidia表示,H200的升级关键在於包含141GB的下一代「HBM3」的内存,可帮助晶片执行「推算」功能,或在经由训练後使用大型语言模型生成文字和图像等。此外,H200使用Meta的大型语言模型Llama 2,进行输出测试的速度,约H100的2倍,同时也与H100相容,代表已经在使用前一代模型,进行训练的AI公司,无需更改伺服器系统或软体,即可使用最新版本。

未来Nvidia的愿景

该公司表示,预计H200在2024年第二季开始出货,同期竞争的还将包括AMD的MI300X GPU架构,同样比前一代产品拥有更多内存的优势。如今市场对GPU的需求旺盛,未来Nvidia将从两年发布一次的节奏,转向一年一次的模式,并暗示在2024年即将推出Blackwell架构的B100晶片,有别於现在基於Hopper架构的H100和H200。

资料来源:CNBC