据澎湃新闻7月10日报道,AI芯片巨头英伟达(NVDA)在中国市场销售的A800芯片近期价格出现大幅上涨。英伟达在中国的一家代理表示,“目前手里还是有些现货,如果数量不大的话还是可以供应的,建议要买的话就早点入,后期价格只会更高。”
据悉,参数方面,新的A800数据传输速率为每秒400GB,低于A100的每秒600GB,性能大约相当于A100 GPU的70%左右,而且A800支持内存带宽最高达2TB/s,其他参数相比A100变化不大。
今年以来,ChatGPT等各类大模型不断推出,这些大模型训练需要大量的AI芯片,拉升英伟达AI芯片出货,也助推英伟达总市值登上1万亿美元。截至11日美股盘前,英伟达微跌0.76%,报421.8美元,总市值1.043万亿美元。
英伟达A800芯片售价超十万
据澎湃新闻10日报道,近日,英伟达在中国一家代理商对记者表示,现在英伟达A800芯片一天一个价,如果购买量多的话可以10多万元/片,少的话没有11万元/片拿不到,“考虑到禁售传闻,大家都比较惜售,这一个多礼拜以来涨幅达到了20%-30%了。”
据华尔街日报6月底报道,美国商务部可能最快在7月初采取行动,禁止英伟达等芯片制造商在事先未获得许可证的情况下,向中国和其他相关国家的客户出口芯片。《环球时报》记者采访的专家认为,美国这么做是“国家安全优先”立场的体现,目的在于在科技领域战胜中国。但这不仅会伤害中美关系,美国自己也占不到便宜。
英伟达首席克雷斯曾表示,“从长远来看,如果实施禁止向中国出售我们的数据中心图形处理单元(GPU)的限制措施,将导致美国产业永久丧失在全球最大市场之一竞争和领先的机会,并对我们未来的业务和财务业绩产生影响。”
不过,英伟达A800系列芯片原本在中国市场就面临供应紧缺问题。今年,MWC上海展上,联想集团展台上在重点位置展出了搭载了英伟达A800芯片的高端服务器,相关人士告诉记者,这款服务器供应非常紧张,现在下单需要10个月左右才能有货。新华三集团副总裁、运营商事业部总经理何宁也在展会期间接受澎湃新闻记者采访也表示,搭载英伟达芯片的高端服务器供应还是非常紧张的,供货周期在30周左右。
AI芯片需求有多旺盛?
据财联社7月6日报道,近期有消息指出,由于AI推升了CoWoS需求,台积电于6月底向设备厂商启动第二波追单,同时要求供应商全力缩短交期支援,预期今年第四季至明年首季将进入大量出机高峰。在这背后,英伟达、博通、AMD都已在台积电投片,由于AI领域需求增长,三家公司第二季以来不仅逐季陆续上调台积电5/7nm家族制程订单,同时也争抢台积电CoWoS产能,强劲追单动能更已延续至2024年,整体下单规模较2023年至少再增2成以上。
另据Market Watch估计数据显示,到2028年,全球GPU市场规模可能从2021年的197.11亿美元增长到约334.63亿美元,在此期间的复合年增长率为7.85%。
英伟达劲敌AMD推出MI300X
美东时间6月13日周二,AMD举行了新品发布会,其中最重磅的新品当属性用于训练大模型的ADM最先进GPU Instinct MI300。AMD CEO苏姿丰介绍,生成式AI和大语言模型(LLM)需要电脑的算力和内存大幅提高。她预计,今年,数据中心AI加速器的市场将达到300亿美元左右,到2027年将超过1500亿美元,复合年增长率超过50%。
苏姿丰演示介绍,AMD的Instinct MI300A号称全球首款针对AI和高性能计算(HPC)的加速处理器(APU)加速器。在13个小芯片中遍布1460亿个晶体管。AMD推出一款GPU专用的MI300,即MI300X,该芯片是针对LLM的优化版,拥有192GB的HBM3内存、5.2TB/秒的带宽和896GB/秒的Infinity Fabric带宽。AMD将1530亿个晶体管集成在共12个5纳米的小芯片中。AMD称,MI300X提供的HBM密度最高是英伟达AI芯片H100的2.4倍,其HBM带宽最高是H100的1.6倍。这意味着,AMD的芯片可以运行比英伟达芯片更大的模型。
图片来源:每日经济新闻资料图
苏姿丰介绍,MI300X可以支持400亿个参数的Hugging Face AI模型运行,并演示了让这个LLM写一首关于旧金山的诗。这是全球首次在单个GPU上运行这么大的模型。单个MI300X可以运行一个参数多达800亿的模型。
AMD还发布了AMD Instinct平台,它拥有八个MI300X,采用行业标准OCP设计,提供总计1.5TB的HBM3内存。苏姿丰称,适用于CPU和GPU的版本MI300A现在就已出样,MI300X和八个GPU的Instinct平台将在今年第三季度出样,第四季度正式推出。
据第一财经6月14日报道,尽管业内并不认为AMD能够在短期内会对英伟达构成威胁,但在某些硬件性能方面,AMD已经部分超越了英伟达目前最高端的H100芯片。例如,MI300X可以使用高达192GB的内存,这意味着它可以容纳比其他芯片更大的AI模型,英伟达H100目前仅支持120GB内存。
与此同时,更多企业加入GPU芯片竞争的好处是,可能会对英伟达的芯片价格形成压力。目前英伟达的H100价格高达3万美元,芯片价格的下降也有助于降低服务生成式AI应用程序的成本。
研究机构Garnter分析师盛陵海对记者表示:“我们预计英伟达的加速芯片在没有更新版本出来之前,价格很难会下降,目前可以说是没有对手。有些厂商,也包括国内芯片厂商可以在某些性能方面有一定程度的超越,但是整体来看,很少有能真正做到像A100或者H100那样好用的。”
相关报道芯片股集体反弹!10分钟20cm涨停 “U形”周期复苏底部?
存储周期大底渐进?DRAM大厂财报释放多个积极信号 A股已吹响“反攻集结号”