H200性能高H20近六倍 可助华AI科企克算力瓶颈
发布 : 2025-12-10 来源 : 明报新闻网

用微信扫描二维码,分享至好友和朋友圈英伟达H200晶片发布于2023年11月,2024年第二季度开始供货,是H100的直接升级版,Hopper架构的王牌。相比H100,H200的内存容量提升76%,带宽增加43%,AI推理性能提升最高90%,特别适合大语言模型和科学计算。
此前为规避美国对华限制令,英伟达寻求对华出售「减配特供版」H20晶片。乔治城大学新兴技术与安全中心(CSET)测算,H200的综合性能较H20高出近六倍,比前代H100更多的高带宽内存,使其能够更快地处理数据。虽并非英伟达目前最新Blackwell架构,对DeepSeek这样的AI初创公司来说,快速部署H200集群,可以提升模型训练效率,克服算力瓶颈。中国拥有全球最多AI研究者,使用更先进的技术能更快转化为商业价值。据公开资料,英伟达H200的主要客户群体有微软、亚马逊、谷歌、甲骨文等云服务商;OpenAI、Meta、Cohere、Mistral等AI研究与开发巨头、高性能计算与科研机构以及企业级客户等。H200的当前市场报价主要集中在2.8万至3.5万美元之间,而包含多块H200 GPU、服务器、网络和冷却基础设施在内的整体H200整机系统售价可能超过30万美元,甚至达到60万美元以上。