首页 科技快讯 AI服务器、光模块和液冷技术

AI服务器、光模块和液冷技术

来源:晰数塔互联网快讯 时间:2024年03月27日 03:28

AI服务器市场情况

- 国内对英伟达推理卡(如A30、A40、L40)的需求量很大,至少有10万片以上。

- 英伟达训练卡和推理卡的主要产品为H20和L20,预计2024年能够满足市场需求。

- 英伟达显卡在国内价格较高,H100P3E约245,000元,L20约75,000元,H20约140,000元。

- 国内服务器市场竞争者包括浪潮、新华三、三超聚变、联想、戴尔和宁唱等,各有优劣势。

英伟达产品和价格

- H800和H100是国内市场能买到的高端英伟达产品,价格分别在300万和280万人民币左右。

- A7100 PCIe产品价格约25万人民币,L40和A40价格分别在110万和70万人民币左右。

- 浪潮公司AI服务器的毛利率显著高于通用计算服务器,估计在16%到20%之间。

液冷技术发展

- 液冷技术在数据中心中越来越受重视,浪潮等服务器厂商已经推出液冷产品。

- 液冷散热相比风冷散热效率更高,有助于降低数据中心能耗和改善PUE。

- 液冷散热技术包括浸没式和冷板式两种方案,英伟达NVL72系统采用了冷板式液冷。

光模块市场情况

- GB200系统内部GPU和1.6T光模块配比关系保持不变,而数据中心局域网连接时的具体数量关系取决于交换机构建层数。

- 光模块在GB200系统中的应用场景和潜在增长点包括单机柜内高集成度方案和跨机柜互联需求。

- 1.6T网络加速落地预计将在2025年实现,对光模块和交换机产业有积极影响。

英伟达技术升级

- 英伟达第五代NV link技术在双向带宽上实现了翻倍增长,提升了GPU之间的通信效率。

- NV switch芯片解决了初代架构中无法实现完全点对点连接的问题,提升了GPU集群连接的效率。

- GB200芯片组网方案中通过NV link 5.0技术实现高速互联,提升了对AI计算场景中显存需求较高的性能表现。

销售策略和市场竞争力

- 英伟达的销售策略转变为突出单机柜GPU的性能升级。

- 国内对于AI和深度学习计算需求的增加,推动了神农卡等产品的销量上升。

- 相对于国产化芯片如升腾910,英伟达产品在训练端性能上仍占优势,但国产芯片在推理端占主导地位

相关推荐

AI服务器、光模块和液冷技术
高澜股份:以液冷技术 切入人工智能服务器业务
液冷服务器年增305%:AI大模型再创新需求?
风起 AI 服务器,谁才是真正的国产之光?
风起AI服务器,谁才是真正的国产之光?
微星展示新款液冷服务器,可选 AMD EPYC 和英特尔至强处理器
“AI散热革命”!芯片巨头联手英伟达,开发GPU液冷系统,行业迎井喷式发展
AI又爆发,光模块继续狂飙!云计算板块强者恒强,沪港深云计算指数午后大涨4%!
液冷服务器龙头,华为、微软核心供应商,净利润增4200%,拐点来临!
「纯钧」宣布完成亿级 A 轮融资,重点布局数据中心“液冷”服务

网址: AI服务器、光模块和液冷技术 http://www.xishuta.com/newsview113107.html

所属分类:行业热点

推荐科技快讯