国产算力公司「各自为战」,曙光如何打通协作壁垒?
是什么契机,让国内耳熟能详的算力相关公司都济济一堂?
在2025世界智能产业博览会的AI计算开放架构暨新品发布会上,国产算力友商们拥有了某种向心力。而串联起他们的核心纽带,正是中科曙光发布的国内首个AI计算开放架构。
此次发布中,中科曙光协同AI芯片、AI整机、大模型等20多家产业链上下游企业,共同推出AI超集群系统。在开放多项技术能力的同时,也宣布依托国家先进计算产业创新中心,启动 “AI计算开放架构联合实验室” 的建设。
算力厂商们的集体亮相,背后也藏着大家对当前国内算力市场困局的共同焦虑:行业过去“强竞争、弱合作”,导致国内基础设施市场虽然火热,但不同厂商的服务器、存储设备、算力调度平台大多采用专有接口与协议,缺乏统一技术标准,从而难以形成合力,突破瓶颈。
那么,对当下的国内算力生态而言,曙光的这步尝试究竟价值何在?为了推动这场突破,他们又做了哪些准备?
算力产业链环节细分,内部却是“一盘散沙”
在外部生态护城河难以攻克之时,内部算力厂商却仍各自为战、缺乏协同,这是国内算力市场的一大瓶颈。
而这种局面的出现,一大原因是GPU领域内大量不同的品牌、厂商,彼此之间不同的算力密度、互联方式以及生态体系差别,筑起的异构壁垒。
2023年前后,异构问题的解决被越来越多厂商提上日程。然而,目前的尝试并不尽如人意——
在技术上,不同芯片算子库不同,运行时的技术适配差异会增大整合难度;同时,异构的协调需要对GPU性能进行预测及拆分,甚至涉及硬件协调。
在生态上,中科曙光总裁助理、智能计算产品事业部总经理杜夏威向雷峰网介绍,行业已习惯在国际主流生态的框架下运行,现有惯性难以打破;且产业迭代速度极快、技术更新频繁之下,AI各个产业板块发展都很活跃,这导致“齿轮”之间并没有严丝合缝协同。
这些问题没有解决,目前的异构混训就依然会对效率造成莫大牺牲——有业内人士指出,随着AI加速卡数量的增加和不同芯片类型加入,混训的鲁棒性和稳定性都会变差。杜夏威观察到“人们对打破壁垒的未知恐惧普遍存在”,但市场对厂商迈出这一步的需求,已迫在眉睫。
杜夏威指出,云计算时代,客户的起步往往较云计算提供商晚,市场教育周期可能较长;而在AI大模型时代,客户接受度极高,快速增长的海量需求反推数据中心的运营革新,市场正倒逼厂商啃下异构集群统一标准的“硬骨头”。
虽然有观点认为,异构需求只是国产芯片提升性能过程中的过渡性阶段,智算中心最终还是会回归到同构的基础架构;然而,在未来算力市场发展的短期内,异构需求只会有增无减:
一方面,数据中心的国产化比例要求逐渐严格,以前国产卡比例在数据中心内可能只占两成,但今年窗口指导等相关政策颁布后,未来可能有所升高。
另一方面,部分使用先进算力加国产化算力的组合集群的大模型客户,也明确拥有对混训能力的要求。
有见及此,2025智博会上,中科曙光协同AI芯片、AI整机、大模型等20多家产业链上下游企业,共同发布了国内首个AI计算开放架构,并基于该架构推出AI超集群系统。
这套超集群单机柜支持96张加速卡,可提供超过100P的AI算力,最高能够实现百万卡大规模扩展。它还能支持深度开发用户迭代自有程序,同时帮助传统行业用户快速复用AI模型、整合业务。
与专有封闭系统相比,这套系统可适配支持多品牌GPU加速卡,兼容CUDA等主流软件生态,为用户提供更多选择;同时也大幅降低硬件成本和软件开发适配成本,使得前期投资压力较小。
并且,曙光也携手众多产业链企业开放七项核心技术,包括CPU与AI加速器高性能接口协议、加速器互连协议,液冷基础设施层面的规范,以及软件栈的整合经验等。
“这个AI超集群最大的特点,就是多元化和包容化”,杜夏威说道。在他看来,异构并非局限地理解为把多个品牌揉在一个系统下,而是寻找大家在整个系统化工程中擅长的部分,尝试通过深度合作来形成对产业的良好支撑。
而曙光能成为开放架构号召人的角色,正源自其多年来的实验积累。
中科曙光高级副总裁李斌说道,过去十年,中科曙光建设了20多个大规模算力集群,累计部署超50万张异构加速卡。从大型机到集群,从小规模算力到超大规模算力系统,曙光在产业链各层级的沉淀,令其足以起串联上下游。
这种串联,一方面能让各个环节的算力公司不再“重复造轮子”,减少为多种不同架构重复研发的无效过程;另一方面,也能在当前国内算力供需匹配不足的情况下,有效整合起分散的算力资源。
不过,让算力资源有效运转的条件之一,是要保障集群能长久稳定地基础运营。为此,曙光做的准备远不止这些。
做好模型训练中的“脏活累活”
智博会上,中科曙光展台正中间立着AI超集群产品,其存储、液冷、生态等板块的细分展区分布四周,将其簇拥其中。
据介绍,这套AI超集群千卡集群大模型训推性能达到业界主流水平的2.3倍,其完善的工具链和软件栈能把开发效率提升4倍,人力和时间投入降低70%。
GPU时代对软硬件的协同优化提出更高要求,杜夏威说道,曙光的这套架构,也涵盖了资源运管调度、下层并行化等策略,以及专家并行、PD分离等技术,确保底层算力高效发挥。同时,也对底层通信库、算子库进行优化,能做到以软件栈的形态交付服务。
而在存算方面,曙光也提出了“以存提算”、存算一体,通过Burstbuffer数据缓存的使用,结合超级隧道降低交互,保障数据IO以及传输有自己高效的专属通道,让GPU算力效能增加了55%。
此外,那些在大模型时代发展早期被有意回避的“脏活累活”——提高稳定性、减少故障率、缩短故障恢复时间——反而成了曙光新品的亮眼名片:
在曙光的这套新集群中,其平均无故障时间(MTBF)提高了2.1倍,平均故障修复时间(MTTR)降低到原来的47%等。“把不影响原有业务运转的故障替换技术,逐步释放到整个AI超集群中”,是曙光下一步发展的目标。
高温,也是大集群稳定运行的一大克星。一般来说,芯片工作温度每升高10度,失效率就会翻倍。曙光数创CTO张鹏算了这样一笔账:目前,曙光通过液冷能做到PUE 1.04,相当于每带走100个单位的热量,只需额外花费4个单位的能量;而以往风冷的能量比效率只是1:1,相比起来,液冷的能耗节省非常明显。
不过,在冷板、浸没、喷淋三大液冷路线中,冷板虽先行落地成为主流,但面对目前已达1000w级GPU运行时的“热浪”,已有些捉襟见肘。
要让芯片算力得以充分释放,下一扇需要开启的门是“浸没”。而曙光已经率先握住了这把钥匙。
中科曙光在展会现场展出的相变浸没液冷设备,令雷峰网印象深刻——
透过玻璃视窗,可以看到8块GPU和2块CPU浸泡在无色液体中。细密的气泡从芯片上覆盖而过,旋即升腾、折向右侧,形成稳定而精确的“蒸汽轨道”。
据现场工作人员介绍,这些特殊液体的沸腾温度仅在50度左右,远低于芯片运行时80-90度的工作温度。于是,在持续的沸腾中,热量便被汽化的小气泡裹挟带走、随后消散。

做大型机和集群起家的曙光,从2011年就开始布局静默式冷板液冷,在2015年量产TC40冷板式高密度服务器。尽管如此,张鹏还是感慨,数据中心需求迅猛增长的这几年,已经对液冷发展提出近乎苛刻的高要求:
现在的智算中心比起传统通用数据中心,负载变化率很快——在训练和推理中,一个回车按下的毫秒里,所有需求就要达到满载。与此同时,单机柜功率密度在短短几年内从60千瓦,飙升至200千瓦甚至300千瓦。
曙光的这场发布,是一次团结国内算力生态的初尝试,具体效果有待时间检验,但至少,在“苹果生态”为王的算力市场里,他们已经打响构建“安卓生态”的第一枪。
发布于:广东
相关推荐
算力市场、要变天了!?
大模型开启算力新一轮竞赛,中科曙光首提“立体计算”战略 | To B 产业观察
中长期算力自主可控 国产算力生态受益股一览
专访中科曙光副总裁李斌:国内首个AI计算开放架构发布,国产智能计算迎来生态变革
国产算力和国产大模型,迎来双赢时刻
国家超算互联网联合体成立!算力概念股大涨,中科曙光逼近涨停
中国算力,如何像水和电一样自然流动?
国产芯片突围!小米玄戒量产倒计时,如何卡位受益赛道?
儿子吞了老子:海光信息合并中科曙光折射出的产业趋势和投资机会是什么?
中科曙光,封神!
网址: 国产算力公司「各自为战」,曙光如何打通协作壁垒? http://www.xishuta.com/newsview141689.html
推荐科技快讯

- 1问界商标转让释放信号:赛力斯 95792
- 2报告:抖音海外版下载量突破1 25736
- 3人类唯一的出路:变成人工智能 25175
- 4人类唯一的出路: 变成人工智 24611
- 5移动办公如何高效?谷歌研究了 24309
- 6华为 nova14深度评测: 13155
- 7滴滴出行被投诉价格操纵,网约 11888
- 82023年起,银行存取款迎来 10774
- 9五一来了,大数据杀熟又想来, 9794
- 10手机中存在一个监听开关,你关 9519