阿里云AI成果入选顶会,GPU用量削减82%
本文来自微信公众号:财联社AI daily (ID:gh_f7653dea6e99),作者:宋子乔,原文标题:《阿里云AI成果入选顶会!GPU用量削减82%》
近日,阿里云提出的计算池化解决方案“Aegaeon”成功入选顶级学术会议SOSP 2025,该方案可解决AI模型服务中普遍存在的GPU资源浪费问题,大幅提升GPU资源利用率,目前其核心技术已应用在阿里云百炼平台。
SOSP(操作系统原理研讨会)由ACM SIGOPS主办,是计算机系统领域顶级学术会议,平均每年收录的论文数量仅有数十篇,被誉为计算机操作系统界的“奥斯卡”,入选论文代表了操作系统和软件领域最具代表的研究成果。本届SOSP大会上,系统软件与AI大模型技术的融合成为新的趋势。
数据显示,在阿里云模型市场为期超三个月的Beta测试中,Aegaeon系统在服务数十个参数量高达720亿的大模型时,所需的英伟达H20 GPU数量从1192个减至213个,削减比例高达82%(见下图)。GPU用量削减82%意味着公司硬件采购成本将显著降低,这对于动辄使用成千上万张GPU的大型模型服务商至关重要。
在真实的模型服务场景中,少数热门模型(如阿里的Qwen)承载了绝大多数用户请求,而大量不常被调用的“长尾”模型却各自独占着GPU资源。数据显示,在阿里云模型市场中,曾有17.7%的GPU算力仅用于处理1.35%的请求,资源闲置严重。
而Aegaeon系统通过GPU资源池化,打破了“一个模型绑定一个GPU”的低效模式。
Token级调度是该系统的核心创新点,Aegaeon多模型混合服务系统在每次生成下一个token后动态决定是否切换模型,实现精细化管理,同时,通过组件复用、显存精细化管理和KV缓存同步优化等全栈技术,Aegaeon将模型切换开销降低97%,确保了token级调度的实时性,可支持亚秒级的模型切换响应。
据介绍,Aegaeon系统支持单GPU同时服务多达7个不同模型,相比现有主流方案提升1.5-9倍的有效吞吐量,实现2-2.5倍的请求处理能力。
如何从底层系统软件层面优化,以更好地支撑和赋能上层AI应用,已成为全球学术界和工业界关注的焦点。未来AI的发展将不仅依赖于硬件算力的单纯增长,更需要通过系统级的软件创新来深度挖掘现有硬件的潜力。
相关推荐
阿里云AI成果入选顶会,GPU用量削减82%
阿里云饱和式投入 AI,不想在 “迟疑中错过变革”
拆解阿里Q1财报:淘系见顶菜鸟强劲,阿里云碰上黑天鹅
跨越AI价值鸿沟:远石科技与阿里云的共创之路
争夺 AI 入场券:中国大公司竞逐 GPU
这个季度,阿里涌现出这些 AI 应用
这个季度,阿里涌现出这些AI应用
阿里云再调整:削减定制项目和硬件集成业务
最前线 | 阿里发布第一颗芯片含光800,未来会和阿里云搭着卖
英特尔计划在美国加州裁员超300人:涉AI、云计算、GPU等部门
网址: 阿里云AI成果入选顶会,GPU用量削减82% http://www.xishuta.com/newsview143307.html
推荐科技快讯

- 1问界商标转让释放信号:赛力斯 95792
- 2报告:抖音海外版下载量突破1 25736
- 3人类唯一的出路:变成人工智能 25175
- 4人类唯一的出路: 变成人工智 24611
- 5移动办公如何高效?谷歌研究了 24309
- 6华为 nova14深度评测: 13155
- 7滴滴出行被投诉价格操纵,网约 11888
- 82023年起,银行存取款迎来 10774
- 9五一来了,大数据杀熟又想来, 9794
- 10手机中存在一个监听开关,你关 9519