东方网记者曹磊11月21日报道:2025AI容器应用落地与发展论坛在上海举办,华为公司副总裁周跃峰博士在会上正式发布AI容器技术Flex:ai,并联合上海交通大学、西安交通大学、厦门大学宣布此项产学合作成果开源,为全球AI产业算力高效利用提供全新解决方案。
当前AI产业高速发展催生海量算力需求,但算力资源利用率偏低成为突出瓶颈:小模型任务独占整卡造成资源闲置,大模型任务单机算力不足难以支撑,大量通用服务器因缺乏智能计算单元处于算力“休眠”状态,供需错配导致严重资源浪费。在此背景下,Flex:ai技术的推出与开源,为破解这一行业痛点提供了关键路径。
作为基于Kubernetes容器编排平台构建的XPU池化与调度软件,Flex:ai通过三大核心技术突破实现算力资源精细化管理。针对小模型场景浪费问题,华为与上海交通大学联合研发XPU池化框架,可将单张GPU/NPU算力卡精准切分至10%的虚拟单元,单卡可同时承载多个工作负载,使此类场景算力平均利用率提升30%。
面对通用服务器算力闲置难题,华为与厦门大学合作研发跨节点拉远虚拟化技术,将集群内空闲XPU算力聚合为“共享算力池”,既为大模型任务提供充足支撑,又让通用服务器可通过高速网络转发AI工作负载,实现通用算力与智能算力融合。
针对异构算力调度痛点,华为与西安交通大学打造Hi Scheduler智能调度器,可自动感知集群状态,结合工作负载优先级与算力需求实现全局最优调度,即便负载波动也能保障运行平稳,让算力资源“物尽其用”。
Flex:ai的全面开源,将向产学研各界开发者开放所有核心技术能力。此举将汇聚全球创新力量,推动异构算力虚拟化与AI应用平台对接的标准构建,形成算力高效利用的标准化解决方案。作为产学协同创新的重要成果,该技术的开源开放不仅为AI产业降本增效提供有力支撑,更将为全球AI产业高质量发展注入强劲动能,助力构建更加高效、可持续的算力生态体系。