最近,华为在科研圈丢出了一张分量不轻的“英雄帖”。
它宣布启动 2025 年度奥林帕斯奖(OlympusMons Awards),面向全球科研人员公开悬赏,拿出 300 万元,专门用来解决 AI 时代的数据存储与处理难题。
从公开信息来看,这次悬赏并不是宽泛征题,而是一开始就明确了两个研究方向:一是 面向 AI 时代的创新存储介质和系统架构,二是为 Agentic AI 打造原生的数据底座。
这两条技术路线,几乎覆盖了当前 AI 系统在数据层面遇到的核心挑战。
可以看出,这次华为盯上的,不是模型参数、不是应用玩法,而是 AI 继续往前跑时,最容易被忽略、却最先扛不住的那一层:数据存储与处理的底座。
过去几年,AI 的叙事几乎全压在“模型”上:参数更大、能力更强、生成效果更像人,这是行业共识。
但当大模型开始真正落地,尤其是 Agent(智能体)形式越来越清晰,问题就出来了:模型跑得快,数据系统却跟不上。
现在的数据,已经不是“存进去、用一次就完”那么简单了。
在 Agent 场景下,数据会被不断唤醒、重组、理解、推理,还会生成新的数据。
原本的“冷数据”被频繁调用,“温数据”还没降温,就直接参与实时计算。
冷、温、热之间的边界被彻底打乱,数据几乎一直处在“随时可能被用到”的状态。
问题也正是从这里开始的。传统存储体系,是为“静态数据 + 低频访问”设计的。
硬套到 AI 场景里,结果只有一个:算力成本蹭蹭往上,协议栈越来越复杂,系统维护难度直线上升。
知识库越建越大,但真正好用、可推理的知识却并没有同比增长。推理效率和精度,经常只能选一个,而存储成本,则在后台悄无声息地变成一条陡峭的上升曲线。
说得再直白一点就是:很多 AI 项目,不是卡在模型能力,而是卡在数据系统已经“喘不过气”。
也正因为这样,华为这次奥林帕斯奖的出题思路,明显不是“锦上添花”,而是奔着“补地基”去的。
先看第一个方向。它关注的不是“再快一点”,而是一个更底层的问题:能不能让存储本身,承担一部分原本落在算力上的压力?
在 AI 时代,单纯靠堆算力,已经越来越不经济。于是,“以存补算、以存换算”这个思路被推到了台前。
简单理解,就是通过存储架构和介质层面的创新,让数据在被读取、索引、组织时就更“聪明”,从而减少不必要的计算消耗。
比如,把计算前移到存储侧,实现真正的存算融合。再比如,通过更高密度的记录方式,让单位能耗承载更多有效信息。
再到更宏观的层面,重新设计层次化大内存的网络协议和 IO 路径,让数据在系统里的流转不再被传统结构拖慢。
这些听起来都很硬核,但背后的目标其实很现实:在性能、容量、成本和能耗之间,找到一个更适合 AI 长期发展的新平衡点。
而第二个方向,则几乎是为 Agentic AI 量身定做的。
当智能体开始具备“自主行动”的能力,数据系统的角色就发生了根本变化
它不再只是一个被动响应请求的仓库,而是需要主动理解数据的语义、结构和关联关系,能够为推理直接提供“可用的知识”,而不是一堆原始素材。
这也是为什么,这一方向反复强调“原生”“语义”“知识凝练”。
重点已经不在于存了多少,而在于:多模态数据如何被提炼成高质量知识?如何在不牺牲关键信息的前提下,压缩冗余内容?
如何让大模型在推理时,拿到的是“恰到好处”的信息,而不是一整座数据山?
如果说第一条主线解决的是“AI 跑得太费劲”,那第二条主线关心的,就是“AI 到底能不能跑得聪明”。
当然,华为也很清楚,真正解决这些问题,不可能靠一家企业单打独斗。所以奥林帕斯奖本身,就是一个典型的产学研协同机制。
这次将评选 2 个奥林帕斯奖和 5 个先锋奖,300 万奖金只是表层激励,更重要的是,获奖团队可以直接进入华为的技术交流与产业验证体系,让研究不止停留在论文里,而是有机会真正落到系统和产品中。
评选标准也很有意思,并不只是看你“过去做过什么”,而是非常看重你“接下来打算怎么做”,你的研究路径有没有前瞻性,有没有原创价值,有没有可能在真实场景里跑得通。
把时间轴再往前拉一点,你会发现奥林帕斯奖并不是一个新概念。
它从 2019 年设立至今,已经吸引了来自 12 个国家、300 多位顶尖学者参与,累计颁发多个奖项,始终围绕数据存储的基础问题持续投入。
名字取自火星的奥林帕斯山,也是在明确告诉所有参与者:这是攀登基础技术高峰的长期工程,而不是追风口的短期竞赛。
所以回头看这次 300 万全球悬赏,华为真正想表达的其实很明确:AI 的上半场拼模型,下半场拼的是数据和存储这块“看不见的底座”。
而这一次,华为选择把这块底座,认真拿出来打磨一遍。
上一篇:临汾市文化和旅游局公示