作为一种重要的生产要素,数据在规模化激增的同时,其价值也正在得到释放:新近印发的《“数据要素×”三年行动计划(2024—2026年)》提出,到2026年底,数据要素应用广度和深度大幅拓展,在经济发展领域数据要素乘数效应得到显现;以ChatGPT为代表的大模型持续火热,在带动算力,尤其是智能算力需求爆发的同时,也带来了用于大模型训练与大模型推理的海量大数据的需求。
这也仅仅是数据价值得到释放的案例之一。而随着AI大模型的进一步发展和普及,数据的规模将持续扩大,数据的价值还将得到进一步释放。在人工智能领域,西部数据认为,数据的质量与数量决定了人工智能的整体水平。然而,笔者注意到,大模型训练、推理所需的算力基础设施除了提供算力、运力等资源外,还需要提供存力,也就是数据存储力,这对数据存储的性能、容量、成本以及能耗提出新的要求。
“木桶效应”里,数据存力不做“短板”
算力、数据、算法是支撑AI大模型落地的三大要素,在大模型爆发初期,企业普遍将注意力放在价格高昂、供不应求的智能算力上,容易被忽略的数据存力同样起着至关重要的作用。事实上,大模型的训练与推理需要依托计算芯片、存储与网络共同构成的大规模算力集群,这其中,算力、存力、运力都不应该成为“木桶效应”的“短板”。