3月26日消息,当AI从“能用”走向“好用”,一个更现实的问题正在浮出水面——谁能真正用得起、用得上更匹配AI需求的高端算力?
在此背景下,中科曙光3月26日在中关村论坛现场发布了世界首个无线缆箱式超节点scaleX40,并同步开启全渠道预售。这款产品的意义,并不只在于性能提升,而在于它试图回答一个关键问题——如何让超节点从“少数人的能力”,变成“多数人的标配”。
一次大胆创新:超节点革新性产品
作为业内首个无线缆箱式超节点,scaleX40以结构创新为切入点,在算力形态、交付模式与应用效率上实现系统性突破,为AI算力从“工程化建设”走向“产品化供给”提供了全新路径。
在此之前,业内超节点方案普遍依赖大规模线缆连接与定制化建设,部署周期较长,对运维能力要求较高,这些都意味着高昂的时间和资金成本,因此在一定程度上限制了超节点在更广泛场景中的应用。
scaleX40的大胆创新首先体现在形态上。通过无线缆架构,将计算与交换节点实现直接对插,减少了光纤与铜缆的使用;同时采用标准19英寸箱式设计,使算力单元能够以独立设备形态部署。这种变化使部署方式从传统工程实施转向模块化组装,安装与扩展过程更加简化。式进入更多应用场景。
在关键指标上,scaleX40单节点集成40张GPU,总算力超过28PFLOPS(FP8精度),HBM显存容量超过5TB,访存带宽超过8TB/s。系统可靠性提升至99.99%,在降低复杂度的同时兼顾稳定性与能效表现。
中科曙光高级副总裁李斌表示,scaleX40的核心并不只是提升算力密度,更重要的是通过架构创新,降低超节点的部署和使用门槛,使其能够以更标准化的方式进入更多应用场景。
一类关键需求:让超节点匹配行业刚需
从当前市场需求来看,AI算力结构正在发生分层变化。根据行业机构预测,全球AI基础设施投入仍将保持较快增长,但新增需求正逐步从超大规模集群,转向企业级和行业应用场景。
在这一趋势下,算力配置的重点不再单纯追求规模上限,而是更加关注性能、成本与灵活性的平衡。业内普遍共识:几十卡规模已足够满足大多数行业场景模型训练、推理及开发测试的算力需求,这也是兼顾效率与投入的最大公约数区间。
scaleX40的规模配置,恰好落在性能与成本的平衡点上,既具备支持大模型训练和推理的能力,又不会带来过重的投入压力。更关键的是,它不是“只能这样用”。向下,可兼顾32卡,满足中小规模训练、推理和开发测试;向上,它可以通过扩展,组成更大规模集群。
这种“可小可大”的能力,让企业可以根据业务节奏逐步投入,而不是一次性押注。单节点即可支持中等规模AI任务,同时具备标准化扩展能力,可以根据业务需求逐步构建更大规模集群。这种设计使算力部署更贴近企业实际节奏,避免一次性高投入带来的资源压力。
本次发布会现场,多位嘉宾在分享中也提到,企业真正需要的并不是一味更大的集群,而是在可承受成本范围内获得稳定、可扩展的高端算力能力,scaleX40超节点正契合了这一需求。
一个重要变化:高端AI算力走向“可用更易用”
随着AI进入产业化阶段,算力的竞争重点正在发生变化。从单一性能指标,转向“是否易部署、易使用、可持续运行”,高端算力正在从“奢侈配置”,转向“基础能力”。而scaleX40的发布正印证了这一趋势。
scaleX40在设计上强调“可用性”。其标准化结构可直接适配现有数据中心环境,无需额外改造;模块化架构支持灵活扩展,使系统能够随业务需求逐步演进。同时,通过与存储及调度体系的协同,算力资源可以更直接地服务模型训练、推理及智能体应用。
这种“开箱即用”的能力,让高端算力可以更快进入实际业务流程。从部署到上线的周期被压缩,使用复杂度被降低,高端算力开始具备“随取随用”的特征。对大量刚需的企业用户而言,这也意味着高端算力不再只是少数场景下的稀缺配置,而是正在成为可以常规部署的基础能力。
行业专家表示,在中关村论坛这一强调技术落地与产业融合的平台上,scaleX40的发布提供了一种新的路径参考,通过结构创新与产品化设计,推动高端算力从复杂工程体系走向标准化基础设施。当超节点开始以更简单的方式被部署和使用,高端算力才会加速从“能力选项”转变为“体系标配”,而这或许正是中国AI真正走向规模化应用的起点。(果青)
转载请注明出处。

相关文章
精彩导读
热门资讯
关注我们