全球存储领域再添重磅突破 ——SK 海力士正式宣布,已成功完成面向人工智能(AI)场景的超高性能存储器新品HBM4(高带宽存储器) 的开发,
并在全球范围内率先搭建起完整的量产体系。这一里程碑式成果,不仅是 SK 海力士技术实力的集中体现,更再次向全球市场确立了其在 AI 专用存储器领域的技术领导地位。
作为 AI 算力的 “数据通道核心”,HBM 通过垂直堆叠多颗 DRAM 芯片大幅提升数据传输效率,相较传统 DRAM 在速度与带宽上具备颠覆性优势。
截至目前,HBM 技术已历经六代迭代,从初代 HBM 逐步演进至 HBM2、HBM2E、HBM3、HBM3E,如今 HBM4 的落地标志着技术进入全新阶段。
据 SK 海力士介绍,新一代 HBM4 在核心性能上实现 “跨越式升级”:通过将数据传输通道数量提升至2048 条(较前一代产品实现翻倍),
直接推动带宽性能同步翻倍;同时,产品能效比提升超 40%,一举达成全球最高水平的数据处理速度与能效平衡。
这一突破将为 AI 产业带来双重价值:一方面,可从根本上解决 AI 计算中的 “数据瓶颈” 问题,大幅提升模型训练与推理效率;另一方面,能显著降低数据中心的电力消耗,
为算力基础设施的低碳化发展提供关键支撑。
值得关注的是,HBM4 的运行速度突破10Gbps,大幅超越 JEDEC(全球半导体标准组织)规定的 8Gbps 行业标准,进一步拉大与竞品的技术差距。为保障量产稳定性,
SK 海力士在研发过程中采用了两大核心技术:一是经过市场验证、具备高可靠性的自主先进MR-MUF 技术,二是第五代 10 纳米级(1b)DRAM 工艺,
通过成熟技术组合将量产风险降至最低,为后续大规模供货奠定基础。

在算力端,英伟达也于近日释放重磅信息 —— 正式官宣面向长窗口 AI 推理、智能体(Agent)工作负载的专用 GPU 产品Rubin CPX。
这款新品基于英伟达下一代 GPU 架构 “Rubin” 打造,虽未公布具体 CUDA 核心数量,但凭借 128GB GDDR7 大显存、百万级 token 推理能力等特性,
迅速成为 AI 算力领域的焦点。
据英伟达介绍,Rubin CPX 采用单芯片设计,专为解决 “长上下文处理” 这一 AI 核心痛点而生:在 NVFP4 数据精度下,
其计算性能最高可达30 PFlops(每秒 3 亿亿次浮点运算) ,
能够流畅支持百万级 token 的推理任务,为超长文本分析、多模态内容生成等复杂场景提供算力支撑;同时,在长上下文处理场景中,
其注意力性能较现有产品 GB300 NVL72 最高提升 3 倍,进一步强化了在大模型推理领域的优势。
此外,Rubin CPX 还针对视频工作流进行优化,配备四个 NVENC 编码器与四个 NVDEC 解码器,可高效处理视频编解码需求,适配多模态 AI 应用场景。
不过需要注意的是,此次官宣仅为产品 “纸面发布”,Rubin CPX 的正式推出时间需等到2026 年底。
算力产品的研发进展同样值得关注。英伟达日前透露,除 Rubin 架构 GPU 外,下一代 Vera CPU 也已在台积电完成流片,整体进度符合预期,
为后续 Rubin CPX 及相关算力产品的按时落地提供了关键保障。
从存储到算力,SK 海力士与英伟达的最新动态,分别在 “数据通道” 与 “计算核心” 两大领域为 AI 产业注入新动能,也预示着全球 AI 基础设施正加速向更高性能、
更高能效、更大规模的方向迈进。
