找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 62|回复: 0

三星发布SOCAMM2内存:带宽超传统RDIMM内存两倍,功耗低55%

[复制链接]

3727

主题

0

回帖

1万

积分

管理员

积分
11457
发表于 2025-12-23 06:59:47 | 显示全部楼层 |阅读模式


2025年12月17日,三星正式推出SOCAMM2(Small Outline Compression Attached Memory Module,小型轮廓压缩附着内存模块),这是一种基于LPDDR5X的服务器内存模块,专为企业级 AI 数据中心设计。

SOCAMM2内存基于三自家最新的LPDDR5X DRAM,它将LPDDR的低功耗特性与模块化、可拆卸设计完美结合,提供超过传统RDIMM内存两倍的带宽,同时功耗降低55%以上,在高密度 AI 工作负载下维持稳定高吞吐量,成为高效、高性能AI服务器的理想互补解决方案。

SOCAMM2 的核心优势

1、易维护与低总拥有成本(TCO):采用可拆卸设计,与传统焊接式 LPDDR 不同,无需修改主板即可轻松升级或更换内存,大幅减少停机时间并降低总体成本。

2、优异热管理:显著提升能效,简化高密度AI环境的热控,降低冷却需求,确保系统稳定运行。

3、更佳的空间利用:水平布局取代RDIMM内存的垂直设计,提升系统级空间效率,支持更灵活的散热器放置与气流优化,便于与CPU和加速器集成,同时兼容空气与液体冷却系统。



由于SOCAMM2内存拥有低功耗和高带宽等诸多优势,在企业级应用领域备受关注,业界已启动 LPDDR服务器模块的正式标准化工作。三星与主要合作伙伴共同贡献力量,推动一致性设计指南的制定,实现未来AI平台的无缝集成,引领向低功耗、高带宽内存的转型。

。三星特别提到了英伟达,强调正在与英伟达展开密切协作,以确保SOCAMM2内存可完美适配英伟达的加速基础设施,为下一代推理平台提供卓越响应性和效率。



英伟达高性能计算与AI基础设施解决方案高级总监Dion Harris表示:

“随着AI工作负载从训练转向快速推理,以支持复杂推理和物理AI应用,下一代数据中心对内存的要求更加苛刻,需要兼具高性能与卓越能效的内存解决方案。我们下在与三星的持续技术合作专注于优化SOCAMM2等内存方案,以满足AI基础设施对高响应性和效率的核心需求。”

据悉,三星已向合作伙伴提供SOCAMM2内存测试样品。展望未来,随着JEDEC标准化工作的推进,LPDDR服务器内存生态有望加速成熟,为整个AI基础设施层带来更广泛的选择与更优化的总体拥有成本。在这种背景下,SOCAMM2内存有望在构建下一代绿色、高效、敏捷的数据中心进程中起到重要作用。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|花享网 ( 琼ICP备2024046163号-1 )

GMT+8, 2026-1-17 02:48 , Processed in 0.099232 second(s), 23 queries .

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表