时间:2024-09-11 11:06:07来源:证券之星阅读量:11272
如果您希望可以时常见面,欢迎标星收藏哦~
尽管 JEDEC 仍需最终确定HBM4 规范,但业界似乎需要尽快推出新的内存技术,因为对 AI 高性能 GPU 的需求是无止境的。为了使芯片设计人员能够构建下一代 GPU,Rambus 推出了业界的 HBM4 内存控制器 IP,其功能超越了迄今为止宣布的 HBM4 的功能。
Rambus 的 HBM4 控制器不仅支持 JEDEC 指定的 HBM4 6.4 GT/s 数据传输速率,而且还具有支持高达 10 GT/s 速度的空间。这使得每个 HBM4 内存堆栈的内存带宽达到 2.56 TB/s,具有 2048 位内存接口。
Rambus HBM4 控制器 IP 可以与第三方或客户提供的 PHY 解决方案配对,以创建完整的 HBM4 内存系统。
Rambus 正在与 Cadence、三星和西门子等行业领导者合作,以确保这项技术能够顺利融入现有的内存生态系统,促进向下一代内存系统的过渡。
JEDEC HBM4 规范的初步版本表明,HBM4 内存将采用 4 高、8 高、12 高和 16 高堆栈配置,支持 24 Gb 和 32 Gb 的内存层。使用 32 Gb 层的 16 高堆栈将提供 64 GB 的容量,使具有四个内存模块的系统的总内存容量达到 256 GB。此设置可通过 8,192 位接口实现 6.56 TB/s 的峰值带宽,从而显著提高苛刻工作负载的性能。
如果有人设法让 HBM4 内存子系统以 10 GT/s 的速度运行,那么四个 HBM4 堆栈将提供超过 10 TB/s 的带宽。不过,Rambus 和内存制造商通常会提供对增强速度的支持,以提供空间并确保在标准数据传输速率下稳定且节能的运行
Rambus 高级副总裁兼硅 IP 总经理 Neeraj Paliwal 表示:“大型语言模型 的参数现已超过一万亿,并且还在不断增长,克服内存带宽和容量瓶颈对于满足 AI 训练和推理的实时性能要求至关重要。作为 AI 2.0 的领先硅 IP 提供商,我们将业界首款 HBM4 控制器 IP 解决方案推向市场,帮助我们的客户在其最先进的处理器和加速器中实现突破性的性能。”
由于 HBM4 的每个堆栈通道数是 HBM3 的两倍,因此由于接口宽度为 2048 位,因此需要更大的物理占用空间。此外,HBM4 的中介层与 HBM3/HBM3E 的中介层不同,这又会影响它们的数据传输速率潜力。
半导体精品公众号推荐
专注半导体领域更多原创内容
关注全球半导体产业动向与趋势
今天是《半导体行业观察》为您分享的第3882内容,欢迎关注。
『半导体第一垂直媒体』
实时 专业 原创 深度
公众号ID:icbank
喜欢我们的内容就点“在看”分享给小伙伴哦
声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。