存储专题:AI发展驱动HBM高带宽存储器放量
- 2023-06-20 12:30:46上传人:bu**兔子
-
Aa 小 中 大
- HBM :高带宽 DRAM , GPU 理想存储解决方案
- AI 大模型催动 DRAM 需求
- 3D DRAM 解决 “ 内存墙 ” 问题
- 关键技术助力 HBM 发展
- 相关企业
- 风险提示
- 请务必阅读正文之后的免责声明及其项下所有内容
- 证券研究报告
- 图 1: HBM 主要以 TSV 技术垂直堆叠芯片,达到缩减体积、降低能耗的目的
- 图 2: AI 模型计算量增长迅猛
- 图 3: HBM 提供更快的数据处理速度
- 图 4: 大模型语言计算对应内存需求
- 图 5: 静态内存参数、优化器状态较为固定
- 图 6: 动态内存通常是静态内存的数倍
- 图 7: AI 服务器提升存储器需求
- 图 8: 模型越大需要设备内存越大
- 图 9: 存储带宽落后于算力成长速度形成 “ 内存墙 ”
- 图 10: 3D DRAM 几种实现方式
- 图 11: HBM 每个 DRAM 单元间引线最短
- 图 12: HBM3 带宽进一步提升
- 图 13: Chiplet 搭载 HBM 作为存储单元解决方案
- 图 14: 硅通孔技术流程
- 图 15: TSV 当前深宽比约在 10 : 1
- 图 16: TSV 目前开孔约在 10um
- 图 17: 英伟达 A100 GPU CoWoS 封装
- 图 18: 基于 TSV 技术实现堆叠 HBM
- 图 19: IMEC TSV 工艺示意图
- 图 20: ALD 形成扩散阻挡层
- 图 21: 先进 DRAM 需要更高介电常数材料
- 图 22: ALD 形成 High-K Metal Gate
- 图 23: 2.5D+3D 先进封装集成
- 图 24: AMD Radeon Vega GPU & HBM2 横截面
- 图 25: 台积电 “ 3D Fabric ” 平台使用 8个 HBM2e 堆栈
- 图 26: NVIDIA GH200 Grace Hopper 芯片中使用 96GB HBM3 堆栈
- 图 27: AMD/UMC 2.5D+3D 集成示意图
- 图 28: NVIDIA/TSMC 2.5D+3D 集成示意图
- 图 29: 2019-2025 全球封装基板行业产值及增速
- 图 30: 全球 IC 载板市场格局
报告网所有机构报告是由用户上传分享,未经用户书面授权,请勿作商用!