—— 中新系全媒体矩阵 ——
新闻行业垂直网站,ai 服务器出货动能强劲带动 hbm 需求提升,据 trendforce 集邦咨询研究显示,2022 年三大原厂 hbm 市占率分别为 sk 海力士50%、三星(samsung)约 40%、美光(micron)约 10%。此外,高阶深度学习 ai gpu 的规格也刺激 hbm 产品更迭,2023 下半年伴随 nvidia h100 与 amd mi300 的搭载,三大原厂也已规划相对应规格 hbm3 的量产。因此,在今年将有更多客户导入 hbm3 的预期下,sk 海力士作为目前唯一量产新世代 hbm3 产品的供应商,其整体 hbm 市占率有望藉此提升至 53%,而三星、美光则预计陆续在今年底至明年初量产,hbm 市占率分别为 38% 及 9%。(it之家注:hbm 全称 high bandwidth memory,新型 cpu / gpu 内存芯片,将多个 ddr 芯片堆叠在一起后和 gpu 封装在一起,实现大容量,高位宽的 ddr 组合阵列)
预估 2023 年 ai 服务器出货量年增 15.4%
目前 nvidia 所定义的 dl/ ml 型 ai 服务器平均每台均搭载 4 张或 8 张高端显卡,搭配两颗主流型号的 x86 服务器 cpu,而主要拉货力道来自于美系云端业者谷歌、aws、meta 与微软。据 trendforce 集邦咨询统计,2022 年高端搭载 gpgpu 的服务器出货量年增约 9%,其中近 80% 的出货量均集中在中、美系八大云端业者。展望 2023 年,微软、meta、百度与字节跳动相继推出基于生成式 ai 衍生的产品服务而积极加单,预估今年 ai 服务器出货量年增率有望达 15.4%,2023~2027 年 ai 服务器出货量年复合成长率约 12.2%。
ai 服务器刺激 server dram、ssd 与 hbm 需求同步上升
根据调查,ai 服务器有望带动存储器需求成长,以现阶段而言,server dram 普遍配置约为 500~600gb 左右,而 ai 服务器在单条模组上则多采 64~128gb,平均容量可达 1.2~1.7tb 之间。以 enterprise ssd 而言,由于 ai 服务器追求的速度更高,其要求优先满足 dram 或 hbm 需求,在 ssd 的容量提升上则呈现非必要扩大容量的态势,但在传输接口上,则会为了高速运算的需求而优先采用 pcie 5.0。而相较于一般服务器而言,ai 服务器多增加 gpgpu 的使用,因此以 nvidia a100 80gb 配置 4 或 8 张计算,hbm 用量约为 320~640gb。未来在 ai 模型逐渐复杂化的趋势下,将刺激更多的存储器用量,并同步带动 server dram、ssd 以及 hbm 的需求成长。