当前位置:首页 > 行业资讯 >  > 正文
电子行业:AI系列报告之接口,AI大算力需求加速新技术渗透 世界球精选
来源:东方证券  时间:2023-04-20 16:23:01
字号:


(资料图)

AI模型数据量和算力需求大。ChatGPT3相较ChatGPT2在数据存储端从百G提升至40T,在存储量上有约100倍的提升,算力需求同样也呈几何倍增长。据OpenAI测算,2012年以来全球头部AI模型训练算力需求3-4个月翻一番,每年头部训练模型所需算力增长幅度高达10倍,远超摩尔定律的增长速度。美光表示,一个典型的人工智能服务器的DRAM容量是普通服务器的8倍,NAND容量是普通服务器的3倍。

AI服务器快速增长,内存技术同步升级。根据TrendForce,预计2022年搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,而2023年ChatGPT相关应用有望再度刺激AI相关领域,预计2023年出货量增长率可达8%,2022-2026年复合成长率将达10.8%。为提升服务器性能,AI服务器需搭载多个CPU处理器,同时服务器CPU性能不断升级,要求内存技术同步升级。DDR5、HBM、CXL、NVLink等内存技术将加速渗透,有望充分受益于AI带来的算力需求增长。

DDR5需要使用更多内存接口芯片。DDR5的内存接口缓存芯片RCD价格远高于DDR4,内存接口芯片有望迎来量价齐升。DDR5芯片需要搭载更多的SPD、电源管理芯片(PMIC)和温度传感器(TS)等配套芯片。

HBM为大算力芯片提供支撑。如今搭载于新兴AI应用的内存芯片亟待升级,而HBM是一种基于3D堆叠工艺的DRAM内存芯片,被安装在GPU、网络交换设备、AI加速器及高效能服务器上。HBM作为一种带宽远超DDR/GDDR的高速内存,将为大算力芯片提供能力支撑,同时生成类模型也会加速HBM内存进一步增大容量和增大带宽。TrendForce预估2023-2025年HBM市场年复合成长率有望成长至40-45%以上。

CXL兼容性强、可实现内存一致性。CXL为英特尔于2019年推出的一种开放性互联协议,能够让CPU与GPU、FPGA或其他加速器之间实现高速高效的互联,从而满足高性能异构计算的要求。在AMD、ARM、IBM以及英特尔等主要CPU供应商的支持下,CXL已经成为领先的行业标准。美光科技在22年5月与投资者交流时曾预测CXL相关产品的市场规模,到2025年预计将达到20亿美金,到2030年可能超过200亿美金。

NVLink可最大化提升系统吞吐量。第四代NVIDIA?NVLink?技术可为多GPU系统配置提供高于以往1.5倍的带宽,以及增强的可扩展性。单个NVIDIAH100TensorCoreGPU支持多达18个NVLink连接,总带宽为900GB/s,是PCIe5.0带宽的7倍。第三代NVIDIANVSwitch?基于NVLink的高级通信能力构建,可为计算密集型工作负载提供更高带宽和更低延迟。NVIDIADGX?H100等服务器可利用NVLink技术来提高可扩展性,进而实现超快速的深度学习训练。

我们看好服务器带来的接口芯片技术升级趋势,建议关注澜起科技、聚辰股份、裕太微、龙迅股份。

风险提示服务器需求拉动不及预期、新技术渗透率不及预期。

标签: