AI 有望明显拉动算力基础设施投资

一、ChatGPT 爆红引发了人们对于人工智能发展的高度关注

人工智能(AI)是指由机器展示的智能,即计算机基于大数据模拟人脑的各项功能,例如推理、视觉识别、语义理解、学习能力及规划与决策能力等。

人工智能生成内容(AIGC)是指利用人工智能技术来生成内容,包括绘画、作曲、剪辑、写作等。AIGC 的萌芽可追溯到上世纪 50 年代,90 年代从实验性向实用性逐渐转变,但受限于算法瓶颈,无法直接生成内容,从 21 世纪 10 年代开始,随着以生成对抗网络(GAN)为代表的深度学习算法的提出和迭代,AIGC 迎来了快速发展阶段。

图表1: AIGC 发展历程

数据来源:《人工智能生成内容白皮书 2022》,中信建投

市场需求推动 AIGC 技术加速落地。

1)降低人力和时间成本:AIGC 可以帮助人们完成许多繁琐工作,从而节省人力资本和工作时间,并可以在相同的时间内产出更多内容。

2)改善内容质量。AIGC 被认为是继专业生产内容(PGC)、用户生产内容(UGC)之后的新型内容生产方式。尽管 PGC 和 UGC 的内容更具多元化、个性化,但受限于激励措施和创作者自身因素影响,市场存在供给不足的现象。

3)促进产业数字化,助力数字经济发展。产业数字化是数字经济的融合部分,是传统产业应用数字技术所带来的生产数量和效率提升,其新增产出构成数字经济的重要组成部分,AIGC 为数字经济提供了重要的数据要素。

中信建设证券 | 中新经纬研究院 2 行业深度报告 TMT 请参阅最后一页的重要声明

图表2: 国内外公司 AIGC 相关产品

数据来源:《人工智能生成内容(AIGC)的演进历程及其图书馆智慧服务应用场景》,中信建投

ChatGPT 的爆红引发了人们对于人工智能发展的高度关注。2022 年 11 月 30 日,OpenAI 发布语言模型ChatGPT。该模型采用对话的形式与人进行交互,可以回答后续问题、承认错误、挑战不正确的前提、拒绝不适当的请求。ChatGPT 不仅在日常对话、专业问题回答、信息检索、内容续写、文学创作、音乐创作等方面展现出强大的能力,还具有生成代码、调试代码、为代码生成注释的能力。

二、人工智能需要强大算力支撑

以 ChatGPT 为代表的人工智能应用在运行背后需要强大的算力支撑。OpenAI 在 2018 年推出的 GPT 参数量为 1.17 亿,预训练数据量约 5GB,而 GPT-3 参数量达 1750 亿,预训练数据量达 45TB。在模型训练阶段,ChatGPT的总算力消耗约为 3640PF-days,总训练成本为 1200 万美元,在服务访问阶段则会有更大消耗。

图表3: GPT 模型示意图 图表4: NVIDIA DGX A100 AI 服务器 数据来源:OpenAI,中信建投 数据来源:NVIDIA,

中信建投 IDC 数据显示:2021 年全球人工智能 IT 投资额为 929.5 亿美元,预计 2026 年将增至 3014.3 亿美元,复合年增长率约 26.5%。2026 年中国市场 AI 投资预计将达 266.9 亿美元,约占全球投资 8.9%,居世界第二位,复合年增长率约 21.7%。

未来五年,硬件将成为中国人工智能最大的细分市场,占人工智能总投资的 50%以上。IDC预测,2026 年,中国在人工智能硬件市场的 IT 投资将超过 150 亿美元,接近美国人工智能硬件的市场规模,五中信建设证券 | 中新经纬研究院 3 行业深度报告 TMT 请参阅最后一页的重要声明 年复合年增长率 16.5%。服务器作为硬件市场的主要组成部分,预计将占总投入的 80%以上。 人工智能的发展将对算力提出更高要求,算力网络基础设施需求有望持续提升。

根据中国信通院数据,2021年全球计算设备算力总规模达到 615EFlop(s 每秒浮点运算次数),同比增长 44%,其中基础算力规模为 369EFlops,智能算力规模为 232EFlops,超算算力规模为 14EFlops,预计 2030 年全球算力规模将达到 56ZFlps,平均年均增长 65%。 

我国智能算力规模持续高速增长,2021 年智能算力规模已经超过通用算力。根据中国信通院数据,我国计算设备算力总规模达到 202EFlops,全球占比约为 33%,保持 50%以上的高速增长态势,增速高于全球,其中智能算力增长迅速,增速为 85%,在我国算力中的占比超过 50%。

图表5: 全球算力规模及增速 图表6: 我国算力规模及增速 数据来源:中国信通院,中信建投

AI 算力产业链涉及环节较多,行业需求有望全面提升 AI 算力产业链涉及环节较多,按照算力基础设施构成来看,包括 AI 芯片及服务器、交换机及光模块、IDC机房及上游产业链等。

其中,随着训练和推理需求提升,AI 芯片及服务器需求将率先放量;AI 算力对数据中心内部数据流量较大,光模块速率及数量均有显著提升,交换机的端口数及端口速率也有相应的增长;IDC 也有望进入需求释放阶段,预计液冷温控渗透率将快速提升,海底数据中心也可能将迎来产业化的关键节点。

1、AI 芯片和服务器需求将率先放量

根据测算,2023 年-2027 年全球大模型训练端峰值算力需求量的年复合增长率为 78.0%。2023 年全球大模型训练端所需全部算力换算成的 A100 总量超过 200 万张。从云端推理所需算力角度测算,2023 年-2027 年,全球大模型云端推理的峰值算力需求量的年复合增长率为 113%,如果考虑边缘端 AI 推理的应用,推理端算力规模将进一步扩大。

根据 IDC 数据,2022 年全球 AI 服务器市场规模 202 亿美元,同比增长 29.8%,占服务器市场规模的比例为 16.4%,同比提升 1.2pct。我们认为全球 AI 服务器市场规模未来 3 年内将保持高速增长,市场规模分别为395/890/1601 亿美元,对应增速 96%/125%/80%。根据 IDC 数据,2022 年中国 AI 服务器市场规模 67 亿美元,同比增长 24%。我们预计,2023-2025 年,结合对于全球 AI 服务器市场规模的预判,以及对于我国份额占比持续提升的假设,我国 AI 服务器市场规模有望达到 134/307/561 亿美元,同比增长 101%/128%/83%。

图表7: 全球 AI 服务器市场规模测算

资料来源:OpenAI,IDC,Nvidia,中信建投

图表8: 中国 AI 服务器市场规模测算

资料来源:OpenAI,IDC,Nvidia,中信建投

2、AI 算力改变数据中心内部网络架构。

光模块和交换机速率及需求提升 AI 数据中心中,由于内部数据流量较大,因此无阻塞的胖树网络架构成了重要需求之一,光模块速率及数量均有显著提升,交换机的端口数及端口速率也有相应的增长。

 800G 光模块 2022 年底开始小批量出货,2023 年需求主要来自于英伟达和谷歌,2024 年有望大规模出货,并存在时间前移的可能。从交换机的电口来看,SerDes 通道的速率每四年翻倍,数量每两年翻倍,交换机的带宽每两年翻倍;从光口来看,光模块每 4 年升级一次,实际出货时间是晚于电口 SerDes 及交换机芯片新版发布的时间。

2019 年作为 100G 光模块升级的时间点,市场分成了 200G 和 400G 两条升级路径。但是在 2023 年这个时间点,市场下一代高速率光模块均指向 800G 光模块,叠加 AIGC 带来的算力和模型竞赛,我们预计北美各大云厂商和相关科技巨头均有望在 2024 年大量采购 800G 光模块,同时 2023 年也可能提前采购。

图表9: 光模块和交换机速率演进示意图

数据来源:思科,中信建投证券

3、IDC 需求有望释放。

AI 服务器高功率密度或将推升液冷渗透率 IDC 作为算力基础设施产业链的关键环节,也有望进入需求释放阶段。

在过去两年半,受多重因素影响下,云计算需求景气度下行,但 IDC 建设与供给未出现明显放缓,2021 年和 2022 年分别新增机柜数量 120 万架和150 万架,因此短期内出现供需失衡情况(核心区域供需状况相对良好),部分地区上电率情况一般。所以 IDC公司 2022 年业绩普遍承压。

随着平台经济发展恢复以及 AI 等拉动,IDC 需求有望逐步释放,叠加 2023 新增供给量有望较 2022 年减少(例如三大运营商 2022 年新增 IDC 机柜 15.6 万架,2023 年计划新增 11.4 万架)。 

人工智能大模型训练和推理运算所用的 GPU 服务器的功率密度将大幅提升,以英伟达 DGX A100 服务器为例,其单机最大功率约可以达到 6.5kW,大幅超过单台普通 CPU 服务器 500w 左右的功率水平。

在此情况下,一方面需要新建超大功率的机柜,另一方面为降低 PUE,预计液冷温控渗透率将快速提升,海底数据中心也可能将迎来产业化的关键节点。

请使用浏览器的分享功能分享到微信等