新一代信息产业图谱丨AI时代渐近,这些赛道将迎“高光时刻” 当前快播

AI(人工智能)、物联网、6G、半导体、信创……以新一代信息技术产业为主的科技赛道蓬勃发展日新月异,也诞生出一些极具空间、值得关注的投资机会。

2020年6月,中央深改委第十四次会议审议通过《关于深化新一代信息技术与制造业融合发展的指导意见》,突显了国家对新一代信息技术的高度重视。此外,科创板和北交所设立,也拓宽新一代信息技术企业融资途径,助力公司更好地发展。


【资料图】

各个细分领域目前也呈现出高速增长态势。例如,随着数据量的爆发式增长,云计算市场规模快速增长。中国信通院预计,“十四五”末市场规模将突破万亿元,2021-2025年期间年复合增速(CAGR)将高达32.7%。信创领域,据艾媒咨询测算,我国信创产业规模将从2021年的1.4万亿元增长至2025年的2.8万亿元,5年CAGR将达到19.4%。工业互联网领域,中商情报网预计2022年我国工业互联网规模将达1.1万亿元。

从投资角度看,随着AI某种程度上“iPhone时刻”的到来,未来AI及相关算力、基础设施等新一代信息技术产业将迎来高光时刻。

算力需求打开AI服务器想象空间

chatGPT带动了AI大模型爆火,一方面,大模型数量不断增多。

出于自身数据安全等角度考虑,未来各个国家或将推出专属大语言模型,因此在大模型数量上有望持续增长。

另一方面,AI大模型的迭代往往伴随着数据量和计算量的快速增长。AI模型的研究和应用主要分为训练和推理过程,GPT-1约1.17亿参数量,GPT-3约需要1750亿参数量。

根据《AI算力集群方案设计与优化》的总结,过去四年全球主要NLP(自然语言处理)模型的参数量,从ELMo的9400万增长至Megatron-TuringNLG的5300亿,增长了近5600倍。

在大模型数量和参数量同时增长的情况下,算力需求正在爆发式增长。

在训练阶段,影响因素主要是模型参数量、训练数据量和芯片算力,GPT-3模型训练一次需要几万颗量级的算力芯片。据了解,AI发展的早期阶段以训练能力为核心,在进入应用期后将逐步以推理为核心,未来对推理芯片的需求或将远超对训练芯片的需求。

华安证券研究所所长尹沿技认为,2012 年以来,AI训练任务中的算力增长(所需算力每3.5月翻一倍)已经超越芯片产业长期存在的摩尔定律(晶体管数量每18月翻一倍)。

受益于算力需求的大幅提升,AI服务器需求量有望呈现数倍增长。IDC数据显示,2021年,全球AI服务器市场规模达156亿美元,同比增长39.1%,预计2025年将达317.9亿美元,CAGR为19%。

MIC预计,2022年全球服务器出货量达1362万台。根据TrendForce信息,截至2022年,预估搭载GPGPU的AI服务器年出货量占整体服务器比重近1%,而2023年,在ChatGPT相关应用加持下,预估出货量年同比增长8%,2022~2026年CAGR将达10.8%。

加速芯片、CPU和存储价值占比超八成

AI服务器价值量的构成核心在于昂贵的GPU加速卡、CPU和存储配置,同时对于PCB、电源管理、信号传输等多方面均有更高需求,带来大幅的价值量提升。根据测算,高性能AI服务器中,GPU、CPU和存储三大件的价值占比有望超过80%。

GPU在架构设计上擅长进行大量数据运算,被广泛应用于AI场景中。TrendForce集邦咨询估计,ChatGPT大模型对GPU的需求量约2万颗,未来迈向商用将达到3万颗。

根据VerifiedMarketResearch数据,2020年,全球GPU市场规模为254.1亿美元(约合人民币1717.2亿元)。随着需求的不断增长,预计到2028年,这一数字将达到2465.1亿美元(约合人民币1.67万亿元),CAGR为32.82%。

英伟达CEO黄仁勋称,英伟达的GPU在过去10年中将AI处理性能提高了不低于100万倍,在接下来的10年里,希望通过新芯片、新互连、新系统、新操作系统、新分布式计算算法和新AI算法,并与开发人员合作开发新模型,“将人工智能再加速100万倍”。

“英伟达在美股 Forward 12个月的 PE远远高于平均水平,约50倍,其他半导体公司在20倍左右,这正是源于AI带来的快速增长。就像10多年前看智能手机,四、五年前看电动车一样,人工智能将给半导体产业带来巨大的推动作用,这是信息革命。”某基金制造业分析师对第一财经表示。

值得注意的是,GPU在深度学习算法模型训练上非常高效,但在推理时对于小批量数据,并行计算的优势不能发挥出来。当前AI加速计算卡除了GPU之外还有部分FPGA产品,FPGA具备低延迟、易烧录等优点,通常用于推理阶段,未来FPGA渗透率有望提升。

绿色数据中心成未来发展方向

数据中心作为算力的物理承载,承担了算力部署、运维的关键作用。

“十四五”规划和2035年远景目标纲要中明确提出,要加快构建全国一体化大数据中心体系,强化算力统筹智能调度,建设若干国家枢纽节点和大数据中心集群,建设E级和10E级超级计算中心。此外,工信部和国家发改委等先后出台《新型数据中心发展三年行动计划(2021-2023年)》《全国一体化大数据中心协同创新体系算力枢纽实施方案》等重要政策文件,有效规范了我国数据中心产业发展。

目前我国数据中心以通用算力为主,智算、超算和边缘数据中心应用和数量有待增长。随着我国AI计算、高性能计算以及边缘计算需求的提升,智算、超算和边缘数据中心将进一步发展,算力呈现多样化的发展趋势。

智算中心从早期实验探索逐步走向商业试点,随着我国各类人工智能应用场景逐渐丰富,智算需求将快速增长,中原证券预计,规模增速将达到70%,而边缘数据中心的规模增速有望达到30%。

按照标准机架2.5kW统计,截至2022年年底,我国在用数据中心机架总规模超过650万架,近五年CAGR达到31.4%。其中,大型以上数据中心机架规模增长更快,按照标准机架2.5kW统计,预计2022年机架规模540万架,占比超过80%。

中国信通院数据显示,2021年中国数据中心市场规模超过1500亿元,预计2023年中国数据中心市场规模到突破2430亿元。

值得注意的是,工信部发布的《新型数据中心发展三年行动计划(2021-2023年)》显示,到2023年底,新建大型及以上数据中心PUE降低到1.3以下。我国绿色数据中心发展政策也指出,将计划降低数据中心能耗总体水平。在数据中心能耗占比中制冷系统的能耗占比为30%-40%,是总能耗中占比最高的数据中心基础设施模块,因此改进数据中心制冷等基础设施技术,提高制冷效率、减少制冷系统的能耗水平,成为未来发展方向。

AI时代渐近,光模块增量巨大

AI算力的增长带来AI计算集群网络架构的改变,高速率光模块用量因此大幅提升。

光模块主要应用场景可以分为三大块:无线回传、电信传输、数据中心。其中数据中心内部互联的光收发模块需求从25/100G向200/400/800G提升,数据中心之间互联带动中长距离、高速率光收发模块及光传输子系统的需求。

自2019年起,包括亚马逊、谷歌等在内的北美超大型数据中心内部互连已经开始商用部署400G光模块,国内数据中心预计到2022年也将实现400G规模部署。

浙商证券预计,数据中心交换芯片吞吐量在2023年将达到51.2T,2025年后将达到102.4T。更高速率的800G/1.6T光模块将被逐渐需要。

此外,高速率模块还具有相对较低的功耗,其中400G光模块的早期功耗约为10-12W,预计长期功率在10W左右,而800G光模块的功耗约为16W左右。

光模块处在产业链中游,产业链的上游为电子元器件、PCB、光芯片、结构件等元器件供应商;产业链的下游为电信运营商和云计算数据中心运营商等客户。光芯片是上游产业链核心器件,约占光模块总成本的26%。

根据Omdia对数据中心和电信场景激光器芯片的预测,高速率光芯片增速较快,2019-2025年,25G以上速率光模块所使用的光芯片占比逐渐扩大,整体市场空间将从13.56亿美元增长至43.40亿美元,CAGR将达21.40%。

受益于持续的研发创新和下游中国光模块企业逐渐主导市场,上游芯片国产化率机会逐步提升,根据ICC估计,25G以上光芯片到2024年国产化率能够接近20%。

关键词: