AI 服务器直接受益于需求端增长,Nvidia 高速互联助力 AI 运算。
AI 服务器直接受益于需求端增长,Nvidia 高速互联助力 AI 运算。2018 年至今,模型升级带来参数量指数级增加,AI 训练+推理段模型需求催生 AI服务器海量需求(训练阶段算力需求=6×模型参数数量×训练集规模),按照 A100 640GB 服务器参数假设,据测算,训练端需要服务器数量为 3423台/日,推理端按照 1 亿活跃用户测算对应成本为 4000 万美元,并随着用户量和访问互动量上升,算力需求持续提升。此外,Nvidia 高速互联助力 AI运算,800G 交换机陆续发布,下一代超宽互联蓄势待发。
AI 重塑服务器行业格局,ODM 模式/厂商受益于 AI 服务器增长。根据Statista 数据,2021 年全球服务器市场规模达到 831.7 亿美元,同比增长6.97%,其中 AI 服务器市场达到 156.3 亿美元,同比增长 39.1%。AI 服务器有望成为增速最快的细分板块,预计 AI 服务器市场将在 2026 年达到 347.1亿美元,5 年 CAGR 达到 17.3%。ODM 模式/厂商受益于 CSP 客户增量,2022年出货的服务器中 ODM 生产的市占率或达 50%。全球 ODM 厂商竞争格局集中度高,CR5 高达 94.4%,分别为鸿海/工业富联(43%)、广达(17%)、纬创(14%)、英业达(12.8%)和超微(7.6%)。
AI 服务器放量预期利好上游核心部件。AI 服务器销量增加将拓宽上游核心零部件的增量市场,尤其是 AI 芯片(GPU、ASIC 和 FPGA)、存储器、固态硬盘等。其中,国内上游环节的国产替代程度不一。我们认为国内处于乐观机遇期的有 AI 服务器制造厂商、服务器用 PCB 厂商、DRAM 厂商和散热厂商,PCB 和 DRAM 的服务器领域均是行业实现扩产和开拓市场的重点所在;制约瓶颈为人工智能芯片,仍被国外厂商垄断,有望实现突破的环节为先进封装 Chiplet,或成为我国算力困境的关键转折点。
零帕网 » 电子行业专题研究:AI算力需求持续释放,重点看好AI服务器产业链