AIGC行业专题报告:国产AI芯片的百倍算力需求

AI 芯片是大模型的基础。

AI 芯片是大模型的基础。AI 芯片主要分为训练和推理两类芯片,云和端对训练和推理芯片要求不同,目前主流架构包括 GPU、FPGA 和 ASIC 三类,通用性 GPU>FPGA>ASIC,性能功耗比 GPU<FPGA<ASIC。

四大 AI 芯片技术路线,均围绕打破英伟达 CUDA 生态垄断展开。英伟达凭借 CUDA、cuDNN 和 TensorRT 等软件工具链以及和 Tensorflow 的深度绑定构筑了极高的生态壁垒,2021 年 GPU 市占率超 80%,高性能 AI 芯片 A100、H100 被禁止向中国出口后,快速推出 800 系列合法出口中国;寒武纪复制英伟达成长之路。

GPT-4 参数量高达 100 万亿,是 GPT-3 的 500 倍以上!即使考虑到 AI 芯片能力的提升(从当前主流的 A100 升级至 H100),仍然需要巨量的额外增量投资。

AI 芯片+AI 服务器,受益于 AIGC+类 GPT 等应用的“鲶鱼效应”。原有英伟达等供给有限,所以国产 AI 芯片有理论上的爆发弹性,AI 服务器有成长空间。由于 AIGC、类 GPT有“鲶鱼效应”,带来约百倍算力需求。而英伟达等供给解决需求有瓶颈(根据 IDC 咨询,预测 2025 年 AI 服务器市场空间仅仅 318 亿美元,21-25 年预计 CAGR 仅仅 19.5%),因此国产 AI 芯片在逻辑上有爆发弹性,此外 AI 服务器也有成长空间。

寒武纪思元 590 将是最早实现商业应用的接近英伟达 A100 性能的国产 AI 训练芯片。目前华为昇腾 910 性能超越英伟达 V100,但未达到 A100 水平,壁仞科技 7nm 通用 GPU芯片 BR100 称其可与被禁售的英伟达 H100 一较高下,但尚未量产上市。寒武纪思源 590 芯片面积 800mm^2,和 A100 一样。内存带宽 2.7T,是 A100 1.8T 的 1.5 倍。HBM2使用海力士,功耗达 350W-550W,FP32 算力到 80TFLops,目前已经客户送样测试阶段,在高性能国产 AI 芯片中进程最快,最有机会承接国内 AI 算法商对英伟达 A100、H100的需求。

AIGC行业专题报告:国产AI芯片的百倍算力需求-第1张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第2张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第3张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第4张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第5张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第6张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第7张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第8张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第9张图片

AIGC行业专题报告:国产AI芯片的百倍算力需求-第10张图片

附件
【零帕4081】AIGC行业专题报告:国产AI芯片的百倍算力需求.pdf
application/pdf
1.68MB
23
下载文件
附件购买(促销中)
促销价:1.6 积分原价:2 积分

登录注册购买。 VIP权益 | 不支持浏览器清单

免责声明:本文来自SWS,著作权归作者所有,如有侵权请联系本平台处理。商业转载请联系作者获得授权,非商业转载请注明出处。内容投诉
零帕网 » AIGC行业专题报告:国产AI芯片的百倍算力需求
您需要 登录账户 后才能发表评论

发表评论

欢迎 访客 发表评论