AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。
AI时代算力需求不断提升,液冷散热或将成为降低服务器功耗的有效方案。站在全球视角,全球算力保持高速稳定增长态势。据华为GIV预测,2030年人类有望迎来YB数据时代,全球算力规模达到56000EFLOPS。站在中国视角,据工信部,2023年我国算力总规模达到180EFlops ,保持高位增长。算力规模大幅提升带来AI服务器需求暴增,大量高功率 CPU、GPU 芯片将带动AI服务器功耗走高。当前数据中心制冷技术以风冷为主,考虑到机柜功率超过15kW为风冷能力天花板,而未来 AI 集群算力密度普遍超20kW/柜,升级液冷需求迫切。