算力中心冷板式液冷发展研究报告(2024年).docx
《算力中心冷板式液冷发展研究报告(2024年).docx》由会员分享,可在线阅读,更多相关《算力中心冷板式液冷发展研究报告(2024年).docx(29页珍藏版)》请在优知文库上搜索。
1、目录一、算力中心冷板式液冷发展必然性1(一)政策背景:绿色发展备受关注,能耗要求日趋严格1(二)发展环境:单机功率密度提升,散热问题愈发显著2(三)标准走势:标准制定不断完善,行业发展持续规范4(四)产业现状:系统节能潜力显著,技术迭代创新发展5二、算力中心冷板式液冷技术分析6(一)冷板式液冷解决方案6(二)冷板式液冷关键技术要素10(三)冷板式液冷技术优势16三、算力中心冷板式液冷典型应用案例25(一)基于英特尔架构的超聚变冷板式液冷解决方案25(二)基于英特尔架构的京东云绿色算力中心高密度算力方案27四、趋势与展望29图目录图1冷板式液冷整体链路图7图2一次侧冷却水余热回收示意图11图3一
2、次侧冷冻水并联余热回收示意图11图4一次侧冷冻水串联余热回收示意图12图5二次侧并联余热回收示意图13图6冷却液分类图15图72019-2023年我国算力中心耗电量(亿千瓦时)20图8某大型冷板式液冷算力中心项目效果图26图9液冷服务器部署示意图28图10液冷服务器实际部署图29一、算力中心冷板式液冷发展必然性当前.,人工智能、大数据等新一代信息技术迎来创新发展,数字经济已成为当前主要经济形态,数字化转型持续驱动生产方式、生活方式和治理方式发生深刻变革。算力中心作为数据传输、产生、汇聚、融合的重要场所,是各个行业信息系统运行的物理载体,在“新基建等利好政策的加持下,产业始终保持着良好增长态势。
3、随着“东数西算”工程的纵深推进以及数字中国建设整体布局规划中数字中国建设目标的不断升级,我国算力中心产业发展步入新阶段,催生出新一轮算力中心建设高潮。尤其是“双碳”目标发布后,为进一步推动算力中心整体低碳化发展,促进算力中心机房的快速、高效散热,满足国家对算力中心绿色、节能等建设需求,液冷技术成为未来算力中心建设的重要选择。(一)政策背景:绿色发展备受关注,能耗要求日趋严格算力中心行业的高耗能和碳排放问题引起诸多关注。近年来,我国算力中心在实现规模化、集约化的同时,算力中心耗电量也在不断攀升,设备部署呈现出“高密度、高耗能、异构化”等发展特点。在“双碳”战略目标和全球能源治理改革的宏观形式下,
4、加快推动算力中心的绿色可持续发展势在必行。2021年10月,关于严格能效约束推动重点领域节能降碳的若干意见首次提到将数据中心行业纳入重点推进节能降碳领域。此外,为助力绿色低碳转型,国家和各地政府多次出台倡导节能减排的相关政策文件,在能耗总量限制的基础上推进绿色节能的算力中心建设。算力中心绿色低碳发展持续深化,主管部门对电能利用效率(PUE)提出明确要求。PUE是算力中心最常见的评价性能指标,也是行业评价算力中心绿色性能的主要衡量指标,PUE值越接近于1,则代表算力中心的绿色化程度越高。近年来,各级主管部门对算力中心PUE要求持续提升。2021年7月,工信部印发新型数据中心发展三年行动计划(20
5、21-2023年)明确提出,到2023年底,新建大型及以上数据中心PUE降到1.3以下。2022年1月,国家发改委同意启动建设全国一体化算力网络国家枢纽节点的系列复函中指出,国家算力东、西部枢纽节点数据中心PUE分别控制在1.25、1.2以下。2023年4月,财政部、生态环境部、工信部联合印发绿色数据中心政府采购需求标准(试行)中提出,自2023年6月起数据中心电能比不高于1.4,2025年起数据中心电能比不高于1.3。北京、上海、深圳等其他地方政府也相继对算力中心PUE提出了一定的限制要求。与此同时,国家持续鼓励算力中心在研发、测试和应用中,采用液冷相关技术,加大算力中心行业节能技术创新力度
6、,提升能源利用效率。(二)发展环境:单机功率密度提升,散热问题愈发显著我国算力中心规模保持高速增长,建设大型及以上算力中心成为主流模式。随着各行业数字化转型升级进度加快,全社会数据总量呈爆发式增长,人工智能、大数据、5G、IoT.AIGC等技术催生海量多样数据,极大的推动了数据存储、计算、传输、应用需求,促进我国算力中心建设规模高速增长。截至2023年,我国提供算力服务的在用机架数达到810万标准机架,算力规模达至J230EF1.OPS0大型以上算力中心机架数量占算力中心总机架规模比重逐年上涨。由此可见,高功耗、高密度的大型、超大型算力中心仍然作为未来建设的重点。高算力需求进一步推动算力中心单
7、机功率密度提升,大型算力中心的单机架功率密度已接近8kW,少数超大型算力中心的单机架功率密度已达20kW。当下,我国大型算力中心的建设加速及以ChatGPT为代表的新人工智能时代的到来,人工智能的应用需求日益凸显,处理大规模数据和复杂计算任务的高算力需求也不断增加。一方面,为了满足这些需求,算力中心需要提高单机架的计算能力,而通过增加处理器核数、内存容量和存储空间等方式提升单机功率密度是实现高算力需求的一种常用的策略。另一方面,受限于算力中心建设面积、环境保护规定和算力中心服务器承载能力等因素,提升算力中心单机柜功率密度成为有效疏解不断上涨的高算力需求的关键途径。算力中心正在面临散热的挑战,液
8、冷技术成为新型制冷解决方案。高功率的服务器和IT设备产生的热量不断增加,而算力中心的散热能力有限。因此,算力中心需要采用先进的散热技术,解决机柜间空气流动限制、散热设备容量不足、空间和布线限制等散热难来源:中国信息通信研究院题,以确保服务器和IT设备的正常运行。当前,液冷技术通过冷却液体替代传统空气散热,降低服务器等设备温度实现自然散热,提升散热效果,已逐步成为一种新型制冷解决方案。液冷技术主要分为冷板式液冷、浸没式液冷和喷淋式液冷技术等技术类型,其中冷板式液冷技术作为成熟度最高、应用最广泛的液冷散热方案,更适用于高性能计算、高密度的算力中心领域,有利于促进算力中心绿色低碳发展、降低算力中心P
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 中心 板式 发展 研究 报告 2024