中科曙光
7月27日,北京市发展和改革委员会官网发布《关于印发进一步加强数据中心项目节能审查若干规定的通知》(以下简称:通知)。通知显示,即日起北京市内新建、扩建数据中心若PUE值超1.4,将被征收差别电价电费。
该规定意味扩建、新建PUE不达标数据中心,每年将付出数千万、乃至上亿元额外电费。这将促使,城市内数据中心加速步入绿色、液冷时代。
伴随新规定出台,能耗大户“数据中心”正迎来一场技术变革。
PUE超标将多缴亿元电费
降PUE遇“风冷”瓶颈
伴随IT产业的高速发展,数据中心正快速成为新能耗大户。
据报道,2018年全国数据中心总耗电量1500亿千瓦时,占社会总用电量的2%。预计到2025年,这一占比将增加一倍达到4.05%。
高能耗的背后是PUE值的居高不下,据报道截至2019年年底,全国超大型数据中心平均PUE为1.46,大型数据中心平均PUE为1.55。
“冷却计算设备耗能一直是导致高PUE值的直接原因”姚勇介绍,传统数据中心风冷模式,将使一半能耗用于冷却计算设备,其PUE值普遍在1.4以上。
最为关键的,伴随CPU等核心计算芯片的功耗升高,风冷模式下单机柜功率密度最高只能到30kW左右。
虽然芯片工艺制程不断进步,但服务器端CPU、GPU功率已分别突破300W、400W大关。
伴随人工智能等高密度计算场景增多,目前在运行数据中心不少单机柜功率早已突破30kW。
PUE 1.04 最绿色数据中心
2019年12月,曙光曾将“液冷‘爆发’倒计时钟”的时针拨到11点50分,这距象征液冷在数据中心行业全面爆发的“零时”仅有10分钟。
姚勇表示,对北京、上海等城市而言伴随严苛PUE值政策出台,其新建、扩建数据中心可以说已进入“液冷”时代。
“液冷技术也有很多种类,冷板液冷、浸没液冷、浸没相变液冷。从降低PUE值上来看浸没相变液冷技术效果最好。在非高密度计算等领域新建、扩建数据中心,冷板式液冷也是很好的选择。”姚勇说。
曙光率先于2015年推出国内首款标准化量产的冷板式液冷服务器,并在当年完成国内首个冷板式液冷服务器大规模应用,2017年曙光交付了国内首套商用全浸没液冷服务器,并在2019年完成国内首个刀片浸没相变液冷服务器的大规模部署。
以采用刀片式浸没相变液冷技术的曙光绿色数据中心为例,其PUE值可降至1.04。相比风冷数据中心能效比提升超30%,CPU等核心芯片部件性能可提升20%,单机柜功率密度达160kW,计算设备可靠性至少提升一个数量级。
刀片式浸没相变液冷技术是中科曙光的技术专利,以上政策若被政府采纳推广,这个市场就很大了。
$中科曙光(SH603019)$ 数据中心进入液冷时代。根据赛迪顾问的数据,保守测算出2019年中国液冷数据中心的市场规模为261亿元,乐观估计为351亿元,2025年我国液冷数据中心的市场规模将破1200亿元。
初次发帖,忘记说明以上内容来自中科曙光公众号,应该是转帖,不应该是原创,特更正。