高效能云计算中心制冷技术节能研究王红卫

(整期优先)网络出版时间:2019-10-20
/ 2

高效能云计算中心制冷技术节能研究王红卫

王红卫

(浪潮电子信息产业股份有限公司高效能服务器和存储技术国家重点实验室山东济南250101)

摘要:随着IT产业中云计算、大数据的高速发展,数据中心数量增长迅速,我国云计算数据中心存在两个急需解决的突出问题:1)能耗大,资源利用率低,大多数数据中心的PUE(数据中心总设备能耗/IT设备能耗)大于2.0;2)电网配电能力无法满足我国云计算战略需求,数据中心配套配电站建设或改造成本高昂。基于解决以上两点问题的考虑,数据中心PUE值要求尽可能降低。近日,北京市政府公布《北京市新增产业的禁止和限制目录》(2018年版)中明确云计算数据中心PUE值在1.4以下。因此,对于可以显著降低PUE值的液冷技术(液冷服务器)有望成为今后云计算数据中心制冷系统应用的趋式

关键词:液冷技术;云计算中心;节能

引言:文章主要围绕某某云计算数据中心为例,简要说明液冷服务器对降低PUE值的显著功效,不久的将来液冷技术有望成为数据中心的制冷趋势。

1.液冷技术的工作原理

液冷就是被处理过的液体送到机架/机柜/服务器的入口,对机架内的电子设备所产生的热量进行热力冷却。可以理解为,在机架内,来自机架自身内部真正热源部件的热量传输,可基于液体或空气(或用任何其他机理),但将热量排到机架外建筑物的冷却装置的排热介质为液体。在海平面大气压工况下,水的体积携热量远远高于空气上千倍,随着风冷系统正趋于极限,液冷系统将越来越受到云计算数据中心的青睐。

2.液冷服务器的分类及优势

2.1液冷服务器的分类

按冷却模式分,液冷服务器分为直接冷却和间接冷却;根据工作介质不同,分为水冷和其他制冷介质的载冷剂;按照是否发生相变分为温差换热(通过制冷剂的温度升高的变化来带走热量)和相变换热(利用载冷剂的气化潜热带走热量)。间接液冷服务器也叫冷板液冷服务器,载冷剂与被冷却对象不直接接触,而是通过液冷板热传导将被冷却对象的热量传递到制冷介质中。即将原风冷散热片替换为液冷散热片,再通过载冷剂管路将热量带走。在间接冷却系统,制冷剂管并不与机柜内部的电子元件直接接触,防止载冷剂管路泄漏,需要严格检查管路的密封性。间接冷却方式显然没有直接冷却方式制冷效率高,并且需要额外安装分液换热器对机房的其他电子设备进行散热。直接液冷也叫浸没式液冷,其原理是制冷介质与发热元件直接接触,即将服务器主板、CPU(中央处理器)、内存等发热量大的元件浸没在制冷介质中。这样冷却介质与被冷却元件直接接触换热,换热效果最好,不需要额外再增加换热设备。直接冷却系统对冷却介质有一定的要求,载冷剂需要绝缘性好(不导电)、无毒无害、无腐蚀性。

2.2液冷技术优势

1)液冷系统制冷效率高。由于液体的比热容大,能吸收大量热量的同时,自身温度不会明显变化,使得CPU在突发情况时不会引起内部温度忽然升高,CPU可以超频工作,提高了服务器的使用寿命。2)液冷系统取消了空调机房的设置,节省了空调机房的占地面积,同时加大了机柜布置面积,加大了房间的利用率,而且还能避免空调设备运行时所产生的噪声问题。3)液冷系统与常规水冷系统相比,省去了冷机及冷冻泵等冷冻水系统,只有冷却水循环系统,只需设置水泵间,节省了制冷机房面积,不用考虑地板下送风和冷热通道封闭,节省初投资费用。节省下来的空间可容纳更多的服务器,从而提高数据机房房间利用率。

3.案例分析

采用直接冷却方式可以有效地解决高密机房及局部热点问题。但需要对载冷剂有很高的要求,并且对服务器元件有很高的要求,目前国内外采用间接冷却方式较直接冷却方式更为普遍。本文以北京某云计算数据中心项目为例,通过采用冷板式液冷服务器,充分利用室外空气,减少制冷系统用电能耗,确保PUE值低于1.2。下面对该项目制冷系统进行全面介绍,液冷机柜原理及内部结构见图1。

此外,液冷机柜中的分液换热器发热量为160kw(约占液冷负荷的30%),经计算得出,机房外围护结构热负荷为3.75kw。

由于单机柜功率密度大,主机房采用冷通道封闭模块化机房气流组织,提高制冷效率。该项目配电室、UPS间、电池室由于总负荷量较小,因此采用风冷直膨空调系统。主机房制冷系统简图如图3所示(以下设备均包含备用)。云计算数据中心案例制冷系统简述:共由5个系统组成:1)液冷机柜:冷源全年由冷却塔直接通过CDU(耦合分配单元)换热后供给机柜芯片冷板。夏季极端情况:CDU冷源侧供回水温度34/39℃,热源侧最高承受的极限供回水温度60/45℃。2)分液换热器:由于液冷机柜的构成原理,分液换热器需要单独消耗液冷机柜30%的热负荷,利用冷却塔的一次侧28.5/33.5℃的冷水换成35/30℃的供回水用来承担分液换热器所产生的热量。由于分液换热器对温度的限制,当夏季极端天气时室外冷却塔无法满足系统所需要的供、回水温度。当冷源侧供水温度高于28.5℃时需启动另一套风冷冷水机组(供、回水温度:15/20℃)与冷塔混合后进入板式换热器[1],从而满足液换热器对温度的需求。使系统正常运行,此系统中冷却塔、风冷冷水机组、板式换热器、冷却水循环泵均采用1用1备的形式,为了控制灵活,CDU采用集成设备(内置水处理及循环水泵)为2用1备。3)主机房内的核心交换机、液冷机柜的5%辐射热负荷及房间外围护结构的热负荷均由风冷直膨空调系统供冷,为提高制冷效率,末端空调采用行级空调(3用1备)。4)(配电室+UPS+电池)空调系统:均采用风冷直膨空调系统供冷,末端空调采用房间级空调(1用1备)。5)主机房新风系统:由于此部分负荷量较小,从灵活性考虑冷源采用风冷直膨式制冷系统。

根据以上制冷系统设备的用电量统计以及电气电量统计,该项目PUE值经计算低于1.2。使机房总的年耗电量大幅度减小。

结论:

简而言之,自然冷源是大自然的对人们的“馈赠”,对于数据中心来说,这些既环保又用之不尽的资源是最显著的节能技术。目前我国冷板式的液冷技术已经比较成熟,大部分使用液冷技术多采用纯水作为制冷剂。选用水作为制冷剂,是利用水的温升带走发热元件的热量,只利用了水的显热,并没有发挥其全部功效,还有很大的潜能可以发挥。因此更具革命性的浸没式液冷技术,仍然处于发展初期,早在2016年美国IDC公司调查显示,有高达42%的受访者表示,其公司最大的数据中心已采用了液冷技术。笔者相信液冷技术对于云计算数据中心而言指日可待[2]。

参考文献:

[1][美]ASHRAETC9.9楼据通讯设备中心液体冷却指南4[M].杨国荣,胡仰耆,沈添鸿,译,中国建筑工业出版社,2019:39.

[2]孙阳.数据中心呈现节能趋势科技巨头抢滩百亿液冷市场[EB/OL].2018-08-10.