首页 > 在线阅读 > 详情
提高数据中心能效最佳途径
《华东科技》     发布时间:2017-06-20 13:06:09.0    

近年来随着信息化产业的高速发展,互联网经济日益壮大,对数据的传递、加速、展示、计算、存储的承载体——数据中心的需求大增,各地纷纷建设大型、超大型数据中心,但同时极大的能耗也成为影响城市发展的瓶颈之一。

一个现代化大型数据中心的能耗究竟有多大,对一个城市发展的影响有多深,通过一个实例可探究竟:2015年新建的上海浦东新区某数据中心,建筑面积22万㎡,部署数据机柜18000台,单机柜功耗4.5KW,IT设备总功耗为81000KW(81MW);项目总能耗估算为年用能176780吨标准煤(电力折标系数取等价值),占浦东新区五年规划期能源增量控制目标(154万吨标准煤)的11.5%;

如果IT设备能耗目前被芯片技术发展所局限的话(CPU为硅片),那如何提高数据中心能效就是值得研究和大力推广的。本文针对提高数据中心的能效问题提出最佳的实践途径。


数据中心能耗分析

数据中心主要能耗为电能,电能主要用于IT设备,为IT设备冷却的制冷系统、动力设备、照明以及各类电气设备的自身消耗;以一个在上海地区现代化的大型数据中心(按机房建筑面积为80000平方米,装机量为10000个机柜,每机柜功耗为5KW计)为例,按照A类机房建设标准,采用精密空调制冷,工频UPS机组设置,设计PUE为1.8(推演数据),按此模型案例来分析数据中心各系统的能耗情况。

本案例装机量为10000台IDC机柜,机柜功耗为5KW,按年运行天数为365天,每天连续运行24小时,则IDC机柜年用电量为35040万千瓦时,详见表1。

项目配置500KVAUPS机组250台,采用2N+1模式在线运行,设备容量为125000kVA,UPS机组效率设为0.95%、电池充放电按0.03损耗计,则年耗电量为8760万千瓦时,详见表2。

数据中心机房空调制冷量计算,按IT设备实际发热量(IT设备额定功率乘以使用量系数,使用系数取0.8),加上机房环境的需冷量(机房面积按80000㎡计,制冷功率按120W/m2计);

高低压变配电系统按20万KVA配置,使用系数1,综合效率0.99%,照明功率按15W/m2计,动力(通风及给排水设备)按35W/m2计,电梯设备按7W/m2计,则机房区空调及其他设备年用电为19209万千瓦时,详见表3。

综上所述,该项目年耗电量为63321万千瓦时,详见表4;项目PUE为1.8(PUE=数据中心总能耗/IT设备能耗)。


数据中心最佳的节能途径

通过上述模型案例的用能情况,可以较清楚地了解数据中心各系统的能耗情况,针对性地提出数据中心最佳的节能途径。

对各项用能子项的测量与分析有助于对各子项的有效控制。详细测量用能数据,有利于分析并采取有效的节能措施,提升数据中心整体能效。

能效对标是指将本数据中心与同行进行对比,从而找到可以提升能效的有效途径。对目前世界各地数据中心的能效进行分析研究,可以看到各数据中心的能效表现有很大的差异。虽然造成各数据中心能效差异的原因有很多,但采用能效管理的数据中心的PUE明显低于未采用能效管理的数据中心。据美国贸发署数据中心研究项目,2016年世界数据中心平均PUE为1.83。

从图1中可以看到,数据中心的主要用电设备为IT设备,服务器作为IDC核心信息载体,通常必须长时间不间断运行,从而带来了巨大的电能消耗。服务器和网络设备的节能措施如下:

通过降低电压和频率来降低CPU动态功耗。在自主选择设备硬盘时,应尽量在满足容量的前提下选择较少数量的硬盘,在同等容量的情况下尽量选择小尺寸的硬盘,减少系统能耗。

安装虚拟化软件。在条件允许的情况下,尽量优化一些系统的运行情况,如调整数据库性能、整理磁盘碎片、防范恶意攻击而导致系统长期处于满负荷状态等,可大大提高服务器利用率,减少不必要的电能消耗。

采用冷通道封闭技术,可有效阻止冷热气流短路;一般数据中心机房的气流组织,如图2所示。

如图2所示,冷热气流短路,制冷效果较差,能效差。

近年来,数据中心各界专业人员针对这一现象,开展了一系列研究,提出了解决方案,如图3所示。

采用冷(热)通道封闭的装置,最佳解决了冷热气流短路的情况,大大提升了制冷效果,同时制冷的能效同比提升了15%。

在实际使用中,一个机柜内往往没有满配服务器,造成机柜中存在空位,这一空位直接导致冷空气短路现象,服务器制冷效果下降,所以必须关注这个情况,及时在机柜中空档处加设挡板,修补(冷)气体渗漏。

按照IT设备对环境温度的指标及冷却要求,在安全使用的前提下,建议将环境温度值设置在上限;同时减少对湿度的控制,在可接受的范围内,不对湿度进行控制。

随着近年来对节能的重视,目前芯片的耐温性明显提升,对机房环境的要求也有所下降,以下为一个2016年建造的数据中心采用的IT机房室内设计参数,如表5所示。

从表5可见,IT机房室内设计参数比GB50174-2008标准规定有了明显的降低,同时,采用机房集中式加湿、除湿一体机组,统一加湿并可以辅助机房除湿,摒弃了传统的精密空调电加湿器;通过这些节能的手段,综合制冷能效可提高10%-20%。

制冷是数据中心环境设备中最主要的能耗部分,有效降低制冷系统的能耗,有利于提升数据中心能效。可通过以下制冷方式大大提升制冷性能系数(COP),从而有效减低能耗。目前较先进的投运案例有以下几种:使用中央制冷系统;采用高效的水冷系统 ,制冷性能系数(COP)可以达到6以上;利用冬季、过渡季室外低温,关闭制冷机组,采用自然冷却方式制冷;采用高效的冷却设备(水冷机柜、冷却背板、机柜式制冷单元)。

增加高压配电,减少电压转化次数,缩短低压电缆的长度;变压器选用SCB11及以上节能型变压器,能效等级应达到《三相配电变压器能效限定值及节能评价值》(GB20052-2013)能效指标的要求;

低压侧采用低压无功自动补偿装置,补偿后的10kV侧的功率因数应在0.95以上。

选用的三相化学电池UPS系统在额定输入电压、额定输出功率、电池断开条件下,UPS输出端的功率与输入端的功率之比应满足《不间断电源节能产品认证技术要求》(CSC/T43-2006)节能指标规定的要求(10kVA及以上UPS系统≥97%),检查UPS机组的冗余度,尽量减少冗余度,提高UPS机组运行效率。

合理配置照明且采用高效的灯具,根据《建筑照明设计标准》(GB50034-2013)和上海市建设交通委沪建交[2008]828号文的综合要求,照明功率密度按目标值和对应照度值设计办公室、机房及配电间等场所的照明,如表6所示。


数据中心节能措施评估

按照上述各种节能方法和解决途径,我们再对模型样板的数据中心能耗进行评估。

采取针对性的控制和配置节能型服务器,可节能10%,5万KW额定功耗(实际功耗=5万×90%×0.8=3.6万KW),实际年用电量为31536万KWH;

UPS及电池部分损耗8%,下降到4.5%,实际年用电量4927.5万KWH;


制冷系统节能

通过采用大型中央水冷制冷系统、增加冬季、过渡季自然冷却技术、冷通道封闭等措施,综合制冷能效COP达到4.5以上,实际年用电为8876.5KWH。

照明由原来的15W/㎡,下调到7-9 W/㎡,动力(通风及给排水设备)由原来的35 W/㎡,下调到15 W/㎡,电梯设备按7 W/㎡,调整后的年用电量为:照明为561万KWH,动力为105万KWH,用水及其他下调至120KWH,得出采取节能途径后,数据中心的能耗情况,如表8所示。

数据中心的PUE可以达到1.46;每年可节约电能17195万KWH。


数据中心将成为绿色生态园区

虽然数据中心的巨大能耗,阻止了它的发展速度,但它的发展趋势没有发生变化。可喜的是,我们看到很多节能的数据中心在不断地创造之中。例如在高纬度(低温地区)建立全自然冷却系统,PUE也下降至1.2以下,如谷歌在比利时的数据中心位于Saint - Ghislain,当地气候几乎可以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。该数据中心在这种自然条件下,从附近的工业运河抽取用水,采用蒸发冷却系统的方式便显得极为合适。具体来说,就是利用运河的冷水带走热量,并自己修建水处理厂,再将处理后的运河水给数据中心提供冷量,只采用冷却塔来散热,无chiller,实现了100%水侧自然冷却机房。当然,这也是谷歌第一个完全自然冷却的数据中心;同样,谷歌在爱尔兰和芬兰也有成功案例。

随着人们对计算机特性和特点更进一步的理解,新技术不断涌现,从芯片的翅片式冷却,发展到目前液冷片式冷却,有对流式散热、喷射式散热等多种高效冷却形式。可以预期的是,低功耗、低发热芯片在未来一定会成为主流,数据中心也将成为绿色生态的园区。

(作者系上海超级计算中心基础运维部部长)


联系我们
欢迎洽谈内容、广告等各项合作业务
投稿邮箱:hdkj_sh@163.com
投稿热线:021-53080015
服务热线:021-53082351

2021年11月刊

电子刊物订阅渠道

请扫描上方二维码

上海《华东科技》杂志社有限公司 版权所有 沪ICP备12026464号-1 沪公网安备 31010402008474号 电子营业执照