您的当前位置:首页数据中心能效影响因素及评估模型浅析

数据中心能效影响因素及评估模型浅析

2021-02-27 来源:爱问旅游网
数据中心能效影响因素及评估模型浅析

巫晨云

【摘 要】This paper introduces the composition of data center power consumption, enumerates the factors affecting energy consumption, and briefly describes the methods for reducing energy usage. The paper applies the Power Usage Effectiveness (PUE) metric as a basis to the analysis of different energy efficiency evaluation standards, and proposes an integrated energy efifciency assessment model.%介绍了数据中心能耗结构、能耗影响因素及降低能耗的措施,在能耗指标PUE的基础上分析了能效评价的不同标准,提出了综合能效评估模型。 【期刊名称】《电信工程技术与标准化》 【年(卷),期】2014(000)001 【总页数】4页(P46-49)

【关键词】数据中心;能耗管理;能效;影响因素;评估模型 【作 者】巫晨云

【作者单位】江苏省邮电规划设计院有限责任公司,南京 210006 【正文语种】中 文 【中图分类】TN915

数据中心是能够容纳多个计算机或服务器及与之配套的通信和存储设备的多功能建筑物,它包含一整套的复杂设施,如电源保障系统、环境控制设备、安全装置等。

相比于传统的机房,数据中心具有高密度、规模化、高可靠性和运营方式灵活的特点。随着云计算的快速发展,数据中心越来越成为信息存储、处理的重要载体。与一般的建筑设施不同,为了保证计算机系统的安全可靠运行,数据中心能耗一般达到同样面积的办公楼的100~200倍,如此大的耗电量使能耗管理成为数据中心设计者和运营商需要考虑的重要问题。能耗管理的主要目的是提高能源使用的效率和降低所有与能耗相关的经济及环境代价,具体来说,数据中心的业主关心能耗带来的投资及运营成本,而社会及政府则需要关注高能耗对环境的影响。 1.1 数据中心能耗结构

如图1所示,一个典型的数据中心主要由冷水机组、室内空调、供配电系统、IT设备及照明等几个部分消耗电能,其中,核心的IT设备,包括计算、存储、网络等,约占整个数据中心30%的耗能,而配套及保障设施需要消耗其他约70%的电能。这些配套设施中,为保证IT设备运行所需的温湿度环境而使用的制冷设备、室内空调等耗能最多,约占整个数据中心耗能的30%~50%,而用于满足IT设备电压电流要求及保证供电安全可靠性的UPS及配电单元等电源设备需要消耗约20%~25%的电能。 1.2 能耗影响因素

影响数据中心能耗的因素很多,包括数据中心的环境影响、设备运行过程中的能源损耗、为保障IT设备安全可靠运行的冗余设备的能源消耗、以及能源管理的效率等[1]。

1.2.1 设备能源损耗

数据中心的设备能源损耗主要来源于两个部分,第一部分是UPS的转换损耗,通常UPS在负载较高时转换效率为88%~94%,最新的飞轮UPS和高效UPS在正常工作时旁路了UPS,可以使得总体的转换效率提高到97%。另外,过长的电力线缆在传输时也会产生不可忽略的损耗,如电缆长度大于100 m时,损耗可能高

达1%~3%。

空调同样带来效率的降低,一种情况是如果机架距离空调较远时,空调风扇需要增大功率,同时如果冷通道过长,冷热空调混合的机会也会增大,这样会严重降低空调的效率。另一种情况是大型机房采用的冷水主机,通常冷冻水的温度接近10℃,如此低的温度很容易引起空调主机的结露现象,从而降低空调效率。 1.2.2 低效的能源使用

冷却机组和室内空调是数据中心能耗的重要部分,温度设置过低、气流组织设计不合理都会导致能耗的浪费。

数据中心设计时需要合理配置冷气流输送和热气流排放口的位置、气流组织模式、以及冷热气流的温度。冷却机组输送的冷气与IT设备产生的热气流需要相互隔离,互不干扰。如果冷热气流交汇,那么冷气机组就需要消耗额外的电能用于热气流的降温。

目前绝大多数机房的设置温度为20℃,以确保IT设备不因过热而宕机。2011年美国采暖、制冷与空调工程师学会(ASHRAE)发布了第3版最新设备的温湿度环境建议标准[2](见表1)。ASHRAE建议数据中心的操作温度在18℃~27℃范围之内。据估计数据中心的设置温度每降低1℃,将会多消耗2%~4%的电能,假设IT设备在室温27℃环境下与在20℃环境下运行状况相同,那么将环境温度设为20℃就会浪费约20%的能耗。 1.3 降低能耗的主要措施

美国Google公司根据其数据中心建设的十几年经验,总结了降低数据中心能耗的四项措施:

(1)气流组织:尽量减少热气流与尚未经过设备的冷气流混合,室内机到工作点的路径尽可能短,从而减少传输损耗。

(2)提高冷通道温度:可将冷通道的温度由18℃~20℃提升到27℃,更高的冷

通道温度可提高冷冻水的温度,从而减少主机的工作时间。

(3)利用自然冷却技术:例如,冷却塔采用自然蒸发散热的模式,可以极大的降低冷水机组的耗能。Google在比利时的机房甚至100%利用自然冷却技术。 (4)高性能UPS:配电设备是数据中心高耗能设施之一,降低配电设备的能耗一是要尽量提高电源转化的效率,减少电压电流转换带来的损耗,例如,利用新型飞轮UPS可以将电源转换效率从普通的90%提高到97%;二是尽量缩短高压电源到设备的传输距离以减少线路损耗,例如,采用给每个服务器配置12V直流UPS可以将能耗效率提高到99.99%。

数据中心的节能依赖于有效的能耗管理,而能耗管理的前提是对数据中心能耗及其使用效率的准确度量。 2.1 能效的定义

《中华人民共和国节约能源法》指出,所谓节能是指加强用能管理,采取技术上可行、经济上合理以及环境和社会可以承受的措施,减少从能源生产到消费各个环节中的损失和浪费,更加有效、合理地利用能源。因此,现代意义的节约能源并不是简单的减少使用能源,降低生活品质,而应该是提高能效,降低能源消耗,也就是“该用则用、能省则省”。

能效,即能源效率,一般指在能源利用中,发挥作用的与实际消耗的能源量之比。从数据中心运营及使用角度看,数据中心的能效可以广义地定义为数据中心服务器所执行的运算任务与任务执行过程中所耗费的总能量之比。 2.2 数据中心能效评价标准 2.2.1 基础设施能效

国际上目前比较通行的衡量数据中心能效的指标是PUE和DCiE,其计算公式是: PUE=数据中心总耗电/IT设备耗电;DCiE=1/PUE=IT设备耗电/数据中心总耗电在这两个指标中,IT设备耗电被认为是“有意义”的电能,PUE值越高表示

该数据中心的能效越低。 2.2.2 IT设备能效

尽管PUE定义了数据中心基础设施的能效,但是IT设备自身的能效并未考虑在内。例如,服务器的核心功能是运算和存储,而数据中心输入到每个服务器电能并不是100%应用到运算及存储模块上,通常电源、稳压模块和内部风扇占据了服务器20%以上的耗能(如图2所示)。

服务器的能效(SPUE)可以用类似PUE的方法来衡量,即服务器输入电量与有效耗电量之比。其中有效耗电量指与运算直接相关的服务器部件,包括主板、CPU、磁盘、内存、输入输出等,但不包含服务器内电源、稳压模块及内部风扇等的能耗。据绿色网格组织统计,SPUE一般在1.6~1.8之间,因为服务器电源效率约为80%,而绝大多数主板使用的稳压模块有超过30%的能源损耗。 2.2.3 负载能效

数据中心运营的最终目的是提供计算及应用服务,然而,通常服务器不运行应用程序或处于待机状态时依然要消耗电能,换而言之,服务器有用部件所消耗的电能也并非全部“有意义”。由于服务器能耗会随计算负荷的变化而改变,对于终端应用层次服务器能效(LPUE)的测算需要考虑不同计算负荷下能耗的变化。目前国内国际对不同负载下服务器能效的评估方法有很多研究[3,4],但没有统一的标准,因此采用国际权威IT测试组织SPEC发布的统计性能评价基准测试结果是目前可行的一种方法。如图3所示,SPECpowe_ssj2008基准测量利用不同服务器平台运行一个标准的应用程序,并对其系统负荷进行对比,从而排除软件效能对于能耗的影响,关注服务器硬件本身负荷和能耗之间的关系。 2.3 综合能效评估模型

综上所述,数据中心的能效评价包含3个层次:基础设施、IT设备、服务器负载,严格意义上的能效应该能够体现数据中心所有应用服务所消耗的负载耗能与数据中

心的总耗能的关系。由此,可将数据中心能效定义为: 能效(E)=负载耗电/总耗电

受能效控制要求、设施条件等的限制,不同的数据中心可以根据各自的情况决定能效评价的粒度,采用不同的评估指标,如下公式所示: 能效(E) =负载耗电/总耗电=1/PUE (负载耗电=IT设备耗电)

能效(E) =负载耗电/总耗电= (1/PUE)×(1/SPUE)(负载耗电=服务器有效部件耗电)

能效(E)=负载耗电/总耗电=(1/PUE)×(1/SPUE)× (计算耗电/服务器有效部件耗电) (负载耗电=计算耗电)

在最新的Facebook和Google公布的数据中心设计资料中,在强调低PUE值以外,更着重介绍了如何定制服务器,减少不必要的组件,从而提高IT设备能效;随着云计算产业的不断发展,服务器负载均衡、基于负载的能效评价等也都逐渐成为国内外研究的热点,这些都表明数据中心的能耗管理已经从仅仅关注PUE向综合能效评估转变。

从国外先进数据中心的设计经验来看,模块化和集装箱式机房由于采取冷通道封闭、科学设计气流组织、使用列间空调缩短冷空气传输距离及列间UPS缩短电源传输距离,相比于传统机房能效大大提高;同时由于其模块化的特点,还可在小范围内采用提高冷通道温度等措施,从而直接降低PUE值;另外模块化的设计有利于在能耗管理中根据服务器负载情况局部调整服务器环境,避免不必要的能耗。

【相关文献】

[1] Greenberg S, Mills E, Tschudi B. Best practices for datacenters: lessons learned from benchmarking 22 datacenters[R]. ACEEE Summer Study on Energy Efficiency in Buildings,2006.

[2] American Society of Heating, Refrigerating and Air-Conditioning Engineers (ASHRAE). Thermal Guidelines for Data Processing Environments, 3rd Edition[G]. 2011.

[3] Meisner D, Gold B, Wenisch T. PowerNap: Eliminating server idle power: proceedings of the 14th International Conference on Architectural Support for Programming Languages and Operating Systems, ACM, 2009[C]. New York, USA, 2009.

[4] 宋杰,李甜甜等. 一种云计算环境下的能效模型和度量方法[J].软件学报,2012,23(2):200-214.

因篇幅问题不能全部显示,请点此查看更多更全内容