新闻内容

云计算数据中心制冷最佳实践探讨

2012-05-07 来源:企业网D1Net关注官方微博

施耐德电气旗下APC公司 大中华区制冷产品经理 李进:善用制冷,降低PUE ---云计算数据中心制冷最佳实践探讨

4月17日、18日在北京国家会议中心隆重举行2012 第四届CCS云计算高峰论坛暨展览。近3000名来自运营商、政府部门、金融、保险、电力、能源、医疗、公安、军队、教育、制造等行业的企业IT、信息部门主管及专家学者齐聚一堂,深度探讨云计算应用现状及发展趋势,分享交流云计算的优秀案例。60多家国内外知名厂商以云计算高峰论坛为平台展示了其最新的产品及解决方案,成为众多线上线下观众的关注焦点。

知名厂商“施耐德电气”亮相“云计算高峰论坛”并发表精彩主题演讲,其演讲主题为“云计算数据中心制冷最佳实践探讨”。以下是现场快递。(声明:本稿件来源为现场速记,可能有笔误和别字,仅供参考)

主持人:
        谢谢曹鲁先生的精彩发言,下面我们将要请出的是施耐德电器旗下APC公司大中华区制冷产品经理李进,他的演讲题目是善用制冷,降低PUE,云计算数据中心制冷最佳实践探讨。掌声有请。

李进:
        感谢各位听我做这方面的演讲,我今天演讲的课题叫善用制冷,降低PUE,云计算数据中心制冷最佳实践探讨。施耐德在云计算比较大发展的前景下,希望做一些有意义的工作,我们有一个能效管理平台,我们对于数据中心的配电以及建筑物整个能管理有一个工作,在我这边主要集中在数据中心的制冷。
        简单分享一下,因为今天很多都是运营商,他们对于云计算有很详细的了解,我这边做一个简单的分享,对于在这个云计算前提下需要做的工作。对于企业级的数据中心,其实数据中心就是一个工具,为他们整个生产运营作为保障的。我们运营商来讲,还有像托管外包也好,他们数据中心就是生意,因为他们要把他的服务最终给客户,托管已经成为云计算很重要的趋势。
        刚才讲了基本的特征,虚拟化技术实际上是云计算非常重要的一个特征,而虚拟化技术的应用,对基础设施,物理基础设施影响最大来自于以下几个方面。一个就是密度,现在一些数据中心可能他的PUE值在2以上,这其实来自于他整个部署不够密集,还有整个应用趋势造成的,但是新的技术造成PUE有一定的提升。还有第二个就是动态迁移,像数据中心的动态迁移,随着他的业务及计算有一个共享池。他的运用是动态化的,但是这个也造成他的热密度的分布也是动态化的。还有服务器重要性的提高,最下面一个就是关于IT负载的降低,他的能效也是非常的一个特征,今天我这个话题是关于能效方面的。
        如果大家关注一些网络,经常会有一些企业发布一些片子,公布他们的PUE值,像谷歌、微软他们公布的PUE是越来越赏心悦目,当然还有更多的数字公布,甚至看到小于1的,这是不是一种文字游戏,或者是其他的原因,我们下面也会进行分享。PUE是基于数学原理,可以通过合理方法和标准化的方式来获取,他有一个计算公式,PUE他的比较是非常困难的,有效的PUE比较取决于共通的术语和假设,因为你要站在不是一个背景,或者大家条件不一样的时候,这个值也不一样。电力成本和PUE是两回事,两者并不成正比,需要合理的设计。这是非常重要的,所以我们做比较是最忌讳没有站在一个点上。
        这边是一个简单的定义,大家都非常清楚了,我不用花太多的时间介绍什么是PUE,PUE是如何计算的。PUE等于1.05是不是一个数字游戏呢,我们来看一看,这是一个数字游戏。首先我们假设是五十千瓦的数据中心正在百分之百的负载条件下,这个五十千瓦的损耗是怎么得出来的,我们对基础设施进行逐步梳理,如果是传统的基础设施,他的损耗可能是520千瓦,所以他的PUE值就是1.52,如果我采用一些新的技术,用水冷却,这样的话我可以使损耗会降低,他可以达到1.33。另外我UPS不用了,我完全用旁物,这样的话我也可以节省一部分。还有完全可以用通风的方式,打开窗自然冷却,不适用UPS支撑一样也可以降低温度,还有不适用空调系统,这个可以达到一个很好的PUE值,但是这个PUE值最终你的损失是什么,你可以达到很好的能耗,但是你损失了什么,你的安全没有了,没有制冷系统保证你整个数据运行在一个合理的温湿度环境。这些PUE的体现实际上他是不具有这个典型意义的,只是一个文字游戏。所以我们觉得,在安全性还有其他数据中心要素保证的前提下,选择一个合理PUE值是非常重要的。
        采用一种标准化的计算方式,这个数据中心的是不断演变的过程,现在没有固定标准,但是一些企业在创建一些新的标准,尝试一些新的技术,比如说像模块化的数据中心,这样的话他都可以做到快速的布置,也可以看到历史经验可以借鉴拷贝,这些都是可以做的。PUE的标准在数据中心产业各方面的关注也是不断的发展的。我们施奈德电器有一款白皮书就是数据中心的效率计算指南,大家如果感兴趣可以到我们官方上可以看到,是免费下载的。
        关键问题是什么该计入什么不该计入PUE的,数据中心能效方面,它的电力指出成本方面,制冷系统是非常大的一部分,如果你采用的是这种冷冻水系统的,耗电可能就没有被计入,水处理系统也可能没有被计入,还有管道防冻系统,在北方可以要做这个系统,空气压缩机,冷凝水泵,还有吸飞机的供点,还有水泵,在整个的制冷系统各个环节中,一定要确保他们都是被计入你的PUE。
        PUE和电力成本的比较,在使用PUE,唯一参数要注意,PUE并不能全面反映所有问题。在虚拟化整合的时候,电力成本是变好的,但是PUE可能是变差的,而对于较高的服务器的温度的时候,他的电力成本是变差了,而PUE可能变好了。注意他们的因果关系。
        切合实际的PUE,处于平均水平,几年前大家提PUE的时候,甚至2都不敢说,有时候可能说2.5、3,因为确实在一些冷的应用,甚至简单的物理基础设施摆放都不合规矩的时候,这个PUE值确实比较差,如果是数据中心应用,您的数据中心PUE在哪里是可监测的,2012年数据中心PUE值1.5左右就不错  ,到了2可能是一个1.8,1.7,可能是平均水平,可能比较差的是,可能在2.2,2.3左右,到了2015年这个就会进一步的好,随着人们对于环境和能效的关注来讲,进到一个更高效的数据中心也是非常的符合整个的忽视。所以我们一看到,可能到了2015年的时候,整个的现在的好,可能到那个时候就是一个差的水平。
        这是一个在线工具,权衡工具,它可以输入一些变量值,给你一些参考,可以通过点击它相应的位置,可以输入你的数据中心容量,IT负载百分比,可以选择你的电源系统,制冷系统,可以选择下面是什么样的部署方式,什么样的机房形式,这样的话,他会给你一个PUE值,当然还会有一个表单,对于制冷系统和配电系统,整个分向的耗电都会有一个明显的说明,这个也是在我们网上可以免费下载。我们一共有十二款均衡工具,这是其中一款。
        基础设施效率增长的驱动,我们可以看到,从我们现在的目标从2.13到1.39,做得更好,平均值2.13不太好的地方,做到1.39,目前做得比较不错的数据中心的PUE值的话,我们需要做哪些工作呢,可以选择比方说制冷活动动态控制,水泵和冷水机组,可以进一步的对PUE的贡献降低,有0.7。而且你可以采用这个四百伏变压器的配电,这样的话也可以整个将数据中心的PUE降低0.7。对电源和制冷模块的正确选择,客户如果没有对整个数据中心准确的把握。利用我自然冷却现在是非常热门的话题,现在很的数据中心都喜欢建在北方干燥寒冷的地带,可以充分利用大自然的温度,使我们在适宜的环境下得到制冷,少用机械性制冷,来得到冷却数据中心的目的。
        还有一个就是整个制冷架构的革新,因为这个可能已经不是一个新的技术了,这种技术已经好多年了,将这种制冷系统跟IT设备部署在一起,使他有最佳的热风捕获率。将数据中心中的热量捕获达到百分之百的时候,他整个制冷效率是非常高的,所以他对PUE的降低也是非常不容忽视的。
        针对于这两个,最大贡献部分是数据中心整个能效的改进,实际上最大的部分都来自于制冷方面的提升,我们知道很多企业在建造他的数据中心,或者运营商,他对他整个数据中心的制冷有非常明确的疑点,也是很很关注的,怎么达到一个高效的数据中心的目标。
        我们看到架构,实际上这些建筑是不同的大厦,其实他们没有什么不同,只是他的架构不同,所以我们一看财来相同,架构不同,可靠性也就不同了。还有架构等于元素加元素之间的关系,很多东西都是一样,手机我相信很多零部件很相似的,但是有些比较赏心悦目,有些就很平庸。这就是来自于设计,或者架构的不同。数据中心的架构和可用性,这个架构比元素更决定系统的可用性,而数据中心架构比如冗余是跟产品相关的。仅靠热源和传统的空调有同样的方式,但是不同的摆放位置,决定他最终的应用是不同的。仅仅考虑热源制冷是动态的,是按需制冷的,因为他部署在发热体,比如存储或者是服务器,或者是安装了很多虚拟机的旁边,可以根据他旁边IT设备整个运行动态有目标的进行工作,风量是可以调节的,满足需求,并不多给,有效的根据实际进行。仅靠热源的制冷方式,他是符合现在云计算这种机房的,他是动态的负载。
        仅靠热源制冷,我们有一个数据中心高级评估服务,也是施耐德推出的,我们叫能效审核和可运营性评估,实际上他是找一个权衡点,对于各个子系统监控可以看到实时动态的,而且可以看到月平均值,日平均值还有周平均值,你在PUE上可以看到,实际上他在制冷系统中,他PUE值是0.045,是非常小的。
        对于PUE值的优化来讲,他也一些新的技术,仅靠热源制冷是一方面,另外我要谈一下自然冷却,这个话题是最近非常热门的话题,我相信很多在内蒙、黑龙江或者是北方一些企业,建造数据中心的时候,他在做咨询的时候他肯定会提出这个话题,是否可做自然冷却。自然冷却实际上他是一种节能保护模式,自然冷却利用流体,或者利用气体来作为媒介来做的。我们施耐德白皮书有关于自然冷却很详细的描述,有针对北京这个地方做了最佳实践,我们数据中心研究院的同事,根据北京的气候条件做了数据分析。自然冷却分为15种,其中6种是风侧的,9种是来自水侧的,利用流体进行的。下面我对这15种中最常见的6种逐一介绍一下。风侧的自然冷却模式,影响他的使用因素也比较多,首先就是室外的温度和湿度,都会对他产生一些影响,因为我们知道数据中心应用环境,18到27度的温度,这个还是需要满足的,这一点室外环境对他的影响。第二个就是灰尘,刚才我来的路上就开始有飘杨絮,还有一些不可见的,PM2.5,这种灰尘也会对IT设备有影响。第三个是更不可见的,空气中的硫化物,可能会对IT设备中的银或者铜产生影响。他是有很好的使用时长和效率,但是他也有影响他使用的因素存在。第二种实际上我们讲的是间接的空气对空气的换热方式。第三种跟第二种比较类似,但是他也是采用热能技术,将室内侧和室外侧的空气进行隔绝,也达到了非常好的效率,并且避免了室内跟室外空气的结合。
        还有一个遇冷这个概念,水侧的自然冷却,其实带子与我们冷水机组的应用以及现场安装的设计。第一种是来自于冷机加上冷塔,当然他会做一个旁通的板式换热器,当气候条件满足的时候,他的机械制冷停掉,他旁通了机械制冷以后,大部分降低他的冷水机组的能耗,可以达到自然冷却的作用。
        如何优化自然冷却,使他提供更好的应用,达到更好的PUE,首先第一个就是选址,地理气候,我们知道北方比较干燥寒冷的地方,他有更好的应用前景,这一点是非常重要的。第二个就是制冷系统,遇冷,自然冷却一定在冬季才可以用不是这样子。还有一种是蒸发冷却,可以充分利用这一点在干燥的地方,极限的条件下蒸发冷却是很有效的。执行更宽泛的IT环境温湿度阈值,可以降低整个制冷系统功效,还有提高供规水的温度,提高送回风温度,跟阈值也相关了。
        这张图是部署了两万千瓦的数据中心,他完全采用的自然冷却,这是我们施耐德的一款产品,这款产品将会在今年第三季度在中国发布,现在已经在欧洲和北美上市了。
        回到我们讲的PUE,从开始讲PUE,如何带来比较赏心悦目的数字,哪些东西我们是不是应该在玩文字游戏,哪些需要考虑,现在我们其实讲的应该是你的PUE是否公布的那么赏心悦目,所以在这方面,你要了解PUE,我们要分清什么应该计入,什么不是应该计入的,你要优化PUE的话,你可以在你需要做提升的部分做一些工作。选择你的PUE测量策略,你是手动还是自动,你可以通过数据中心的管理这方面,可以做一个自动的,对整个数据中心的能效或其他方面进行一些监控,来达到你可以是可视的结果。还有考虑能够PUE的选项,说得非常多了,有一个已经做得很好了,或者他能够改进的空间不大,对于整个数据中心电力成本指出所占电力成本比较小的话,如果你再做的话,他整个提升幅度也是非常小的。数据中心的制冷系统,包括他的气流组织这一套的话,都可以进行很好的优化,可以达到一个最大效率优化数据中心的PUE。今天我的演讲完了,谢谢大家!

(责任编辑:com198 )
:关键词:制冷 数据中心
分享到: 0

展会早知道

输入电子邮箱,了解最新展会动态:

CIO-CRM-ERP-IM-IPV6-IP电话-IP语音-OA-UC-VPN-安全-测试-存储-电源-多媒体通信-服务器-呼叫中心-交换机-联络中心-路由器-企业通信-企业网-企业信息化-企业业务-企业应用软件-渠道商-融合通信-视频会议-视频监控-数据通信-数据中心-统一通信-网真-协作--虚拟化-移动办公-应用交付-远真-运营商-运营商政企/集客业务-增值业务-智真-IAAS-PAAS-OA-ERP-容灾备份-Virtualization-虚拟化-大数据-公有云-混合云-云安全-云平台-云应用-绿色IT-运营商政企/集客业务-物联网-移动互联网