正值盛夏酷暑,IT产业界却迎来一阵凉爽清风。在中国首届绿色计算高峰论坛上,发布了绿色计算应用最新成果。随着信息爆炸时代的到来,产生的数据量每年都在以几何倍数增长,而大量数据中心的投入使用,会消耗海量电能。降低数据中心的能耗,不仅关乎企业利润,还是经济社会发展的问题。
可以说,节能减排、绿色计算是大势所趋。
电子工业自诞生起便用电不菲
电子工业自诞生以来就是耗电大户。比如现在已经被淘汰的真空管,它的烧制过程、制做过程都是行业的“电老虎”。又比如承担着很多电子元器件机体材料的电子窑炉,电子窑炉承担焙烧工艺几乎占到了电子行业30%的能耗。晶圆厂也是耗电大户,台积电就多次爆出缺电危机。根据台南科技园管理局公布的资料,一个台积电的5nm工艺线工厂能耗为72万千瓦,其用电量是台湾省东部地区居民用电能耗的1.2倍。
近年来,随着ICT产业的技术进步,全球智能终端和人均流量不断上涨。据估算,2020年全球将有260亿互联网设备去接入网络,全球终端移动互联的数量超过1000亿,日均会有24PB以上的流量,人均会有5PB数据存储。信息爆炸会使一大批数据中心在世界各地拔地而起。非常不幸的是,数据中心恰恰是不折不扣的电老虎。
2016年,中国数据中心用电量超过1100亿千瓦时,2017年中国数据中心用电量达到1200至1300亿千瓦时,这个数字已经超过三峡大坝和葛洲坝两座大型水力发电站全年发电量。2018年数据中心的耗电量达到1400亿千瓦时。目前,中国数据中心耗电量连续八年以超12%的速度增长,预计2020年我国数据中心耗电量将达到2962亿千瓦时,2025年达到3842亿千瓦时。一旦这个预测变成现实,就意味着数据中心的耗电量会占到国家整个社会总用电量3%—5%,超过很多行业总用电量之和。
也许大家对上述数据没有概念。那么,铁流再举个例子。在2018年,中国城乡居民用电的总量才是9685亿千瓦时,而2018年数据中心的耗电量达到1400亿千瓦时。换言之,数据中心用电量相当于全国居民用电量近五分之一。
欧洲有一个预测,预计整个欧洲5—10年之后数据中心总用电量要占整个欧洲总用电量的20%。诚然,现在用电量还远不到这个数字,不过,却足见数据中心的用电量之大,必须引起高度重视。可以说,数据中心巨大的耗电量是中国IT产业发展的严峻挑战,也是生态文明建设,发展绿色经济必须解决的问题。
利用自然条件降低能耗治标不治本
正是因为数据中心能耗过大,相关部门出台了一些政策控制PUE值。PUE是一个比值,PUE=数据中心总设备能耗/IT设备能耗,基准是2,越接近1表明能效水平越好。目前,PUE值为1.5—2.0这个区间的数据中心依然有超过80%。根据各地公布的政策,北京要求6城区之外数据中心PUE值1.4以下,最新的标准要求PUE值达到1.3以下,达到1.2算优秀;上海要求新建的数据中心在PUE值1.3以下;深圳要求PUE值达到1.25以下。
既然政策已经有了明确规定,那么,如何去落实呢?
目前,数据中心建成后,运营成本60%—70%是电费,而电费里面又有40%是用在制冷上。可以说,制冷完全就是电老虎,完全不产出价值只产生成本。以1度电8毛钱计算,2017年数据中心耗电1100亿度就相当于是900亿人民币,这里面有40%被浪费掉,900亿人民币乘以40%是360亿人民币。同理,2018年就有四五百亿人民币被白白浪费掉了。因此,成功降低制冷成本,不仅有助于大幅降低企业运营成本,还有利于国家节能减排战略,因而大家都在如何降低制冷成本上动脑筋。
于是有人就提出在山洞冷却、深水湖冷却、海底冷却,主要就是为了用自然环境把制冷这一块能耗电费给降下来。这也是很多企业在贵阳建大数据中心的原因——因为贵阳地处高海拔的高原地区,处于费德尔环流圈,常年受西风带控制,年平均气温为15.3℃,即便是最热的七月,平均气温为24℃,数据中心可以充分利用气候条件散热。
然而,中国只有一个贵阳,而数据中心建设是有普遍性的,必须在全国各地都可以建,不受地域、气候、环境的影响。而山洞冷却、深水湖冷却、海底冷却则做不到这一点。具体来说,上海规划三年6万基站,一个基站占地约7平米,但在上海根本找不到42万平方米的山洞。湖水冷却也是类似,毕竟深水湖泊资源也是稀缺资源。中国拥有漫长海岸线,海水确实很丰富,但由于海水具有腐蚀性,数据中心如何抗腐蚀就成为难题。何况数据中心本身就要求可靠性,一旦发生台风和海啸会非常麻烦。
可以说,利用自然条件降低能耗的方案存在不足,而且只治标不治本。
绿色计算是系统性工程
绿色计算是节能减排,降低数据中心功耗的技术,并不与特定CPU架构挂钩,而是一个系统性工程。一些单位把绿色计算和ARM架构捆绑,其实是挂羊头卖狗肉,以绿色计算的名义,获取国家资源倾斜攫取利益。从实践上看,ARM芯片的低功耗,是以低性能为代价的,一旦CPU性能上去了,功耗自然水涨船高。CPU的性能、功耗等关键指标,与CPU的设计水平和制造工艺息息相关,与CPU的指令集的关系微乎其微,在CISC、RISC已经殊途同归的情况下,没必要捧着老黄历当圣经了。
就实现绿色计算来说,首当其冲的是要在冷却技术上有所创新。之前介绍了,数据中心电能损耗中,40%的能量用在了制冷上,那么,如果把传统风冷系统里面的风扇、空调、压缩机这些耗电大户全部去掉,并用液体代替换热系数差的空气,作为新的导热媒介,可以有效控制数据中心的能耗。如果把目前国内的主要数据中心都变成液冷的模式,每年能节约的电能接近三峡大坝40%的发电量。
就液冷方案而言,有冷板式液冷和浸没式液冷,冷板式液冷服务器技术利用工作流体作为中间热量传输的媒介,将热量由热区传递到远处再进行冷却。在该方案中,工作液体与被冷却对象分离,工作液体不与电子器件直接接触,而是通过液冷板等高效热传导部件将被冷却对象的热量传递到冷媒中。中科院大气所的“地球系统数值模拟装置原型系统”采用的就是冷板式液冷,从实践上看,“地球系统数值模拟装置原型系统”自2015年运行至今,其PUE值始终保持在1.17左右。
浸没式液冷则是冷却液与冷却对象直接接触,芯片浸没于冷却液中。值得一提的是,曙光开发出相变式液冷,并将之与浸没式液冷相结合。这种液冷模式有两个好处,一是可以把PUE控制在1.05以下,额外的耗电量几乎是0,二是更加可靠。曙光的“硅立方”就采用相变式液冷,其PUE值可降至1.04以下,相当于40瓦的功率即可冷却1000瓦的设备,而传统的风冷系统则需要500瓦至1000瓦的功耗。同时,采用液冷系统的余热可二次利用,如用于楼宇供暖等,整套系统非常绿色环保。
除了在制冷技术上有所创新之外,在异构计算、技术融合、运维、存储架构等方面进行优化,也能取得一定效果。异构计算在超算上已经有了广泛应用,神威太湖之光就是异构超算,并在能效上取得了相对同构超算的明显优势。同理,将异构计算用在数据中心上,同样能够降低超算能耗。技术融合也是绿色计算的发展方式,今天是计算大数据的时代,每一个用户都有对于云大数据、人工智能、超算等等这样一些技术各种各样的需求。从用户的角度来说,同样存在这样的困惑,如何在同一个平台同一个架构上使用不同的模式?这就需要超融合的系统,既方便用户的使用,又最大限度实现了资源的利用和资源的共享,使用户可以最大程度上去减少现实资源的消耗。在运维方面,通过“全国一体化+通过远程和本地运维相结合”的运维系统使客户可以低成本的使用绿色运维技术,实现运维的快速反应和后期调整优化。就存储而言,通过存储架构改进,提升这方面的能效。
结语
目前,全社会对于绿色计算是非常迫切的,绿色计算对企业发展和国家节能减排意义重大,是大势所趋。不过,当下整个绿色计算里面也有很多的标准和概念还有待完善,甚至还不乏一些单位挂羊头卖狗肉,借绿色计算之名兜售ARM服务器的奇葩情况。
铁流认为,对于绿色计算应当推出从综合能耗、成本、环境影响等一系列因素的全国标准,让“伪绿色计算”无所遁形,使真正能够为数据中心运营企业创造利润、为国家实现节能减排的“真绿色计算”技术茁壮成长。
「 支持!」
您的打赏将用于网站日常运行与维护。
帮助我们办好网站,宣传红色文化!