全世界包含规模较小的数据中心总量有大约850万个,其中300万个座落于美国,几乎是每100个人就有一座数据中心,而它们占美国所有用电量的近2%。
这些数据中心所使用的IT硬设备,将所消耗的电力100%的转化为热能。因此,需要强大且高效的冷却系统,但通过传统的冷却方法冷却也需要电力,冷却系统的电力需求也占数据中心总电力的50%以上,整体能源的需求是如此庞大。
这使数据中心成为巨大的电加热器,而现今趋势不断地建设更多数据中心,这有可能使企业甚至国家的永续性发展变得更加困难,幸运的是,传统数据中心的冷却模式有更高效的替代方案。用于检测数据中心冷却系统运行效率的测量标准,称为能源使用效率或PUE。它是数据中心的总用电量与提供给IT设备的总用电量的效率比,PUE数值越低越好,标准的评级为2.0,1.4是好的,而1.0是您可以达到的最佳PUE评级。
传统的方式:高架地板冷却
在过去的半个世纪中,大多数据中心都是使用高架地板输送加压空气来冷却的方式。CRAC(机房精密空调)或CRAH(机房空调处理装置)由定速风扇送出冷气来冷却,当机柜密度较低时,这种类型的系统运行良好,而且效率并不被大家列为优先重视项目。但随着时间的推移,缺点就被凸显出来,举例来说,超过2.0的PUE在这里变得很常见。
这种冷却方式的最大问题是从机架底部到顶部的温度梯度,这被称为温度分层。靠近地板的服务器获得最冷的空气,机架顶部的服务器通常是吸入较热温度的空气。如果增加气流去缓解此问题,效率则会降低,因为冷空气会溢流过服务器机架的表面并与热回流空气混合。因此,开发了诸如冷热信道封闭配置的策略。这些配置还可减少再循环,这种情况发生在服务器后方排出的热空气再被服务器前方吸入时,可能会产生危险的设备温度。
现代精密空调解决方案
自从使用定速风扇将空气吹入高架地板以来,冷却技术已经走过了漫长的道路,机柜密度的增加使这些进步成为必要。通过冷空气封闭和热空气封闭设计,很大程度上克服了分层和旁路的局限性,机柜式空调可实现更高的效率。在这里,变速风扇安装在冷却系统里且整合在同排机柜中,使数据中心操作员能够更精密的控制温度和能耗,这些变速风扇消耗的能耗明显低于使用定速风扇的系统。
节能空调的使用正在增加
经过数十年的数据中心建设,很难去想象冷却系统还有很大的发展应用空间。物理学的基础并没有被改变,但应用的方式有很大的差异。部分原因可以解释为全球地理位置的气候差异,最有前景的数据中心冷却节能方式之一被称为自然冷却或节能空调。在这种方法中,外部空气被用于冷却水塔或带走冰水机的热能,该方法当然取决于数据中心外的空气温度是否足够低以提供必要的冷却,较凉爽的气候在这里具有决定性的优势。
电力不是机房消耗的唯一资源
使用冷却水塔做为冷却数据中心的解决方案会消耗大量的水。然而,许多数据中心位于世界干旱地区。即使不是,水也是一种宝贵的自然资源,我们必须努力保护它。从表面上看,这至少对于干式冷却系统来说似乎是有利的,但从更全面的角度来看,我们还必须考虑石化燃料发电厂的蒸汽阶段也消耗水,如此多的水,干式冷却系统所需的额外能耗导致干式冷却的耗水量高于现行冰水机。
具有低PUE的外气冷却方式
有一件事是确定的導入新的方法将是必要的!最有希望但也有问题的方法之一是使用新鲜的外部空气来冷却数据中心,有了外部空气,PUE可以达到非常接近1.0,正如Yahoo用“鸡舍”设计所证明的那样。其实,为机房导入外部空气涉及多个挑战,室外温度需要足够冷,以便为IT设备提供安全的温度,否则必须使用备用冷却系统,但湿度和灰尘也是难以解决的问题。
如果机房的湿度太低,则静电放电的风险会增加。然而,最近的研究低估了IT设备的ESD风险,特别是当服务器安装在机柜中时,损坏的风险很低,当技术人员正在接触机房设备时,最好先佩戴防静电腕带。
另一方面,过高的湿度可能会带来更大的风险,外部空气变得更加潮湿时,它会收集更多的灰尘颗粒聚集在IT设备上,随着灰尘颗粒的聚集,它们使机房组件绝缘并使冷却更加困难。锌颗粒也会透过潮湿空气沉积在电路上,最终导致短路。因此,太潮湿的空气需要除湿,这反过来会消耗功率并使低PUE指数降低。
外气冷却的另一个重要问题是灰尘和烟雾,根据空气中的悬浮微粒,外气冷却可能需要昂贵的空气过滤器。即使有良好的过滤,现有数据中心极其敏感的灭火系统也可能受到外气冷却带来的空气污染物的影响。
液浸式冷却
电线杆变压器使用比空气冷却能力还要高的冷却方法,这是通过将电路浸没在介电流体(通常是矿物油)中来达成的,由于油导热但不导电,因此不会损坏部件。液浸式冷却也可用于服务器,使用这种方法与外气冷却相比,将热量从电子设备中移除的效率更高,现在已有供货商为数据中心应用提供液浸式冷却解决方案。
IT设备根据美国采暖、制冷与空调工程师学会(ASHRAE)技术委员会定义的等级进行评级,这些评级类别(A1到A4)是ASHRAE开发的一套指南标准,用于确定机房硬件的最佳温度和湿度水平,其中A1具有最小的允许温度范围。
但是现在许多IT硬件制造商生产A2级甚至A3级设备,这可以为数据中心冷却方式提供更大的选择灵活性,因此,仔细检查设备的冷却要求是明智的,而不是仅仅遵循A1-A4类标准的ASHRAE建议。当然,您的设备运行温度越高,它的可靠性就越低,但是硬件故障的成本是可以计算的。通过预测随温度升高而增加的故障风险,可以计算出冷却所带来的节省量与增加故障率的成本之间的差异。许多公司在短短三年之后就更换了他们的IT设备,在这种情况下,较高温度的对硬件影响可能不显著。
实验带来更好的效率
最有效的冷却设计采用某种形式的自然冷却或外气冷却,通常当户外条件(炎热,潮湿的夏季)无法提供足够的冷却以满足数据中心的要求时,机房精密空调需要作为备援。然而,我们在一些开创性设计中看到的关键之一是,建筑结构总是有着不可或缺的角色。规划建筑工程的期间,如果要尽可能地将IT设备塞入空白区域中,就须考虑之后冷却能力是否足够,新的数据中心概念需要从一开始就考虑到冷却系统。
例如,一家荷兰公司已经实施了一个系统,该系统使用称为京都圆盘的巨型旋转铝盘从建筑物中移除热量。圆盘的一半在建筑物内,一半在外面,当圆盘旋转时,它会在建筑物内部变暖,并在返回时将其收集的热量传递到室外空气中。但是圆盘本身相当大,并且需要相当大的空间用于圆盘旋转通过的内部和外部区域,所以这是需要是先规划的。
另一种选择是,不是简单地将废热倾倒到环境中,而是充分利用它。已经有将数据中心与区域供热和供冷系统整体结合在一起的案例,通过这种方式,来自机房的废热被用于提供家庭所需的热能,这是个可持续性发展的例子,区域供冷系统也是一种非常有效的冷却数据中心方法,通过实现高冷却效率可以获得巨大的竞争优势,但如何最好地实现这一目标仍然是个未决的问题。