利用CFD技术对数据中心机房进行模拟

    当各位在召唤师峡谷中纵横驰骋的时候,是否想过游戏的而服务器在什么样的环境下运行呢?那就是数据中心,简称IDC,是众多服务器集中放置的一个恒温恒湿的环境。正因为服务器有一个稳定安全的运行环境,我们才能在峡谷里斩获五杀超神。不仅如此,诸如网购、社交等一切基于互联网的服务都要依靠服务器稳定的运行。

  

    IDC(Information Data Center,数据中心)是存放大量数据服务器的机房,为众多服务器提供允许运行的适当的温度、湿度环境。在当今互联网与大数据蓬勃发展的背景下,数据中心的的稳定、安全运行变得尤为重要。服务器的宕机可能会给数据中心所服务的范围的经济民生带来无法预知的后果,基于数据中心的具体规模,少则单个城市与县、乡,大到一个方圆数百公里的经济辐射带。基于此,对于数据中心制冷系统的气流组织和冷量分析在数据中心的规划和建设中具有举足轻重的地位。良好的制冷系统设计和气流组织布局对于数据中心安全、节能地运行是必要的。


利用CFD技术对数据中心机房进行模拟的图1

                                          图1. 腾讯位于贵州的某数据中心

    数据中心在正式投入运营前需要对空调系统的制冷能力进行测试,这是因为一般对服务器的运行环境有一定的要求,如果温度湿度过高,容易造成服务器的元件损坏或是宕机;温度过低,则会造成服务器的反应不灵敏,影响网络服务的响应速度。通常服务器不得在高于40℃的环境下工作,湿度则根据不同数据中心的具体情况一般在30%~60%之间。对制冷能力的测试方法其中有一种被称为“假负载测试”。


  何为“假负载测试”?简单地说,在机房中摆放一些近似纯电阻性质的负载来代替真正的服务器,然后给这些负载通电,并按设计的室内温度开启机房制冷系统,监测机房内的温湿度情况,看看温湿度是否在正常范围内。利用这种方法可以测得不同比例IT荷载下精密空调系统的制冷能力和回风温度,从而为以后的运维提供数据依据。假负载测试被大多数数据中心运营公司广泛采用,但是其缺点也是非常显著的。首先假负载测试需要购买或租赁大量带有纯电阻原件的假负载,并根据测试需要选择很多不同功率级别的假负载或者可调节功率的假负载;测试前需要耗费大量人力和时间布置假负载,测试时需要繁多的测点数据记录,测试一个工况的周期较长;另外,数据中心并非每次假负载测试都有实施的客观条件。以上缺陷,对于规模较小的数据中心往往是难以承受的。然而,计算流体力学(CFD)的发展为解决上述问题提供了一种新的途径。用计算流体力学技术,对数据中心系统进行建模,并对求解域进行网格化,然后求解质量守恒、动量守恒和能量守恒三大基本方程的数值形式、利用合理的时间格式,计算出稳态或瞬态数据中心内的温度场和速度场。而且数据中心的的相关CFD数值计算方法一般不涉及多相流、大涡旋、高速流等一些CFD领域的难点问题,求解算法已比较成熟,且能达到较高的准确度。通过CFD技术预测不同负荷下空调系统的制冷性能和回风温度,具有比传统假负载测试更方便、更快速的优点。

     这里采用的是6sigmaDC软件对某个数据中心进行建模和计算。6SigmaDC是一款专用于数据中心领域的CFD仿真工具,还可以用于对电子元器件的热仿真分析。6SigmaDC提供了大量数据中心专有模块,帮助用户快速建模,例如:PDU(分布式供配电单元)、UDF(不间断供电系统)、精密空调单元、机柜等。此外,6SigmaDC的PAC study功能也方便用户对不同工况案例进行控制变量后的不同结果对比研究。


   根据项目数据中心实际规模,数据中心规模为1131㎡,高3.44m,架空地板的高度为0.64m,采用下出风空调,架空地板下面的空间相当于静压箱的作用。所有出风口的尺寸均为常规的600mm×600mm。共有机柜336个,分12列布置,每列28个机柜,以形成6个冷通道。项目为2U-4kW服务器机架,为北京东南及燕郊周边提供服务器场地租赁服务和相应的维护、以及必要的运行温度、湿度。机柜出风温度需要限制在36℃以下,采用常规下送风方式。精密空调风机转速通过数据中心的回风温度传感器进行控制。数据中心内南北两侧分列两列精密空调,每列6台,每台额定制冷量120kW。模型平面图如下图所示。

利用CFD技术对数据中心机房进行模拟的图2

                                                   图2. 数据中心平面图

   图3为机柜底部的温度分布云图。其中中部一根柱子附近的的机柜出风口处温度达到了36.9℃,这超过温度规定范围,这可能时由于机柜距离柱子过近,偏下层的机柜出风气流受到柱子的阻碍,只能顺着柱子爬升,无法迅速散出。而且通过对图4中各处机柜低中高不同高度的最大进风温度进行分析,发现机柜顶部的最大进风温度远远大于下面两层,相差达到15℃左右,这种情况在机房中间处更为严重,造成了机柜不同高度的进风处理热负荷的能力存在显著的不均衡。造成这种不均衡的原因是目前的模型中,进风和出风之间没有有效的隔离,在冷热区之间形成了气流短路,导致冷热抵消,从而负面影响制冷的效果。这种影响通过选取若干机柜进行气流矢量的分析也可以看到。如图5所示,选取中间的若干机柜和精密空调进行流场分析,会发现在机柜的顶部进风与出风流线十分靠近,造成气流组织短路。综合上述问题,对于原型模型的优化改进首先将从优化气流组织入手。


利用CFD技术对数据中心机房进行模拟的图3

                                                       图3. 数据中心机房温度云图


利用CFD技术对数据中心机房进行模拟的图4

                                          图4. 数据中心机柜不同高度的最大进风温度分布

利用CFD技术对数据中心机房进行模拟的图5

图5. 机柜局部速度矢量图


    一般解决冷热抵消的一个比较好的方法就是封闭冷通道。所谓封闭冷通道,就是将“冷区”相邻的两列服务器机柜的的两端和它们之间的顶部区域封闭,不让进入的冷空气和排出的热空气混合。冷通道的作用是将机柜的进风区域和出风区域物理分隔开,通过封闭机柜冷通道,最大限度地减少气流的冷热抵消,提高制冷效能。如图6所示,当封闭冷通道后出风区域与进风区域的温度差距变得非常明显,且整个机房的最高温度点仅为29.6℃,达到了机房最高热点不超过36℃的控制目标。而热通道区域的温度分布也比没有冷通道时显得更加均一,说明冷通道对于减少冷热抵消具有积极的作用。


利用CFD技术对数据中心机房进行模拟的图6

                                          图6. 封闭冷通道后数据中心机房平面温度云图


   而通过对于这种情况下不同高度的最大进风温度的云图分析,可以从图7看到,各处不同机柜不同高度的最大进风温度更加趋于一致性,这与没有冷通道封闭时的情况差异巨大。加入封闭冷通道之后有效地改善了气流组织情况,使得空调向每个机柜输送的冷量近乎一致,从而确保每个机柜得到几乎同样的冷却效果,避免严重的制冷负载失衡现象。


利用CFD技术对数据中心机房进行模拟的图7

                               图7. 封闭冷通道后机柜不同高度的最大进风温度分布


   至此可以看到,通过6sigmaDC工具,较为便捷地实现了对于数据中心机房设计的改变并预测了改变后的制冷效果和气流组织效果,有效地对比了有无封闭冷通道的情况。

 好了,我们的服务器有了如此稳定安全的运行环境,这下我们可以超神吃鸡了!......不,你确定你缺的是服务器,而不是超神吃鸡的操作吗?不说了,我现在又漏炮车了。

————————————

原创文章,转载请注明出处,侵权必究。



(1条)
默认 最新
必须慷慨我的👍🏻👍🏻👍🏻👍🏻
评论 点赞
点赞 2 评论 1 收藏 3
关注