网络机柜里面的服务器比较多,没有空余的空间使网络机柜得到很好的散热,而且服务器的位置都比较密集,温度就会上升。
如果服务器端口设置得不好,也会影响网络机柜的散热功能,会因此超出了网络机柜所能承受的范围之内。
网络机柜的位置摆放不正确也会导致温度过高,在网络机柜的周围不要摆放过多的东西,要保持周围的环境整洁,可以让网络机柜得到很好的散热。
导致网络机柜温度过高的因素还有很多,为了使网络机柜得到很好的散热,我们要保持网络机柜处在一个良好的环境中。 . 小编在这向您推荐索玛机柜,品质更卓越,更安全,更稳固。
电源问题可能性最大,比如瞬时高电压。
还有可能是灰尘过多,无法散热,结果过热了。一般情况下机房的服务器都有过热保护,太热了会自动关闭,所以可能性不是很大。
一般说来,数据中心设备运行时的最佳温度为22度,上下浮动不能超过2度空气的相对湿度为45%—65%。如果超过正常温度和湿度,设备运行时发生障碍的机率就会大大增加。在潮热、高温的条件下,设备的性能和运转不可避免地会受到影响,数据遭到破坏或丢失的可能性也大大增加。据统计,在基准温度情况下,温度每升高10℃计算机的可靠性就下降25%。西信中心的IDC专家认为在持续高热的状况下,数据中心有可能因为如下几个原因导致问题的出现:1.设计之初设计的制冷量已经满足不了发展的需要,负载不断增加,而制冷量却没有变,因此机房内温度偏高,环境温度高到一定程度的时候,机房内设备将突破承受的极限,于是热点不断出现,最终导致宕机。
2.制冷设备可能会因为环境高温的原因,导致自身系统发热量过大,出现超负荷运转,进而导致故障的发生,严重时可能导致整个数据中心的瘫痪。
3.高热的天气给市电供电系统造成了巨大的压力,可能会出现突发性断电的情况。同时,UPS配置的阀控式铅酸免维护蓄电池在高温情况下寿命也会急剧下降。若是数据中心未能及时加以妥善应对,后果不堪设想。
为确保企业数据中心的服务器、存储等设备能够在高温环境正常运行,降低额外的维护和基础设施成本,同时降低总体能耗,使用先进的制冷设备是一个必然的选择。目前西部信息中心也是国内采用先进的2种不同空调制冷方式的少数专用IDC机房之一,其分别规划了三套独立空调系统:
1.VRV空调系统:用于管理用房和10KV高配室,总制冷量约388KW。
2.冷冻水空调系统:用于IDC机房及电力电池区制冷,配置了3台1250冷吨的中央空调冷水机组、10台大功率水泵、2台板式换热水,按双管水路冗余配置总制冷量约13185KW。中央空调冷冻水系统(机组品牌:特灵,水泵品牌:格兰富)屋顶配置闭式冷却塔集中制备冷却水;冷却水进入楼层空调机房,与专用空调配套的水冷冷凝器进行热交换从而冷却冷媒;被冷却后的冷媒进入IDC机房内的恒温恒湿空调机组,再冷却机房内的空气温度
3.闭式冷却塔水冷空调系统(风冷空调系统):仅用于IDC机房制冷,配置了8台300冷吨的闭式冷却塔,总制冷量约12000KW。闭式冷却塔水冷空调系统(机组品牌:荏原;板式交换器品牌:APV) IDC机房采用恒温恒湿专用空调机组,气流组织形式为下送风、上回风。
借助该系统组合不仅具备高散热能力和可靠性等优势,还使得方案中的服务器、存储和网络设备允许用户在更高温度条件下安全、稳定的运行,避免因高温宕机“罢工”。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)