亚洲AV乱码久久精品蜜桃,欧美性爱综合网,国产熟女一区二区三区浪潮,99久久久精品免费欢看国产

加入收藏 設為首頁 熱線:010-62104284
首頁 > 新聞中心 > 數據中心過度冷卻問題令人關注

數據中心過度冷卻問題令人關注

文章來源:admin 發(fā)布時間:2015-09-18 09:43:25 瀏覽:0

應對天氣酷熱的最好方法是盡可能少地去做;這個道理連蜥蜴都知道,所以想讓數據中心變得更冷的管理人員,采取過度的制冷措施只能是浪費能源。

然而還是有很多數據中心都在這么做,一直保持過多工作量和過度的制冷。在這個過程中,他們在浪費大量的電能,具有諷刺意味的是,這會導致全球變暖和融化地球的極地冰蓋。

磁帶時代的冷卻

數據中心的制冷歷史可以追溯到20世紀50年代,當時磁帶驅動器無法忍受高溫和高濕環(huán)境,在通過穿孔卡時會粘在一起,致使系統(tǒng)崩潰。而我們雖然不再處于那個時代,但目前許多數據中心仍然有過度的冷卻措施與不必要的冷卻制度,一直將數據中心的環(huán)境溫度嚴格控制在21°C(70°F)。

當ASHRAE(美國供暖學會,制冷與空調工程師協(xié)會)定義特定推薦的服務器入口溫度后,現在設定為27°C(80°F)。如今事情開始改變,并增加了更廣泛接受的可靠性套件。

如今,一些大規(guī)模數據中心注意到了這一點,并通過了運行在更高的溫度的過程試驗。但是,大多數的企業(yè)數據中心在此方面嚴重滯后。

2015年初,調查機構IDC在美國調查了404位數據中心經理,這些經理每人至少管理100臺物理服務器,并擁有平均120萬美元的IT預算。根據調查,75%的數據中心工作溫度低于24℃,只有5%的數據中心工作在27℃或27℃以上。

這些數據中心設施的PUE(能源使用效率)為2.4至2.8之間,這意味著IT設備電源的電源消耗沒有達到全部設備的60%至65%。

這兩個結果令人震驚。IDC發(fā)現這些IT管理人員在冷卻方面的支出預算為總預算的10%,在電力和冷卻方面的預算為24%。因此,各公司每年在冷卻方面的支出預算大部分可能是多余的。

其他要考慮的事實是,雖然高效的網絡規(guī)模云服務提供商獲得了媒體的關注,但他們只是全球數據中心的一小部分。至少,目前全球有一半以上的數據中心制冷過度。這些會影響全球的碳排放,而這些都是需要改變的數據中心。

偏執(zhí)狂,還是只是小心?

那么,為什么數據中心的溫度還是那么低?關鍵設施咨詢的伊恩•比特林是毫無疑問知道是恐懼驅使它:“這是偏執(zhí)狂的想法,人們過度規(guī)避風險。”

而下面這種說法可能更加合理,至少有一項研究發(fā)現,提高空氣入口溫度實際上增加了冷卻電能消耗。

施耐德電氣高級研究分析師維克多•阿弗拉爾對一項研究進行了描述,他比較了芝加哥、邁阿密以及西雅圖的數據中心在不同的溫度下的冷卻電能消耗量。“我們發(fā)現,高于27℃的數據中心冷卻耗費了更多的能源和資本開支。”

施耐德電氣的研究即將公布,這個結果是與一個具有標準的冷水機組數據中心進行比較的,之所得出令人驚訝的結果,也可能與系統(tǒng)的復雜性有關。在較高的溫度下,服務器風扇可以發(fā)揮作用,讓周圍的空氣流動消耗了更多的電能。

技術選擇

如果你看到這一點,你就需要知道你的技術選擇。我們都是從使用傳統(tǒng)空調壓縮機的冷卻設備,通常被稱為“直接膨脹(DX)單元”來開始認識冷卻系統(tǒng)的。

保持入口溫度在24°C以下是偏執(zhí)狂

在大多數地區(qū),沒有其他的方式來保持數據中心的低溫,許多人仍然認為保持低溫是必要的,在許多地方仍有DX與其他制冷方式混合,以保持數據中心極端條件。

如果用戶擁有這樣的數據中心,在考慮改變冷卻技術之前,先要消減能源法案。ASHRAE指出用戶可以提高服務器的入口空氣溫度,從而減少了冷卻電能。但如果這樣做,用戶應該知道服務器的風扇將要做什么。

如果讓入口溫度上升到27°C,服務器后面的熱通道溫度將約為35°C。因此要確保所有連接器都在系統(tǒng)的前面,因為沒有人考慮在熱通道設計上花費更多的時間。

其次,任何冷卻系統(tǒng)更有效地工作時,它是工作在高溫差(時間差)。這有些稍微違反直覺,但其基本熱力學的原則是熱差越大,驅動力更大。

這就是為什么可以很好地遏制服務器背面出來的熱風的原因,熱通道遏制裝置意味著冷卻系統(tǒng)的工作就是冷卻需要冷卻的空氣。

比特林表示,一旦用戶完成這一切,其DX冷卻系統(tǒng)會做更少的工作,就可以得到大約1.16的局部PUE(pPUE)。另外,冷凍水系統(tǒng)(其中制冷機組的冷卻水分配使用)的pPUE可以下降到1.12。

不建議采用DX冷卻技術

但你真的需要DX嗎?根據ASHRAE發(fā)布的地圖顯示,全球各地的氣候足夠涼爽.因此,外部空氣可用于常年來冷卻數據中心。美國大部分地區(qū)在此區(qū)域中,而在英國,其干球溫度記錄為34℃,最高濕球溫度(蒸發(fā))為23℃。

這就是“外部空氣”冷卻,“自然”的冷卻或是“絕熱”冷卻。這些冷卻意味著不使用空調。有時將外界空氣過濾,直接通過數據中心(“直接”自由冷卻),有時設置一個二級電路(“間接”自然冷卻)。當外界溫度較高時,加入水蒸發(fā)的冷卻盤也是是必要的。

比特林表示,采取這些冷卻措施可能讓數據中心達到1.05的PUE,但也有一些并發(fā)癥。一個問題是,PUE取決于數據中心的利用率。如果有閑置的服務器,這樣可以提高效率,但絕熱冷卻有一個相反的趨勢:“在部分負荷下,絕熱變得更好,”他說。這意味著,如何負載超過一定閾值,追求更低的PUE可能適得其反。

PUE并不是一切

施耐德電氣的阿弗拉認為:“PUE是數據中心行業(yè)評判能源效率的標準,但重要的是不要盲目追求PUE。”在他給的例子中,當服務器風扇關閉時,即使數據中心整體用于冷卻電能消耗不斷上升,其效率越來越差,數據中心PUE仍會下降。

阿弗拉爾警告說,絕熱冷卻套件可能會引發(fā)可用性的擔憂。在實際的情況下,絕熱單元通常又大又重,在改造老舊數據中心時會非常棘手。而新建的數據中心會盡量將其部署在屋頂上。

當服務器變得更加溫暖時,其冷卻問題看起來很復雜嗎?這一切都歸結為保持冷靜的頭腦和精確的計算。

關鍵詞:機房空調http://www.rongguina.cn

?
產品推薦
聯(lián)系我們
  • 地址:北京市海淀區(qū)知春路豪景大廈B座十層
  • 魯文:13520099504
  • 熱線:010-62104284
  • QQ:514468705
             112417434
  • 在線咨詢 電話咨詢