新聞中心
數(shù)據(jù)中心華氏68度上限成歷史 虛擬化讓服務(wù)器沸騰
原創(chuàng)
作者:小梅編譯 2009-06-18 09:35:54
服務(wù)器
芯片
新聞
虛擬化 現(xiàn)今的服務(wù)器、存儲(chǔ)和網(wǎng)絡(luò)設(shè)備通常認(rèn)證的運(yùn)行溫度已經(jīng)超過了100度,因此考慮到這一點(diǎn),在許多IT專業(yè)人士眼里,設(shè)定溫度限制的問題已經(jīng)逐漸變得不那么嚴(yán)格。

【51CTO.com快譯6月18日外電頭條】將數(shù)據(jù)中心冷卻到68度的做法很快就要過時(shí)了,APC公司電力與制冷專家Jim Simonelli說。
現(xiàn)今的服務(wù)器、存儲(chǔ)和網(wǎng)絡(luò)設(shè)備通常認(rèn)證的運(yùn)行溫度已經(jīng)超過了100度,因此考慮到這一點(diǎn),在許多IT專業(yè)人士眼里,設(shè)定溫度限制的問題已經(jīng)逐漸變得不那么嚴(yán)格。當(dāng)然了,如果想設(shè)置溫度也沒有想象中的困難,讀者可以參考51CTO.com的文章《如何選擇數(shù)據(jù)中心的最佳工作溫度》。
服務(wù)器和其它設(shè)備運(yùn)行起來“可以比允許范圍熱得多,”施耐德電氣下屬APC公司首席技術(shù)官Simonelli在最近的一次采訪中談到。“許多大型數(shù)據(jù)中心的管理者都有過在接近90度的高溫條件下(濕度也比允許范圍要大得多)運(yùn)行數(shù)據(jù)中心的經(jīng)驗(yàn)。這和68度的額定上限比起來相差極大?!?/p>
Simonelli的觀點(diǎn)其實(shí)并不新鮮。早在兩年前,運(yùn)行著美國(guó)幾家最大的數(shù)據(jù)中心的Google就發(fā)布過研究結(jié)果,他們認(rèn)為溫度超過100度并不會(huì)對(duì)硬盤造成損壞,可值得注意的是,盡管Google對(duì)溫度的上限很高,但Google也在為降溫做著不懈的努力,我們可以參看51CTO.com的文章《谷歌申請(qǐng)“海上數(shù)據(jù)中心”專利 利用海洋溫度冷卻設(shè)備》。
Simonelli說,新的經(jīng)濟(jì)壓力讓數(shù)據(jù)中心的專業(yè)人士們意識(shí)到調(diào)高上限帶來的好處。人們開始意識(shí)到他們可以節(jié)省高達(dá)50%的能源預(yù)算,只需要將溫度額定上限從68度提高到80度,除此之外,有興趣的51CTO.com的讀者也可以參看《數(shù)據(jù)中心節(jié)能與冷卻的10個(gè)重要技巧》。
“我想‘精確制冷’這個(gè)詞很快就會(huì)有不同的含義了,”Simonelli對(duì)未來進(jìn)行了展望?!澳銓?huì)看到數(shù)據(jù)中心的溫度變得比以前高得多,也會(huì)看到你從沒見過的潮濕的數(shù)據(jù)中心。”
隨著虛擬化等技術(shù)不斷的將冗余放置在軟件層中,對(duì)于硬件來說,彈性已經(jīng)變得不那么重要,這也降低了溫度過高帶來的風(fēng)險(xiǎn)。
然而,服務(wù)器虛擬化技術(shù)同時(shí)也給能耗和冷卻帶來了新的挑戰(zhàn),因?yàn)閔ypervisor層允許每個(gè)虛擬服務(wù)器占用更大百分比的CPU處理能力。一方面,服務(wù)器虛擬化使IT運(yùn)營(yíng)商們得以將許多臺(tái)服務(wù)器整合為很少幾臺(tái),但另一方面最后剩下的那幾臺(tái)機(jī)器不得不做更多的工作,這就需要在更小的空間里給它們送上更多的冷空氣,正如51CTO.com之前的報(bào)道《提高虛擬化在數(shù)據(jù)中心實(shí)施效率 電源與冷卻不容忽視》。
Simonelli指出,如果你關(guān)閉了許多臺(tái)服務(wù)器,就必須要對(duì)數(shù)據(jù)中心進(jìn)行重新配置,防止冷空氣被傳送到空閑的區(qū)域。
“在虛擬化的同時(shí)考慮電源和制冷正變得越來越重要,”他說?!叭绻阒皇沁M(jìn)行虛擬化,但并不改變你的底層架構(gòu),那么最終的效率往往會(huì)比你預(yù)想的要低。”
對(duì)于企業(yè)來說,將虛擬服務(wù)器從一臺(tái)物理主機(jī)向另一臺(tái)遷移時(shí),需要使用監(jiān)測(cè)工具來了解能耗需求的變化。Simonelli指出,在虛擬化之前,一個(gè)關(guān)鍵的應(yīng)用可能會(huì)安裝在某個(gè)機(jī)架中的某臺(tái)服務(wù)器上,這臺(tái)服務(wù)器可能會(huì)有兩個(gè)電源專門伺候。而使用現(xiàn)場(chǎng)遷移工具時(shí),一臺(tái)虛擬機(jī)可能會(huì)從一臺(tái)具有充足供電及制冷能力的服務(wù)器遷移到一臺(tái)不那么完善的服務(wù)器上,所以在遷移時(shí)保證電源和制冷的可見度也就比以往更加重要。
隨意遷移虛擬機(jī)技術(shù)的發(fā)展意味著“它將逐步遠(yuǎn)離你對(duì)服務(wù)器進(jìn)行的能耗和制冷配置,”Simonelli說,如果虛擬服務(wù)器數(shù)量正向超過物理服務(wù)器邁進(jìn),我們的能耗又將面臨怎樣嚴(yán)峻的考驗(yàn)?zāi)亍?/p>
為了支持虛擬化和刀片服務(wù)器等技術(shù)帶來的高密度,制冷系統(tǒng)必須更加靠近機(jī)架和服務(wù)器,Simonelli說。這樣,制冷問題已經(jīng)變成數(shù)據(jù)中心里最大的能源開銷,而過度的空調(diào)系統(tǒng)與過低的溫度限定都造成了極大的能源浪費(fèi)。
當(dāng)然每個(gè)數(shù)據(jù)中心都有自己的不同需求,Simonelli說,企業(yè)可以從設(shè)在拉斯維加斯的SuperNAP數(shù)據(jù)中心學(xué)到一些東西,這個(gè)占地40萬7千平方英尺的巨型數(shù)據(jù)中心在搭建時(shí)大量使用了APC的設(shè)備,比如NetShelter SX機(jī)架,數(shù)千個(gè)配電單元以及UPS電源。
雖然可以支持高達(dá)60兆瓦(megawatt),但數(shù)據(jù)中心是按照20兆瓦的模塊搭建的?!斑@意味著數(shù)據(jù)中心可以在它們的規(guī)模上最大限度地提高能源消耗的效率。它們并不需要按照60兆瓦來供電,”Simonelli說。
企業(yè)常犯的最大的錯(cuò)誤之一是過度的配置電源能力,對(duì)未來的增長(zhǎng)做出不切實(shí)際的預(yù)期,Simonelli說。企業(yè)應(yīng)該做好未來幾年的計(jì)劃,但應(yīng)該小規(guī)模的逐步擴(kuò)充,有興趣的讀者不妨參看51CTO.com相關(guān)的文章,例如《簡(jiǎn)單五個(gè)步驟部署節(jié)約型綠色數(shù)據(jù)中心》。
“你必須擁有地面空間,然后必須具有獲取電源的能力,”Simonelli說?!暗绻愦蛩憬ㄔ煲粋€(gè)1兆瓦或者5兆瓦的數(shù)據(jù)中心,而且你知道第一年的部署只需要100千瓦,那么按照5兆瓦去準(zhǔn)備空間和電力,但應(yīng)該只用250千瓦或500千瓦的模塊來搭建。”
【51CTO.com譯稿,非經(jīng)授權(quán)請(qǐng)勿轉(zhuǎn)載。合作站點(diǎn)轉(zhuǎn)載請(qǐng)注明原文譯者和出處為51CTO.com,且不得修改原文內(nèi)容?!?/p>
原文:68-degree data centers becoming a thing of the past, APC says 作者:Jon Brodkin
分享標(biāo)題:數(shù)據(jù)中心華氏68度上限成歷史虛擬化讓服務(wù)器沸騰
瀏覽路徑:http://m.5511xx.com/article/ccschsp.html


咨詢
建站咨詢
