日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
數(shù)據(jù)中心華氏68度上限成歷史虛擬化讓服務(wù)器沸騰

數(shù)據(jù)中心華氏68度上限成歷史 虛擬化讓服務(wù)器沸騰

原創(chuàng)
作者:小梅編譯 2009-06-18 09:35:54

服務(wù)器

芯片

新聞

虛擬化 現(xiàn)今的服務(wù)器、存儲和網(wǎng)絡(luò)設(shè)備通常認(rèn)證的運行溫度已經(jīng)超過了100度,因此考慮到這一點,在許多IT專業(yè)人士眼里,設(shè)定溫度限制的問題已經(jīng)逐漸變得不那么嚴(yán)格。

【51CTO.com快譯6月18日外電頭條】將數(shù)據(jù)中心冷卻到68度的做法很快就要過時了,APC公司電力與制冷專家Jim Simonelli說。

現(xiàn)今的服務(wù)器、存儲和網(wǎng)絡(luò)設(shè)備通常認(rèn)證的運行溫度已經(jīng)超過了100度,因此考慮到這一點,在許多IT專業(yè)人士眼里,設(shè)定溫度限制的問題已經(jīng)逐漸變得不那么嚴(yán)格。當(dāng)然了,如果想設(shè)置溫度也沒有想象中的困難,讀者可以參考51CTO.com的文章《如何選擇數(shù)據(jù)中心的最佳工作溫度》。

服務(wù)器和其它設(shè)備運行起來“可以比允許范圍熱得多,”施耐德電氣下屬APC公司首席技術(shù)官Simonelli在最近的一次采訪中談到?!霸S多大型數(shù)據(jù)中心的管理者都有過在接近90度的高溫條件下(濕度也比允許范圍要大得多)運行數(shù)據(jù)中心的經(jīng)驗。這和68度的額定上限比起來相差極大。”

Simonelli的觀點其實并不新鮮。早在兩年前,運行著美國幾家最大的數(shù)據(jù)中心的Google就發(fā)布過研究結(jié)果,他們認(rèn)為溫度超過100度并不會對硬盤造成損壞,可值得注意的是,盡管Google對溫度的上限很高,但Google也在為降溫做著不懈的努力,我們可以參看51CTO.com的文章《谷歌申請“海上數(shù)據(jù)中心”專利 利用海洋溫度冷卻設(shè)備》。

Simonelli說,新的經(jīng)濟壓力讓數(shù)據(jù)中心的專業(yè)人士們意識到調(diào)高上限帶來的好處。人們開始意識到他們可以節(jié)省高達50%的能源預(yù)算,只需要將溫度額定上限從68度提高到80度,除此之外,有興趣的51CTO.com的讀者也可以參看《數(shù)據(jù)中心節(jié)能與冷卻的10個重要技巧》。

“我想‘精確制冷’這個詞很快就會有不同的含義了,”Simonelli對未來進行了展望?!澳銓吹綌?shù)據(jù)中心的溫度變得比以前高得多,也會看到你從沒見過的潮濕的數(shù)據(jù)中心?!?/p>

隨著虛擬化等技術(shù)不斷的將冗余放置在軟件層中,對于硬件來說,彈性已經(jīng)變得不那么重要,這也降低了溫度過高帶來的風(fēng)險。

然而,服務(wù)器虛擬化技術(shù)同時也給能耗和冷卻帶來了新的挑戰(zhàn),因為hypervisor層允許每個虛擬服務(wù)器占用更大百分比的CPU處理能力。一方面,服務(wù)器虛擬化使IT運營商們得以將許多臺服務(wù)器整合為很少幾臺,但另一方面最后剩下的那幾臺機器不得不做更多的工作,這就需要在更小的空間里給它們送上更多的冷空氣,正如51CTO.com之前的報道《提高虛擬化在數(shù)據(jù)中心實施效率 電源與冷卻不容忽視》。

Simonelli指出,如果你關(guān)閉了許多臺服務(wù)器,就必須要對數(shù)據(jù)中心進行重新配置,防止冷空氣被傳送到空閑的區(qū)域。

“在虛擬化的同時考慮電源和制冷正變得越來越重要,”他說?!叭绻阒皇沁M行虛擬化,但并不改變你的底層架構(gòu),那么最終的效率往往會比你預(yù)想的要低?!?/p>

對于企業(yè)來說,將虛擬服務(wù)器從一臺物理主機向另一臺遷移時,需要使用監(jiān)測工具來了解能耗需求的變化。Simonelli指出,在虛擬化之前,一個關(guān)鍵的應(yīng)用可能會安裝在某個機架中的某臺服務(wù)器上,這臺服務(wù)器可能會有兩個電源專門伺候。而使用現(xiàn)場遷移工具時,一臺虛擬機可能會從一臺具有充足供電及制冷能力的服務(wù)器遷移到一臺不那么完善的服務(wù)器上,所以在遷移時保證電源和制冷的可見度也就比以往更加重要。

隨意遷移虛擬機技術(shù)的發(fā)展意味著“它將逐步遠離你對服務(wù)器進行的能耗和制冷配置,”Simonelli說,如果虛擬服務(wù)器數(shù)量正向超過物理服務(wù)器邁進,我們的能耗又將面臨怎樣嚴(yán)峻的考驗?zāi)亍?/p>

為了支持虛擬化和刀片服務(wù)器等技術(shù)帶來的高密度,制冷系統(tǒng)必須更加靠近機架和服務(wù)器,Simonelli說。這樣,制冷問題已經(jīng)變成數(shù)據(jù)中心里最大的能源開銷,而過度的空調(diào)系統(tǒng)與過低的溫度限定都造成了極大的能源浪費。

當(dāng)然每個數(shù)據(jù)中心都有自己的不同需求,Simonelli說,企業(yè)可以從設(shè)在拉斯維加斯的SuperNAP數(shù)據(jù)中心學(xué)到一些東西,這個占地40萬7千平方英尺的巨型數(shù)據(jù)中心在搭建時大量使用了APC的設(shè)備,比如NetShelter SX機架,數(shù)千個配電單元以及UPS電源。

雖然可以支持高達60兆瓦(megawatt),但數(shù)據(jù)中心是按照20兆瓦的模塊搭建的?!斑@意味著數(shù)據(jù)中心可以在它們的規(guī)模上最大限度地提高能源消耗的效率。它們并不需要按照60兆瓦來供電,”Simonelli說。

企業(yè)常犯的最大的錯誤之一是過度的配置電源能力,對未來的增長做出不切實際的預(yù)期,Simonelli說。企業(yè)應(yīng)該做好未來幾年的計劃,但應(yīng)該小規(guī)模的逐步擴充,有興趣的讀者不妨參看51CTO.com相關(guān)的文章,例如《簡單五個步驟部署節(jié)約型綠色數(shù)據(jù)中心》。

“你必須擁有地面空間,然后必須具有獲取電源的能力,”Simonelli說?!暗绻愦蛩憬ㄔ煲粋€1兆瓦或者5兆瓦的數(shù)據(jù)中心,而且你知道第一年的部署只需要100千瓦,那么按照5兆瓦去準(zhǔn)備空間和電力,但應(yīng)該只用250千瓦或500千瓦的模塊來搭建。”

【51CTO.com譯稿,非經(jīng)授權(quán)請勿轉(zhuǎn)載。合作站點轉(zhuǎn)載請注明原文譯者和出處為51CTO.com,且不得修改原文內(nèi)容?!?/p>

原文:68-degree data centers becoming a thing of the past, APC says     作者:Jon Brodkin


分享標(biāo)題:數(shù)據(jù)中心華氏68度上限成歷史虛擬化讓服務(wù)器沸騰
當(dāng)前URL:http://www.dlmjj.cn/article/ccschsp.html