近些年計算力需求的增長直接推動了社會的進步。隨著新基建時代的到來,5G網絡,人工智能以及工業(yè)互聯網將會獲得飛速發(fā)展。舉例來說,2016年,全球最大的數據中心大約是58萬平方米,但是到了2019年,已經達到了99萬平方米,相當于140個足球場。在三年的時間里,最大規(guī)模數據中心的面積增長了75%。這就充分說明社會經濟進步對于計算力的巨大需求。在這樣的背景下,提供超強算力的大型數據中心,以及服務近場數據處理的邊緣數據中心勢必會加快建造和部署。
據科智咨詢(中國IDC圈)最新發(fā)布的《2019-2020中國IDC產業(yè)發(fā)展研究報告》預計,2019~2022年中國IDC業(yè)務市場規(guī)模復合增長率為26.9%。圖1為2019~2022年中國IDC業(yè)務市場規(guī)模及預測。
? 傳統(tǒng)制冷方式總結 ?
緊耦合或熱源冷卻
緊耦合冷卻方式通過貼近熱源來實現更有效的運作。這不算什么新東西——問問老的大型機操作員或任何筆記本電腦設計人員就知道了。雖然緊耦合冷卻在數據中心里面還是“主流”,但是更新的方法在滿足能源效率的需求方面往往做得更好,并獲取更多關注。它的工作方式很簡單:消耗能源來將大量的空氣吹入地板下的空間或者導風管,然后又將這些空氣拉回至空調。
更有前途的技術包括浸入式冷卻:將服務器整個浸泡在礦物油里,以便使用最少的能耗獲得極高的冷卻效率。但是技術人員需要對內外布滿了石油的服務器進行處理時,心里會怎么想?顯然這種冷卻方式并不是適合所有場景。部分也是因為水冷方式重新受到關注。如果將巨大的機房空調系統(tǒng)取消,改用貼近設備的新型冷卻方式的話,相信數據中心行業(yè)會運行得比現在更好。教育背景和希望與眾不同的個人意愿或許會促生新案例,但成本和電源可用性的矛盾將決定最終結果。
更高的運行溫度
美國供暖、制冷和空調工程師協會(ASHRAE)在2008年就第一次發(fā)表了關于較高溫度數據中心的建議,但并未引起注意。服務器不需要冷藏。即使入口空氣溫度達到華氏75到80°F(攝氏25至27°C),這些設備仍然能維持良好運作。服務器制造商實際上已經擴展了產品的運行溫度范圍,而且舊設備其實也和新設備一樣能夠在擴展的溫度區(qū)間內運行。提高運行溫度可以大幅度節(jié)省能源消耗,但人們首先需要認可這種處理方式,然后同意讓熱通道變得更熱——想像一下100°F (38°C)的溫度怎樣?這會刺激后門冷卻器的應用和普及。
免費冷卻
更高的運行溫度通常也會讓免費冷卻系統(tǒng)一起受益。在ASHRAE 90.1-2010指導文件中,免費冷卻幾乎是一項節(jié)約能源的強制要求,必將被普遍運用。節(jié)能改造的資本投入會部分地抵消運營成本節(jié)約的好處。但在改造或升級的同時實現免費冷卻也是技術和投資上的挑戰(zhàn)。預計未來兩年內將出現新的標準,使免費冷卻更具可行性。靠近水源的免費冷卻將可能會更具優(yōu)勢,但我們將會看到更多類似日本Kyoto Wheel的空氣冷卻案例。最終,數據中心運營商將能夠在超出以前預計的更多氣候條件下采用免費冷卻措施,這部分是因為更高運行溫度的貢獻。
蒸發(fā)或絕熱冷卻
雖然使用蒸發(fā)方式制冷的科學原理簡單,并正在逐漸流行,但它對于大多數數據中心操作人員而言仍然顯得新奇。絕熱冷卻通過降低封閉環(huán)境中的某種物質運行的壓力來實現冷卻,讓這些物質沸騰如同巖漿涌上火山表面,同時用風帶走山峰上的高溫。絕熱冷卻在溫暖、干燥的氣候中仍然有效,這大大拓寬了一年中能夠“免費冷卻”的有效期。其主要的缺點是用水量有些多,但在同等冷卻量的情況下,它所需的冷卻水仍然比標準冷卻塔要少很多。
密封冷卻
密封措施也無法解決由于錯誤的冷卻規(guī)劃、空氣流動不充分或冷卻能力引起的過熱問題。最新的國家防火協會商業(yè)標準(NFPA-75)可能會使密封冷卻的方案更難實現。對噴淋和(或)氣體滅火系統(tǒng)的改造將大大增加成本。除了要盡力避免錯誤的實施外,日常優(yōu)化也很重要:在未使用的機架空間一定要安裝盲板,架空地板上的孔洞要及時封堵,地板下面影響通風的線纜也要做好清理。
煙囪式機柜和天花板風道
使用天花板上方的空間形成的風道將空氣傳輸給機房空調系統(tǒng),確?;仫L以最高的溫度返回空調冷卻盤管,可以顯著增加精密空調系統(tǒng)的冷卻能力。結合了吊頂風道和熱通道措施的最終設備形式就是煙囪式機柜,可以獲得最大的冷卻效率。來自服務器群的高溫廢氣從機柜后部的煙囪排出,然后直接通過吊頂天花板上方的風道回到空調設備中。整個過程中熱空氣和冷空氣保持分離,所以可以保持很高的能效比。
雖然效果明顯,但是煙囪式機柜并沒有獲得大力推廣或被廣泛接受。這可能是因為全密封式的設計靈活性更好,可以使用更多的機柜實現相同的效果。然而,煙囪式機柜可以讓整個房間維持冷通道溫度,讓工作環(huán)境變得更加舒適。
首先,和傳統(tǒng)的風冷技術相比,液體導熱能力是空氣的25倍,同體積液體帶走熱量是同體積空氣的近3000倍;其次,同等散熱水平時,液冷噪音水平比風冷噪音降低20~35分貝;另外,在耗電量方面,液冷系統(tǒng)約比風冷系統(tǒng)節(jié)省電量30%~50%;最后,液冷還可以降低數據中心的故障率。傳統(tǒng)的風冷系統(tǒng)會帶來空氣的流動而產生振動,振動會直接影響IT系統(tǒng)的穩(wěn)定性和壽命。但液冷則完全不必擔心這個問題。由此不難發(fā)現,液冷在未來取代風冷和水冷空調在技術上完全沒有障礙。一旦數據中心的制冷方式從風冷轉為液冷,那么隨之發(fā)生改變的還有服務器的設計,以及整個數據中心的設計。如果液冷技術進一步完善,生態(tài)系統(tǒng)進一步成熟,那么將引發(fā)一連串的“革命”。
? 新基建時代浸沒式液冷將成主流 ?
事實上,出于多種因素的考慮,在數據中心液冷領域也演化出了諸多“門派”。其中最典型的分別是浸沒式、冷板式以及噴淋式。不過無論是從當前需求還是從未來數據中心的技術演進來看,浸沒式液冷相比于其他兩種方式更被行業(yè)看好。
浸沒式液冷是數據中心的躍遷式技術創(chuàng)新,具有高能效、高密度、高可用和高可靠等特性。浸沒式液冷突破技術瓶頸,可以使單機柜功率密度提升3倍以上;同時,IT部件故障率大幅降低,有效提升云服務品牌。浸沒式液冷可以為社會節(jié)省大量能源,預計2030年浸沒式液冷可節(jié)約用電1637.77億千瓦時,將數據中心的總用電量降低至2477.23億千瓦時。事實上,除了行業(yè)專家和企業(yè)用戶的高度關注以外,近兩年來,很多設備廠商也加大了針對數據中心液冷市場的產品開發(fā)力度。
可以說,在未來新基建時代,大型數據中心將有望成為浸沒式液冷技術的天下。不過需要說明的是,由于需要對建筑結構進行“傷筋動骨”的改造,所以浸沒式液冷并不適用于對已建成數據中心的系統(tǒng)升級。另外,目前風冷還能夠滿足市面上熱負荷較低的EDC或者小型數據中心,完全沒有必要更換價格昂貴的液冷系統(tǒng)。
? 浸沒式液冷案例 ?
11月3日,在阿里巴巴雙11技術溝通會上,阿里巴巴副總裁、阿里云基礎設施負責人周明表示,為支撐屢創(chuàng)紀錄的交易峰值,2020年雙11將有包括張北、烏蘭察布、河源、南通、杭州在內的五大超級數據中心合力支撐,讓消費者們享受絲般順滑的”剁手”體驗。其中在杭州數據中心內,全球規(guī)模最大的液冷服務集群將有上萬臺液冷服務器投入生產處理雙11的海量計算工作,這些服務器的網線連起來,可以繞地球一周。
將建立10座綠色超級數據中心
據悉,阿里巴巴重構了業(yè)內罕見的”給服務器泡澡”冷卻技術——工程師將服務器浸泡在特殊的絕緣冷卻液中,散熱全程無需風扇、空調等制冷設備,大大降低了數據中心的能耗,整體節(jié)能超70%,年均PUE可達1.09,全球最低。除了硬件外,阿里工程師還設計了一套適合浸沒液冷的監(jiān)控管理系統(tǒng),故障率降低了50%。
這也是全球唯一投入大規(guī)模部署的液冷集群,近十億剁手黨們在消費的同時還將創(chuàng)造史上最綠色環(huán)保的雙11。初步估算,相比傳統(tǒng)數據中心,阿里云杭州數據中心可每年省電7000萬度,相當于西湖周邊所有路燈連續(xù)點亮8年的耗電量。假如全中國所有的服務器都采用液冷技術,每年將節(jié)省超過800億度電,接近三峽大壩一年的發(fā)電量。未來阿里云還將在全國建立10座以上的綠色超級數據中心,支持數字新基建發(fā)展。
? 結束語 ?
綜上所述,從長遠角度而言,社會對于計算力的需求永無止境,而機房的冷卻技術發(fā)展將在很大程度上決定數據中心計算力提升的瓶頸高低。浸沒液冷技術作為一種高效,節(jié)能,安全的冷卻技術,在新基建時代,將成為大型和超大型數據中心的最佳選擇。
(來源:《數據中心建設+》雜志)