隨著新基建時代的來臨,云計算已然大行其道。阿里,騰訊等巨頭紛紛開始布局更大規(guī)模的新一代云計算數(shù)據(jù)中心。這將是一種基于高密度,大容量,且前所未見的網(wǎng)絡應用集合體。和傳統(tǒng)數(shù)據(jù)中心相比,其對于網(wǎng)絡帶寬、端口密度、安全防護以及運維管理等諸多領域都提出了更高的要求。比如,對于新一代云計算數(shù)據(jù)中心而言,傳統(tǒng)的制冷方式將限制其計算力的發(fā)揮,而液冷將走向前臺;再比如,從流量的角度來說,傳統(tǒng)數(shù)據(jù)中心屬于簡單的匯聚型流量。但現(xiàn)在,流量將呈現(xiàn)不定向的突發(fā)性,傳統(tǒng)城域網(wǎng)交換機的性能將變得捉襟見肘。那么歸根到底來說,和現(xiàn)有數(shù)據(jù)中心相比,新一代云計算數(shù)據(jù)中心將呈現(xiàn)哪些新趨勢呢?
統(tǒng)一交換將成為必然,萬兆端口即將翻倍
網(wǎng)絡的建設將是新一代數(shù)據(jù)中心最直觀的改變。首先,計算網(wǎng)絡,存儲網(wǎng)絡和業(yè)務網(wǎng)絡將同時存在于新一代云計算數(shù)據(jù)中心當中。其次,傳統(tǒng)的建網(wǎng)方式將使得其建設成本如火箭般上升,同時技術異構的網(wǎng)絡也無法實現(xiàn)統(tǒng)一的虛擬化。對于云計算價值的發(fā)揮將產(chǎn)生嚴重的掣肘作用。在這樣的背景下,Ethernet的統(tǒng)一交換網(wǎng)將成為新一代云計算數(shù)據(jù)中心組網(wǎng)的首選。
既然高密度將是新一代云計算數(shù)據(jù)中心的趨勢,那服務器數(shù)量未來必然出現(xiàn)暴增。君不見阿里,騰訊這些巨頭的數(shù)據(jù)中心動輒數(shù)萬臺服務器規(guī)模皆尤嫌不足。同時,單臺服務器核心數(shù)量的增長,必然帶動其帶寬消耗同步增長。這對于目前的網(wǎng)卡而言,將產(chǎn)生極大壓力。
假如某個數(shù)據(jù)中心擁有2萬臺服務器,收斂比為1:4。那么其基本的萬兆匯聚端口數(shù)量將至少需要500個,如果考慮到安全防護以及IP存儲等設備,那么萬兆端口的數(shù)量至少還得再增加1.5倍。
40G/100G接口將迎來高光時刻
在未來,隨著5G和邊緣計算的落地,數(shù)據(jù)中心的數(shù)據(jù)處理能力將是一個天文數(shù)字。在這樣的背景下,作為數(shù)據(jù)交互的關鍵節(jié)點,出口帶寬的壓力也將驟然增大。目前,大部分數(shù)據(jù)中心的出口帶寬都已經(jīng)達到了100G以上,并且每年還在以超過100%的速度激增。傳統(tǒng)的10G接口顯然無法滿足這樣的需求。那么,40G/100G接口的普及將迎來高光時刻。
流量特征更為復雜,需部署專門的交換機
由于服務器資源動態(tài)調配的特性,在云計算環(huán)境下,流量的特征將比之前更為復雜,也更加難以預測。由此帶來的突發(fā)性也更為明顯。所以未來的網(wǎng)絡,必然要求部署更為專業(yè)的交換機。和傳統(tǒng)交換機相比,這些交換機至少應該具備以下特點:
1.完全無阻塞交換網(wǎng)
數(shù)據(jù)中心級交換機采用CLOS交換網(wǎng),這是一種完全無阻塞交換架構,從而保證在任何流量特征的環(huán)境下,交換網(wǎng)都是可以實現(xiàn)無阻塞交換。
2.分布式大容量緩存的數(shù)據(jù)中心級交換機將成為趨勢
緩存的價值在傳統(tǒng)PC上早已為人們所熟知。在云計算時代,交換機之間的流量交互將無比巨大。甚至多端口同時向一端口轉發(fā)的幾率也大為增加,突發(fā)的流量會給端口造成巨大壓力。傳統(tǒng)的城域網(wǎng)交換機在出口端的小容量緩存,每板一般不超過64兆。一旦出現(xiàn)流量洪峰,緩存的堵塞丟包將不可避免。一旦如此,勢必形成骨牌效應,從而導致應用層的數(shù)據(jù)重傳并引起更為嚴重的網(wǎng)絡堵塞。
數(shù)據(jù)中心級交換機采用的分布式大緩存架構,其平均每個10G端口的入緩存可達256M,GE端口的緩存達20M,再復雜的流量模型,端口緩存時間最大均可達到200mS以上。只有這樣,才能滿足未來5G時代,大型云計算數(shù)據(jù)中心的需求。
“天下賦,半三番”的能耗現(xiàn)狀將被液冷終結
既然計算力將加速上升,那么數(shù)據(jù)中心的能耗自然也會水漲船高。信通院云大所的何寶宏博士曾經(jīng)說過,“再大的風也吹不冷滾燙的‘芯’”。的確,對于未來大型云計算數(shù)據(jù)中心恐怖的功耗而言,風冷的瓶頸將限制數(shù)據(jù)中心計算力的提升。同時,由此帶來的耗電量也將讓一線城市難堪重負。
目前IT設備功耗占到數(shù)據(jù)中心總體能耗的比例為31%左右,而制冷設備的能耗卻已經(jīng)超過了40%。也就是說,數(shù)據(jù)中心的能耗大部分都消耗在了“降溫”領域。這樣的現(xiàn)狀頗有幾分“天下賦,半三番”的感覺。
在這樣的背景下,液冷技術將走向前臺。經(jīng)過數(shù)年的發(fā)展,今天的液冷技術已經(jīng)相對成熟。目前,全球各大企業(yè)已經(jīng)在液冷領域展開了諸多嘗試,市場化產(chǎn)品層出不窮。何寶宏博士認為,“實際應用顯示,浸沒式液冷的優(yōu)勢非常明顯,可以將單體計算密度提升10倍以上,同時IT設備占地面積減少75%以上,即縮減為原來的四分之一。”
目前浸沒式液冷技術上已經(jīng)比較成熟了,只是生態(tài)系統(tǒng)還不夠完善。隨著大型云計算數(shù)據(jù)中心的發(fā)展步入快車道,這種情況勢必改變。生態(tài)建立以后價格必將下跌,而趨勢也將隨之成立。
評論