【IT168 資訊】云的基本特征是動態、彈性、靈活,按需計算,傳統的網絡架構與技術雖然也能構筑云計算的基礎平臺,但是因此而形成的傳統運行架構卻無法支撐如此動態化的IT業務要求。它必然要求一種新的IT運行模式,將大量的計算資源以動態、按需的服務方式供應和部署。
一、 云計算的基礎架構挑戰
傳統業務結構下,由于多種技術之間的孤立性(LAN與SAN),使得數據中心服務器總是提供多個對外IO接口:用于數據計算與交互的LAN接口以及數據訪問的存儲接口,某些特殊環境如特定HPC(高性能計算)環境下的超低時延接口。服務器的多個IO接口導致了數據中心環境下多個獨立運行的網絡同時存在,不僅使得數據中心布線復雜,不同的網絡、接口形體造成的異構還直接增加了額外人員的運行維護、培訓管理等高昂成本投入,特別是存儲網絡的低兼容性特點,使得數據中心的業務擴展往往存在約束。
由于傳統應用對IT資源的獨占性(如單個應用獨占服務器),使得數據中心的業務密度低,造成有限的物理空間難以滿足業務快速發展要求,而已有的系統則資源利用效率低下。而且,傳統業務模式下,由于規模小,業務遵循按需規劃,企業應用部署過程復雜、周期漫長,難以滿足靈活的IT運行要求。在云計算這種變革性運營與服務模式下,必須能夠解決成本、彈性、按需增長的業務要求,并改進與優化IT運行架構。因此:
云計算服務必然要求一種大規模的IT運行方式,在極大程度上降低云計算基礎設施的單位建設成本,大幅降低運行維護的單位投入成本。通過網絡與IO的整合來消除數據中心的異構網絡與接口環境,云計算中心需要優化、簡化的布線與網絡環境。
由于其業務集中度、服務的客戶數量遠超過傳統的企業數據中心,導致了高帶寬的業務流,如圖1所示的亞馬遜對外公布其2008年提供云計算服務后,云服務的帶寬增長速度遠高于其WEB服務的帶寬增長。
圖1 亞馬遜的云計算服務高速帶寬增長需求
總的來說,為滿足云計算的業務要求,統一的基礎網絡要素必然包括:超高速交換、統一交換、虛擬化交換、透明化交換。
二、 云的統一基礎網絡
1. 云計算的超高速網絡
以太網技術迅速發展,10GE技術當前已經在數據中心的骨干廣泛應用,圖2顯示了2010年的以太網技術40G/100G標準發布,表明基礎網絡將快速進入超高速時代。
圖2 以太網的帶寬提升
同樣,服務器IO也由千兆向萬兆快速發展,隨著IO加速技術、IO虛擬化技術的不斷提升以及服務器多路多核計算能力的提升,當前的服務器IO已經具備接近10GE線速的吞吐能力,這種來自網絡接入層的高性能吞吐必然驅動云計算網絡架構采用更高的性能,以滿足能力的匹配(如圖3所示)。
圖3 數據中心網絡的高帶寬發展
2. 云計算的統一交換網絡
以太網原本是以簡單、高效為特質的常規技術,適用于常規網絡通信的支撐,依賴于上層協議解決網絡擁塞、丟包問題。隨著以太網技術的不斷演進與提升,無損以太網技術(Lossless Ethernet)標準族開始確立。
這一標準族稱為數據中心以太網DCE或融合增強以太網CEE,包括基于優先級的流控(Priority-based flow control PFC; IEEE 802.1Qbb) 、增強傳輸選擇技術(Enhanced transmission selection ETS; IEEE 802.1Qaz) 、擁塞通告(Congestion notification IEEE 802.1Qau) 、鏈路發現協議LLDP (IEEE 802.1AB)的擴展數據中心橋能力交換協議(Data Center Bridging Capability Exchange Protocol DCBX)。以當前已經完全實現的PFC+DCBX組合為例,如圖4所示,在交換機端口的8個隊列進行buffer的分配,形成了網絡中8個虛擬化通道,數據流帶上自身的通道標簽(802.1q進行標識),buffer大小使得各隊列有不同的數據緩存能力,由DCBX協議交換不同網絡單元的基本能力信息,以確定數據的突發能力。
圖4 無丟包以太網
一旦出現瞬時擁塞,即某個設備的隊列緩存消耗較快,超過一定閾值(可設定為端口隊列的1/2、3/4等比例),設備即向數據進入的方向(上游設備)發送反壓信息,上游設備接收到反壓信息,會根據反壓信息指示停止發送或延遲發送數據,并將數據存儲在本地端口buffer,如果本地端口buffer消耗超過閾值,則繼續向上游反壓,如此一級級反壓,直到網絡終端設備,從而消除網絡節點因擁塞造成的丟包。
無損以太網的特性,可以完全滿足存儲業務對于丟包的敏感性,因此,FC存儲數據承載在以太網上(FCoE),基于DCE技術的支持,新一代以太網技術完全可以融合數據中心的存儲網絡形成全業務的統一交換。在這樣的技術支撐下,數據中心網絡將實現合并,使得原本多種異構的網絡形態合并到一套網絡,從而也實現了多個網絡管理合并、簡化成為一個管理視圖(如圖5所示)。
|
|