Posted on 2010-06-12 15:19
啥都寫點 閱讀(116)
評論(0) 編輯 收藏
云的基本特征是動態、彈性、靈活,按需計算,傳統的網絡架構與技術雖然也能構筑云計算的基礎平臺,但是因此而形成的傳統運行架構卻無法支撐如此動態化的IT業務要求。它必然要求一種新的IT運行模式,將大量的計算資源以動態、按需的服務方式供應和部署。
一、 云計算的基礎架構挑戰
傳統業務結構下,由于多種技術之間的孤立性(LAN與SAN),使得數據中心服務器總是提供多個對外IO接口:用于數據計算與交互的LAN接口以及數據訪問的存儲接口,某些特殊環境如特定HPC(高性能計算)環境下的超低時延接口。服務器的多個IO接口導致了數據中心環境下多個獨立運行的網絡同時存在,不僅使得數據中心布線復雜,不同的網絡、接口形體造成的異構還直接增加了額外人員的運行維護、培訓管理等高昂成本投入,特別是存儲網絡的低兼容性特點,使得數據中心的業務擴展往往存在約束。
由于傳統應用對IT資源的獨占性(如單個應用獨占服務器),使得數據中心的業務密度低,造成有限的物理空間難以滿足業務快速發展要求,而已有的系統則資源利用效率低下。而且,傳統業務模式下,由于規模小,業務遵循按需規劃,企業應用部署過程復雜、周期漫長,難以滿足靈活的IT運行要求。在云計算這種變革性運營與服務模式下,必須能夠解決成本、彈性、按需增長的業務要求,并改進與優化IT運行架構。因此:
云計算服務必然要求一種大規模的IT運行方式,在極大程度上降低云計算基礎設施的單位建設成本,大幅降低運行維護的單位投入成本。通過網絡與IO的整合來消除數據中心的異構網絡與接口環境,云計算中心需要優化、簡化的布線與網絡環境。
由于其業務集中度、服務的客戶數量遠超過傳統的企業數據中心,導致了高帶寬的業務流,如圖1所示的亞馬遜對外公布其2008年提供云計算服務后,云服務的帶寬增長速度遠高于其WEB服務的帶寬增長。

圖1 亞馬遜的云計算服務高速帶寬增長需求
總的來說,為滿足云計算的業務要求,統一的基礎網絡要素必然包括:超高速交換、統一交換、虛擬化交換、透明化交換。
二、 云的統一基礎網絡
1. 云計算的超高速網絡
以太網技術迅速發展,10GE技術當前已經在數據中心的骨干廣泛應用,圖2顯示了2010年的以太網技術40G/100G標準發布,表明基礎網絡將快速進入超高速時代。

圖2 以太網的帶寬提升
同樣,服務器IO也由千兆向萬兆快速發展,隨著IO加速技術、IO虛擬化技術的不斷提升以及服務器多路多核計算能力的提升,當前的服務器IO已經具備接近10GE線速的吞吐能力,這種來自網絡接入層的高性能吞吐必然驅動云計算網絡架構采用更高的性能,以滿足能力的匹配(如圖3所示)。

圖3 數據中心網絡的高帶寬發展
2. 云計算的統一交換網絡
以太網原本是以簡單、高效為特質的常規技術,適用于常規網絡通信的支撐,依賴于上層協議解決網絡擁塞、丟包問題。隨著以太網技術的不斷演進與提升,無損以太網技術(Lossless Ethernet)標準族開始確立。
這一標準族稱為數據中心以太網DCE或融合增強以太網CEE,包括基于優先級的流控(Priority-based flow control PFC; IEEE 802.1Qbb) 、增強傳輸選擇技術(Enhanced transmission selection ETS; IEEE 802.1Qaz) 、擁塞通告(Congestion notification IEEE 802.1Qau) 、鏈路發現協議LLDP (IEEE 802.1AB)的擴展數據中心橋能力交換協議(Data Center Bridging Capability Exchange Protocol DCBX)。以當前已經完全實現的PFC+DCBX組合為例,如圖4所示,在交換機端口的8個隊列進行buffer的分配,形成了網絡中8個虛擬化通道,數據流帶上自身的通道標簽(802.1q進行標識),buffer大小使得各隊列有不同的數據緩存能力,由DCBX協議交換不同網絡單元的基本能力信息,以確定數據的突發能力。

圖4 無丟包以太網
一旦出現瞬時擁塞,即某個設備的隊列緩存消耗較快,超過一定閾值(可設定為端口隊列的1/2、3/4等比例),設備即向數據進入的方向(上游設備)發送反壓信息,上游設備接收到反壓信息,會根據反壓信息指示停止發送或延遲發送數據,并將數據存儲在本地端口buffer,如果本地端口buffer消耗超過閾值,則繼續向上游反壓,如此一級級反壓,直到網絡終端設備,從而消除網絡節點因擁塞造成的丟包。
無損以太網的特性,可以完全滿足存儲業務對于丟包的敏感性,因此,FC存儲數據承載在以太網上(FCoE),基于DCE技術的支持,新一代以太網技術完全可以融合數據中心的存儲網絡形成全業務的統一交換。在這樣的技術支撐下,數據中心網絡將實現合并,使得原本多種異構的網絡形態合并到一套網絡,從而也實現了多個網絡管理合并、簡化成為一個管理視圖(如圖5所示)。

圖5 數據中心統一交換網絡
以太網帶寬的增長使得在兼容后續FC更高帶寬8G、16G的FCoE技術成為可能,如圖6所示,當前的10GE DCE技術支撐的FCoE可完全支持4G/8G FC向10G FCoE的融合,有些網卡的FC-FCoE映射就是直接將4G/8G FC載入以太網進行轉發。對于后續更高帶寬的40G以太網技術會延續和完善DCE特性,因此可對更高的FC帶寬16G進行融合。

圖6 FCoE的融合趨勢
統一交換網絡提供對云計算的支撐,可提供單一數據中心網絡,實現云計算上層應用對數據交換、傳送通道與IO的簡化統一操作,同質的底層網絡提供超高容量數據吞吐支撐、提供廣泛兼容的云應用升級與擴展能力。
3. 云計算的虛擬化交換網絡
虛擬化技術是云計算的關鍵技術之一,將一臺物理服務器虛擬化成多臺邏輯虛擬機VM,不僅可以大大提升云計算環境IT計算資源的利用效率、節省能耗,同時虛擬化技術提供的動態遷移、資源調度,使得云計算服務的負載可以得到高效管理、擴展,云計算的服務更具有彈性和靈活性。
從網絡角度看虛擬化的計算資源,,一個VM完全等效于一臺物理服務器在運行,而VM的動態機制,則與物理服務器的位置搬遷是完全不一樣的,對于VM遷移帶來的網絡配置、統計、策略控制等復雜管理工作,使得當前網絡運維難度增大,因此,網絡支持虛擬交換技術,對于遷移的VM而言,網絡總可以跟隨VM的動態變化提供按需交換(配置、統計、監控、管理),能夠極大強化云計算的虛擬化服務功能(如圖7所示)。

圖7 虛擬化交換網絡
一種新的網絡虛擬化技術EVB(Edge Virtual Bridging:IEEE 802.1Qbg)標準正在制訂,這種技術使得虛擬化后服務器上VM的虛擬網卡標準化,并以擴展的LLDP標準協議與網絡交換VM信息。EVB要求所有VM數據的交換(即使位于同一物理服務器內部)都通過外部網絡進行,即外部網絡能夠支持虛擬交換功能,對于虛擬交換網絡范圍內VM動態遷移、調度信息,均通過LLDP擴展協議得到同步以簡化運維。
4. 云計算的透明化交換網絡
對于虛擬化云計算服務,需要構建大范圍(數據中心內部、數據中心之間)的二層互聯網絡,以支持虛擬機算資源的遷移和調度(對于大型集群計算,也可構建二層網絡,以保持集群的簡單,但目前也有構建路由網絡連接實現大型集群)。二層網絡的好處是對虛擬機的透明化,但是為保證網絡的高性能、可靠性,需要解決網絡環路問題。
數據中心內部,通過采用IRF2技術(智能彈性架構),可以構建大型的二層透明交換網絡,具有網絡結構簡單、保持高性能與高可靠、避免環路的好處。在數據中心內部,構建端到端的IRF2虛擬化網絡,實現內部虛擬化計算的透明交互(如圖8左側圖所示);構建IRF2核心網,核心網設備位于不同地域,但是虛擬化成一臺邏輯設備,數據中心與核心網以跨地域聚合鏈路互聯,消除了網絡環路,也保證了網絡的可靠性和鏈路充分利用(如圖8右側圖所示)。

圖8 基于IRF2的云計算透明交換網
目前為解決網絡的二層透明環境部署問題,一種新技術TRILL(Transparent Interconnection of Lots of Links多鏈路透明互聯)正在形成標準,這種技術的本質是改造交換技術和IS-IS路由技術,實現在IS-IS路由網絡下的大規模二層交換承載(如圖9所示)。

圖9 基于TRILL的透明交換網絡
TRILL網絡的鏈路層可以是以太網,也可以是PPP鏈路,因此這種新的標準具有很大的適應性,可在數據中心內部高速網絡實現,也可以用于連接基于PPP鏈路的廣域網絡。
三、結束語
云計算作為一種新型的IT運行模式,要求新的架構來支持其不斷發展,以實現云服務的彈性、動態等關鍵需求,而其支撐網絡也必然會形成統一的基礎架構,超高速、統一交換、虛擬交換、透明交換等新的技術特性會隨著技術的逐步成熟廣泛應用到云計算中。
--
學海無涯