面對服務(wù)器虛擬化的熱潮,顯然數(shù)據(jù)中心網(wǎng)絡(luò)的技術(shù)不會停滯不前,為了滿足服務(wù)器虛擬化的順利部署,數(shù)據(jù)中心網(wǎng)絡(luò)也迎來了新的變革,涌現(xiàn)出一批新興的網(wǎng)絡(luò)技術(shù),以滿足服務(wù)器虛擬化的需求。
服務(wù)器虛擬化技術(shù)在提升物理服務(wù)器CPU利用率、降低數(shù)據(jù)中心能耗、方便數(shù)據(jù)中心管理等方面有諸多優(yōu)勢,虛擬機就是虛擬化技術(shù)的具體應(yīng)用形式。虛擬化技術(shù)是運行在內(nèi)存中的一個操作系統(tǒng)實例,它與服務(wù)器的物理網(wǎng)卡沒有直接的聯(lián)系,對外的數(shù)據(jù)交互是通過Hypervisor模擬出來的網(wǎng)絡(luò)接口實現(xiàn)的。服務(wù)器的虛擬化有這么多的好處,卻給連接服務(wù)器的網(wǎng)絡(luò)帶來了難題。
舉個最簡單的例子,原來的服務(wù)器是一個網(wǎng)卡一個IP地址,通過一條鏈路連接到網(wǎng)絡(luò)中,而現(xiàn)在通過虛擬化可以虛擬出很多個IP地址,而這些IP地址實際物理上還是通過一條鏈路連接到網(wǎng)絡(luò)中,在同時工作時流量會全部擠在這一條鏈路上,多個虛擬化應(yīng)用和網(wǎng)絡(luò)端口之間形成了多對一的關(guān)系,這樣就很難在單個端口上下發(fā)管理策略,增加了網(wǎng)絡(luò)管理的復(fù)雜度。
虛擬橋接網(wǎng)絡(luò)技術(shù)興起
當(dāng)服務(wù)器部署了虛擬化后,網(wǎng)絡(luò)端口和服務(wù)器之間的對應(yīng)關(guān)系由一對一變成了多對一,網(wǎng)絡(luò)技術(shù)首先要解決這個多對一的對應(yīng)問題。顯然已經(jīng)有人想到了解決的辦法,那就是VEB技術(shù)。VEB(Virtual Ethernet Bridges,即虛擬橋接網(wǎng)絡(luò)),用于連接虛擬機到接入網(wǎng)絡(luò)設(shè)備的網(wǎng)絡(luò)服務(wù),VEB既可以通過軟件在 VMM中實現(xiàn),也可以通過硬件支持SR-IOV特性的網(wǎng)卡完成。
軟件VEB指的是Hypervisor內(nèi)部的虛擬交換機,目前主要指的就是Vmware的VSWITCH。VSWITCH從物理網(wǎng)卡上接收以太網(wǎng)報文,根據(jù)VMM下發(fā)的虛擬機MAC與VSWITCH邏輯端口對應(yīng)關(guān)系表來轉(zhuǎn)發(fā)報文。軟件VEB節(jié)省了接入層網(wǎng)絡(luò)設(shè)備,對現(xiàn)有網(wǎng)絡(luò)標(biāo)準(zhǔn)兼容性好,但在運行的過程中會耗費CPU資源,也缺乏網(wǎng)絡(luò)控制策略的實施能力,因此在實際應(yīng)用中更偏向于使用硬件VEB技術(shù)?;谟布崿F(xiàn)的VEB技術(shù)是將軟件VEB的實現(xiàn)移植到服務(wù)器物理網(wǎng)卡上,通過網(wǎng)卡硬件改善VSWITCH占用CPU資源而影響虛擬機性能的問題。到后來HP又提出將虛擬交換機的實現(xiàn)移植到硬件交換機上,實現(xiàn)虛擬機之間的 硬件換 。
采用這種方法,通常只需要對網(wǎng)卡驅(qū)動、VMM橋模塊和外部交換機的軟件做很小的改動,從而實現(xiàn)低成本方案目標(biāo),對當(dāng)前網(wǎng)卡、交換機、現(xiàn)有的以太網(wǎng)報文格式和標(biāo)準(zhǔn)影響最小,這種方式已經(jīng)得到了絕大多數(shù)網(wǎng)絡(luò)廠商和服務(wù)器廠商的認(rèn)可。不過這種方式需要在網(wǎng)絡(luò)中引入新的支持VEPA的交換機設(shè)備,增加了投入成本。目前來看,針對服務(wù)器虛擬化應(yīng)用最佳的方案就是部署支持VEPA的硬件交換機。
對網(wǎng)絡(luò)設(shè)備性能要求更高
除了部署VEPA交換機之外,還需要數(shù)據(jù)中心網(wǎng)絡(luò)做到更多。服務(wù)器部署虛擬化后整體運行效率提高,但卻加大了網(wǎng)卡、網(wǎng)絡(luò)的承載能力。原來的服務(wù)器CPU利用率普遍在20%左右,部署虛擬化之后一般都可達(dá)80%左右,網(wǎng)卡的速率也會加大,這增加了網(wǎng)絡(luò)的壓力。原來連接一臺服務(wù)器的千兆網(wǎng)絡(luò)端口可能只需要處理200M的平均流量,現(xiàn)在則處理800M的流量,這就需要接入網(wǎng)絡(luò)設(shè)備的性能比較高。
很多網(wǎng)絡(luò)設(shè)備雖然端口是千兆、萬兆,但并不代表其有能力完全將這個線速流量轉(zhuǎn)發(fā)出去,在網(wǎng)絡(luò)設(shè)備內(nèi)部會有很多可能產(chǎn)生擁塞的點,所以在部署虛擬化時,應(yīng)該對未來的流量提升做好評估,現(xiàn)有的網(wǎng)絡(luò)設(shè)備能否滿足要求。對于服務(wù)器的網(wǎng)卡也一樣,雖然標(biāo)稱是千兆網(wǎng)卡甚至萬兆網(wǎng)卡,但是網(wǎng)卡是無法達(dá)到線速的,而且對突發(fā)流量的應(yīng)對能力不足,這時就需要將壓力傳遞到網(wǎng)絡(luò)設(shè)備上,可以在網(wǎng)絡(luò)設(shè)備和網(wǎng)卡上都開啟流控功能,當(dāng)服務(wù)器網(wǎng)卡能力不足時,可以及時發(fā)出流量,網(wǎng)絡(luò)設(shè)備收到流控報文后減緩流量發(fā)送。
開啟多網(wǎng)卡同時工作
服務(wù)器部署虛擬化后,一臺服務(wù)器往往要承載多種應(yīng)用,而服務(wù)器僅通過一條鏈路連接到網(wǎng)絡(luò)設(shè)備上顯然是不行的?,F(xiàn)在的服務(wù)器都支持雙網(wǎng)卡或多網(wǎng)卡同時工作,因此一般要在服務(wù)器上開啟多網(wǎng)卡同時工作。這些網(wǎng)卡和網(wǎng)絡(luò)設(shè)備如何互聯(lián),實現(xiàn)流量的負(fù)載分擔(dān),滿足多網(wǎng)卡同時工作,都給網(wǎng)絡(luò)設(shè)備出了難題?,F(xiàn)在網(wǎng)絡(luò)設(shè)備和網(wǎng)卡之間普遍采用聚合方式、NLB、單鏈路等方式實現(xiàn)互聯(lián)。
虛擬化技術(shù)造成了多對一的連接關(guān)系,就要求網(wǎng)絡(luò)設(shè)備的運行可靠性要高,因為就算是數(shù)據(jù)中心網(wǎng)絡(luò)里最常見的一個鏈路端口出現(xiàn)了UP/DOWN,也可能會導(dǎo)致數(shù)十個應(yīng)用無法運行,影響很大。因此要在網(wǎng)絡(luò)部署聚合、LLDP、DLDP等協(xié)議,實時檢測鏈路狀態(tài)、鄰居狀態(tài),一旦有問題流量可以切換到備用鏈路上,保持應(yīng)用不中斷。部署虛擬化之后,傳統(tǒng)的二層環(huán)路協(xié)議很難發(fā)揮出作用,需要嘗試新的數(shù)據(jù)中心二層協(xié)議技術(shù)。
服務(wù)器的虛擬化應(yīng)用給數(shù)據(jù)中心網(wǎng)絡(luò)帶來了沖擊,原有的數(shù)據(jù)中心網(wǎng)絡(luò)已經(jīng)無法滿足應(yīng)用需求,解決了服務(wù)器虛擬化多對一的問題只是完成了有無的問題,如何為服務(wù)器的虛擬化提供更好的網(wǎng)絡(luò)服務(wù),才是未來數(shù)據(jù)中心網(wǎng)絡(luò)技術(shù)的發(fā)展方向。
延伸閱讀:室內(nèi)布線電纜未來的發(fā)展趨勢
家里拉了假寬帶?怎樣識別真正的光纖寬帶!