《電子技術應用》
您所在的位置:首頁 > 通信與網絡 > 設計應用 > 再思考SDN(二)
再思考SDN(二)
來源:cnw.com.cn
作者:中興通訊中心研究院系統架構部總工 汪軍 
摘要: 集中控制還是分散控制(De-Centralized)是分布式系統設計中的一個關鍵的取舍,取決于你追求的是可伸縮性還是全局解的優化,全局最優解需要集中的控制點收集決策所需的完全信息,對于網絡而言,無法對拓撲相關信息垂直劃分為完全不相關的子集,因此你不可能在兩個維度上都達到最優。
關鍵詞: SDN 軟件定義網絡
Abstract:
Key words :

 集中控制還是分散控制(De-Centralized)是分布式系統設計中的一個關鍵的取舍,取決于你追求的是可伸縮性還是全局解的優化,全局最優解需要集中的控制點收集決策所需的完全信息,對于網絡而言,無法對拓撲相關信息垂直劃分為完全不相關的子集,因此你不可能在兩個維度上都達到最優。在Internet的規模上,必須是分散控制的。另外互聯網從來就不是一個整體,而是由多個不同地域的商業主體運營的,而互聯網業務是全球化的,任何端到端的網絡解決方案落地都極其困難,首先要解決投資和收益主體匹配的問題,而端到端的解決方案不是一蹴而就的,后投資的能夠更快地獲得投資回報,先花錢的有點為人做嫁衣的感覺,因此也抑制了所謂的端到端解決方案的落地,類似的例子不勝枚舉。比如NGN時代端到端的QoS方案;又比如LISP協議來解決路由擴展性問題,投資主體是接入的ISP,而收益者是Tier 1/2的ISP,沒有人愿意花自己的錢解決別人的問題。

 
SDN本身就是一個局部的網絡技術革命,放大到全網的演進就得面臨經濟、技術上的雙重挑戰,個人理解對于一個分散控制的互聯網,引入SDN不過是將分布式系統的節點規模做得更大,如果你想擴大它的內涵,引入更廣泛的SDN控制,那么你要想想為什么互聯網要分自治域,為什么是IGP+BGP,BGP還要分iBGP、eBGP,還要引入路由反射器,為什么不是一個OSPF的單一區域。也許SDN+BGP,替代IGP是有技術可行性的,但是全網的演進總是比預期的更為緩慢。
 
回到SDN擅長的領域:數據中心。數據中心由來已久,Internet商用化后就存在,只不過在計算模式經由MainFrame、C/S架構、P2P再回到中心化的云計算時代,數據中心規模呈爆炸式增長,在虛擬化、分布式計算技術解決了計算本身的部署、規模問題后,網絡問題變得特別突出。前幾年的數據中心網絡問題研究很多人拿虛擬機遷移說事,但是虛擬機遷移實際上是個小眾應用,畢竟虛擬機遷移需要大量的狀態復制,跨存儲集群遷移時還要進行持久存儲的復制,這是個投入產出比較低的活兒,尤其是跨WAN進行遷移,簡直拿資本家的錢不當錢。
 
我個人認為數據中心SDN帶來的價值主要有3點:
 
1、網絡的自動化部署和運維、故障診斷。依賴于SDN的集中控制、集中拓撲探測,網絡設備完全可以做到即插即用,除了部署之外,網絡故障設備的更換變為簡單的硬件更換。對于故障診斷,則依賴于控制器具有完全的轉發表項,應用可以根據故障申告的業務報文做端到端的報文路徑靜態檢查,也可以通過工具生成自動化的測試用例,在控制面進行灌包測試(與專門的測試儀表相比,不受位置限制),并且可以評估測試的覆蓋率,就如同軟件的代碼、分支覆蓋率一樣;最后可以在控制面應用上生成故障申告業務相同的報文頭部通過SDN控制器的報文上送、下發機制進行單步的檢測,檢測到軟故障具體的流水線節拍。
 
2、虛擬機的按需部署,這在公有云、混合云的環境下尤其有用。今天大家已經比較習慣于在電信運營商營業窗口、自服務頁面上辦理業務后,立刻收到短信通知業務已經開通,但是在早年,這些業務開通涉及到營業、計費、后臺、網管中心、LMT等系統,需要工單的流轉才能開通,是以天計的。那么在今天絕大多數的數據中心中只要涉及到IP地址的分配問題,仍然需要工單的流轉,這對于以虛擬機作為單位的主機托管數據中心,顯然是低效的,尤其是虛擬私有云、混合云,從業需求來看需要允許客戶自己規劃、配置子網和虛機的IP地址,并支持按需啟動/停用虛擬機和按使用計費,從數據中心運營效率來看,需要能夠自動發現負載更輕的物理機器加載虛機,這就要求網絡的地址是可以浮動的,并且可以根據客戶的指令實時生效。前幾年大家推大二層的解決方案,大二層需要輔以802.1Qbg才是一個完整的解決方案,而Overlay+IP組網無需升級硬件,無疑性價比更高。如果要升級,則不如升級到SDN更為徹底,你可以得到第1條所述的所有好處,另外你也不知道明天還會有哪些需求,SDN提供了未來不升級硬件的承諾(當然這些承諾也是靠不住的,你不因為功能升級,但更可能要因為性能而升級)。保底地,可以實現基于SDN的Overlay。
 
3、動態業務插入,比如虛擬防火墻、虛擬VPN網關等設備以VM形式動態插入到轉發路徑上,并且可以根據業務流量的變化動態增加/停用Virtual Appliance.這其實是在第二點的基礎上實現的,只不過增加了應用去感知、控制業務邏輯實體。
 
vSwitch的性能很多人懷疑,但是自從Intel推出DPDK后,這個問題質疑的聲音要少一些了,但是報文經過vSwitch到VM引起的上下文切換開銷還是比較難以解決,尤其是小報文為主的業務,將來應該以智能網卡+SR-IOV為解決思路,vSwitch退化為本地控制面。
 
至于流量可視化,沒有SDN你能夠做到,有了SDN也不見得會實現更加容易。租戶數量問題,和SDN也沒有太大關系,關鍵是轉發面封裝格式中表達租戶數量的標簽是多少位以及轉發設備據此生成的轉發規則。
 
需要謹慎考慮、評估的好處包括:
 
1、虛擬機遷移,除了前面講的虛機遷移本身的成本外,虛擬機遷移本身的SDN實現也是一個比較困難的問題。當集群規模較小,VM通信對端較少的時候,一切都不是問題;當虛機集群規模較大,比如Hadoop集群節點,one hop DHT節點、分布式文件系統節點,數據庫節點等(當然不一定建議這些節點用虛擬機,性能也是問題),遷移時需要遷移VM所在節點的轉發表,還需要更新與之有通信關系的虛擬機所在邊緣交換機的轉發表,這個問題的痛苦之處在于需要更新轉發表的節點數量是不可預知的。我們在移動網絡網絡中往往不去更新對端的轉發表,而是在遷移終端所在的遷出網絡設備和遷入網絡設備之間建立一條中轉隧道用于流量的轉發,但問題是移動網絡中的每一個會話周期都是短暫的,因此這種中轉通道的生命周期是短暫的,不會給設備帶來太大的負擔;而服務器集群中的通信會話周期是不可預知的,并且中轉帶來的迂回流量開銷可能也是驚人的。因此這是一個很難控制的過程,尤其是在集群規模較大、業務繁忙的時刻。
 
2、細顆粒度的流量控制。理論上我們可以做到,并且OpenFlow一開始就被誤解為基于流的轉發控制。顆粒度越細,需要消耗更多的轉發面和控制面資源,更為糟糕的是在轉發面和控制面之間需要同步的信息就越多。在移動核心網的PCC架構下,理論上是按照業務流進行QoS的控制的,需要和轉發面能力相匹配的本地控制面能力,需要海量的TCAM來存儲通配流表,付出的代價就是高1-2個數量級的成本,所幸的是移動網絡的無線接入是瓶頸,流量有限,如果在數據中心中應用,最好還是進行粗顆粒度的流統計或者只對少數已經預先識別的流進行控制。
 
從遠期來看,DataCenter本身的效率和管理復雜度問題可能逐步成為解決方案的重點,可能由松散的系統逐步走向計算、存儲、網絡統一控制的緊耦合體,更加注重對不同計算實體調度的優化處理,這是所謂的DataCenter As A Computer理念,這其中,裸CPU+Main Memory、存儲都可以通過融合網絡直接連接起來,構成一臺類NUMA(此處是針對外存而言)的超級計算機,而SDN控制下的網絡充當其CPU和外設的交換矩陣。出于成本的考慮,這一交換矩陣可能很難做到完全無阻塞的,因此它需要一定的實時監測和路徑重指派能力。這時候,SDN已經完全融入到DataCenter的管理控制系統之中,和計算、存儲的調度完全融為一體。
此內容為AET網站原創,未經授權禁止轉載。
主站蜘蛛池模板: 欧美在线视频免费观看 | 成人伦理在线 | 一级做a爰性色毛片免费 | 欧美日韩国产在线人 | 国产精品麻豆久久久 | 国产综合精品在线 | 亚洲va久久久久综合 | 一本大道在线观看 | 欧美午夜视频在线观看 | 日韩三级伦理 | 夜鲁夜鲁夜鲁在线观看福利 | 在线观看播放视频www | 小明永久2015免费看网址 | 夫妻一级 | 国产在线a不卡免费视频 | 999成人国产精品 | 成年片免费网址网站 | 成人亚洲性情网站www在线观看 | 久久免费大片 | 色老头成人免费综合视频 | 亚州三级视频 | 卡一卡二卡三免费专区2 | 激情综合色综合久久综合 | 国产亚洲欧美日韩在线看片 | 在线不卡一区 | 亚洲一区二区观看 | 新神榜哪吒重生免费高清观看 | 久在线播放 | 国产丝袜在线视频 | 深夜免费看片 | 日日射影院 | h成年动漫同人网站免费 | 精品亚洲欧美高清不卡高清 | 久久亚洲网站 | 欧美xx视频| 欧美性xxxxx极品视频 | 亚洲欧美日韩综合在线播放 | 黄色三级在线观看 | 亚洲国产成人综合 | 日韩国产欧美成人一区二区影院 | 久久18 |