TWI648967B - Service chain deployment method considering network latency and physical resources - Google Patents
Service chain deployment method considering network latency and physical resources Download PDFInfo
- Publication number
- TWI648967B TWI648967B TW106123143A TW106123143A TWI648967B TW I648967 B TWI648967 B TW I648967B TW 106123143 A TW106123143 A TW 106123143A TW 106123143 A TW106123143 A TW 106123143A TW I648967 B TWI648967 B TW I648967B
- Authority
- TW
- Taiwan
- Prior art keywords
- sliding window
- service chain
- physical
- service
- deployment
- Prior art date
Links
Landscapes
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本發明係提供一種考慮網路延遲與實體資源的服務鏈佈署方法,用以降低雲端資料中心提供服務時的網路延遲,本方法之步驟包含計算出最大滑動窗寬度(MW2),在符合最大滑動窗寬度的限制下,以滑動窗技術計算出各個滑動窗的合法佈署解,計算出各合法佈署解的中繼數(hop),以及選擇中繼數最低的合法佈署解來佈署服務鏈,本方法能夠大幅度降低網路延遲,使得雲端資料中心能夠提供使用者更佳的服務體驗,此外,本發明更提供依據使用者的服務鏈的容量總和以進行佈署服務鏈的方法,以大幅度提高雲端資料中心的使用者接受率。
Description
本發明係一種服務鏈佈署方法,尤指一種透過考慮網路延遲與實體資源的服務鏈佈署方法。
網路功能虛擬化(Network Function Virtualization,NFV)是目前資料中心的發展趨勢,網路功能虛擬化使得服務提供者能跳脫不斷升級硬體的循環,故能夠提供使用者更低廉、迅速的服務。
在資料中心中,NFV面對的一個重要的課題,便是如何合理的將使用者的服務鏈分配到實體機器上,以往亦有許多針對此課題的專利被提出,例如美國專利號US8655610的「Virtual machine placement for minimizing total energy cost in a datacenter」,該發明即是著重在最小化佈署虛擬機器時的能源消耗。在美國專利號US8745621的「Method for managing green power of a virtual machine cluster」中,則是以搬遷虛擬機器來調整實體機器的負載,集中虛擬機器到較少的實體機器上,然後關閉沒有執行虛擬機器的實體機器,以減少能源的消耗。
如前所述,習知的虛擬機器配置方法皆是以降低雲端中心的功率消耗、提高實體機器資源的有效利用率為出發點,然而較之以往,現今的硬體設備在降低功率消耗上已有長足進步,如何降低功率消耗的需
求亦慢慢降低,故應可將研究需求轉移至如何提供使用者更佳的使用經驗上,而非僅僅考慮功耗之問題。
而對使用者而言,經常遭遇到的不佳網路使用經驗中,其中之一即為網路延遲(Latency),本案發明人便以此為發想,進行研究並提出了一種著眼在降低網路延遲、用於資料中心中的服務鏈佈署方法。
為解決前揭之問題,本發明之目的係提供一種將服務鏈的虛擬機器配置至實體機器上的方法,其可降低網路延遲,以提供使用者更佳的使用體驗。
為達上述目的,本發明提出一種考慮網路延遲與實體資源的服務鏈佈署方法,其係運行於一運算裝置上,方法之步驟包含計算出一最大滑動窗寬度(MW2),在符合最大滑動窗寬度的限制下,以滑動窗技術計算出各個滑動窗的合法佈署解,計算出各合法佈署解的中繼數(hop),以及選擇中繼數最低的合法佈署解來佈署服務鏈。
其中,最大滑動窗寬度是依據使用者要求的中繼數,以及在胖樹網路的架構下,一個叢集內的實體機器之總和,計算得到的。
其中,計算出合法佈署解須滿足的因素包含頻寬限制、CPU限制及記憶體限制。
其中,滑動窗技術的具體包含下列子步驟:設定滑動窗的滑動窗寬度始於一起始滑動窗寬度,滑動窗寬度即滑動窗內包含的實體機器的數量,滑動窗從包含複數個實體機器的一序列之一端向另一端滑動,計算出各滑動窗寬度下的各滑動窗的合法佈署解,以及當在當前的滑動窗
寬度下找不到滑動窗的合法佈署解時,增加滑動窗寬度,再計算滑動窗的合法佈署解,直到滑動窗寬度達到最大滑動窗寬度。
其中,在計算出最大滑動窗寬度(MW2)的步驟之前,更包含一使用者與服務鏈排序方法,其包含下列步驟:根據複數個使用者各自的服務鏈所要求的容量總和,將使用者進行遞減排序,並將容量總和最高的使用者選為最優先使用者,以及將最優先使用者的服務鏈內的各個網路服務進行遞減排序,並依排序之結果將網路服務依序佈署到虛擬機器上。
綜上所述,本發明至少具有下列有益效果:
1.運用滑動窗技術有效地降低了資料中心端的網路延遲,以提供使用者更佳的使用體驗。
2.提高了資料中心的使用者接受率,使得資料中心能夠及時地服務更多的使用者。
SW‧‧‧網路交換機
HM1-HM1、HMN-1、HMN‧‧‧實體機器
S41-S44、S421-S424‧‧‧方法
A、B、C、D‧‧‧應用服務
圖1係為本發明中的「使用者排序與服務鏈排序」採最先配置(first-fit)的使用者接受率比較圖;圖2係為本發明服務鏈佈署方法中的「使用者排序與服務鏈排序」採最適配置(best-fit)的使用者接受率比較圖;圖3係為本發明服務鏈佈署方法的系統架構圖;圖4係為本發明服務鏈佈署方法的方法流程圖;圖5係為本發明服務鏈佈署方法的延遲違反總和比較圖;
圖6係為本發明服務鏈佈署方法中的「滑動窗技術」的方法流程圖;圖7係為資料中心在服務鏈佈署前的示意圖;圖8係為資料中心應用了習用的服務鏈佈署方法的佈署結果示意圖;圖9係為資料中心應用了本發明服務鏈佈署方法的佈署結果示意圖。
以下將描述具體之實施例以說明本發明之實施態樣,惟其並非用以限制本發明所欲保護之範疇。
如同前述,習知的服務鏈佈署方法都著重在作業或能量消耗,忽略了網路消耗(例如:網路堵塞和過長的延遲)的問題,因此,本發明提出了一個考慮網路延遲與實體資源的服務鏈佈署方法。
本發明提出的一種考慮網路延遲與實體資源的服務鏈佈署方法(以下簡稱服務鏈佈署方法),其是運行於一運算裝置(例如一電腦主機)上,以提供資料中心配置服務鏈的最佳化方案,本方法包含了兩個部分:「使用者排序與服務鏈排序」,以及「滑動窗技術」。
以下則先解說使用者排序與服務鏈排序,其中「使用者排序」是依據服務鏈的容量總和,對使用者進行排序,而「服務鏈排序」則是依據服務鏈中各個應用服務的需求資源,對服務鏈中的應用服務進行排序。
在資料中心中,每一個時間區間內,都會有來自數個使用者的服務要求抵達,每個使用者則依據其所申裝的應用服務而有其對應的服務鏈,即一服務鏈包含有數個網路供應商提供的應用服務。其中,應用服務,舉例來說可為網頁內容過濾服務或是防駭過濾服務等,例如:中華
電信公司提供的色情守門員、防駭守門員或上網時間管理等。
故當一個使用者向資料中心提出服務要求時,資料中心即需處理該使用者的服務鏈,具體而言,即是將一個服務鏈裡的每個應用服務各自分配一個虛擬機器執行,資料中心再將這些虛擬機器配置到實體機器上,以執行應用服務。
本發明服務鏈佈署方法會把當下的時間區間的所有使用者放進一個等待序列中,由於使用者的服務鏈中每個服務要求會被配置一個虛擬機器來執行,故會先計算出每個虛擬機器的需求資源,如式(1)所示:
其中,假設目前有γ台虛擬機器,則Cj、、分別代表第j台虛擬機器的需求資源、CPU需求資源、記憶體需求資源。
接著,則計算各個使用者的服務要求的容量總和(Sum of Request Capacities,SoRCs),即單一使用者的服務鏈中的各應用服務的需求CPU資源及記憶體資源之總和,如式(2)所示:
再依據容量總和(SoRCs)之大小,將使用者進行遞減排序,並選出一個最優先使用者,具體而言,即是選出容量總和最高的使用者作為最優先使用者,以上即為「使用者排序」。
進行完使用者排序後,即進行「服務鏈排序」,其是依據式
(1)計算出服務鏈中各個應用服務的需求資源,再對服務鏈中的應用服務進行遞減排序,排序後的服務鏈則可用於後續虛擬機器的配置順序上。
在效果上,請參閱圖1及圖2,可看出在胖樹(Fat-tree)網路的架構下,於不同的k值時,應用了本發明服務鏈佈署方法中的「使用者排序與服務鏈排序」之結果,皆優於習用的、單純的最佳配置(best-fit)或最先配置(first-fit)的服務鏈配置方法,而此一改良將可有效提升資料中心的使用者接受率(User Acceptance Rate,UAR),使得資料中心能夠即時地服務更多的使用者。其中k是指資料中心的網路中,單一交換機的向外連接數,即埠數。
接著,則請參閱圖3及圖4,對本發明服務鏈佈署方法中的「滑動窗技術」進行一詳細之闡釋。
圖3是一資料中心的網路架構示意圖,其中包含N台實體機器(HM1~HMN),以及多台互相連接的網路交換機SW,其中每一台網路交換機的k值(即向外連接數,埠數)為4。其中W1、W2、Wx則代表滑動窗之位置,滑動窗寬度則為其內包含的實體機器之數量,如圖3所示的滑動窗寬度即為4。本發明服務鏈佈署方法則以軟體方式實現,安裝於一電腦上(未示出),以控制資料中心的實體機器及網路交換機,進行服務鏈之配置。
請參閱圖4,本發明服務鏈佈署方法的「滑動窗技術」包含下列步驟:S41:計算出一最大滑動窗寬度(Maximum Window Width,MW2);S42:在符合最大滑動窗寬度的限制下,以滑動窗技術計算出各個滑
動窗的合法佈署解;S43:計算出各合法佈署解的中繼數(hop);以及S44:選擇中繼數最低的合法佈署解來佈署服務鏈。
以下則針對上述各個步驟一一進行詳述。
S41:計算出一最大滑動窗寬度(MW2)。如前所述,一個服務鏈中含有多個應用服務,在配置各個應用服務的虛擬機器至實體機器上時,會經過不同數量的網路交換機,即不同的中繼數(hop),而中繼數的多寡即影響了網路延遲(Latency)的長短,本發明之目的在於解決網路延遲過長的問題,故須對中繼數進行限制,以達到降低網路延遲之目的。而當中繼數(hop)超過了給定的限制值時,即稱之為延遲違反。
在本發明的滑動窗技術中,為求取不同滑動窗寬度下的最佳解,滑動窗的寬度是可變的,然而,當滑動窗寬度過大時,亦可能導致過多的延遲違反,降低運算的效率,故為了避免此一問題的發生,需先求取滑動窗的最大可容許寬度,即最大滑動窗寬度。
具體而言,最大滑動窗寬度是依據使用者要求的中繼數(hop)總數,以及在胖樹網路架構下的一個叢集內的實體機器數量,計算得到的,其須滿足式(3):MW2=ceil(α/6)×HMP
其中,ceil( )是向上取整函數,α是使用者要求的中繼數,依使用者要求而定,分母的6是在胖數網路架構下計算出來的參數,HMP(Host Machine per Pod)是在胖樹網路的架構下,一個叢集(Pod)內的實體機器之數量,其值等於k2/4,k則為一個網路交換機的向外連接數,亦
可視為網路交換機的埠(port)數。舉例來說,如圖3中的實體機器HM1及實體機器HM4即屬於同一個叢集(Pod),而資料中心的叢集的HMP為4。
請參閱圖5,其為以本發明的可變的滑動窗寬度,與固定滑動窗寬度進行延遲違反總和之比較,其中寬度是指實體機器的數量。由圖中可看出,在不同規模的胖樹網路下,相較於使用固定大小的滑動窗寬度(如:1/4、1/2、3/4和1胖樹網路寬度),本發明的滑動窗技術中因採用了可變的滑動窗寬度,而具有較低的延遲違反總和(Total Violations,單位:中繼數(hops))。其中,延遲違反總和是在整體時間及多重用戶情境下的延遲違反的次數總和,較具統計上客觀性,故採用之。
S42:在符合最大滑動窗寬度的限制下,以滑動窗技術計算出各個滑動窗的合法佈署解。其中,合法佈署解,是指當要將虛擬機器佈署到實體機器上時,須滿足頻寬限制、CPU限制及記憶體限制這三個資源上的限制條件,即實體機器必須具有足夠的運算資源,虛擬機器才有被配置的可能,當前述佈署的解滿足上述條件時,則稱其為合法佈署解,而其詳細內容則於後面詳述。
請合併參閱圖3及圖6,步驟S42進一步包含下列步驟:
S421:設定滑動窗的滑動窗寬度始於一起始滑動窗寬度,滑動窗寬度即滑動窗內包含的實體機器的數量。其中,起始滑動窗寬度通常即為1,即一個滑動窗內只包含一台實體機器。
S422:滑動窗從包含複數個實體機器的一序列之一端向另一端滑動。如圖3所示,序列包含N個實體機器(HM1~HMN),其順序為網路拓樸上的排列,而非實體位置上的排列。滑動窗則從序列的最左端向最右
端滑動,滑動窗每次滑動皆移動一個實體機器的距離,例如滑動窗寬度為4,滑動窗位於W1時,W1內包含實體機器HM1~HM4,滑動窗移動至W4時,W4內包含實體機器HM4~HM7,依此類推。
S423:計算出各滑動窗寬度下的各滑動窗的合法佈署解。即在不同的滑動窗寬度下,如滑動窗寬度等於1、2、3...時,皆須計算其中的各個滑動窗是否滿足頻寬限制、CPU限制及記憶體限制。
S424:當在當前的滑動窗寬度下找不到滑動窗的合法佈署解時,增加滑動窗寬度,再計算滑動窗的合法佈署解,直到滑動窗寬度達到最大滑動窗寬度。即滑動窗寬度始於S421的起始滑動窗寬度,例如1,但於找不到合法佈署解時,即將滑動窗寬度增加1,變成2,再計算滑動窗寬度等於2時的各個滑動窗的合法佈署解,其餘類推。
S43:計算出各合法佈署解的中繼數(hop)。即是計算將服務鏈中的各個虛擬機器佈署至實體機器時需要的中繼數,舉例來說,有一包含A、B二個應用服務的服務鏈,現在需依序佈署A、B二個應用服務的虛擬機器至為合法佈署解的2台實體機器上,其間需經過3個網路交換機,則其中繼數即為3。
S44:選擇中繼數最低的合法佈署解來佈署服務鏈。舉例來說,經過步驟S43得到了兩組解,第一組解的滑動窗寬度為2,中繼數為4,第二組解的滑動窗寬度為4,中繼數為3,則選擇第二組解來佈署服務鏈。
以上為本發明服務鏈佈署方法的具體步驟,下面則對前述的合法佈署解,做進一步地詳細解釋。
如前所述,合法佈署解,是指當要將一個服務鏈中的多個應用服務的虛擬機器佈署到實體機器上時,這樣的佈署須滿足服務級別協定(Service Layer Agreement,SLAs)的限制,而於本發明中,此限制即為頻寬限制、CPU限制及記憶體限制,當前述佈署的解滿足上述條件時,則稱其為合法佈署解。
此時,把一個虛擬機器配置到實體機器之前,頻寬限制、CPU限制和記憶體限制,這三個限制必須要被滿足,以下則一一說明。
(一)頻寬限制:對任意實體機器來說,其原本的頻寬佔用量,和要被配置的新的應用服務(即剛抵達的使用者的應用服務)的頻寬佔用量,須滿足式(4):
其中,是第i台實體機器與其相連的邊緣交換器的連線的頻寬佔用量,β是要被配置的新的應用服務的頻寬佔用量。
即新的應用服務要被佈署在一實體機器上時,其頻寬佔用量和實體機器原本的頻寬佔用量不得超過100%。舉例來說,一實體機器原本的頻寬佔用量為50MB/s,頻寬的上限為100MB/s,若有一頻寬佔用量為60MB/s的新應用服務要被配置,由於加總後為110MB/s,換算後可知其為110%,已超過100%,則無法將該新應用服務配置到此實體機器上。反之,若新的應用服務的頻寬佔用量為40MB/s,則頻寬限制被滿足。
(二)CPU限制:對任意實體機器來說,其原本的CPU資源佔用量和要被配置的新的應用服務(即剛抵達的使用者的應用服務)的CPU資源佔用量,須滿足式(5):
其中,是第i台實體機器已被佔用的CPU資源,是第j台虛擬機器需要佔用的CPU資源。
即新的應用服務要被佈署在一實體機器上時,其CPU資源佔用量和實體機器原本的CPU資源佔用量不得超過100%。舉例來說,一實體機器原本的CPU資源佔用量為700m(millicores),其CPU資源上限為1000m,若有一CPU資源佔用量為400m的新應用服務要被配置,由於加總後為1100m,換算後可知其為110%,已超過100%,則無法將該新應用服務配置到此實體機器上。反之,若新的應用服務的CPU資源佔用量為200m,則CPU限制被滿足。
(三)記憶體限制:對任意實體機器來說,其原本的記憶體資源佔用量和要被配置的新的應用服務(即剛抵達的使用者的應用服務)的記憶體資源佔用量,須滿足式(6):
其中,是第i台實體機器已被佔用的記憶體資源,是第j台虛擬機器需要佔用的記憶體資源。
即新的應用服務要被佈署在一實體機器上時,其記憶體資源佔用量和實體機器原本的記憶體資源佔用量不得超過100%。舉例來說,一實體機器原本的記憶體資源佔用量為8GB,其記憶體資源上限為10GB,若有一記憶體佔用量為3GB的新應用服務要被配置,由於加總後為11GB,換算後可知其為110%,已超過100%,則無法將該新應用服務配置到此實體機器上。反之,若新的應用服務的記憶體佔用量為1GB,則
CPU限制被滿足。
請參閱圖7~9,接著則以一實施範例說明本發明與習用的服務鏈佈署方法在延遲上的差異所在。
圖7顯示了分配服務鏈之前,資料中心的實體機器的資源容量分布,其中,1~5表示資源被佔用的情況,5表示機器滿載,白色的部分則表示還沒被使用的資源容量。圖7的下方則顯示一個服務鏈和該服務鏈要求的運算資源及延遲需求,其中,A(2)代表A應用服務需要佔用2的資源,B(3)代表B應用服務需要佔用3的資源,箭頭表示佈署的順序,故於本例中,是依照A→B→C→D的順序進行佈署。
而在應用了不同的服務鏈佈署方法之後,圖8和圖9顯露出不同的機器及網路負載分布。
圖8是利用傳統上以節省能源為導向的服務鏈佈署方法的佈署結果,其會盡量運用每一台已開啟的實體機器的資源,藉由開啟較少的實體機器以達到節能效果。然而,此方法雖然可以使用較少的實體機器,但反而造成過重的頻寬負載及過長的延遲,如圖8中所示的傳輸延遲可以被表示為6(A→B)+6(B→C)+2(C→D)=14 hops。
圖9則是利用本發明服務鏈佈署方法的佈署結果,在給定的服務級別協定(SLA)下,例如中繼數(hop)等於2的情況下,圖9中所示的傳輸延遲可以被表示0(A→B)+2(B→C)+0(C→D)=2 hops。
而根據實驗結果顯示,在不同的網路服務的數量下,本發明考慮網路延遲與實體資源的服務鏈佈署方法,可以成功地滿足SLAs,並有效率地執行,且擁有一個很高的使用者接受率(99.9%);且在最先配置
(first-fit)方法下與習知技術相比,還可以降低95.7%的延遲違反。
上列詳細說明係針對本發明之一可行實施例之具體說明,惟該實施例並非用以限制本發明之專利範圍,凡未脫離本發明技藝精神所為之等效實施或變更,均應包含於本案之專利範圍中。
Claims (9)
- 一種考慮網路延遲與實體資源的服務鏈佈署方法,其係運行於一運算裝置上,該方法包含下列步驟:依據使用者的服務鍊所要求的中繼數(hop),以及在胖樹網路的架構下一個叢集內的實體機器之總和計算出一最大滑動窗寬度(MW2)計算出一最大滑動窗寬度(MW2),其中中繼數為當配置服務鍊中的應用服務的虛擬機器至胖樹網路中的實體機器時所經過的網路交換機的數量;在符合該最大滑動窗寬度的限制下,依序依據多個滑動窗寬度中的一者計算對應該些滑動窗寬度中的一者的多個滑動窗是否滿足服務級別協定(Service Layer Agreement,SLAs)的限制以獲得至少一合法佈署解;計算出各該合法佈署解的中繼數(hop);以及選擇中繼數最低的合法佈署解來佈署服務鏈。
- 如請求項1所述的考慮網路延遲與實體資源的服務鏈佈署方法,其中,該最大滑動窗寬度(MW2)滿足下列公式:MW2=ceil(α/6)×HMP其中,ceil( )是向上取整函數,α是使用者要求的中繼數,HMP是在胖樹網路的架構下,一個叢集內的實體機器之總和。
- 如請求項1所述的考慮網路延遲與實體資源的服務鏈佈署方法,其中,計算出該合法佈署解須滿足的因素包含頻寬限制、CPU限制及記憶體限制。
- 如請求項3所述的考慮網路延遲與實體資源的服務鏈佈署方法,其中,該頻寬限制須滿足下列公式:
- 如請求項3所述的考慮網路延遲與實體資源的服務鏈佈署方法,其中,該CPU限制須滿足下列公式:
- 如請求項3所述的考慮網路延遲與實體資源的服務鏈佈署方法,其中,該記憶體限制須滿足下列公式:
- 如請求項1所述的考慮網路延遲與實體資源的服務鏈佈署方法,該滑動窗技術具體包含下列子步驟:設定滑動窗的滑動窗寬度始於一起始滑動窗寬度,該滑動窗寬度即滑動窗內包含的實體機器的數量;滑動窗從包含複數個實體機器的一序列之一端向另一端滑動;計算出各該滑動窗寬度下的各該滑動窗的合法佈署解;以及當在當前的該滑動窗寬度下找不到該等滑動窗的合法佈署解時, 增加該滑動窗寬度,再計算該等滑動窗的合法佈署解,直到該滑動窗寬度達到該最大滑動窗寬度。
- 如請求項1所述的考慮網路延遲與實體資源的服務鏈佈署方法,在計算出該最大滑動窗寬度(MW2)的步驟之前,更包含下列步驟:根據複數個使用者各自的服務鏈所要求的容量總和,將該等使用者進行遞減排序,並將容量總和最高的使用者選為最優先使用者;以及將該最優先使用者的服務鏈內的各個應用服務進行遞減排序,並依排序之結果將該等應用服務依序佈署到虛擬機器上。
- 如請求項8所述的考慮網路延遲與實體資源的服務鏈佈署方法,其中該容量總和是一服務鏈內各個應用服務所要求的CPU資源及記憶體資源之總和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106123143A TWI648967B (zh) | 2017-07-11 | 2017-07-11 | Service chain deployment method considering network latency and physical resources |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
TW106123143A TWI648967B (zh) | 2017-07-11 | 2017-07-11 | Service chain deployment method considering network latency and physical resources |
Publications (2)
Publication Number | Publication Date |
---|---|
TWI648967B true TWI648967B (zh) | 2019-01-21 |
TW201909599A TW201909599A (zh) | 2019-03-01 |
Family
ID=65803567
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW106123143A TWI648967B (zh) | 2017-07-11 | 2017-07-11 | Service chain deployment method considering network latency and physical resources |
Country Status (1)
Country | Link |
---|---|
TW (1) | TWI648967B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101422005A (zh) * | 2003-04-30 | 2009-04-29 | 光波体系股份有限公司 | 高带宽数据传输系统 |
US20130263118A1 (en) * | 2012-03-29 | 2013-10-03 | International Business Machines Corporation | Emulating a data center network on a single physical host with support for virtual machine mobility |
TW201416881A (zh) * | 2013-12-09 | 2014-05-01 | Annethen Technology Co Ltd | 分散式記憶體磁碟群集儲存系統運作方法 |
US20160080206A1 (en) * | 2014-09-17 | 2016-03-17 | Acelio, Inc. | System and method for providing quality of service to data center applications by controlling the rate which data packets are transmitted |
-
2017
- 2017-07-11 TW TW106123143A patent/TWI648967B/zh active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101422005A (zh) * | 2003-04-30 | 2009-04-29 | 光波体系股份有限公司 | 高带宽数据传输系统 |
US20130263118A1 (en) * | 2012-03-29 | 2013-10-03 | International Business Machines Corporation | Emulating a data center network on a single physical host with support for virtual machine mobility |
TW201416881A (zh) * | 2013-12-09 | 2014-05-01 | Annethen Technology Co Ltd | 分散式記憶體磁碟群集儲存系統運作方法 |
US20160080206A1 (en) * | 2014-09-17 | 2016-03-17 | Acelio, Inc. | System and method for providing quality of service to data center applications by controlling the rate which data packets are transmitted |
Also Published As
Publication number | Publication date |
---|---|
TW201909599A (zh) | 2019-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11516146B2 (en) | Method and system to allocate bandwidth based on task deadline in cloud computing networks | |
WO2021121115A1 (zh) | 一种虚拟机的numa节点调度方法、装置、设备及介质 | |
US9112809B2 (en) | Method and apparatus for controlling utilization in a horizontally scaled software application | |
Li et al. | DCloud: deadline-aware resource allocation for cloud computing jobs | |
US11567556B2 (en) | Platform slicing of central processing unit (CPU) resources | |
WO2023039965A1 (zh) | 流量疏导的云边计算网络计算资源均衡调度方法及系统 | |
CN107454017B (zh) | 一种云数据中心网络中混合数据流协同调度方法 | |
CN105159775A (zh) | 基于负载均衡器的云计算数据中心的管理系统和管理方法 | |
WO2013163865A1 (zh) | 虚拟机热迁移和部署的方法、服务器及集群系统 | |
EugeneNg | Maestro: balancing fairness, latency and throughput in the OpenFlow control plane | |
CN106681839B (zh) | 弹性计算动态分配方法 | |
Wang et al. | Bandwidth guaranteed virtual network function placement and scaling in datacenter networks | |
CN107329811A (zh) | 一种数据中心功耗调节方法及装置 | |
CN107306230B (zh) | 一种网络资源部署的方法、装置、控制器及核心网设备 | |
CN108540405B (zh) | 网络资源迁移方法及装置 | |
US9363199B1 (en) | Bandwidth management for data services operating on a local network | |
Xiang et al. | Differentiated latency in data center networks with erasure coded files through traffic engineering | |
Li et al. | Guaranteeing heterogeneous bandwidth demand in multitenant data center networks | |
Carrega et al. | Energy-aware consolidation scheme for data center cloud applications | |
TWI648967B (zh) | Service chain deployment method considering network latency and physical resources | |
CN107948330A (zh) | 一种云环境下基于动态优先级的负载均衡策略 | |
Pai et al. | SLA-driven Ordered Variable-width Windowing for service-chain deployment in SDN datacenters | |
CN104202263B (zh) | 一种多租户数据中心带宽资源公平分配方法 | |
Yang et al. | Joint optimization of mapreduce scheduling and network policy in hierarchical clouds | |
Yu et al. | Towards predictable performance via two-layer bandwidth allocation in cloud datacenter |