CN108282402B - 数据中心网络中基于编码的包散射方法 - Google Patents
数据中心网络中基于编码的包散射方法 Download PDFInfo
- Publication number
- CN108282402B CN108282402B CN201810069489.6A CN201810069489A CN108282402B CN 108282402 B CN108282402 B CN 108282402B CN 201810069489 A CN201810069489 A CN 201810069489A CN 108282402 B CN108282402 B CN 108282402B
- Authority
- CN
- China
- Prior art keywords
- packet
- packets
- short
- stream
- flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L45/00—Routing or path finding of packets in data switching networks
- H04L45/30—Routing of multiclass traffic
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L69/00—Network arrangements, protocols or services independent of the application payload and not provided for in the other groups of this subclass
- H04L69/16—Implementation or adaptation of Internet protocol [IP], of transmission control protocol [TCP] or of user datagram protocol [UDP]
- H04L69/163—In-band adaptation of TCP data exchange; In-band control procedures
Abstract
本发明公开了一种数据中心网络中基于编码的包散射方法,发送端根据流的已发送字节数区分长短流,对长流分组的包头进行标记后直接发送,对短流分组则以TCP发送窗口为单位进行编码后发送。交换机根据分组的包头标记识别长短流,根据五元组哈希算法选择出端口发送长流分组,用随机包散射技术发送短流分组。接收端直接提交长流分组到TCP层,对短流分组解码后再提交TCP层。本发明能解决随机包散射技术中的乱序和长流阻塞短流的问题,有效降低数据中心网络中延时敏感的短流完成时间,提升了用户体验。
Description
技术领域
本发明涉及数据中心网络中基于编码的包散射方法。
背景技术
近年来,数据中心已成为云计算、大规模数据存储和数据交互的基础设施,越来越多的企业和个人把在线应用服务迁移到数据中心。目前,数据中心存在大量对延时敏感的实时交互式应用,比如网页搜索和查询业务、各种社交网站和零售业务等,这些应用经常产生大量的突发短流,为了提高各项应用性能和服务质量,考虑用户体验感,就需要尽可能减小这些突发短流的完成时间。同时数据中心也存在最新时效数据更新、数据挖掘和备份等应用,这些应用则会产生数据量很大的长流,这样就出现了在数据中心长短流长期并存的现象。很多文献的研究表明数据中心的流量分布呈现重尾分布,即约90%的数据量仅由约10%的流提供,而约90%的流只提供了约10%的数据量。也就是说数据中心的短流数量占绝大多数,但每条短流的数据量基本不超过100KB。此外,数据中心普遍采用clos网络等拓扑结构,使得分组可以通过多条等价路径到达目的地。
目前数据中心网络广泛使用的等价多路径传输协议(ECMP),是以流为单位通过哈希算法选择不同的路径传输,存在长流碰撞现象,容易造成热点,导致重负载路径上短流延时增加。近年,针对上述问题提出的随机包散射技术(RPS),是一种基于包的转发机制,在交换机上从所有最短路径中随机选择一个端口转发分组,充分利用等价多路径,有效提高了吞吐量。随机包散射技术已经在部分商用交换机上实现了。但是随机包散射技术没有考虑上述数据中心长短流并存的流量特性,使得短流不能更快传输,严重影响了用户体验感,降低了服务质量,导致运营商财政收入受损,原因有二。
其一,随机包散射技术仅限于在每条等价路径延时相同的情况下才能达到很好的效果。而在实际数据中心网络中,各等价路径的延时、拥塞和丢包率等各参数都普遍存在差异,使得每条流内部的分组不能按序到达接收端,即出现乱序现象,而且各等价路径之间的延时差异越大,乱序现象越严重。而TCP传输协议并不能区分乱序和拥塞,当收到3个重复ACK后会重传分组并进行减窗操作,造成短流的完成时间增加,长流的吞吐量减小。
其二,当长流分组散射到各路径并占据了缓存时,则很容易造成突发短流的分组由于队列构建被阻塞在长流后面,甚至造成队列溢出,导致丢包和网络拥塞,从而增加了短流的队列延时,也增加了短流的平均完成时间,并且这种现象在负载不均衡的情况下会使短流的平均完成时间增大得更多。
目前,已经有一些研究工作是针对如何减小短流的完成时间,Freeway从路径上动态隔离长短流,使长短流不走同一条路径从而避免短流被长流阻塞。Repflow则是简单的复制所有短流,利用在多路径传输发送冗余流来降低流完成时间。然而,这些协议是以流为级别的多路径传输,链路利用率不高,且多条长流走同一路径仍然会有热点问题。
因此,避免数据中心网络中的乱序和长流阻塞短流现象,降低短流的完成时间是一个亟待解决的问题。
发明内容
为了解决上述数据中心网络中随机包散射技术的乱序和长流阻塞短流的问题,本发明提供了一种数据中心网络中基于编码的包散射方法。
本发明的技术方案包括以下步骤:
一种数据中心网络中基于编码的包散射方法,包括以下步骤:
发送端按以下步骤进行操作:
步骤11:初始化流长度阈值、短流编码单元内的源分组数目和最优编码分组数目;
步骤12:判断当前分组所属流的已发送数据量是否小于流长度阈值,如是则当前分组所属的流为短流,根据实时RTT(往返延时)计算最优编码分组数目,然后对当前分组所属短流的编码单元内的源分组(即该短流的TCP发送窗口内的分组,每条流都有自己的TCP发送窗口)进行编码,得到编码分组,转步骤13;否则当前分组所属的流为长流,设置当前分组IP包头的服务类型字段(8位)第7位为1,将当前分组标记为长流分组,转步骤13;
步骤13:发送编码分组或长流分组,并判断是否所有分组都已发送完毕,如是则结束,否则返回步骤12;
交换机按以下步骤进行操作:
步骤21:接收到分组后,判断其IP包头的服务类型字段第7位是否为1,如是则根据五元组(即源IP地址、源端口、目的IP地址、目的端口和传输层协议)与端口的哈希函数映射关系选择出端口,并转步骤22;否则随机选择出端口,并转步骤22;
步骤22:依据所选择的出端口转发分组给接收端,并返回步骤21继续接收新的分组;
接收端按以下步骤进行操作:
步骤31:接收到分组后,判断其IP包头的服务类型字段第7位是否为1,如是则将该分组直接提交到TCP层,转步骤32;否则对当前拥塞窗口内的分组进行解码,再将解码出的源分组提交到TCP层,转步骤32;
步骤32:发送ACK确认包给发送端,返回步骤31继续接收分组。
进一步地,所述步骤11包括:初始化流长度阈值为100KB;初始化短流编码单元内的源分组数目k为1,当短流的发送端收到前一轮发送数据包的ACK确认包时,会更新该短流的TCP发送窗口大小,此时将k值更新为该短流的TCP发送窗口大小;初始化最优编码分组数目m为1。
进一步地,所述步骤12中:根据实时RTT计算最优编码分组数目m的公式为:
其中,表示向上取整,nL是发送端收到的所有ACK确认包中,对应的RTT大于2倍平均RTT的ACK确认包数量;其中平均RTT在发送端不断更新,是发送端收到的所有ACK确认包对应的RTT的平均值,n是发送端收到的ACK确认包的数量。
进一步地,所述步骤12中:短流编码单元内的k个源分组采用线性喷泉码方法编码为m个编码分组,其中m≥k,编码公式为:
c=sG
用矩阵表示为:
其中,c=[c1 c2 ... cm]是编码得到的m个编码分组构成的矩阵,s=[s1 s2 ...sk]是由k个源分组构成的矩阵,G=(gi,j)k×m为k×m的生成矩阵,其中gi,j表示矩阵中第i行第j列的元素,i=1,2,…,k,j=1,2,…,m;为了避免发送方与接收方之间需要同步更新生成矩阵,则直接在双方定义好生成矩阵G=(gi,j)k×m,当j≤k时,若i≤j,则gi,j=1,若i>j,则gi,j=0;当j>k时,gi,j=i-1+j-k,表示为:
进一步地,所述步骤21中:五元组与端口的哈希函数映射关系为:
pidi=CheckSum(sip,sp,dip,dp,pt)%Nport
其中,pidi为出端口号,CheckSum()是校验和函数,sip,sp,dip,dp,pt分别表示五元组中的源IP地址、源端口、目的IP地址、目的端口和传输层协议,Nport为出端口的数量,%表示取模运算。校验和函数首先将五元组的所有数据以16位为一组进行划分,然后计算划分得到的各组数据的和,得到最终的结果即为五元组的校验和。
进一步地,所述步骤31中,接收端对当前拥塞窗口内的分组进行解码的方法为:接收端从m个编码分组中收到任意k个编码分组后,首先重构解码矩阵,解码矩阵定义为:D=G′-1,其中D为k×k解码矩阵,其中G′的k列分别由接收到的k个编码分组ca1,ca1,…,cak决定,即根据接收到的编码分组caj的下标aj,在发送端生成矩阵中分别找到对应的第aj列,依次作为矩阵G′的第j列,其中aj=a1,a2,…,ak;aj≤m;
再利用以下解码公式解码得到k个源分组:
s=c′D
用矩阵表示为:
其中,s=[s1 s2 ... sk]是由k个源分组构成的矩阵,c′=[ca1 ca2 ... cak]是接收端从m个编码分组中接收到的任意k个编码分组构成的矩阵,gi,aj是发送端生成矩阵G的第aj列的第i个元素,i≤k;aj=a1,a2,…,ak;aj≤m;当aj≤k时,若i≤aj,则gi,aj=1,若i>aj,则gi,aj=0;否则,当aj>k时,gi,aj=i-1+aj-k。
有益效果:
发送端根据流的已发送字节数区分长短流,对长流分组的包头进行标记后直接发送,对短流分组则以窗口为单位进行编码后发送。交换机根据分组的包头标记识别长流分组和短流分组,根据五元组哈希算法选择出端口发送长流分组,用随机包散射技术发送短流分组。接收端直接提交长流分组到TCP层,对短流分组解码后再提交TCP层。最终,解决随机包散射技术中的乱序和长流阻塞短流的问题,有效降低数据中心网络中延时敏感的短流完成时间,提升了用户体验。
附图说明
图1为本发明的流程图。
图2为测试场景网络拓扑图。
图3为CAPS在流数变化场景下的传输性能测试图,其中本发明命名为CAPS;图3(a)为随着短流数量增加的短流平均完成时间;图3(b)为随着长流数量增加的短流平均完成时间。
图4为CAPS在web-search场景下的传输性能测试图,其中本发明命名为CAPS;图4(a)为短流平均完成时间;图4(b)为短流的99分位流完成时间。
图5为CAPS在data-mining场景下的传输性能测试图,其中本发明命名为CAPS;图5(a)为短流平均完成时间;图5(b)为短流的99分位流完成时间。
图6为CAPS在web-search和data-mining两种场景下的负载开销测试图,其中本发明命名为CAPS;图6(a)为CAPS在web-search场景下不同冗余的负载开销;图6(b)为CAPS在data-mining场景下不同冗余的负载开销。
具体实施方式
下面结合附图对本发明作进一步的说明。
参见图1,为本发明的流程图,描述了本发明所涉及的发送端、交换机和接收端三个部分的处理过程。其过程如下:
首先判断当前操作主体类型。
如果是发送方,则初始化流长度阈值为100KB;初始化短流编码单元内的源分组数目(TCP发送窗口大小)k为1,当短流的发送端收到前一轮发送数据包的ACK确认包时,会更新该短流的TCP发送窗口大小,此时将k值更新为该短流的TCP发送窗口大小;初始化最优编码分组数目m为1。
发送端统计每条流的已发送字节数,并判断当前分组所属流的已发送字节数是否小于流长度阈值,如是,则根据实时RTT计算最优编码分组数目m,其中,表示向上取整,k是源分组数目,nL是大于2倍平均RTT(往返延时)ACK的数量,n是所有ACK的数量。
然后对短流编码单元即该短流的TCP发送窗口内k个源分组采用线性喷泉码方法编码为m(m>k)个编码分组,编码的公式为:
c=sG
其中,c是编码分组,s是源分组,G是生成矩阵。用矩阵表示为:
其中,c=[c1 c2 ... cm]是由m个编码分组构成的矩阵,s=[s1 s2 ... sk]是由k个源分组构成的矩阵,G=(gi,j)k×m为k×m的生成矩阵,其中gi,j表示矩阵中第i行第j列的元素,i=1,2,…,k,j=1,2,…,m;为了避免发送方与接收方之间需要同步更新生成矩阵,则直接在双方定义好生成矩阵G=(gi,j)k×m,当j≤k时,若i≤j,则gi,j=1,若i>j,则gi,j=0;当j>k时,gi,j=i-1+j-k,表示为:
否则,若当前分组所属流的已发送字节数不小于流长度阈值,则将其标记为长流,并设置当前分组IP包头的8位服务类型字段中未使用的第7位为1。
接下来,发送端发送短流编码分组和长流分组。
如果是交换机,接收到分组后判断其IP包头的服务类型字段第7位是否标记为1,如是则根据五元组(源IP地址、源端口、目的IP地址、目的端口和传输层协议)计算出端口号pidi的公式为:
pidi=CheckSum(sip,sp,dip,dp,pt)%Nport
其中,CheckSum(sip,sp,dip,dp,pt)是计算五元组的校验和函数,将五元组所有数据分成16位为一组,并计算每一组的和,得到最终的结果为校验和,Nport为出端口的数量,%为取模运算。
然后,交换机转发短流编码分组和长流分组给接收端,然后继续接收分组。
如果是接收端,接收到分组后判断其IP包头的服务类型字段第7位是否标记为长流,如是则将分组直接提交到TCP层;否则对窗口内编码分组进行解码。接收端接收到任意k个编码分组后,重构解码矩阵,解码矩阵定义为:D=G′-1,D为k×k解码矩阵,G′的k列分别由接收到的k个编码分组ca1,ca1,…,cak决定,即根据接收到的编码分组caj的下标aj,在发送端生成矩阵中分别找到对应的第aj列,依次作为矩阵G′的第j列,其中aj=a1,a2,…,ak;aj≤m。接收端接收到任意k个编码分组可解码k个源分组的公式为:
s=c′D
解码公式用矩阵表示为:
其中,s=[s1 s2 ... sk]是由k个源分组构成的矩阵,c′=[ca1 ca2 ... cak]是接收端从m个编码分组中接收到的任意k个编码分组构成的矩阵,gi,aj是发送端生成矩阵G的第aj列的第i个元素,i≤k;aj=a1,a2,…,ak;aj≤m;当aj≤k时,若i≤aj,则gi,aj=1,若i>aj,则gi,aj=0;否则,当aj>k时,gi,aj=i-1+aj-k。接收端再将解码出的源分组提交到TCP层。最后,接收端发送ACK给发送端,然后继续接收新分组。
本发明利用NS2.35网络仿真平台和Mininet测试平台来实现,并进行了性能测试。
图2为该实验使用的网络拓扑图,具体如下:整个leaf-spine网络有12台核心交换机,24台ToR交换机,分别与36台终端主机相连。所有链路具有1Gbps带宽、100微秒的延迟。交换机缓存大小为256个分组。
图3是CAPS在流数变化场景下的传输性能测试实验结果图,目的是为了验证本发明CAPS能够有效的根据短流被长流的阻塞概率调整冗余分组数目,从而保证降低短流完成时间。实验环境如下:在Mininet测试平台下,采用两层leaf-spine网络拓扑结构,其中,ToR交换机与核心交换机之间的等价路径为20条,所有链路具有20Mbps带宽、1毫秒的延迟。交换机缓存大小为256个分组。流量的构成具体如下:默认的长流和短流数量分别是4和100。长流数量固定为4时,短流数量从1增加到150。短流数量固定为100时,长流数量从1增加到4。短流的大小在100KB范围内随机分布。长流的数据量远大于10MB。整体流量呈重尾分布。本次实验分别使用ECMP、RPS、Freeway、Repflow和本发明CAPS进行测试,并对测试结果与CAPS归一化后,统计短流平均完成时间的变化情况。
从图3(a)中可以看出,ECMP、RPS、Freeway和Repflow的归一化结果都大于1,说明在短流数量不断增加的场景下,CAPS有效降低了短流的平均完成时间。因为CAPS使短流不受头部阻塞和乱序的影响。ECMP和RPS都不区分长流和短流,导致短流排队延时大,增加了流完成的拖尾延时。Repflow仅仅复制了短流,并没有在路径上区分长短流,也就没有避免短流头部阻塞的问题,而且在重负载场景下,复制短流更增加了网络拥塞,限制了Repflow的性能提升。
在图3(b)中,本发明CAPS在长流数量不断增加的场景下也有效降低了短流的平均完成时间。但是由于长流数据量大,随着越来越多的长流分组注入网络,使得长流阻塞短流的概率增大,CAPS发送更多的冗余分组,同时加重了网络的拥塞,因此,短流平均完成时间性能的提升比图3(a)小。
图4为CAPS在web-search场景下的传输性能测试图,目的是为了验证本发明CAPS能够在web-search场景下有效降低短流完成时间。实验环境如下:在NS2.35网络仿真平台下,采用图2所示的网络拓扑结构,12台核心交换机,24台ToR交换机,分别36台终端主机相连。其中,ToR交换机与核心交换机之间的等价路径为12条,所有链路具有1Gbps带宽、100微秒的延迟。交换机缓存大小为256个分组。流量的构成具体如下:整体流量呈重尾分布。随机的两个终端主机之间产生的流量服从泊松分布,约30%的流长度大于1MB,并约占数据总量的95%。在实验过程中,负载从0.1增加到0.8。本次实验分别使用ECMP、RPS、Freeway、Repflow和本发明CAPS进行测试,并统计短流平均完成时间以及99分位流完成时间的变化情况。
从图4(a)中可以看出,本发明CAPS相比于ECMP、RPS、Freeway和Repflow,有效降低了短流的平均完成时间。因为ECMP、RPS和Repflow都使短流经历了较大的排队延时,只有Freeway把长短流隔离了,其短流AFCT性能接近CAPS。此外,即使CAPS把一条新开始发送数据的长流误当作了短流,也不会对其他短流产生影响。因为每个ToR下的长流数量很少,而且CAPS判断长流的阈值是100KB,对其他短流的影响可以忽略。
在图4(b)中,本发明CAPS相比于ECMP、RPS、Freeway和Repflow,有效降低了短流的拖尾流完成时间。因为随着负载加重,CAPS能通过及时调整短流的冗余编码包数量加快接收端成功解码,从而减小短流完成时间。而其他四个协议随着负载增加,短流被长流阻塞得更严重,乱序也更严重,导致拖尾流完成时间显著增加。
图5为CAPS在data-mining场景下的传输性能测试图,目的是为了验证本发明CAPS能够在data-mining场景下有效降低短流完成时间。实验环境设置与图4中的设置一致。流量的构成具体如下:整体流量呈重尾分布。随机的两个终端主机之间产生的流量服从泊松分布,约3.6%的流长度大于35MB,并约占数据总量的95%,且80%的流长度小于100KB。在实验过程中,负载从0.1增加到0.8。本次实验分别使用ECMP、RPS、Freeway、Repflow和本发明CAPS进行测试,并统计短流平均完成时间以及99分位流完成时间的变化情况。
从图5(a)中可以看出,本发明CAPS相比于ECMP、RPS、Freeway和Repflow,有效降低了短流的平均完成时间。原因与图4(a)相同。此外,在data-mining场景下的短流AFCT相比于图4(a)中web-search场景下的短流AFCT更小。因为在data-mining场景下长短流的分界更明显,而web-search场景下存在很多流长度介于100KB和1MB之间的流,这些流增加了短流的排队延时。
在图5(b)中,本发明CAPS相比于ECMP、RPS、Freeway和Repflow,有效降低了短流的拖尾流完成时间。因为CAPS能够在负载增加时通过增加短流的冗余编码包数量加快接收端成功解码,从而降低短流的拖尾时间。而其他四个协议随着负载增加,长流阻塞短流现象更严重,出现更多乱序,导致短流的拖尾时间显著增加。
图6为CAPS在web-search和data-mining两种场景下的负载开销测试图,其中本发明命名为CAPS。实验环境设置与图4中的设置一致。流量的构成具体如下:整体流量呈重尾分布。随机的两个终端主机之间产生的流量服从泊松分布。图6(a)中约30%的流长度大于1MB,并约占数据总量的95%。图6(b)约3.6%的流长度大于35MB,并约占数据总量的95%,且80%的流长度小于100KB。在实验过程中,负载从0.1增加到0.8。每个ToR交换机下的长流从1条增加到4条,相应的冗余编码分组数量分别为1、2、4、5个。本次实验对本发明CAPS进行测试,并统计因编码而产生的额外负载开销的变化情况。
图6(a)表明本发明CAPS在web-search场景下,随着负载增加,长流阻塞短流的概率增加,因编码而产生的额外负载开销很小,即使在冗余编码数量最多时,额外负载仅占整体负载的百分之三以下。
在图6(b)表明本发明CAPS在data-mining场景下,随着负载增加,长流阻塞短流的概率增加,因编码而产生的额外负载开销相比于图6(a)更小,即使在冗余编码数量最多时,额外负载仅占整体负载的百分之一以下。因为在data-mining场景下,短流更短,分组总量更少,冗余编码分组产生的额外开销更小。
Claims (5)
1.一种数据中心网络中基于编码的包散射方法,其特征在于,包括以下步骤:
发送端按以下步骤进行操作:
步骤11:初始化流长度阈值、短流编码单元内的源分组数目和最优编码分组数目;
步骤12:判断当前分组所属流的已发送数据量是否小于流长度阈值,如是则当前分组所属的流为短流,首先根据实时RTT计算最优编码分组数目,然后对当前分组所属短流的编码单元内的源分组进行编码,得到编码分组,再转步骤13;其中根据实时RTT计算最优编码分组数目m的公式为:
其中,表示向上取整,nL是发送端收到的所有ACK确认包中,对应的RTT大于2倍平均RTT的ACK确认包数量;其中平均RTT在发送端不断更新,是发送端收到的所有ACK确认包对应的RTT的平均值,n是发送端收到的ACK确认包的数量;
否则当前分组所属的流为长流,设置当前分组IP包头的服务类型字段第7位为1,将当前分组标记为长流分组,转步骤13;
步骤13:发送编码分组或长流分组,并判断是否所有分组都已发送完毕,如是则结束,否则返回步骤12;
交换机按以下步骤进行操作:
步骤21:接收到分组后,判断其IP包头的服务类型字段第7位是否为1,如是则根据五元组与端口的哈希函数映射关系选择出端口,并转步骤22;否则随机选择出端口,并转步骤22;
步骤22:依据所选择的出端口转发分组给接收端,并返回步骤21继续接收新的分组;
接收端按以下步骤进行操作:
步骤31:接收到分组后,判断其IP包头的服务类型字段第7位是否为1,如是则将该分组直接提交到TCP层,转步骤32;否则对当前拥塞窗口内的分组进行解码,再将解码出的源分组提交到TCP层,转步骤32;
步骤32:发送ACK确认包给发送端,返回步骤31继续接收分组。
2.根据权利要求1所述的数据中心网络中基于编码的包散射方法,其特征在于,所述步骤11包括:初始化流长度阈值为100KB;初始化短流编码单元内的源分组数目k为1,当短流的发送端更新该短流的TCP发送窗口大小时,将k值更新为该短流的TCP发送窗口大小;初始化最优编码分组数目m为1。
4.根据权利要求1~3中任一项所述的数据中心网络中基于编码的包散射方法,其特征在于,所述步骤21中:五元组与端口的哈希函数映射关系为:
pidi=CheckSum(sip,sp,dip,dp,pt)%Nport
其中,pidi为出端口号,CheckSum()是校验和函数,sip,sp,dip,dp,pt分别表示五元组中的源IP地址、源端口、目的IP地址、目的端口和传输层协议,Nport为出端口的数量,%表示取模运算。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810069489.6A CN108282402B (zh) | 2018-01-24 | 2018-01-24 | 数据中心网络中基于编码的包散射方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810069489.6A CN108282402B (zh) | 2018-01-24 | 2018-01-24 | 数据中心网络中基于编码的包散射方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108282402A CN108282402A (zh) | 2018-07-13 |
CN108282402B true CN108282402B (zh) | 2020-06-09 |
Family
ID=62804918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810069489.6A Active CN108282402B (zh) | 2018-01-24 | 2018-01-24 | 数据中心网络中基于编码的包散射方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108282402B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109039941B (zh) * | 2018-08-23 | 2020-10-02 | 中南大学 | 数据中心网络中基于路径分类的自适应包散射方法 |
CN109257302B (zh) * | 2018-09-19 | 2021-08-24 | 中南大学 | 一种基于分组排队时间的包散射方法 |
CN110198273B (zh) * | 2019-05-31 | 2020-07-24 | 中南大学 | 数据中心网络中基于网络编码的多路径传输方法 |
US11558759B2 (en) * | 2020-10-28 | 2023-01-17 | Hewlett Packard Enterprise Development Lp | Systems and methods for minimizing latency and contention using QoS frame scheduling information |
CN115379525A (zh) * | 2021-05-21 | 2022-11-22 | 华为技术有限公司 | 通信处理方法及相关设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102984172A (zh) * | 2012-12-12 | 2013-03-20 | 清华大学 | 基于LT code的数据中心多对一数据传输协议(LTTP) |
CN106453129A (zh) * | 2016-09-30 | 2017-02-22 | 杭州电子科技大学 | 一种大象流两级识别系统及方法 |
CN106506508A (zh) * | 2016-11-18 | 2017-03-15 | 福建航天星联信息科技有限公司 | 一种扩展北斗短报文长度的方法 |
CN107154897A (zh) * | 2017-07-20 | 2017-09-12 | 中南大学 | Dcn中基于包散射的异构流隔离方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9621464B2 (en) * | 2012-12-03 | 2017-04-11 | Brocade Communications Systems, Inc. | Multicast spray over LAG |
US10305787B2 (en) * | 2015-04-15 | 2019-05-28 | Cisco Technology, Inc. | Dropping cells of a same packet sent among multiple paths within a packet switching device |
-
2018
- 2018-01-24 CN CN201810069489.6A patent/CN108282402B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102984172A (zh) * | 2012-12-12 | 2013-03-20 | 清华大学 | 基于LT code的数据中心多对一数据传输协议(LTTP) |
CN106453129A (zh) * | 2016-09-30 | 2017-02-22 | 杭州电子科技大学 | 一种大象流两级识别系统及方法 |
CN106506508A (zh) * | 2016-11-18 | 2017-03-15 | 福建航天星联信息科技有限公司 | 一种扩展北斗短报文长度的方法 |
CN107154897A (zh) * | 2017-07-20 | 2017-09-12 | 中南大学 | Dcn中基于包散射的异构流隔离方法 |
Non-Patent Citations (3)
Title |
---|
Freeway: Adaptively Isolating the Elephant and Mice Flows on Different Transmission Paths;Kai Zheng等;《Conference: IEEE ICNP 2014》;20141231;全文 * |
Hedera: Dynamic flow scheduling for data center networks;M. Al-Fares等;《Proc. USENIX NSDI》;20100731;全文 * |
LTTP: An LT-Code Based Transport Protocol for Many-to-One Communication in Data Centers;hanglin Jiang等;《IEEE Journal on Selected Areas in Communications》;20131219;第54页部分B-C * |
Also Published As
Publication number | Publication date |
---|---|
CN108282402A (zh) | 2018-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108282402B (zh) | 数据中心网络中基于编码的包散射方法 | |
US20210112148A1 (en) | System and method for achieving accelerated throughput | |
Hu et al. | CAPS: Coding-based adaptive packet spraying to reduce flow completion time in data center | |
CN108111434B (zh) | 一种基于可靠udp和喷泉码的航空自组网可靠传输方法 | |
Zhou et al. | Goodput improvement for multipath TCP by congestion window adaptation in multi-radio devices | |
CN103023813B (zh) | 抖动缓冲器 | |
CN110351187B (zh) | 数据中心网络中路径切换粒度自适应的负载均衡方法 | |
Li et al. | Tolerating path heterogeneity in multipath TCP with bounded receive buffers | |
KR101610715B1 (ko) | 단방향 데이터 송수신 시스템 및 방법 | |
KR20150049052A (ko) | 데이터 전송 장치 및 방법 | |
US11108699B2 (en) | Method, apparatus, and system for implementing rate adjustment at transmit end | |
US10574742B2 (en) | Network quality as a service | |
WO2014153944A1 (zh) | Rtp媒体流的传输方法及装置 | |
CN110198273B (zh) | 数据中心网络中基于网络编码的多路径传输方法 | |
Luo et al. | FRUDP: A reliable data transport protocol for aeronautical ad hoc networks | |
US9189307B2 (en) | Method of improving the performance of an access network for coupling user devices to an application server | |
Lin et al. | xAn enhanced adaptive FEC mechanism for video delivery over wireless networks | |
JP5632384B2 (ja) | 送信端末及び帯域推定方法 | |
CN110324255B (zh) | 一种面向数据中心网络编码的交换机/路由器缓存队列管理方法 | |
Bai et al. | Multi-path transmission protocol in VANET | |
KR20100112151A (ko) | 네트워크 카드 및 정보 처리 장치 | |
JP2007013575A (ja) | 映像通信課金サービスのシステムおよび方法 | |
CN115134307B (zh) | 云计算中基于分组丢失率编码的负载均衡方法 | |
Hwang et al. | HMTP: Multipath transport protocol for multihoming wireless erasure networks | |
EP2755342A1 (en) | Network Quality as a Service |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |