CN113014512B - 基于n:m连接动态映射的网络连接加速转发方法 - Google Patents
基于n:m连接动态映射的网络连接加速转发方法 Download PDFInfo
- Publication number
- CN113014512B CN113014512B CN202110272876.1A CN202110272876A CN113014512B CN 113014512 B CN113014512 B CN 113014512B CN 202110272876 A CN202110272876 A CN 202110272876A CN 113014512 B CN113014512 B CN 113014512B
- Authority
- CN
- China
- Prior art keywords
- data forwarding
- max
- connection
- client
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
- H04L47/82—Miscellaneous aspects
- H04L47/825—Involving tunnels, e.g. MPLS
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/46—Interconnection of networks
- H04L12/4633—Interconnection of networks using encapsulation techniques, e.g. tunneling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/28—Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
- H04L12/46—Interconnection of networks
- H04L12/4641—Virtual LANs, VLANs, e.g. virtual private networks [VPN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明公开一种基于N:M连接动态映射的网络连接加速转发技术方法,包括以下步骤:步骤一:动态监测;动态感知当前数据转发服务中,N个传输层连接的传输瓶颈;步骤二:创建新的中间加速连接;若瓶颈在【数据转发客户端】与【数据转发服务器】之间,且动态加速连接数量未达到预设的上限M‑MAX,则在【数据转发客户端】与【数据转发服务器】之间创建1条或多条新的中间加速连接,并使用新建后的所有M个中转连接来转发上述N个传输层连接的数据包。本发明成熟可靠,同时无需依赖多个物理设备,仅通过单个网络链路即可为单一连接实现多连接并发加速的效果。
Description
技术领域
本发明涉及一种网络通信技术,尤其涉及一种基于N:M连接动态映射的网络连接加速转发技术。
背景技术
如stunnel等的传统的隧道技术工作方式如下:
【应用程序客户端】<----N个TCP(A段)---->【隧道客户端】<----N个TCP(B段)---->【隧道服务器】<----N个TCP(C段)---->【应用程序服务器】。
其中【应用程序客户端】可以是App、浏览器、微信小程序等各类网络客户端应用。【应用程序服务器】可以是Web Server、专用App Server等各种服务于应用程序客户端的服务器组件。
与安全隧道类似的另一类产品是VPN。其中,以OpenVPN为代表的典型的产品工作模型如下:
【应用程序客户端】<----N个TCP---->【VPN虚拟网卡1】<----1个TCP或UDP---->【VPN虚拟交换机】<----1个TCP或UDP---->【VPN虚拟网卡2】<----N个TCP---->【应用程序服务器】。
由此可见,VPN使用虚拟网卡和虚拟交换机模拟真实世界的物理2层交换设备,同时,在虚拟网卡和交换机之间使用单个传输层(4层)链路来传输所有虚拟的链路层(2层)数据报文。
另一方面,MPTCP(MultiPath TCP)技术可以通过将一个TCP连接的底层IP包同时通过多个链路层设备(如有线网卡、WIFI网卡、4G网卡)进行路由来加速该TCP连接的性能。现有安全隧道采用1:1传输模型,若在【隧道客户端】与【隧道服务器】之间存在通信繁忙或高延迟的传输瓶颈时,其整体性能跟【应用程序客户端】与【应用程序服务器】直连的方案相比,其吞吐量和载荷比均没有提升。
而现有VPN方案使用N:1传输模型,或M数量固定且远小于N的N:M传输模型。现有VPN方案存在以下缺点:
1.与隧道方案相比,所有流量都要额外经过【VPN虚拟交换机】,多了一次集中转发,加剧了传输瓶颈和通信延迟。
2.与隧道方案相比,VPN方案需要在4层(TCP或UDP)之上重复模拟和传输2层(数据链路)、三层(IP)、和4层(TCP)报文。重复打包浪费了大量的空间和时间,也增大了传输尺寸,降低了数据的有效载荷比。
3.N:1传输模型将N个TCP等传输层连接在“【VPN虚拟网卡1】<---->【VPN虚拟交换机】<---->【VPN虚拟网卡2】”阶段共享一个传输层连接,在繁忙或高延迟场景中会造成瓶颈,导致N个传输层连接的整体性能大幅下降。另外需要注意的是,VPN的N:1映射中的N是传输层连接,而1针对的是链路层连接,其实质是使用传输层模拟链路层。这就使得该映射过程损失了4层连接上的对应关系,无法实现针对4层连接的专门优化。
4.MPTCP实现的多链路聚合首先需要存在多个网卡等物理层的链路设备,以此为基础,MPTCP才可利用多个不同的物理设备来加速TCP连接的性能。此外,MPTCP的链路聚合发生在IP层,本质上是对IP报文的路由算法进行优化和改良(允许一个TCP连接的底层IP包经由不同链路层设备来进行路由和传输),不属于传输层的转发和映射技术领域。
发明内容
本发明的目的是:为了解决上述问题,提供基于N:M连接动态映射的网络连接加速转发方法,可以使得单个连接的传输性能等同于多个连接的并发传输性能。
为了实现上述目的,本发明的技术方案是:
一种基于N:M连接动态映射的网络连接加速转发方法,包括以下步骤:
步骤一:动态监测;动态感知当前数据转发服务中,N个应用连接的传输瓶颈;
步骤二:创建新的中间加速连接;若瓶颈在【数据转发客户端】与【数据转发服务器】之间,且动态加速连接数量未达到预设的上限M-MAX,则在【数据转发客户端】与【数据转发服务器】之间创建1条或多条新的中间加速连接,并使用新建后的所有M个中转连接来转发上述N个应用连接的数据包。
进一步的,所述步骤一为:逐一地动态感知当前数据转发服务的N个或N组应用连接中,每个或每组应用连接NP的传输性能瓶颈;
所述步骤二是针对上述每一个或每一组所述应用连接NP进行的。
进一步的,所述步骤一为:动态感知当前数据转发服务中,N个应用连接与多个所述【数据转发服务器】之间,总体和/或针对不同的所述【数据转发服务器】各自的传输瓶颈;
所述步骤二是针对每个所述【数据转发服务器】总体和/或各自进行的。
进一步的,所述步骤一为:逐一地动态感知当前数据转发服务的N个或N组应用连接中,每个或每组连接NP分别与多个所述【数据转发服务器】之间,总体和/或针对不同的所述【数据转发服务器】各自的传输瓶颈;
所述步骤二是针对每个或每组所述应用连接NP与每个所述【数据转发服务器】分别逐一进行的。
进一步的,其中所述传输瓶颈包括客户端发送方向/服务器接收方向传输瓶颈和客户端接收方向/服务器发送方向传输瓶颈;
所述客户端发送方向/服务器接收方向传输瓶颈的动态感知算法如下:为每个所述【数据转发客户端】设置A段的每次最大IO数据块尺寸A-IO-MAX-SZ和与之对应的阈值A-SPAWN-MAX-SZ,当由所述A段到达的包尺寸连续指定次数大于等于所述A-SPAWN-MAX-SZ的值时,就认为所述【数据转发客户端】的B段发送方向发生了拥堵;
其中的客户端接收方向/服务器发送方向传输瓶颈的动态感知算法如下:为每个所述【数据转发客户端】设置B段的每次最大IO数据块尺寸B-IO-MAX-SZ和与之对应的阈值B-SPAWN-MAX-SZ,当由所述B段到达的消息尺寸连续指定次数大于等于所述B-SPAWN-MAX-SZ值时,就认为所述【数据转发客户端】的B段接收方向发生了拥堵。
进一步的,其中所述传输瓶颈包括客户端发送方向/服务器接收方向传输瓶颈和客户端接收方向/服务器发送方向传输瓶颈;
其中的客户端发送方向/服务器接收方向传输瓶颈动态感知算法如下:为每个所述【数据转发客户端】A段中的每个或每组应用连接NP分别设置对应的每次最大IO数据块尺寸AP-IO-MAX-SZ和与之对应的阈值AP-SPAWN-MAX-SZ,当由所述A段中的某一个或一组所述应用连接NP到达的包尺寸连续指定次数大于等于所述AP-SPAWN-MAX-SZ时,就认为所述应用连接或连接组NP在与之对应B段(BP)的【数据转发客户端】侧发送方向发生了拥堵;
其中的客户端接收方向/服务器发送方向传输瓶颈动态感知算法如下:为每个所述【数据转发客户端】中的每个或每组应用连接NP对应之B段(BP)分别设置对应的每次最大IO数据块尺寸BP-IO-MAX-SZ和与之对应的阈值BP-SPAWN-MAX-SZ,当任意一个或一组所述应用连接NP对应的所述B段(BP)上的到达的消息尺寸连续指定次数大于等于所述BP-SPAWN-MAX-SZ时,就认为所述连接或连接组NP在与之对应的所述B段(BP)的【数据转发客户端】侧接收方向发生了拥堵。
进一步的,以【数据转发服务器】之实例Sq(q=1,2,3,4……)来指代所述多个【数据转发服务器】中的任意一个;其中所述传输瓶颈包括客户端发送方向/服务器接收方向传输瓶颈和客户端接收方向/服务器发送方向传输瓶颈;
其中的客户端发送方向/服务器接收方向传输瓶颈的动态感知算法如下:为每个所述【数据转发服务器】Sq分别设置与每个所述【数据转发客户端】对应之B段(Bq)的每次最大IO数据块尺寸BSq-IO-MAX-SZ和与之对应的阈值BSq-SPAWN-MAX-SZ,当由任意一个所述【数据转发客户端】中的任意一个所述B段(Bq)到达与之对应的所述【数据转发服务器】Sq的消息尺寸连续指定次数大于等于所述BSq-SPAWN-MAX-SZ值时,就认为对应的所述【数据转发客户端】与所述【数据转发服务器】Sq之间的所述B段(Bq)在所述【数据转发客户端】侧发送方向发生了拥堵;
其中的客户端接收方向/服务器发送方向传输瓶颈的动态感知算法如下:为每个所述【数据转发客户端】设置分别针对不同【数据转发服务器】Sq对应之B段(Bq)的每次最大IO数据块尺寸Bq-IO-MAX-SZ和与之对应的阈值Bq-SPAWN-MAX-SZ,当所述【数据转发客户端】与任意一个所述【数据转发服务器】Sq之间的B段(Bq)到达的消息尺寸连续指定次数大于等于所述Bn-SPAWN-MAX-SZ值时,就认为所述【数据转发客户端】与对应的【数据转发服务器】Sq之间的B段(Bq)在所述【数据转发客户端】侧接收方向发生了拥堵。
进一步的,以【数据转发服务器】之实例Sq(q=1,2,3,4……)来指代所述多个【数据转发服务器】中的任意一个;其中所述传输瓶颈包括客户端发送方向/服务器接收方向传输瓶颈和客户端接收方向/服务器发送方向传输瓶颈;
其中的客户端发送方向/服务器接收方向传输瓶颈的动态感知算法如下:为每个所述【数据转发服务器】Sq分别设置其与每个所述【数据转发客户端】间的每个或每组应用连接NP对应之B段(BPq)的每次最大IO数据块尺寸BSPq-IO-MAX-SZ和对应的阈值BSPq-SPAWN-MAX-SZ,当从任意一个所述应用连接或连接组NP所对应的B段(BPq)到达所述【数据转发服务器】Sq的消息尺寸连续指定次数大于等于所述BSPq-SPAWN-MAX-SZ值时,就认为所述应用连接或连接组NP在所述【数据转发客户端】与对应的【数据转发服务器】Sq之间的B段(BPq)的【数据转发客户端】侧发送方向发生了拥堵;
其中的客户端接收方向/服务器发送方向传输瓶颈动态感知算法如下:为每个所述【数据转发客户端】上的每个或每组应用连接NP分别设置针对不同所述【数据转发服务器】Sq之对应B段(BPq)的每次最大IO数据块尺寸BPq-IO-MAX-SZ和对应的阈值BPq-SPAWN-MAX-SZ,当由某个所述连接或连接组NP所对应的任意一个B段(BPq)收到来自与之对应的【数据转发服务器】Sq的消息尺寸连续指定次数大于等于所述BPq-SPAWN-MAX-SZ值时,就认为所述连接或连接组NP在所述【数据转发客户端】与对应的【数据转发服务器】Sq之间的B段(BPq)的【数据转发客户端】侧发接收方向发生了拥堵。
需要说明的是,本发明中的术语“应用连接”及“应用级连接”并不是指OSI七层模型中的“应用层”协议。而是指由【应用程序客户端】和/或【应用程序服务器】等实际应用(而非隧道或转发服务)所发起的A段和C段的任何连接(通常为OSI的传输层或应用层,如TCP、HTTP等)。因此,与“应用连接”及“应用级连接”相对应的是由【数据转发客户端】和/或【数据转发服务器】所发起的,对应B段和/或L段的“隧道连接”、“转发连接”或“加速连接”。除非特别说明,否则本发明中的“隧道连接”、“转发连接”、“加速连接”三个术语等义,均指位于【数据转发客户端】与【数据转发服务器】之间(B段或L段)的,用于转发应用连接数据的中转连接。
此外,【隧道客户端】属于【数据转发客户端】中的一种,除非明确指明,否则在本文中两者等义且可以互换。类似地,【隧道服务器】属于【数据转发服务器】中的一种,除非明确指明,否则在本文中两者等义且可以互换。
本发明由于采用了上述技术,使之与现有技术相比具有的积极效果是:
本发明成熟可靠,同时无需依赖多个物理设备,仅通过单个网络链路即可为单一连接实现多连接并发加速的效果。
附图说明
图1是本发明用于说明分布式N:M连接动态映射的最简实施例模型图。
图2是本发明的一种典型的分布式N:M连接动态映射实施例模型图。
图3是本发明的一种典型的,逐各连接优化的分布式N:M连接动态映射实施例模型图。
具体实施方式
以下结合附图进一步说明本发明的实施例。
为了使本发明的目的、技术方案和优点更加清楚明白,下面结合功能图和流程图,对本发明做进一步详细说明。以下的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。
本发明一种基于N:M连接动态映射的网络连接加速转发方法,包括以下步骤:
1.动态感知当前隧道等数据转发服务中,N个传输层连接的传输瓶颈。
2.若瓶颈在【隧道客户端】与【隧道服务器】之间,且动态加速连接数量未达到预设的上限M-MAX,则在【隧道客户端】与【隧道服务器】之间创建1条或多条新的中间加速连接,并使用新建后的所有M个中转连接来转发上述N个传输层连接的数据包。
在实际应用场景中,隧道服务通常用于相隔较远的两地(如两座机房之间),用于保证两地间跨公网传输的高效和安全。而【隧道客户端】与【应用程序客户端】,以及【应用程序服务器】与【隧道服务器】则通常都位于各自机房的局域网环境,即:
【应用程序客户端】<----局域网(LAN)---->【隧道客户端】<----广域网(WAN)---->【隧道服务器】<----局域网(LAN)---->【应用程序服务器】。
而众所周知,相对于广域网来说,局域网的性能表现是非常优秀的。因此,通常发生拥塞和降速的网段恰恰就在【隧道客户端】与【隧道服务器】之间。这就使得通过增加并发连接数为对该网段进行加速变得可行。
优选地,对于上述M个中转连接,应当使用空闲优先的原则进行调度,即:每次从N个传输连接中获取到一个数据报文后,均应优先使用M个中转连接中,最空闲的一个来进行转发。这种策略首先最大限度地充分利用了各中转连接的吞吐能力,其次也避免了个别慢速中转连接拖慢安全隧道整体性能(短桶原理)的问题,可最大限度地发挥M个中转连接的总性能。
进一步地,为了在如下连接方式中:
【应用程序客户端】<----N个TCP(A段)---->【隧道客户端】<----M个TCP(B段)<---->【隧道服务器】<----N个TCP(C段)---->【应用程序服务器】
有效地感知传输瓶颈具体发生在A、B、C中的哪个网段,可采用如下算法:
1.为【隧道客户端】设置A段的每次最大IO数据块尺寸A-IO-MAX-SZ和阈值A-SPAWN-MAX-SZ(显然,A-SPAWN-MAX-SZ应小于等于A-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当由A段上的任意个应用连接到达的包尺寸连续A-SPAWN-COUNT次(A-SPAWN-COUNT为0表示无需多次连续)大于等于A-SPAWN-MAX-SZ值时(A段的TCP接收窗口等传输层缓冲区出现数据积压),就可以认为B段的发送方向发生了拥堵。此时可以考虑为B段增加新连接(增加M的值)来提升性能。
2.为【隧道客户端】设置B段的每次最大IO数据块尺寸B-IO-MAX-SZ和阈值B-SPAWN-MAX-SZ(显然,B-SPAWN-MAX-SZ应小于等于B-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当由B段上的任意个转发连接到达的消息尺寸连续B-SPAWN-COUNT次(B-SPAWN-COUNT为0表示无需多次连续)大于等于B-SPAWN-MAX-SZ值时(【隧道服务器】在C段的TCP接收窗口等传输层缓冲区出现数据积压),就可以认为B段的接收方向发生了拥堵。此时可以考虑为B段增加新连接(增加M的值)来提升性能。
优选地,除最大加速连接数M-MAX,消息尺寸阈值A-SPAWN-MAX-SZ、B-SPAWN-MAX-SZ以及连续发生次数A-SPAWN-COUNT、B-SPAWN-COUNT以外,还可以增加加速连接最小创建时间间隔A-SPAWN-MIN-ITV、B-SPAWN-MIN-ITV(创建新加速连接的最小时间间隔,为0表示不限)等参数来控制加速连接的最大创建频率。防止瞬间创建大量加速连接的情况。
优选地,还可以在上述N个TCP等传输层连接中,对其中每个或每组连接逐一进行分别优化,即:
1.逐一地动态感知当前隧道服务中,N个应用连接中,每个或每组应用连接NP的传输瓶颈。
2.针对上述每一个或每组应用连接NP,若瓶颈在【隧道客户端】与【隧道服务器】之间,且针对该NP连接的动态加速连接数量未达到上限MP-MAX,则在【隧道客户端】与【隧道服务器】之间创建1条或多条新的中间加速连接,并使用新建后的所有针对该NP连接的MP个中转连接来转发上述单个NP传输层连接的数据包。
此方式实际上将N:M动态映射调整为了1:M(N=1)动态映射,即:为每一个A段和C段的实际应用连接NP分别配备专用的MP个B段连接来用以加速。
优选地,除了对应用层连接逐一优化外,也可以将应用层连接以任何形式(包括但不限於:按照用法、协议、应用、用户等)进行分组,然后以每个分组(而非每个连接)为单位,逐一对其进行动态连接加速优化。因此在上述说明中,“NP”既可以代表单个连接,也可以代表一个连接分组(其中可包含一个或多个连接)。显然,对单个连接逐一优化的场景是分组优化的一种特殊形式(即:每组中仅包含一个连接)。
比如,当N=1000时,既可以对其中每个连接NP(P=1、2、3、4……、1000)分别进行动态感知和N:M(1:M)加速(例如:为N1与【隧道服务器】建立5条专用加速连转接连接、为N2与【隧道服务器】建立1条专用转接连接、为N3与【隧道服务器】建立10条加速转接连接等等);也可以将其分组后,对每组连接NP(P为1时={N1,N2,N3,N4},P为2时={N5,N7,N130},...)来逐组进行动态感知和N:M加速。
为帮助理解,可考虑对每个应用连接逐一优化,且N等于1时的简单场景:此时MP-MAX可以很大,比如MP-MAX=32。相当于最高可用32个TCP连接来加速单个TCP链路:
【应用程序客户端】<----1个TCP(A段)---->【隧道客户端】<----32个TCP(B段)---->【隧道服务器】<----1个TCP(C段)---->【应用程序服务器】。
进一步地,为了在上述连接方式中有效地感知传输瓶颈具体发生在A、B、C中的哪个网段,可采用如下算法:
1.为【隧道客户端】A段的每个或每组应用连接NP分别设置每次最大IO数据块尺寸AP-IO-MAX-SZ和阈值AP-SPAWN-MAX-SZ(显然,AP-SPAWN-MAX-SZ应小于等于AP-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当A段中的某个或某组应用连接NP到达的包尺寸连续AP-SPAWN-COUNT次(AP-SPAWN-COUNT为0表示无需多次连续)大于等于AP-SPAWN-MAX-SZ时(A段的该或该组TCP应用连接接收窗口等传输层缓冲区出现数据积压),就可以认为该或该组连接在B段的发送方向发生了拥堵。此时可以考虑为该或该组连接在B段增加新的转发连接(增加该连接的MP值)来提升性能。
2.为【隧道客户端】中的每个或每组应用连接NP分别设置对应B段(BP)的每次最大IO数据块尺寸BP-IO-MAX-SZ和阈值BP-SPAWN-MAX-SZ(显然,BP-SPAWN-MAX-SZ应小于等于BP-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当从任意一个NP对应B段(BP)上的任意个转发连接到达的包尺寸连续BP-SPAWN-COUNT次(BP-SPAWN-COUNT为0表示无需多次连续)大于等于BP-SPAWN-MAX-SZ时(【隧道服务器】在C段的该或该组应用连接TCP接收窗口等传输层缓冲区出现数据积压),就可以认为该或该组应用连接在对应B段的接收方向发生了拥堵。此时可以考虑为该连接在B段增加新连接(增加该连接的MP值)来提升性能。
优选地,除每连接最大加速连接数MP-MAX,每连接消息尺寸阈值AP-SPAWN-MAX-SZ、BP-SPAWN-MAX-SZ以及连续发生次数AP-SPAWN-COUNT、BP-SPAWN-COUNT以外,还可以增加加速连接最小创建时间间隔AP-SPAWN-MIN-ITV、BP-SPAWN-MIN-ITV(为每个实际传输连接创建新加速连接的最小时间间隔,为0表示不限)等参数来控制加速连接的最大创建频率。防止瞬间创建大量加速连接的情况。
需要注意的是,从M映射回N时,需要对从不同中转连接到达的消息按照对应的应用连接进行重新排序,以保证每个连接的字节流或消息顺序与发送时一致,否则可能产生通信错误。
进一步地,多个【隧道客户端】与多个【隧道服务器】之间,可以组成交叉加速网络集群。
为了方便理解,先从一个【隧道客户端】(α)与多个【隧道服务器】(β、γ、δ)组成的交叉加速集群开始讨论。为了进一步方便理解,我先仅考察上述【隧道客户端】α中的单个应用级(A段)连接“α1”。在前文中,我们已经详细讨论了单服务器(比如:只存在服务器β)场景下的M:N动态连接映射加速模型如下:
【应用程序客户端】<----α1(A段)---->【隧道客户端α】<----M个加速连接(B段)---->【隧道服务器β】<----α1(C段)---->【应用程序服务器】
现在同样仅观察α1这一个应用级连接,当同时存在多个【隧道服务器】:β、γ、δ时,其M:N动态连接映射加速模型如下,具体如下图1所示:
【应用程序客户端】<----α1(A段)---->【隧道客户端α】<----M1个加速连接(B1段)---->【隧道服务器β】<----α1(C段)---->【应用程序服务器】
【应用程序客户端】<----α1(A段)---->【隧道客户端α】<----M2个加速连接(B2段)---->【隧道服务器γ】<----L1个加速连接(L1段)---->【隧道服务器β】<----α1(C段)---->【应用程序服务器】
【应用程序客户端】<----α1(A段)---->【隧道客户端α】<----M3个加速连接(B3段)---->【隧道服务器δ】<----L2个加速连接(L2段)---->【隧道服务器β】<----α1(C段)---->【应用程序服务器】
由此可见,【应用程序客户端】与【应用程序服务器】之间的单个应用级连接α1,被【隧道客户端α】拆分成了三组分别连接到【隧道服务器】β、γ和δ的加速连接池。其中连接到【隧道服务器β】的加速连接数量为M1,连接到【隧道服务器γ】的加速连接数量为M2,连接到【隧道服务器δ】的加速连接数量为M3。【隧道客户端α】按照前文所述空闲优先的原则对由M1、M2和M3组成的加速连接池中的连接进行调度。
而最终代表【应用程序客户端】与【应用程序服务器】建立该“α1”连接的【隧道服务器】为【隧道服务器β】。因此【隧道服务器γ】和【隧道服务器δ】需要将从M2、和M3连接池接收到的,与“α1”连接相关的数据包重新转发给【隧道服务器β】,并在【隧道服务器β】上恢复“α1”连接的字节/消息顺序后,再发送给【应用程序服务器】。
反之亦然:【隧道服务器β】也需要将从【应用程序服务器】接收到的“α1”连接的数据包以前文所述空闲优先的原则转发到M1、L1和L2组成的加速连池,将其加速转发给【隧道客户端α】,再由【隧道客户端α】恢复“α1”连接的字节/消息顺序后,在发送给【应用程序客户端】。
在本实施例中,只有【隧道服务器β】直接承载了应用连接α1,因此它必须是一个全功能的【隧道服务器】,而由于【隧道服务器γ】和【隧道服务器δ】并未直接承载如“α1”这样的实际应用连接(并未直接连接到【应用程序服务器】),因此它们既可以是一个全功能的【隧道服务器】实例,也可以是仅具备数据转发相关功能的专用版本。
需要说明的是,在上述实施例中,L1与M2并不一定需要1:1对应。实际上,由于相互组合成加速集群的【隧道服务器】节点通常工作在相同的局域网或城域网等高速网络环境内,延迟和吞吐都不再成为瓶颈,因此L1池中的连接数量通常可以远远小于M2。同理,L2与M3也类似。
上述实施例以单个应用级连接“α1”为例,阐明了如何通过对多个【隧道服务器】同时建立多个加速映射连接,来实现多节点集群加速。
同样在同时存在多个【隧道服务器】的场景下,针对一个【隧道客户端】的多个应用级连接,以及针对多个【隧道客户端】的多个连接的加速情形也与之类似:
请参见图2所示,
1.动态感知当前隧道等数据转发服务中,N个传输层连接经由多个【隧道服务器】时的传输瓶颈。
2.若瓶颈在【隧道客户端】与多个和/或某个【隧道服务器】之间,且动态加速连接数量未达到预设的上限M-MAX,则在【隧道客户端】与多个和/或某个【隧道服务器】之间创建1条或多条新的中间加速连接,并使用新建后的所有M个中转连接来转发上述N个传输层连接的数据包。
在上述步骤2中,可按需建立任意多条L段(【隧道服务器】至【隧道服务器】)中转连接。Mn与Ln-1之间的连接映射关系可以是1:1、1:N、N:1或N:M。
进一步地,为了在上述集群连接方式中,有效地感知传输瓶颈具体发生在A、B、C中的哪个网段,除了采用前文所述动态感知算法外,还可单独或配合采用如下进阶算法:
1.为指定【隧道客户端】连接到每个【隧道服务器】Sq的B段(Bq)分别设置每次最大IO数据块尺寸BSq-IO-MAX-SZ和阈值BSq-SPAWN-MAX-SZ(显然,BSq-SPAWN-MAX-SZ应小于等于BSq-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当由Bq段上的任意个转发连接到达Sq的消息尺寸连续BSq-SPAWN-COUNT次(BSq-SPAWN-COUNT为0表示无需多次连续)大于等于BSq-SPAWN-MAX-SZ值时(【隧道服务器】Bq段的TCP接收窗口等传输层缓冲区出现数据积压),就可以认为【隧道服务器】Sq与指定对应【隧道客户端】之间的Bq段的Sq接收方向(即:对应【隧道客户端】的发送方向)发生了拥堵。此时可以考虑为指定【隧道客户端】至【隧道服务器n】的B段(Bq)增加新连接(增加M的值)来提升性能。
2.为指定【隧道客户端】设置分别针对不同【隧道服务器】Sq之B段(Bq)的每次最大IO数据块尺寸Bq-IO-MAX-SZ和阈值Bq-SPAWN-MAX-SZ(显然,Bq-SPAWN-MAX-SZ应小于等于Bq-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当指定【隧道客户端】从与某一【隧道服务器】Sq对应的Bq段上的任意个转发连接上收取到的包尺寸连续Bq-SPAWN-COUNT次(Bq-SPAWN-COUNT为0表示无需多次连续)大于等于Bq-SPAWN-MAX-SZ值时(Sq在C段的TCP接收窗口等传输层缓冲区出现数据积压),就可以认为该【隧道客户端】与指定【隧道服务器】Sq之间的Bq段的客户端接收方向(Sq发送方向)发生了拥堵。此时可以考虑为指定【隧道客户端】至Sq之间的Bq段增加新连接(增加M的值)来提升性能。
在上述描述中,“q”为服务器S的编号,例如有5台【隧道服务器】,编号分别为S1、S2、S3、S4和S5,则此时q∈{1,2,3,4,5}。即:Sq可指代其中任意一台【隧道服务器】。而Bq则代表这台【隧道服务器】与指定的【隧道客户端】之间的中转加速连接池(每个连接池中可包含任意多个中转连接)。
优选地,还可以增加加速连接最小创建时间间隔BSq-SPAWN-MIN-ITV、Bq-SPAWN-MIN-ITV(创建新加速连接的最小时间间隔,为0表示不限)等参数来控制加速连接的最大创建频率。防止瞬间创建大量加速连接的情况。
上述算法可动态地感知瓶颈,并在由多个【隧道客户端】和多个【隧道服务器】组成的集群网络中,将【隧道客户端】与【隧道服务器】之间的总带宽有效利用到最大。
优选地,请参见图3所示,还可以在上述N个TCP等传输层连接中,对其中每个连接逐一进行分别优化,即:
1.逐一地动态感知当前隧道服务中,N个应用连接中,每个或每组连接NP分别经由多个【隧道服务器】时的传输瓶颈。
2.针对上述每一个或每组连接NP,若瓶颈在【隧道客户端】与多个和/或某个【隧道服务器】之间,且针对该(或该组)NP连接的动态加速连接数量未达到上限MP-MAX,则在【隧道客户端】与多个和/或某个【隧道服务器】之间创建1条或多条新的中间加速连接,并使用新建后的所有针对该(或该组)NP连接的MP个中转连接来转发上述单个或单组NP应用连接的数据包。
在上述步骤2中,可按需为每个或每组应用连接NP(由应用而非隧道创建的N个传输层连接)建立任意多条对应的L段(【隧道服务器】至【隧道服务器】)中转连接。MPn与Ln-1之间的连接映射关系可以是1:1、1:N、N:1或N:M。
此方式实际上将N:M动态映射调整为了1:M(N=1)动态映射,即:为每一个A段和C段的实际应用连接或连接组NP分别配备同时连接到多个【隧道服务器】的MP(MP=MP1+MP2+MP3....+MPq,其中每个MPq为分别连接到不同【隧道服务器】Sq的子连接池)个专用B段连接来用以加速。
优选地,除了对应用层连接逐一优化外,也可以将应用层连接以任何形式(包括但不限於:按照用法、协议、应用、用户等)进行分组,然后以每个分组(而非每个连接)为单位,逐一对其进行动态连接加速优化。因此在上述说明中,“NP”既可以代表单个连接,也可以代表一个连接分组(其中可包含一个或多个连接)。显然,对单个连接逐一优化的场景是分组优化的一种特殊形式(即:每组中仅包含一个连接)。
比如,当N=1000,【隧道服务器】数量为5时,既可以对其中每个连接NP(P=1、2、3、4……、1000)分别针对5个【隧道服务器】(S1-S5)各自进行逐一动态感知和多服务器节点的N:M(1:M)加速(例如:N1可与S1建立3条加速中转连接,与S2建立5条加速中转连接,与S3建立2条加速中转连接,与S4和S5不建立加速中转连接、N2可与S1-S5各建立5条加速中转连接、N3仅与S2建立加速中转连接等等);也可以将其分组后,对每组连接NP(P为1时={N1,N2,N3,N4},P为2时={N5,N7,N130},...)来针对不同【隧道服务器】S1至S5逐台服务器逐组进行动态感知和N:M加速。
进一步地,为了在上述针对逐个应用连接优化的集群连接方式中,有效地感知传输瓶颈具体发生在A、B、C中的哪个网段,除了采用前文所述动态感知算法外,还可单独或配合采用如下进阶算法:
1.为每个【隧道服务器】Sq设置针对每个或每组应用连接NP之B段(BPq)的每次最大IO数据块尺寸BSPq-IO-MAX-SZ和阈值BSPq-SPAWN-MAX-SZ(显然,BSPq-SPAWN-MAX-SZ应小于等于BSPq-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当由BPq段到达的消息尺寸连续BSPq-SPAWN-COUNT次(BSPq-SPAWN-COUNT为0表示无需多次连续)大于等于BSPq-SPAWN-MAX-SZ值时(BPq段的Sq TCP接收窗口等传输层缓冲区出现数据积压),就可以认为该(或该组)应用连接NP在其【隧道客户端】与对应【隧道服务器】Sq之间的BPq段Sq接收方向(即:对应【隧道客户端】的发送方向)发生了拥堵。此时可以考虑为NP在BPq段增加新中转连接(增加MP的值)来提升性能。
2.为指定【隧道客户端】设置分别针对不同【隧道服务器】Sq之每个或每组应用连接NP对应B段(BPq)的每次最大IO数据块尺寸BPq-IO-MAX-SZ和阈值BPq-SPAWN-MAX-SZ(显然,BPq-SPAWN-MAX-SZ应小于等于BPq-IO-MAX-SZ,大多数情况下两者应比较接近,如前者为后者数值的95%,为0表示不限)。这样,当该【隧道客户端】从与某个【隧道服务器】Sq对应的BPq段接收到的包尺寸连续PBq-SPAWN-COUNT次(BPq-SPAWN-COUNT为0表示无需多次连续)大于等于BPq-SPAWN-MAX-SZ值时(Sq在C段的TCP接收窗口等传输层缓冲区出现数据积压),就可以认为NP在其【隧道客户端】与对应【隧道服务器】Sq之间的BPq段的【隧道客户端】接收方向发生了拥堵。此时可以考虑为该(或该组)连接所在【隧道客户端】与Sq之间的BPq段增加新连接(增加MP的值)来提升性能。
正如前文所述,在上述描述中,“q”为服务器S的编号,Sq可指代所有【隧道服务器】集群中的任意一台服务器。与此同时,如前文所述,“P”可指代一个或一组应用连接。因此BPq则代表:为任意应用连接P,在其对应某一【隧道客户端】与任意【隧道服务器】“q”(Sq)之间建立的中转加速连接池(B段,每个连接池中可包含任意多个中转连接)。即:BPq代表专为连接或连接组NP服务的中转连接池MP中,专门将其流量中转到Sq上的那部分子中转连接池。例如:“B12”(P=1,q=2)表示“为应用连接N1(1号或1组)专门建立的加速中转连接池中,连接到服务器S2的子中转连接池(该子连接池通过N1所在的【隧道客户端】与S2建立上述子连接池)”。
优选地,还可以在上述逐个应用级传输连接优化的方案中,增加加速连接最小创建时间间隔BSPq-SPAWN-MIN-ITV、BPq-SPAWN-MIN-ITV(为每个实际传输连接创建新加速连接的最小时间间隔,为0表示不限)等参数来控制加速连接的最大创建频率。防止瞬间创建大量加速连接的情况。上述算法可针对每个或每组应用连接,逐个动态感知瓶颈,并在由多个【隧道客户端】和多个【隧道服务器】组成的集群网络中,将【隧道客户端】与【隧道服务器】之间的总带宽有效利用到最大。确保每个应用连接都经由最大程度的优化和加速。
相比于传统的1:1映射的隧道产品,或N:1VPN产品,本发明在多个典型应用场景下均有巨大的性能提升。相较于需要多个底层物理设备并且尚未成熟,无法在生产环境实际使用的MPTCP,本发明成熟可靠,同时无需依赖多个物理设备,仅通过单个网络链路即可为单一连接实现多连接并发加速的效果。
需要说明的是,在上述所有实施例中,【隧道客户端】(即:【数据转发客户端】)均可以是任意多个。虽然为了方便说明,实施例会聚焦某一个【隧道客户端】来做技术方案讲解,但实际使用时并不限制【隧道客户端】的数量。就好比讲解Web原理时,为了便于理解,我们通常只描述单个浏览器如何与Web服务器进行通信。但实际使用时,一个Web服务器可同时接受和处理来自多个浏览器的请求。
综上所示,本发明根据实际使用情形,通过为一组或单个连接动态创建对应的加速转发连接的方式解决了数据通过隧道等技术转发时的性能瓶颈问题。可以使得单个连接的传输性能等同于多个连接的并发传输性能。
Claims (8)
1.一种基于N:M连接动态映射的网络连接加速转发方法,其特征在于,包含数据转发客户端和数据转发服务器;所述数据转发客户端可在任意应用程序客户端与所述数据转发服务器之间转发数据;所述数据转发服务器可在所述数据转发客户端与任意应用程序服务器之间转发数据;还包括以下步骤:
步骤一:动态监测;动态感知当前数据转发服务中,N个应用连接的传输瓶颈;
步骤二:创建新的中间加速连接;若瓶颈在所述数据转发客户端与数据转发服务器之间,且动态加速连接数量未达到预设的上限M-MAX,则在所述数据转发客户端与数据转发服务器之间创建1条或多条新的中间加速连接,并使用新建后的所有M个中转连接来转发上述N个应用连接的数据包。
2.根据权利要求1所述的基于N:M连接动态映射的网络连接加速转发方法,其特征在于,
所述步骤一为:逐一地动态感知当前数据转发服务的N个或N组应用连接中,每个或每组应用连接NP的传输性能瓶颈;
所述步骤二是针对上述每个或每组应用连接NP进行的。
3.根据权利要求1所述的基于N:M连接动态映射的网络连接加速转发方法,其特征在于,所述步骤一为:动态感知当前数据转发服务中,N个应用连接与多个所述数据转发服务器之间,总体和/或针对不同的所述数据转发服务器各自的传输瓶颈;所述步骤二是针对每个所述数据转发服务器总体和/或各自进行的。
4.根据权利要求2所述的基于N:M连接动态映射的网络连接加速转发方法,其特征在于,
所述步骤一为:逐一地动态感知当前数据转发服务的N个或N组应用连接中,每个或每组应用连接NP分别与多个所述数据转发服务器之间,总体和/或针对不同的所述数据转发服务器各自的传输瓶颈;所述步骤二是针对每个或每组所述应用连接NP与每个所述数据转发服务器分别逐一进行的。
5.根据权利要求1或权利要求3中任意一项权利要求所述的基于N:M连接动态映射的网络连接加速转发方法,其中所述传输瓶颈包括数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈和数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈;
所述数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈的动态感知算法如下:为每个所述数据转发客户端设置A段的每次最大IO数据块尺寸A-IO-MAX-SZ和与之对应的阈值A-SPAWN-MAX-SZ,所述A-SPAWN-MAX-SZ的值小于等于所述A-IO-MAX-SZ,当由所述A段到达所述数据转发客户端的包尺寸连续指定次数大于等于所述A-SPAWN-MAX-SZ的值时,就认为所述数据转发客户端的B段发送方向发生了拥堵;
其中的数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈的动态感知算法如下:为每个所述数据转发客户端设置B段的每次最大IO数据块尺寸B-IO-MAX-SZ和与之对应的阈值B-SPAWN-MAX-SZ,所述B-SPAWN-MAX-SZ的值小于等于所述B-IO-MAX-SZ,当由所述B段到达所述数据转发客户端的消息尺寸连续指定次数大于等于所述B-SPAWN-MAX-SZ值时,就认为所述数据转发客户端的B段接收方向发生了拥堵;
其中,所述A段是应用程序客户端与所述数据转发客户端之间的网络连接,所述B段是所述数据转发客户端与数据转发服务器之间的网络连接。
6.根据权利要求2或权利要求4中任意一项权利要求所述的基于N:M连接动态映射的网络连接加速转发方法,其中所述传输瓶颈包括所述数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈和所述数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈;
其中的所述数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈动态感知算法如下:为每个所述数据转发客户端A段中的每个或每组应用连接NP分别设置对应的每次最大IO数据块尺寸AP-IO-MAX-SZ和与之对应的阈值AP-SPAWN-MAX-SZ,所述AP-SPAWN-MAX-SZ的值小于等于所述AP-IO-MAX-SZ,当由所述A段中的某一个或一组所述应用连接NP到达所述数据转发客户端的包尺寸连续指定次数大于等于所述AP-SPAWN-MAX-SZ时,就认为所述应用连接或连接组NP在与之对应B段BP的数据转发客户端侧发送方向发生了拥堵;
其中的所述数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈动态感知算法如下:为每个所述数据转发客户端中的每个或每组应用连接NP对应之B段BP分别设置对应的每次最大IO数据块尺寸BP-IO-MAX-SZ和与之对应的阈值BP-SPAWN-MAX-SZ,所述BP-SPAWN-MAX-SZ的值小于等于所述BP-IO-MAX-SZ,当任意一个或一组所述应用连接NP对应的所述B段BP上的到达所述数据转发客户端的消息尺寸连续指定次数大于等于所述BP-SPAWN-MAX-SZ时,就认为所述应用连接或连接组NP在与之对应的所述B段BP的数据转发客户端侧接收方向发生了拥堵;
其中,所述A段是应用程序客户端与所述数据转发客户端之间的网络连接,所述B段BP是所述数据转发客户端与数据转发服务器之间的网络连接。
7.根据权利要求3所述的基于N:M连接动态映射的网络连接加速转发方法,其特征在于,以数据转发服务器之实例Sq(q=1,2,3,4……)来指代多个所述数据转发服务器中的任意一个;其中所述传输瓶颈包括数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈和所述数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈;
其中的所述数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈的动态感知算法如下:为每个所述数据转发服务器Sq分别设置与每个所述数据转发客户端对应之B段Bq的每次最大IO数据块尺寸BSq-IO-MAX-SZ和与之对应的阈值BSq-SPAWN-MAX-SZ,所述BSq-SPAWN-MAX-SZ小于等于所述BSq-IO-MAX-SZ,当由任意一个所述数据转发客户端中的任意一个所述B段Bq到达与之对应的所述数据转发服务器Sq的消息尺寸连续指定次数大于等于所述BSq-SPAWN-MAX-SZ值时,就认为对应的所述数据转发客户端与所述数据转发服务器Sq之间的所述B段Bq在所述数据转发客户端侧发送方向发生了拥堵;
其中的所述数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈的动态感知算法如下:为每个所述数据转发客户端设置分别针对不同数据转发服务器Sq对应之B段Bq的每次最大IO数据块尺寸Bq-IO-MAX-SZ和与之对应的阈值Bq-SPAWN-MAX-SZ,所述Bq-SPAWN-MAX-SZ小于等于所述Bq-IO-MAX-SZ,当所述数据转发客户端与任意一个所述数据转发服务器Sq之间的B段Bq到达所述数据转发客户端的消息尺寸连续指定次数大于等于所述Bq-SPAWN-MAX-SZ值时,就认为所述数据转发客户端与对应的数据转发服务器Sq之间的B段Bq在所述数据转发客户端侧接收方向发生了拥堵;
其中,A段是应用程序客户端与所述数据转发客户端之间的网络连接,所述B段Bq是所述数据转发客户端分别与各个数据转发服务器Sq之间的网络连接。
8.根据权利要求4所述的基于N:M连接动态映射的网络连接加速转发方法,其特征在于,以数据转发服务器之实例Sq(q=1,2,3,4……)来指代多个所述数据转发服务器中的任意一个;其中所述传输瓶颈包括所述数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈和所述数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈;
其中的所述数据转发客户端发送方向/数据转发服务器接收方向传输瓶颈的动态感知算法如下:为每个所述数据转发服务器Sq分别设置其与每个所述数据转发客户端间的每个或每组应用连接NP对应之B段BPq的每次最大IO数据块尺寸BSPq-IO-MAX-SZ和对应的阈值BSPq-SPAWN-MAX-SZ,所述BSPq-SPAWN-MAX-SZ小于等于所述BSPq-IO-MAX-SZ,当从任意一个所述应用连接或连接组NP所对应的B段BPq到达所述数据转发服务器Sq的消息尺寸连续指定次数大于等于所述BSPq-SPAWN-MAX-SZ值时,就认为所述应用连接或连接组NP在所述数据转发客户端与对应的数据转发服务器Sq之间的B段BPq的数据转发客户端侧发送方向发生了拥堵;
其中的所述数据转发客户端接收方向/数据转发服务器发送方向传输瓶颈动态感知算法如下:为每个所述数据转发客户端上的每个或每组应用连接NP分别设置针对不同所述数据转发服务器Sq之对应B段BPq的每次最大IO数据块尺寸BPq-IO-MAX-SZ和对应的阈值BPq-SPAWN-MAX-SZ,所述BPq-SPAWN-MAX-SZ小于等于所述BPq-IO-MAX-SZ,当所述数据转发客户端由某个所述应用连接或连接组NP所对应的任意一个B段BPq收到来自与之对应的数据转发服务器Sq的消息尺寸连续指定次数大于等于所述BPq-SPAWN-MAX-SZ值时,就认为所述应用连接或连接组NP在所述数据转发客户端与对应的数据转发服务器Sq之间的B段BPq的数据转发客户端侧接收方向发生了拥堵;
其中,A段是应用程序客户端与所述数据转发客户端之间的网络连接,所述B段BPq是所述数据转发客户端分别与各个数据转发服务器Sq之间的网络连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110272876.1A CN113014512B (zh) | 2021-03-14 | 2021-03-14 | 基于n:m连接动态映射的网络连接加速转发方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110272876.1A CN113014512B (zh) | 2021-03-14 | 2021-03-14 | 基于n:m连接动态映射的网络连接加速转发方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113014512A CN113014512A (zh) | 2021-06-22 |
CN113014512B true CN113014512B (zh) | 2022-12-09 |
Family
ID=76406640
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110272876.1A Active CN113014512B (zh) | 2021-03-14 | 2021-03-14 | 基于n:m连接动态映射的网络连接加速转发方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113014512B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114567686B (zh) * | 2022-04-29 | 2022-08-09 | 天津南大通用数据技术股份有限公司 | 一种用于网络服务模块的网络模型管理方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101977234A (zh) * | 2010-11-02 | 2011-02-16 | 中南大学 | 基于并行tcp技术的广域网通信加速方法 |
CN103023987A (zh) * | 2012-11-27 | 2013-04-03 | 蓝盾信息安全技术股份有限公司 | 一种基于tcp连接的多路复用的方法 |
CN103067293A (zh) * | 2012-12-31 | 2013-04-24 | 北京京东世纪贸易有限公司 | 负载均衡设备的连接管理和复用的方法和系统 |
CN109412960A (zh) * | 2018-10-17 | 2019-03-01 | 国网四川省电力公司经济技术研究院 | 基于tcp连接数量动态调节的高并发tcp应用拥塞控制方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8700695B2 (en) * | 2004-12-30 | 2014-04-15 | Citrix Systems, Inc. | Systems and methods for providing client-side accelerated access to remote applications via TCP pooling |
CN104539531B (zh) * | 2014-12-25 | 2019-08-02 | 网宿科技股份有限公司 | 数据传输方法及装置 |
CN106453356B (zh) * | 2016-10-25 | 2019-08-02 | 网宿科技股份有限公司 | 无线网络双边加速传输方法和系统 |
CN109005179B (zh) * | 2018-08-10 | 2020-11-06 | 常州中价之星软件技术有限公司 | 基于端口控制的网络安全隧道建立方法 |
-
2021
- 2021-03-14 CN CN202110272876.1A patent/CN113014512B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101977234A (zh) * | 2010-11-02 | 2011-02-16 | 中南大学 | 基于并行tcp技术的广域网通信加速方法 |
CN103023987A (zh) * | 2012-11-27 | 2013-04-03 | 蓝盾信息安全技术股份有限公司 | 一种基于tcp连接的多路复用的方法 |
CN103067293A (zh) * | 2012-12-31 | 2013-04-24 | 北京京东世纪贸易有限公司 | 负载均衡设备的连接管理和复用的方法和系统 |
CN109412960A (zh) * | 2018-10-17 | 2019-03-01 | 国网四川省电力公司经济技术研究院 | 基于tcp连接数量动态调节的高并发tcp应用拥塞控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113014512A (zh) | 2021-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11777843B2 (en) | System and method for facilitating data-driven intelligent network | |
CN108881056B (zh) | 一种拥塞控制方法、网络设备及其网络接口控制器 | |
US9781052B2 (en) | Virtual machine and application movement over local area networks and a wide area network | |
CN110912798B (zh) | 用于通过聚合连接传输数据的方法及系统 | |
US8576875B2 (en) | Systems and methods of improving performance of transport protocols in a multi-path environment | |
EP3531620B1 (en) | Method for processing message in hybrid access network, and network device | |
EP2788883B1 (en) | Tcp connection relocation | |
CN107396396A (zh) | 支持多源多径的数据传输管理方法 | |
CN109120540B (zh) | 传输报文的方法、代理服务器和计算机可读存储介质 | |
CN106576108A (zh) | 通信系统中的通信方法和设备及系统 | |
CN111800336A (zh) | 基于多通道网络链路聚合的路由传输实现方法 | |
CN105577566A (zh) | 报文汇聚传输的方法、装置和系统 | |
CN113014512B (zh) | 基于n:m连接动态映射的网络连接加速转发方法 | |
CN115766605A (zh) | 网络拥塞控制方法、装置及系统 | |
CN104243338A (zh) | 报文处理方法、设备和系统 | |
CN107078861B (zh) | 用于估计丢失数据的方法和系统 | |
Jasem et al. | Efficiency and fairness of new-additive increase multiplicative decrease congestion avoidance and control algorithm | |
Altameemi et al. | Congestion Control Mechanisms and Techniques in Computer Network: A Review | |
Peng et al. | A novel fair bandwidth allocation algorithm for TCP window control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |