CN103109285A - 用于自动调节从发送器通过并行连接到接收器的大量数据传送的机制 - Google Patents
用于自动调节从发送器通过并行连接到接收器的大量数据传送的机制 Download PDFInfo
- Publication number
- CN103109285A CN103109285A CN2011800409179A CN201180040917A CN103109285A CN 103109285 A CN103109285 A CN 103109285A CN 2011800409179 A CN2011800409179 A CN 2011800409179A CN 201180040917 A CN201180040917 A CN 201180040917A CN 103109285 A CN103109285 A CN 103109285A
- Authority
- CN
- China
- Prior art keywords
- transmitter
- receiver
- data
- connection
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L12/00—Data switching networks
- H04L12/66—Arrangements for connecting between networks having differing types of switching systems, e.g. gateways
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
- Dc Digital Transmission (AREA)
- Communication Control (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本发明涉及在发送器和通过网络与发送器连接的接收器之间建立的多个连接上执行大量数据传送。通过在所述多个连接上划分地发送数据来将数据从发送器发送到接收器。通过下述方式来自动调节发送器与接收器之间的连接的最佳数量:当大量数据传送的瓶颈存在于接收器的存储系统中时,关闭现存连接,并且当接收器写数据比从网络接收数据快时,打开新连接。通过下述方式来进一步自动调节连接的数量:取决于发送器读数据比通过网络送出数据快还是慢,打开或关闭连接。
Description
技术领域
本公开内容大体上涉及从发送器通过网络到接收器的数据传送,更具体地,涉及使用并行数据协议从发送器通过网络到接收器的大量数据传送。
背景技术
当在发送器-接收器系统中传送数据时,并行数据协议可被用于发送器-接收器系统中的大量数据传送,在所述发送器-接收器系统中,发送器和接收器通过一个或多个网络进行通信。发送器-接收器系统的例子包括客户端-服务器系统和对等系统。在这样的发送器-接收器系统中,以前考虑在发送器与接收器之间打开多个并行连接(诸如多个TCP连接)。打开多个连接的目的是聚合网络的可用带宽。更准确地讲,发送器与接收器之间的单个连接可能不能使用给定网络中的所有可用带宽。通过打开多个并行连接,可实现任何一个特定网络中的带宽的最大利用。
发明内容
带宽聚合的一个问题是,使得可供使用的带宽的量可以如此大以至于它超出接收器存储数据的能力或者发送器检索用于发送的数据的能力。在这样的数据传送中,从发送器到接收器的数据传送的瓶颈可能不是由可用网络带宽的缺乏而引起的。具体地讲,在存在多余的可用带宽的情况下,数据传送的瓶颈实际上是读取数据和将数据写入到盘时所涉及的物理I/O。
如果I/O存储系统的带宽是瓶颈,则通过使用多个并行连接来聚合带宽的系统将独占比它们能够使用的网络套接字多的可用网络套接字。这样的布置对于通过相同的通信网络操作的其他发送器-接收器系统是不公平的。
在本公开内容中,通过下述方式来解决前述问题,即,基于I/O存储系统的性能来自动调节(autotune)发送器和通过网络与该发送器连接的接收器之间的连接的数量。通过打开和/或关闭连接自动调节连接的数量以便建立两个系统之间的最佳数量的连接。自动调节可具体地通过下述方式发生:当接收器检测到大量数据传送的瓶颈存在于接收器的I/O存储系统中时,关闭现存连接,并且当接收器的I/O存储系统写数据比从网络接收数据快时,打开新连接。而且,通过下述方式来自动调节发送器与接收器之间的连接的数量:当发送器的I/O存储系统读数据比通过网络送出数据快时,打开新连接,并且当发送器的I/O存储系统读数据比通过网络送出数据慢并且多于一个的发送器正将数据发送到接收器时,关闭现存连接。
因此,在这里描述的示例性实施例中,通过网络在发送器与接收器之间建立多个连接。所述多个连接可以是,例如,多个TCP连接。然后通过在所述多个连接上划分地发送数据来将数据从发送器发送到接收器,以便聚合网络的带宽的利用。通过下述方式来自动调节发送器与接收器之间的连接的最佳数量:当接收器检测到大量数据传送的瓶颈存在于接收器的I/O存储系统中时,关闭现存连接。就这一点而言,现存连接的关闭是次要连接而非主要连接的关闭。通过下述方式来进一步自动调节连接的数量:当接收器的I/O存储系统写数据比从网络接收数据快时,打开新连接。另外,通过下述方式来自动调节发送器与接收器之间的连接的数量:当发送器的I/O存储系统读数据比通过网络送出数据快时,打开新连接。通过下述方式来进一步自动调节连接的数量:当发送器的I/O存储系统读数据比通过网络送出数据慢并且多于一个的发送器正将数据发送到接收器时,关闭现存连接。
借助于前述布置,通常可提供自校准,在所述自校准中,发送器和接收器动态地增加和减少连接的数量,以便通过提供理想的吞吐量来改进大量数据传送的性能。另外,在大量的发送器-接收器布置之间保持公平性。例如,如果当前瓶颈是接收器的系统I/O,使得当前数量的并行连接聚合了多余的网络带宽,则可关闭这些连接中的一些,以便释放带宽以供其他发送器-接收器系统使用。
在这里还描述的示例性实施例中,接收器的I/O存储系统包括盘。在这个示例性实施例中,当自动调节连接的数量时,当在接收器的I/O存储系统上执行盘的查找操作时,肯定地检测到大量数据传送的瓶颈在接收器的I/O存储系统中。更具体地讲,因为多个连接正被使用,所以数据可能不能按顺序到达接收器。如果接收器超时等待下一连续数据块,则接收器的I/O存储系统可对乱序数据进行盘写入,这可能要求附加的查找操作。这通常意味着,将数据从发送器传送到接收器比接收器的I/O存储系统将数据写到盘快。因此,瓶颈可能存在于接收器的I/O存储系统中。
在这里描述的另一示例性实施例中,接收器的I/O存储系统包括盘。在这个另一示例性实施例中,当自动调节连接的数量时,当接收器的I/O存储系统将数据写到盘比先前的I/O写速率慢时,肯定地检测到大量数据传送的瓶颈在接收器的I/O存储系统中。所述先前的I/O写速率可以基于先前对多于一次写操作测量的I/O写速率,或者可以基于先前对一时间段的写操作测量的I/O写速率,或者可以基于先前对写操作测量的I/O写速率的加权平均值。例如,如果接收器的I/O存储系统的先前的I/O写速率为10Mb/s,并且接收器的I/O存储系统当前正以5Mb/s写数据,则瓶颈可能存在于接收器的I/O存储系统中。当例如I/O存储系统正在处理其他非MDT应用时,可能发生接收器的I/O存储系统写速率变慢。
在这里描述的另一示例性实施例中,连接数量的自动调节还包括:在发送器检测到大量数据传送的瓶颈存在于网络中的情况下,发送器关闭发送器与接收器之间的现存连接。结果,可减少网络的进一步拥塞。在这个示例性实施例中,在当前的往返时间(RTT)比先前的RTT长时,肯定地检测到大量数据传送的瓶颈在网络中。当前的RTT和先前的RTT可以基于多于一个消息包的RTT,或者可以基于RTT的加权平均值。如果当前的RTT大大地长于先前的RTT,则网络可能忙并且具有来自其他发送器-接收器系统的更多流量。通过在网络忙时关闭现存连接,可减少由通过繁忙网络发送更多数据而引起的任何进一步拥塞。
在这里描述的再一示例性实施例中,连接数量的自动调节还包括:在发送器检测到大量数据传送的瓶颈存在于发送器的I/O存储系统中的情况下,关闭发送器与接收器之间的现存连接。当发送器处的缓冲区基本上空时,肯定地检测到大量数据传送的瓶颈在发送器的I/O存储系统中。
在这里描述的又一示例性实施例中,在发送器检测到发送器处的缓冲区基本上满的情况下,发送器将用于打开新连接的请求发送到接收器,或者利用已经被创建的但是当前未被用于发送数据的连接。因为可减少从发送器发送数据时的延迟或间隙,所以当发送器处的缓冲区基本上满时打开新连接具有提供平稳的总数据传送的有益效果。在一些情况下,可根据网络中的瓶颈的检测或者根据接收器的I/O存储系统中的瓶颈的检测来调整发送器和接收器处的缓冲区大小。具体地讲,在这个示例性实施例中,可增大发送器处的缓冲区的大小,以可能防止缓冲区溢出数据。
根据这里描述的另一示例性实施例,存在多个发送器,每个发送器将多个大量数据传送中的相应一个大量数据传送发送到接收器。在这个示例性实施例中,当通过网络建立发送器与接收器之间的多个连接时,接收器基于其他发送器请求的连接的数量来设置发送器与接收器之间可建立的连接的最多数量。例如,如果接收器具有所有发送器可共享的最多20个连接,并且其他发送器当前正利用这20个连接中的15个连接,则接收器可基于其他发送器正使用的15个连接来设置在其上发送器可用于传送数据的最多5个连接。并且,在这个示例性实施例中,接收器基于其他发送器请求的连接的数量来设置在其内可建立最多数量连接的时间段。另外,接收器基于其他发送器请求的连接的数量来设置用于建立可被建立的最多数量的连接中的每个连接的起始时间。例如,如果接收器设置最多3个连接,则在主要连接被建立之后的1分钟可建立第一次要连接,并且第一次要连接可持续4分钟,并且在主要连接被建立之后的2分钟可建立第二次要连接,并且第二次要连接可持续2分钟。
在这里描述的另一示例性实施例中,作业队列由调度管理器维护,与传入的被请求连接的数量相对比,所述调度管理器管理所有的多个发送器之间存在的当前连接的数量。另外,调度管理器将优先级分配给所述多个发送器中的每一个。就这一点而言,与将较少数量的连接分配给较低优先级的发送器相对比,调度管理器将较多数量的连接分配给较高优先级的发送器。
根据这里描述的另一示例性实施例,当发送器的I/O存储系统读数据比通过网络送出数据快时,发送器将用于打开一个或多个连接的请求发送到接收器。当自动调节连接的数量时,如果被请求的一个或多个连接被调度管理器确定为可用,则接收器打开所述一个或多个连接。
根据这里描述的再一示例性实施例,在当前的往返时间(RTT)从先前的RTT大大地缩短时,发送器将用于打开一个或多个连接的请求发送到接收器。当前的RTT和先前的RTT可以基于多于一个消息包的RTT,或者可以基于RTT的加权平均值。当自动调节连接的数量时,如果被请求的一个或多个连接被调度管理器确定为可用,则接收器打开所述一个或多个连接。
提供这个简要的发明内容,以使得本公开内容的本质可被快速地理解。可通过参照以下具体实施方式和附图来获得更完整的理解。
附图说明
图1是通过在其上可实现示例性实施例的架构的网络连接的多个发送器和接收器的代表性示图。
图2是用于解释图1的发送器的内部架构的详细框图。
图3是用于解释图1的接收器的内部架构的详细框图。
图4A是用于解释根据示例性实施例的发送器与接收器之间的主要连接的建立的发送器和接收器的示图。
图4B是用于解释根据示例性实施例的发送器与接收器之间的次要连接的建立的发送器和接收器的示图。
图5是用于提供根据示例性实施例的接收器向发送器通知增加或减少会话中的连接数量的解释的顺序图。
图6是用于提供根据示例性实施例的将数据从发送器发送到接收器的大体解释的发送器和接收器的另一视图。
图7是根据示例性实施例的针对传输发送器的类图。
图8是根据示例性实施例的针对传输接收器的类图。
图9是根据示例性实施例的针对服务器分配器的类图。
图10是根据示例性实施例的针对数据源的类图。
图11是根据示例性实施例的针对客户端交互的类图。
图12是根据示例性实施例的针对服务器交互的类图。
图13A和图13B是“put”情况下的客户端一方的顺序图。
图14A和图14B是“put”情况下的提供者一方的顺序图。
图15是“get”情况下的客户端一方的顺序图。
图16是“get”情况下的提供者一方的顺序图。
图17是客户端一方用于取消“get”操作的顺序图。
图18是提供者一方用于取消“get”操作的顺序图。
图19是客户端一方用于取消“put”操作的顺序图。
图20是提供者一方用于取消“put”操作的顺序图。
图21是图1的接收器的I/O存储系统中的写操作的代表性示图。
图22是如图21所示的DataWriteQueue2101的代表性示图。
图23是图1的接收器的I/O存储系统中的写操作的另一代表性示图。
图24A是用于在图1中的发送器101的I/O存储系统中检测数据传送中的瓶颈的顺序图。
图24B是图1中的发送器101的I/O存储系统中的读操作的代表性示图。
图25是根据示例性实施例的针对服务器的类图。
图26是根据示例性实施例的针对客户端的类图。
图27是根据示例性实施例的针对数据串化器的类图。
图28是根据示例性实施例的针对数据解串器的类图。
图29是用于在客户端建立会话的顺序图。
图30是用于提供根据示例性实施例的用于在发送器建立开始会话的描述的流程图。
图31是用于提供根据示例性实施例的用于在发送器建立加入会话的描述的流程图。
图32是用于在服务器建立会话的顺序图。
图33是用于提供根据示例性实施例的用于在接收器建立会话的描述的流程图。
图34是用于客户端处的数据交换的顺序图。
图35和图36是用于提供发送器处的数据交换的描述的流程图。
图37是用于服务器处的数据交换的顺序图。
图38和图39是用于提供接收器处的数据交换的描述的流程图。
图40是用于提供另一示例性实施例的详细解释的流程图。
具体实施方式
图1是通过在其上可实现示例性实施例的架构的网络连接的多个发送器与接收器的代表性示图。如图1所示,发送器101、131和132通过网络120与接收器102连接。更具体地讲,发送器101通过网络接口111与网络120连接,发送器131通过网络接口112与网络120连接,发送器132通过网络接口113与网络120连接,接收器102通过网络接口114与网络120连接。在图1中,发送器101、131和132被示出为通过一个网络连接;然而,在其他示例性实施例中,发送器101、131和132以及接收器102可通过多于一个的网络连接。另外,可存在与网络120连接或者与多个网络连接的多于或少于三个的发送器以及多于一个的接收器。
网络120是内联网,但是在其他示例性实施例中,网络120可以是互联网或者任何其他合适类型的用于传送数据的网络。
发送器101、131和132是能够通过网络发送大量数据传送的装置。然而,发送器101、131和132不限于发送数据,还可以是能够接收被传送数据的装置。发送器101、131和132可以是例如计算机或者能够通过网络发送大量数据传送的任何其他装置。另外,发送器101、131和132可以是客户端-服务器系统中的客户端装置,或者可以是对等系统中的对等装置。
接收器102是能够通过网络接收和发送大量数据传送的装置。接收器102可以是例如计算机或者能够通过网络接收和发送大量数据传送的任何其他装置。另外,接收器102可以是客户端-服务器系统中的服务器装置,或者可以是对等系统中的对等装置。
网络接口111至114可以是有线或无线物理接口。网络接口111至114中的每一个包括一个或多个端口,以便与网络120建立一个或多个套接字连接。
图2是用于解释图1的发送器101、131和132中的每一个的内部架构的详细框图。如图2所示,发送器101、131和132中的每一个可包括与计算机总线200接口连接的中央处理单元(CPU)202。还与计算机总线200接口连接的是硬盘(或固定盘)220、网络接口111、112或113、用作主要的运行时暂存器的随机存取存储器(RAM)208、以及只读存储器(ROM)210。
RAM208与计算机总线200接口连接,以便在执行软件程序(诸如操作系统、应用程序和接口驱动程序)中的指令期间将存储在RAM208中的信息提供给CPU202。更具体地讲,CPU202首先将计算机可执行处理步骤从固定盘220或另一存储装置加载到RAM208的区域中。CPU202然后可从RAM208执行被存储的处理步骤,以便执行加载的计算机可执行处理步骤。另外,诸如收集的网络性能统计数据或其他信息之类的数据可被存储在RAM208中,以使得该数据可在计算机可执行软件程序的执行期间被CPU202访问,达到这样的软件程序需要访问和/或修改该数据的程度。
如图2中还示出的,硬盘220包含操作系统228、应用程序230(诸如用于启动和关闭发送器101、131或132的程序)或其他程序。硬盘220还包含用于与网络(诸如网络120)的软件接口的网络驱动程序232。硬盘220还包含用于控制从发送器发送数据的流传输(streaming)软件234。最后,硬盘220包含用于控制发送器101与接收器102之间的连接的数量的自动调节软件236,其将结合图40被更详细地描述。
在示例性实施例中,流传输软件234和自动调节软件236被CPU202加载到RAM208的区域中。CPU202然后从RAM208执行被存储的流传输软件234和自动调节软件236,以便执行加载的计算机可执行步骤。另外,应用程序230被CPU202加载到RAM208的区域中。CPU202然后执行以下结合图40详细描述的被存储的处理步骤,以便执行加载的计算机可执行步骤。
图3是用于解释图1的接收器102的内部架构的详细框图。如图3所示,接收器102包括与计算机总线300接口连接的中央处理单元(CPU)302。还与计算机总线300接口连接的是硬盘(或固定盘)320、网络接口114、用作主要的运行时暂存器的随机存取存储器(RAM)308、以及只读存储器(ROM)310。
RAM308与计算机总线300接口连接,以便在执行软件程序(诸如操作系统、应用程序和接口驱动程序)中的指令期间将存储在RAM308中的信息提供给CPU302。更具体地讲,CPU302首先将计算机可执行处理步骤从固定盘320或另一存储装置加载到RAM308的区域中。CPU302然后可从RAM308执行被存储的处理步骤,以便执行加载的计算机可执行处理步骤。另外,诸如收集的网络性能统计数据或其他信息之类的数据可被存储在RAM308中,以使得该数据可在计算机可执行软件程序的执行期间被CPU302访问,达到这样的软件程序需要访问和/或修改该数据的程度。
如图3中还示出的,硬盘320包含操作系统328、应用程序330(诸如用于启动和关闭接收器102的程序)或其他程序。硬盘320还包含用于与网络(诸如网络120)的软件接口的网络驱动程序332。硬盘320还包含用于控制接收器102接收数据的流传输软件334。另外,硬盘320包含用于对于发送器101与接收器102之间的连接调度不同参数的调度管理器338,其将结合图40被更详细地描述。最后,硬盘320包含用于控制发送器101与接收器102之间的连接的数量的自动调节软件336,其也将结合图40被更详细地描述。
调度管理器338可起到很多作用。例如,调度管理器338可起到保持跟踪被分配给各个数据传送作业/会话的优先级的作用。另外,调度管理器338可起到管理数据传送会话可打开的连接的数量的作用。具体地讲,调度管理器338维护作业队列,以针对给定的数据传送保持跟踪发送器与接收器之间的连接的当前数量。此外,调度管理器338可起到限定给定数量的连接可在发送器与接收器之间被打开的起始时间的作用。最后,调度管理器338可起到下述作用:限定在其内给定数量的连接可被启动和保持打开的时间段或持续时间,并且在该时间段过去之后终止连接。这些作用将在下面结合图40被更详细地描述。
当起到前述作用时,调度管理器338使用某些准则(例如,用户定义的优先级和系统负载定义的优先级)来在每个作用内作出某些决定。用户定义的优先级的一个例子是向高支付客户的数据传送给予高于低支付客户的优先次序。系统负载定义的优先级的一些例子包括:保持系统具有足够的负载而不打断所有的数据传送、带宽和系统资源的有效利用以使得不存在利用不足、公平负载平衡方案(如果用户想使用该方案来进行数据传送);以及与短期数据传送相比优先执行长期数据传送,或者将更多连接给予短期数据传送,以使得它们首先执行它们的传送并退出而无需等待长期数据传送完成。
为了便利于调度管理器338起到前述作用,使得以下信息可供调度管理器338使用:给定发送器与接收器之间的可用带宽,给定数据传送作业的数据大小,被分配给不同发送器的优先级,以及来自自动调节软件336的与基于以下方面的性能的可允许连接数量有关的推荐:当前CPU负荷、当前内存负荷、盘上的当前负荷或者数据传送的任何盘相关瓶颈、以及网络上的当前负荷或者数据传送的任何网络相关瓶颈。
在示例性实施例中,流传输软件334、自动调节软件336和调度管理器338被CPU302加载到RAM308的区域中。CPU302然后从RAM308执行流传输软件334、自动调节软件336和调度管理器338的被存储的处理步骤,以便执行加载的计算机可执行步骤。另外,应用程序330的处理步骤被CPU302加载到RAM308的区域中。CPU302然后执行如以下结合图40详细描述的被存储的处理步骤,以便执行加载的计算机可执行步骤。
图4A是用于解释根据示例性实施例的发送器与接收器之间的主要连接的建立的发送器和接收器的示图。通常,提供并行数据协议(PDP),所述PDP通过多个套接字利用多个传输控制协议(TCP)连接来在发送器101与接收器102之间发送和接收数据。然而,可利用用于多流数据传输的其他多连接系统(即,通过任何面向连接的协议的任何逻辑连接端点),只要接收器在数据被写到存储系统中之前将数据收集到内存缓冲区中即可,其将在下面结合图6被更详细地描述。在图4A中,仅示出了发送器101;然而,在其他示例性实施例中,多于一个的发送器(诸如发送器131和132)可与接收器102形成连接。
在图4A中,所实现的示例性PDP是专有的、轻量级的基于二值请求/响应的协议,该协议使得可通过多个流(比如,TCP连接)来发送和接收数据。在实际的数据传送可发生之前,发送器101首先将请求消息发送到接收器102(401)。请求消息包括向接收器102注册的被请求URI(路径)。当接收器102接收到有效的请求消息时,接收器102用响应消息进行回复,所述响应消息包括接收器102分配的、可供发送器101用于打开数据传送连接的唯一会话id(402)。前述步骤401和402在接收器102启动第一套接字以建立用于传送数据的会话。
在接收器102发送的响应消息中,接收器102包括发送器101被允许加入被建立会话的多个连接。如果发送器101尝试加入多于所提供的多个连接,则接收器102可拒绝额外的加入请求。另外,响应消息可包括被建立会话的生命周期的长度。在所包括的生命周期到期之后,发送器101停止并终止所述会话。
如果接收器102忙,则接收器102将尝试再次创建会话之前的等待时间段返回给发送器101。发送器101然后基于接收器102给予的时间来发送随后的创建会话请求。如果发送器101在规定的时间段到期之前发送随后的创建会话请求,则接收器102将拒绝用于创建会话的请求。
一旦会话被创建,接着数据就可从发送器101被发送到接收器102(403),并且数据就可从接收器102被发送到发送器101(404)。在发送器101与接收器102之间发送的数据包括数据头id和将被发送的若干个数据部分。
图4B是用于解释根据示例性实施例的发送器与接收器之间的次要连接的建立的发送器和接收器的示图。在图4B中,在给定的被建立的会话期间,如以上在图4A中所描述的,发送器101可通过下述方式加入现存的数据传送会话:发送用于打开与接收器102的新连接的加入请求,并提供有效的会话id(405)。如果发送器101提供有效的会话id,则接收器102返回包括加入会话id的响应消息(406)。另外,响应消息可包括状态变化,所述状态变化包括当前会话的维持时间(time-alive)和加入会话的更新列表。
一旦加入会话被创建,数据就可从发送器101被发送到接收器102(407),并且数据就可从接收器102被发送到发送器101(408)。在发送器101与接收器102之间发送的数据包括数据头id和将被发送的若干个数据部分。
在一些情况下,在图4B的步骤406中,接收器102可发送拒绝来自发送器101的加入请求的响应消息。接收器102可拒绝加入请求,例如因为该请求超过了图4A中接收器所提供的允许的连接数量。在这些情况下,响应消息包括当前会话所允许的连接数量。另外,响应消息可包括发送器101在再次试图加入会话之前应该等待的时间段(比如,秒数)。就这一点而言,发送器101可在接收器102提供的该秒数过去之后启动新的加入请求。
图5是用于提供根据示例性实施例的接收器向发送器通知增加或减少会话中的连接数量的解释的顺序图。在图5中,发送器101将偏移为1、长度为1的数据部分发送到接收器102(501)。发送器101然后将偏移为2、长度为2的数据部分发送到接收器102(502),并继续发送具有后续的偏移和长度的数据部分(503)。接收器102然后确定发送器101是否可启动更多的加入会话,并将与偏移和长度一起接收的数据部分的应答与新加入会话的数量和会话id一起发送到发送器101(504)。所述应答还可包括启动新的加入会话之前要等待的时间段。发送器101然后发送具有会话id的加入请求(505),并且一旦会话被创建,发送器101就通过新创建的加入会话来发送包括偏移和长度的另一数据部分(506)。
在一些情况下,接收器102可确定关闭一个或多个现存连接。在这些情况下,接收器发送接收器102已关闭一个或多个连接的应答。当发送器101接收到一个或多个连接已被接收器102关闭的应答时,发送器101通过重新分配在剩余的打开连接上发送的数据来对所述应答作出反应。
图6是用于提供根据示例性实施例的将数据从发送器发送到接收器的大体解释的发送器和接收器的另一示图。在图6中,发送器101包括I/O存储系统,所述I/O存储系统包括存储介质601(诸如存储数据的盘)、数据缓冲区读取器602(包括数据缓冲区621)、以及用于发送数据的数据blob串化器603。发送器101通过连接604a和605a、通过连接604b和605b、以及通过连接604c和605c与接收器102连接。接收器102包括I/O存储系统,所述I/O存储系统包括存储介质609(诸如盘)、数据blob解串器608(包括数据缓冲区622)、以及用于接收发送的数据的数据blob解串器文件607。
在图6中,通过使用单独的线程来异步地完成源数据的实际读取,所述单独的线程与将由发送器101发送的数据一起填充在存储介质601中。数据被数据缓冲区读取器602从存储介质601读取,并被存储在数据缓冲区621中。每个发送器连接604a、604b和604c使下一可用数据块从数据缓冲区621出列。数据缓冲区读取器602从数据缓冲区621读取数据,并且数据blob串化器603通过使下一可用数据块出列的特定连接发送下一可用数据块。发送的数据块通过接收器连接605a、605b和605c中的对应一个被接收。数据blob解串器文件607从接收器连接605a、605b和605c接收发送的数据块。数据blob解串器608将数据存储在数据缓冲区622中,并通过将数据块放入正确顺序中来重新创建原始文件。数据blob解串器608然后使用后台线程来将数据写到存储介质609。
由于性能原因,数据blob解串器608将一些数据高速缓存在数据缓冲区622中,以在数据按原始排序被放置时优选地将数据写到存储介质609。在一些情况下,当在不同的连接上发送的数据的排序变得太过无序时,数据blob解串器608将查找输出文件中的不同位置,并将数据写到存储介质609,以防止处理内存被高速缓存的数据耗尽。
大量数据传送-并行数据协议(MDT-PDP)
在这里描述的示例性架构中,MDT-PDP传输组件充当针对应用内的Soap连接库(SCL)子系统的传输句柄(handler)。这包括传送SOAP请求和响应。从SCL客户端和SCL服务的观点来讲,MDT-PDP传输在功能上等同于SCL的缺省的基于HTTP的传输。然而,这里提供的公开内容不限于前述示例性架构,并且可实现任何传输协议,只要实现权利要求的特征即可。
SOAP连接库的目的是提供基于SOAP消息的Web服务的提供者(即,接收器)功能和客户端功能。提供者功能是提供Web服务以执行特定处理并提供用于访问的信息的功能。反之,客户端功能是访问Web服务的功能。使用SOAP连接库的Web服务不仅是客户端使用SOAP连接库,而且它还使得能够对来自使用Microsoft.NET框架和其他Web服务框架的客户端的请求进行处理。类似地,客户端功能不仅是Web服务使用SOAP连接库,而且它还使得能够执行与使用.NET框架和其他Web服务框架的Web服务相关的请求。
在这里描述的示例性架构中,MDT-PDP实现了SCL内定义的传输句柄接口。它们是发送器和接收器中的每一方的PdpTransportReceiver和PdpTransportSender。发送器一方的PdpTransportSender负责通过PDP发送器与PDP接收器之间的并行连接来建立PDP发送器会话句柄链内的这些句柄的调用取决于数据的流动方向和发起者。句柄链内的这些句柄的调用还与底层PDP层处的数据传送的开始和结束相关。
图7至图12是形成示例性实施例的架构的每个主要类的类图。以下结合图13至图20来详细地提供关于每个主要类之间的具体关系和交互的描述。
图7是根据示例性实施例的针对传输发送器的类图。如图7所示,pdp::PdpTransportClientSender对象703和pdp::PdpTransportProviderSender对象704均继承pdp::PdpTransportSender对象702。另外,pdp::PdpTransportSender对象702实现SCL库的transport::TransportSender对象701。图7的类图中的send()方法使用MessageContext对象通过传输层发送消息。当该方法对消息的发送进行处理时,该方法被调用。
图8是根据示例性实施例的针对传输接收器的类图。如图8所示,pdp::PdpTransportClientReceiver对象和pdp::PdpTransportProviderReceiver对象804均继承pdp::PdpTransportReceiver对象802。另外,pdp::PdpTransportReceiver对象802实现transport::TransportReceiver对象801。这个receive()方法从传输层接收消息,并执行管理以将接收的消息的各种信息存储在Message类中以供接收。
图9是根据示例性实施例的针对服务器分配器的类图。如图9所示,pdp::SoapDispatcher对象903继承server::DispatcherBase对象902,并依赖于pdp::DataBlobProviderSoap对象904和application::ApplicationInfo对象905。另外,server::DispatcherBase对象902依赖于server::Dispatcher对象901。SoapDispatcher类包含维护信息的AppicationInfo对象,所述信息诸如当用户用Soap连接库创建服务或客户端时的操作信息和客户端信息。因此,SoapDispatcher可通过ApplicationInfo对象与SCL通信,并且SCL将对于不同类型的分配句柄的DispatcherHandler(未示出)包含在DispatchHandlerChain对象(未示出)中。
图10是根据示例性实施例的针对数据源的类图。如图10所示,pdp::MdtDataSource对象1002继承dataholder::DataSource对象1003,并与transport::DataBlobDeserializerFile对象1001相关联。DataSource对象包含允许调用者检索其中保存有数据的inputStream对象的功能。
图11是根据示例性实施例的针对客户端交互的类图。如图11所示,PdpTransportClientReceiver对象1101和PdpTransportClientSender对象1103中的每一个依赖于SimpleClient对象1102。DataSource对象包含针对MDT客户端的客户端信息。
图12是根据示例性实施例的针对服务器交互的类图。如图12所示,PdpTransportProviderReceiver对象1202和PdpTransportProviderSender对象1203中的每一个依赖于ServerSession对象1201。ServerSession定义PDP服务器的服务器会话。
图13A和图13B是“put”情况下的客户端一方的顺序图。如图13A所示,在1301中,SCLClient对象从用户继承PUT(<filename>)。在1302中,:HandlerChain对象从SCLClient对象继承invoke(MessageContext)。在1303中,:PdpTransportClientSender从:HandlerChain对象继承init(MessageContext)。在1304和1305中,:PdpTransportClientSender对象与:DataBlobProviderSoap对象和:SimpleClient对象相关联。在1306、1307和1308中,:SimpleClient对象从:PdpTransportClientSender对象继承setDataBlobProvider(DataBlobProvider)、setLocalInetAddresses(inetAdress[])和setConnectionOptions(PdpConnectionOptions)。在1309中,:PdpTransportClientSender对象从:HandlerChain对象继承send(MessageContext)。SCLClient对象充当SOAP客户端,所述SOAP客户端利用MDT和PDP协议通过该定制的传输来发送和接收SOAP消息。SimpleClient对象是允许发送器利用PDP协议通过多个连接来发送数据的“简单”组件。此外,对于“PUT”操作,发送器将数据发送到接收器(即,提供者)。对于“GET”操作,发送器从提供者(即,接收器)取回数据。
在1310中,:SimpleClient对象从:PdpTransportClientSender对象继承getSession():ClientSession。在1311中,:SimpleClient对象与:ClientSession对象相关联,并且在1312和1313中,:ClientSession对象与:DataBlobSerializeQueue对象和:DataBlobDeserializeQueue对象相关联。在1314中,:ClientSession对象从:SimpleClient对象继承startSession(MessageRequest):MessagesResponse。在1315中,:ClientSession对象与:ClientConnection对象相关联。在1316和1317中,:ClientConnection对象从它自己继承createSession(MessageRequest)和doRequest()。在1318中,:ClientConnection对象与:ClientSession对象相关联。在1319中,:ClientSession对象与:SimpleClient对象相关联。在1320中,:SimpleClient对象与:PdpTransportClientSender对象相关联。在1321中,:PdpTransportClientSender对象与:DataBlobSerializerSoap对象相关联。在1322中,:DataBlobSerializeQueue对象从:PdpTransportClientSender对象继承addDataBlob(DataBlobSerializer)。在1323中,:PdpTransportClientSender对象从:HandlerChain对象继承destroy(MessageContext),并且在1324中,:ClientSession对象从:PdpTransportClientSender对象继承waitForRequestCompletion()。在1325中,:PdpTransportClientReceiver对象从:HandlerChain对象继承receive(MessageContext)。应该注意的是,DataBlobSerializerSoap类扩展DataBlobSerializer(参见比如下述图27),并利用SCLMessageSerializer对象来使MessageContext对象中的消息串行化。DataBlobSerializer将数据blob串化器定义为抽象类,该抽象类也被以下更详细描述的DataBlobSerializerNoData和DataBlobSerializerPartStream扩展。
在1326中,:DataBlobSerializerSoap对象从:ClientConnection对象继承serialize(OutputStream)。在1327中,:ClientConnection对象从它自己继承doReponse()。在1328中,:ClientSession对象从:ClientSession对象继承setCompletionStatus(SESSION_RESPONSE)。在1330中,:SimpleClient对象从:PdpTransportClientReceiver对象继承read():DataBlobDeserializer。在1329中,:ClientSession对象从:SimpleClient对象继承waitForCompletion()。在1331中,:ClientSession对象从:SimpleClient对象继承getIncominDataBlobs:DataBlobDeserializerQueue。在1332中,:DataBlobDeserializerQueue对象从:SimpleClient对象继承getDataBlobs():DataBlobDeseralizer。在1333中,:SimpleClient对象与:PdpTransportClientReceiver相关联。在1334中,:PdpTransportClientReceiver从它自己继承deseriliaze(DataBlobDeserializer[]MessageContext)。
图14A和图14B是“put”情况下的提供者一方的顺序图。如图14A所示,:ServerConnection对象从它自己继承doRequest。在1402中,:ServerSession从:ServerConnection对象继承getIncominDataBlobs():DataBlobDeserializeQueue。在1403和1404中,:DataBlobDeserializerQueue对象和:DataBlobDeserializer对象从:ServerConnection对象继承getDataBlob(MessagesHeader):DataBlobDeserializer和deserialize(InputStream)。在1405中,:ServerSession对象从:ServerConnection对象继承setCompletionState(SESSION_REQUEST)。在1406中,:SoapDispatcher对象从:ServerSession对象继承doWork(ServerSession)。在1414中,:HandlerChain从:SoapDispatcher对象继承invoke(MessageContext)。在1415中,:PdpTransportProviderReceiver从:HandlerChain对象继承receive(MessageContext)。在1407和1408中,:ServerSession对象和:DataBlobDeserializerQueue从:PdpTransportProviderReceiver对象继承getIncominDataBlobs():DataBlobDeserializerQueue和getDataBlobs():DataBlobDeserializer。应该注意的是,DataBlobDeserializerFile类实现基于文件的数据blob解串器。DataBlobDeserializerQueue类实现数据blob解串器队列。DataBlobDeserializerRAF类的实现是将数据部分解串到单个文件的一种实现。这个DataBlobDeserializerRAF实现使用RandomAccessFile(“RAF”)来写出数据部分。此外,尽管使用内存中数据部分缓冲区和后台写线程,但是将输入流写到盘和从输入流进行读取是去耦合的(decoupled)。ServerConnection类包括PDP服务器和PDP服务器的会话信息。调用者可通过该类创建并启动PDP连接并且接收和发送消息。
在1409中,:ServerConnection对象从它自己继承doResponse。在1416和1417中,:PdpTransportProviderReceiver继承deserializeSOAP(DataBlobDeserializeerFile,MessageContext)和deserializeAttachment(DataBlobDeserializerRAF,MessageContext)。在1418中,:PdpTransportProviderReceiver对象从:HandlerChain对象继承destroy(MessageContext)。在1419和1420中,:PdpTransportProviderSender对象从:HandlerChain对象继承init(MessageContext)和send(MessageContext)。在1421中,:PdpTransportProviderSender与:DataBlobSerializerSoap对象相关联。在1410中,:DataBlobSerializeQueue从:PdpTransportProviderSender对象继承addDataBlob(DataBlobSerializer)。在1411中,:DataBlobSerializeQueue从:ServerConnection对象继承getNextDataBlob(DataBlobSerializer):DataBlobSerializer。在1412中,:DataBlobSerializerSoap对象从:ServerConnection对象继承serialize(OutputStream)。在1413中,:ServerSession对象从:ServerConnection对象继承setCompletionState(SESSION_DONE)。
图15是“get”情况下的客户端一方的顺序图。如图15所示,在1501中,SCLClient对象从用户继承GET(<filename>)。在1502中,:HandlerChain对象从SCLClient对象继承Invoke(messagecontext)。在1503中,:PdpTransportClientSender对象从:HandlerChain对象继承init(MessageContext)。在1504、1505和1506中,:SimpleClient对象从:PdpTransportClientSender对象继承setDataBlobProvider(DataBlobProvider)、setLocalInetAddress(InetAddress[])和setConnectionOptions(PdpConnectionOptions)。在1507中,:PdpTransportClientSender对象从:HandlerChain对象继承send(MessageContext)。在1508中,:SimpleClient对象从:PdpTransportClientSender对象继承getSession():ClientSession。在1509中,:PdpTransportClientSender对象从它自己继承sendSoapMessage(MessageContext,DataBlobSerializeQueue)。在1510中,:PdpTransportClientSender对象从:HandlerChain对象继承destroy(MessageContext)。在1511和1512中,:PdpTransportClientReceiver对象从:HandlerChain对象继承receive(MessageContext)和destroy(MessageContext)。
图16是“get”情况下的提供者一方的顺序图。如图16所示,在1601中,:SoapDispatcher对象从:ServerSession对象继承doWork(ServerSession)。在1602中,:HandlerChain对象从:SoapDispatcher对象继承invoke(messageContext)。在1603和1604中,:PdpTransportProviderReceiver从:HandlerChain对象继承receive(MessageContext)和destroy(MessageContext)。在1605和1606中,:PdpTransportProviderSender对象从:HandlerChain对象继承init(MessageContext)和send(MessageContext)。在1607中,:PdpTransportProviderSender从它自己继承sendSoapMessage(MessageContext,DataBlobSerializeQueue)。在1608中,:PdpTransportProviderSender对象从:HandlerChain对象继承destroy(MessageContext)。
图17是用于取消“get”操作的客户端一方的顺序图。如图17所示,在1701中,:ClientSession对象从:PdpTransportClientSender对象继承start a new session()。在1702中,:ClientConnection对象从:ClientSession对象继承start the connection(socket thread)。在1703中,:MeterInputStream对象从:ClientConnection对象继承*read(byte[],int,int):int。在1704中,:SessionDataMeter对象被:MeterInputStream对象中的函数*onBytesRead(long)实例化。在1705中,:SessionDataMeter对象将SessionEvent()与:PdpTransportClientSender相关联。在1706中,<<interface>>:InTransportEventListener对象从:PdpTransportClientSender对象继承handlelnTransportEvent(InTransportEvent)。在1707中,<<interface>>:InTransportEventListener对象将throw IOException()与:PdpTransportClientSender对象相关联。在1708中,:ClientSession对象从:PdpTransportClientSender对象继承terminate(Exception)。在1709中,:ClientConnection对象从:ClientSession对象继承close()。MeterinputStream对象通过调用SessionDataMeter对象中的函数onBytesRead(long)来更新通过利用SessionDataMeter对象接收的数据字节。
图18是用于取消“get”操作的提供者一方的顺序图。如图18所示,在1801中,:ServerSession对象从SoapDispatcher:eventProcessorThread继承Start a new serversession()。在1802中,:ServerConnection对象从:ServerSession对象继承start a connection socket()。在1803中,:MeterOutputStream从:ServerConnection对象继承*write(byte[],int,int)。在1804中,:SessionDataMeter对象从:MeterOutputStream对象继承*onByteWrite(long)。在1805中,:SessionDataMeter将waitForEvent():SessionEvent与SoapDispatcher:eventProcessorThread对象相关联。在1806中,<<interace>>:OutTransportEventListener对象从SoapDispatcher:eventProcessorThread对象继承handleOutTransportEcent(OutTransportEvent)。在1807中,<<interface>>:OutTransportEventListener对象与SoapDispatcher:eventProcessorThread对象相关联。在1808中,:ServerSession对象从SoapDispatcher:eventProcessorThread继承terminate(Exception)。在1809中,:ServerConnection对象从:ServerSession对象继承close()。
图19是用于取消“put”操作的客户端一方的顺序图。如图19所示,:MeterOutputStream对象从:ClientConnection对象继承write(byte[],int,int)。在1902中,:SessionDataMeter对象继承onBytesWrite(long)。在1903中,:SessionDataMeter对象从:PdpTransportClientSender对象继承waitForEvent():SessionEvent。在1904中,<<interface>>:OutTransportEventListener对象从:PdpTransportClientSender对象继承handleOutTransportEvent(OutTransportEvent)。在1905中,<<interface>>:OutTransportEventListener对象将throwIOException()与:PdpTransportClientSender对象相关联。在1906中,:ClientSession对象从:PdpTransportClientSender对象继承terminate(Exception)。在1907中,:ClientConnection对象从:ClientSession对象继承close()。
图20是用于取消“put”操作的提供者一方的顺序图。如图20所示,:MeterInputStream对象从:ServerConnection对象继承read(byte[],int,int)。在2002中,:SessionDataMeter对象继承onBytesRead(long)。在2003中,:SessionDataMeter对象从SoapDispatcher:eventProcessorThread对象继承waitForEvent():SessionEvent。在2004中,<<interface>>:InTransportEventListener对象从SoapDispatcher:eventProcessorThread对象继承handleInTransportEvent(InTransportEvent)。在2005中,<<interface>>:InTransportEventListener对象将throw IOException()与SoapDispatcher:eventProcessorThread对象相关联。在2006中,:ServerSession对象从SoapDispatcher:eventProcessorThread对象继承terminate(Exception)。在2007中,:ServerConnection对象从:ServerSession对象继承close()。
图21是图1的接收器102的I/O存储系统中的写操作的代表性示图。通常,在并行连接数据传送系统中,接收器的I/O存储系统可以是大量数据传送的瓶颈,更具体地讲,I/O存储系统中所包括的盘可以是大量数据传送的瓶颈。就这一点而言,当文件被划分为小片段或小块并通过分离的连接被传递时,数据可能不能按顺序到达接收器,尤其是当连接的数量增加时。如果接收器超时等待下一连续数据块到达,则在将数据写到盘之前,接收器的数据缓冲区可能变满。如果接收器的数据缓冲区变满,则接收器的I/O存储系统可能被迫对乱序数据进行盘写入,这可能需要额外的查找操作。如果接收器的I/O存储系统是对于数据传送的瓶颈,则执行额外的查找操作将进一步增加传送数据花费的时间。另外,由于缺少应答(即,对于由于接收器缓冲区满而丢失的数据的应答),前述可能还触发从发送器重发数据的事件,从而为数据传送增加进一步的延迟。在这种情况下,接收器可停止接受新的连接请求,并且还可减少现存的连接数量,以可能避免满缓冲区状况,这继而可进一步避免高成本的查找操作。
当通过多个连接发送数据时,多对一关系存在于发送器101和接收器102之间的连接与输出文件之间。也就是说,在多个并发连接中传送的数据被汇集到单个文件中。在接收器接收数据的每个连接内,启动从与所述单个文件相关联的入站(inbound)连接读取所有数据块的线程。传送同一文件的块的N个并行连接全都对如图6所示的同一数据blob解串器文件607调用解串方法。(图6的)数据blob解串器的任务于是是,从所有N个连接读取与所述文件相关联的所有数据块,并以有效的方式将所述数据传送到图6的存储介质609。
如图21所示,DataWriteQueue2101将数据存储为椭圆形所表示的DataWriteObject的形式。在图21中,写线程2102将DataWriteObject写到文件。标号2103表示文件的开头。而且,已经被写到文件的数据被表示为标号2105。区域2106表示在其中数据已被接收、但是还未被写到文件的区域。区域2107表示在其中数据还未被接收的区域。DataWriteQueue是线程安全的阻止队列实现。实例监视器用作remove()方法和insert()方法的同步锁。它们从队列移除项目。removeDataWriteObjectWithOffset()方法可被用于移除从特定偏移开始的变化。该方法将阻止,直到所需的数据区块可得。DataWriteObject对象将内存缓冲区中的数据存储在LinkList对象中以链接该数据,并且它还记录数据偏移和长度信息。
在图21中,当前文件位置可供写线程2102用于将数据写到文件。然而,可能的是,对于当前文件位置2105,没有这样的DataWriteObject存在于DataWriteQueue2101中。因为不同的连接被用于从文件的不同区域传输数据,所以到写线程2102准备将文件的特定区域写到盘的时候,文件的该特定区域可能还未被接收。这可能表明内存缓冲区没有大到足以在写到存储器之前容纳临时块数据,这继而意味着查找操作可能被执行。这通常意味着,与处理I/O存储系统相比,从发送器101到接收器102的数据传送速率更快。因此,可减少加入连接的数量以避免文件查找操作,以下将结合图40来更详细地描述这种情况。
更具体地讲,如果写线程2102在这种情况下被允许将文件的不同区域写到盘,则写线程2102将执行要被避免的查找操作。另一方面,如果写线程2102无限期地阻止,从而等待无限量的时间以使DataWriteObject通过连接之一被提交到队列,则也存在低效率的可能性。当利用更快的网络并且I/O存储系统的盘是数据传送中的瓶颈时,尤其如此。在这种情况下,使写线程2102等待地越长,传送变得效率越低。
为了提供高效率的PDP数据传送,使两件事平衡:(1)频繁地将数据写到盘,这意味着允许写线程2102频繁地保持未被阻止;和(2)避免文件查找操作,这意味着有时阻止写线程2102以等待直到从连接之一读取针对当前文件位置的数据。
上述平衡在DataWriteQueue2101中执行。在针对当前文件位置2104的DataWriteObject不可得时,DataWriteQueue利用例如以下启发法(heuristic)(该启发法趋向于基本上避免不必要的查找操作,并且还趋向于基本上避免写线程2102的不必要的阻止):如果DataWriteObject对于当前文件位置不可得:(1)对于将通过读线程被添加到DataWriteQueue2101的被请求的DataWriteObject等待直到2秒;(2)如果被请求的DataWriteObject在2秒超时时间段内变为可得,则返回它;以及(3)如果被请求的DataWriteObject没有在2秒超时时间段内变为可得,则将可得的具有最低绝对偏移的DataWriteObject返回给写线程2102。这种启发法尝试使保持写线程写到盘与避免文件查找操作相平衡。然而,可能不能完全避免查找操作,并且为了更好的数据传送性能,接收器102可阻止来自发送器101的加入请求,并请求发送器101关闭一个或多个次要连接,以下将结合图40来更详细地描述这种情况。
当内存中存在较少的DataWriteObject(即,表示还未被写线程2102写到文件的数据)时,代表当前文件位置2104的DataWriteObject可得是不太可能的。如果写线程2102在这种情况下被允许将可得的DataWriteObject之一写到文件,则更可能的是需要在文件上的查找操作。因此,当DataWriteQueue2101几乎为空时,写线程2102在它试图移除DataWriteObject时被阻止,以允许DataWriteQueue2101被连接读线程填充到最小水平。
在不同的情况下,当读线程试图将DataWriteObject添加到DataWriteQueue2101时,这些读线程可被阻止。在这种情况下,当DataWriteQueue2101填充有非常大量的DataWriteObject时,接着,试图将另一DataWriteObject添加到DataWriteQueue2101的连接读线程(未示出)将被阻止。这允许写线程2102将DataWriteObject中的一些写到盘。
在内部,DataWriteQueue2101利用ConsumerProducerThrottle对象(未示出)来决定何时发生了前述的阻止情况。ConsumerProducerThrottle对象是定义关于实现DataWriteObjectThrottle(未示出)的契约(contract)的接口对象。DataWriteObjectThrottle允许应用配置在将未实现的数据写到盘存储器之前将该数据高速缓存在内存中的内存缓冲区大小,并且它还包含当前的和消耗的恢复缓冲区信息。
当写线程2102请求从DataWriteQueue2101移除DataWriteObject时,DataWriteQueue向ConsumerProducerThrottle对象通知该请求。如果DataWriteQueue2101在其中不具有最少数量的DataWriteObject,则ConsumerProducerThrottle对象阻止写线程2102。一旦DataWriteQueue2101被足够的DataWriteObject填充,ConsumerProducerThrottle就释放写线程2102。
可替换地,当读线程请求将新的DataWriteObject添加到DataWriteQueue2101时,DataWriteQueue2101可能已达到最多数量的DataWriteObject。在这种情况下,读线程被阻止,直到写线程2102具有从DataWriteQueue2101移除DataWriteObject的机会。再次,DataWriteQueue2101利用其ConsumerProducerThrottle对象来决定何时发生了前述情况。当读线程将DataWriteObject添加到DataWriteQueue2101时,DataWriteQueue2101向ConsumerProducerThrottle通知DataWriteObject正被添加。如果ConsumerProductThrottle决定DataWriteQueue2101已达到其最多数量的DataWriteObject,则ConsumerProductThrottle阻止读线程。读线程保持被阻止,直到队列中的DataWriteObject的数量减少。
图22是如图21所示的DataWriteQueue2101的代表性示图。在图22中,DataWriteQueue2101被示为在接收多个DataWriteObject(例如,DataWriteObject2201a至2201d)之后。在这个例子中,DataWriteObject被组织成5个链,这5个链表示文件的5个邻接区域。DataWriteObject2201a至2201d表示所述5个链之一。通常,DataWriteObject2101充当N个读线程的同步和组织点。为了避免查找操作,DataWriteQueue自动地检测表示文件的邻接区域的DataWriteObject的集合。当DataWriteQueue2101接收到表示文件的邻接区域的多个DataWriteObject时,无论每个DataWriteObject来自哪个连接,DataWriteQueue2101都在内部将这些DataWriteObject收集成单个链。DataWriteQueue由此将DataWriteObject存储为DataWriteObject链的无序集合。
当图21的写线程2102从DataWriteQueue移除DataWriteObject时,写线程2102指示当前文件位置。为了可能避免文件查找操作,DataWriteQueue2101提供其偏移是当前文件位置2104的DataWriteObject。写线程2102然后可在不执行查找操作的情况下写到当前文件位置2104。在内部,DataWriteQueue2101维护表示文件的邻接区域的M个DataWriteObject链的收集。DataWriteQueue2101检查所述M个DataWriteObject链的起始偏移,并且如果存在其初始偏移与当前文件位置匹配的链,则返回该整个链。
图23是图1的接收器102的I/O存储系统中的写操作的另一代表性示图。通常,因为数据可能不能依次到达,所以多个连接可将数据写到内存缓冲区以重新组装数据。通过在将数据写到盘的同时测量I/O存储系统写速率,可确定盘是否忙于对来自其他应用和任务的请求进行处理。因此,可适当地减少或增加连接的数量,将结合图40来更详细地描述这种情况。
如图23所示,写线程2102将数据写到存储介质609中的文件(如图6所示)。写线程2102的使用将N个读线程从文件写操作去耦合。DataWriteObject通过连接605a至605c被添加,并且被写线程2102移除。写线程2102将数据写到存储介质609的速率是I/O存储系统的被测写速率。
图24A是用于检测在图1中的发送器101的I/O存储系统中的数据传送中的瓶颈的顺序图。通常,发送器101可利用往返时间(RTT)来找到网络性能。所利用的RTT可以是TCP的RTT或者计算RTT的任何其他专有方法。现代的TCP实现通过下述方式来设法回答网络性能的问题:监视数据包的正常交换,并逐渐产生对多久为“太久”的估计。这个处理被称为往返时间(RTT)估计。RTT估计是TCP交换中的重要性能参数,尤其是在无限大的传送中,在所述无限大的传送中,无论链路的质量是否良好,大多数TCP实现最终都丢弃包并重传它们。如果RTT估计太低,则不必要地重传包;如果RTT估计太高,则在主机等待超时的同时连接可处于空闲状态。当发送器101发现发送到接收器102的消息包的RTT时间花费比先前的消息包长时,这可表明网络忙并且具有更多的流量。在这种情况下,发送器101可减少连接的数量并通知接收器102。可替换地,当RTT花费较短的时间段时,发送器可要求增加连接的数量。将结合图40来更详细地描述前述连接数量的减少和增加。
在图24A中,发送器101可要求接收器102向发送器101发送应答。当发送器101检测到它将不再保存高速缓存的信息的情况时,发送器101将通知接收器102,并迫使接收器发送应答(ACK)以允许双方适当地清除高速缓存的信息并前进到新的数据部分。在这种情况下,接收器可决定它是否可针对发送器101增加连接数量以利用更多的带宽。所述应答(ACK)是指应用层上的应答,而非传输层(诸如TCP协议)中的ACK信号。为此,MDT实现供接收器作为应答(即,这里的ACK)向客户端通知数据已达到的通信信道。可替换地,接收器否定应答(RNA)可被用于实现前述的高速缓存的清除。
特别地,在图24A中,发送器101在送出消息之前将数据读取到内存缓冲区中(步骤2401)。在步骤2402至2406中,发送器101发送偏移为a1、长度为b1的数据部分,发送偏移为a2、长度为b2的数据部分,发送偏移为a3、长度为b3的数据部分,并继续发送数据部分,直到这些数据部分达到偏移a(n-1)、长度b(n-1),并最终达到偏移an、长度bn,其中,“n”表示序列中的数据部分的数量。在步骤2407中,发送器101请求接收器发送包括所识别的数据部分的列表的ACK。接收器102使它跟踪的数据包的值的偏移和长度向前移动,并将这些数据包写到存储器。在步骤2408中,接收器102发送被请求的ACK,发送器101清除高速缓存在内存缓冲区中的数据。
图24B是图1中的发送器101的I/O存储系统中的读操作的代表性示图。在图24B中,数据缓冲区读取器2411在独立的线程中从存储介质(即,盘)601读取数据区块。数据缓冲区读取器2411使用包括“Free”部分和“Full”部分的双队列机制。数据缓冲区读取器2411将数据缓冲区部分加载到内存缓冲区2412的“Full”侧中。数据缓冲区读取器2411管理加载且循环的数据缓冲区部分列表,并以同步的方式提供对加载的数据缓冲区部分的访问。另外,数据缓冲区部分提供从网络读取它们的内容和将它们的内容写到网络的能力。
DataBlobSerializerPartStream2421a、2421b和2421c从数据缓冲区读取器2411检索加载的数据部分,并通过网络依次发送这些数据部分。DataBlobSerializerPartStream针对给定的输入流或数据缓冲区读取器扩展DataBlobSerializer,以使数据与基于PDP协议连接的数据串行化。DataBlobSerializerPartStream2421a、2421b和2421c也循环利用的数据部分。连接604a、604b和604c将端对端连接套接字提供给远程主机,并使用DataBlobSerializerPartStream对象2421a、2421b和2421c来将数据发送到远程主机。连接604a、604b和604c与本地主机上的其他连接实例并行地工作。
图24B中所示的复杂的双队列机制提供以下高效率构思:(1)从盘异步地读取数据,从而在数据读取和数据发送中实现时序重叠;(2)提供对加载的数据缓冲区部分的列表的同步访问的能力,该能力使得可同时运行连接线程以通过多个套接字并行地发送数据;以及(3)重复使用数据缓冲区部分的能力,从而基本上避免不必要的堆内存分配和垃圾收集。
当数据缓冲区读取器2411从存储介质(即,盘)601读取数据比网络可发送数据快、并且内存缓冲区达到其极限(所述极限适用于许多客户端-服务器应用系统)时,客户端将停止将数据读取到内存缓冲区中,直到内存可用。这导致在其中从盘读取数据和网络上发送数据不重叠的时间跨度,从而导致数据在系统上的非规范化的流动。这至少对于较大数据集合降低了数据的净吞吐量。然而,一旦检测到发送器的内存缓冲区频繁地变满(这识别网络是数据传送的瓶颈),就可通过下述方式来采取校正动作:当带宽低时,减少连接的数量以减轻数据对网络的堵塞,并且基本上同时地,引入延时。基本上与减少连接的数量同时地,也在从存储介质(即,盘)读取数据中引入延迟,以实现发送数据的适当规范化的流动。以下将结合图40来更详细地描述前述的检测和校正动作。
图25至图28是针对形成示例性实施例的架构的核心的每个主要类的类图。以下结合图29至图39来详细地提供关于每个主要类之间的具体关系和交互的描述。
图25是根据示例性实施例的针对服务器的类图。如图25所示,server::ServerSession对象2501与server::Dispatcher对象2502、server::ServerConnection对象2503和server::Server对象2504相关联。另外,server::ServerConnection对象2503与server::ServerSession对象2501和server::Server对象2504相关联。而且,server::Server对象2504与server::ServerSession对象2501和server::Dispatcher对象2502相关联。应该注意的是,该图中所指定的类被MDT应用使用来通过SOAP连接库(即,SCL)创建PDP协议服务器以接受PDP协议客户端连接请求并维护服务器会话。Server对象实现PDP服务器,创建并启动PDP服务器的实例以监听特定地址和端口,并且构建并维护服务器连接部分和加入会话。调用者也可从这个类检索会话id。
图26是根据示例性实施例的针对客户端的类图。如图26所示,ClientConnection对象2603和SimpleClient对象2602中的每一个与ClientSession对象2601相关联。这些类被MDT应用使用来通过Soap连接库创建PDP协议以连接到PDP协议服务器连接并维护客户端会话。
图27是根据示例性实施例的针对数据串化器的类图。如图27所示,DataBlobItem对象2703与DataBlobSerializer对象2701相关联。另外,DataBlobSerializerPartStream对象2702和DataBlobSerializerNoData对象2704中的每一个与DataBlobSerializer对象2701相关联。DataBlobSerializerNoData和DataBlobSerializerPartStream都扩展DataBlobSerializer对象。并且,DataBlobSerializerNoData提供不包含任何数据的串行化的数据blob。
图28是根据示例性实施例的针对数据解串器的类图。如图28所示,DataBlobDeserializerFile对象2803和DataBlobDeserializerRAF对象2802中的每一个继承DataBlobDeserializer对象2801。另外,DataBlobDeserializerRAF对象2802与DataWriteQueue对象2804相关联。DataBlobDeserializer定义数据blob解串器和DataBlobDeserializerFile、DataBlobDeserializerRAF,DataBlobSerializerQueue扩展这个对象,并利用SCLMessageSerializer对象来对MessageContext对象中的消息进行解串。
图29是用于在客户端建立会话的顺序图。如图29所示,在2901中,client::ClientSession对象从开发工具(Developer)继承startSession()。在2902中,<<interface>>:PdpClientSocketFactory对象从client::ClientSession对象继承create(UrlEx):Socket。在2903中,<<static>>:Request对象从:ClientConnection对象继承write(OutputStream)。在2904中,<<static>>:Response对象从:ClientConnection对象继承read(InputStream)。在2905中,:ClientConnection对象从client::ClientSession对象继承getResponse():Messages.Response。Message.Response是Message类(未示出)的内部类,并定义PDP响应消息。Message类包含用于PDP通信的所有传输消息。通过该类,调用者可从输入流得到下一PDP消息,并定义基本PDP消息。
在2906中,client::ClientSession对象从开发工具继承joinSession()。在2907中,<<interface>>:PdpClientSocketFactory对象从client::ClientSession对象继承create(UrlEx):Socket。在2908中,<<static>>:Join对象从:ClientConnection对象接收write(OutputStream)。在2909中,<<static>>:Response对象从:ClientConnection对象继承read(InputStream)。在2910中,:ClientConnection对象从client::ClientSession对象继承getResponse():Message.Response。在2911中,client::ClientSession对象从开发工具继承waitForCompletion()。在2912中,:ClientConnection从它自己继承doRequest()。在2913中,:ClientConnection将setCompletionState(REQUEST)与client::ClientSession相关联。
在2914中,:ClientConnection对象从它自己继承doRequest。在2915中,:ClientConnection将setCompletionState(REQUEST)与client::ClientSession相关联。在2916中,:ClientConnection从它自己继承doResponse()。在2917中,:ClientConnection对象将setCompletionState(RESPONSE)与client::ClientSession对象相关联。在2918中,:ClientConnection对象从它自己继承doResponse()。在2919中,:ClientConnection对象关联setCompletionState(RESPONSE)。在2920中,:ClientConnection对象从它自己继承close()。在2921中,:ClientConnection对象从它自己继承close()。
图30是用于提供根据示例性实施例的在发送器(例如,图1的发送器101)建立开始会话的描述的流程图。在步骤3001中,开始会话的建立开始。在步骤3002中,在发送器创建用于建立开始会话的套接字。在步骤3003中,发送器将用于建立开始会话的请求消息发送到接收器(例如,图1的接收器102)。发送器然后读取从接收器发送到发送器的响应消息(步骤3004)。在步骤3005中,确定响应消息是否指示发送的用于建立开始会话的请求消息成功。如果该请求不成功,则关闭在步骤3002中创建的套接字(步骤3006)。如果该请求成功,则创建会话(步骤3007),并执行进一步的请求(步骤3008)。
图31是用于提供根据示例性实施例的在发送器(例如,图1的发送器101)建立加入会话的描述的流程图。在步骤3101中,加入会话的建立开始。在步骤3102中,在发送器创建用于建立加入会话的套接字。在步骤3103中,发送器将用于建立加入会话的加入消息发送到接收器(例如,图1的接收器102)。发送器然后读取从接收器发送到发送器的响应消息(步骤3104)。在步骤3105中,确定响应消息是否指示发送的用于建立加入会话的加入消息成功。如果该加入消息不成功,则关闭在步骤3102中创建的套接字。如果该加入消息成功,则创建加入会话(步骤3107)。在步骤3108中,对会话状态进行检查。如果会话完成,则关闭套接字(步骤3111)。如果进一步的请求被保证,则所述处理前进到步骤3109,结合图35来详细描述这种情况。如果进一步的响应被保证,则所述处理前进到步骤3110,结合图36来详细描述这种情况。
图32是用于在服务器建立会话的顺序图。如图32所示,在3201中,:Server对象从开发工具继承addDispatcher(String,Dispatcher)。在3202中,:Server对象从开发工具继承start()。在3203中,<<static>>:Request对象从:ServerConnection对象继承read(InputStream)。在3204中,:ServerConnection对象将createSession(Messages.Request):ServerSession与:Server对象相关联。应该注意的是,这里作为参数传递的Message.Request是Messages类(未示出)的内部类,并且它定义PDP请求消息。
在3205中,<<interface>>:Dispatcher从:Server对象继承onSessionCreate(ServerSession)。在3206中,<<static>>:Response从:ServerConnection对象继承write(OutputStream)。在3207中,<<static>>:Join对象从:ServerConnection对象继承read(InputStream)。在3208中,:ServerConnection对象将joinSessoin(Messafees.Join):ServerSession与:Server对象相关联。在3209中,<<interface>>:Dispatcher对象从:Server对象继承onSessionJoin(ServerSession)。在3210中,<<static>>:Response对象从:ServerConnection对象继承write(OutputStream)。
在3211中,:ServerConnection对象从它自己继承doRequest()。在3212中,:ServerConnection将setCompletionState(REQUEST)与:ServerSession对象相关联。在3213中,:ServerConnection从它自己继承doRequest()。在3214中,:ServerConnection对象将setCompletionState(REQUEST)与:ServerSession对象相关联。在3215中,<<interface>>:Dispatcher对象从:ServerSession对象继承doWork(ServerSession)。在3216中,:ServerConnection对象从它自己继承doResponse()。在3217中,:ServerConnection对象从它自己继承doResponse()。在3218中,:ServerSession对象从:ServerConnection对象继承setCompletionState(RESPONSE)。在3219中,:ServerSession对象从:ServerConnection对象继承setCompletionState(RESPONSE)。在3220中,<<interface>>:Dispatcher对象从:ServerSession对象继承onSessionEnd(ServerSession)。在3221中,:Server对象从:ServerSession对象继承removeSession(ServerSession)。在3222和3223中,:ServerConnection对象从它们自己继承close()。
图33是用于提供根据示例性实施例的在接收器建立会话的描述的流程图。在图33的步骤3301中,连接的接受开始。在步骤3302中,发送器发送的消息被接收器接收,并且接收器读取消息。在步骤3303中,获得所述消息的ID。如果所述消息的ID指示该消息是除了请求消息或加入消息之外的其它消息,则接收器将响应与错误消息一起发送到发送器(步骤3316),并关闭利用的套接字(步骤3317)。如果所述消息是请求消息,则确定被请求的连接路径是否被注册(3307)。如果所述路径未被注册,则接收器将响应与错误消息一起发送到发送器(步骤3318),并关闭利用的套接字(步骤3319)。如果所述路径被注册,则创建会话(步骤3308),并将响应与会话ID消息一起从接收器发送给到发送器(步骤3309)。
在步骤3303中,如果所述消息是加入消息,则接收器确定被请求的加入会话是否可用(步骤3304)。如果所述会话不可用,则接收器将响应与错误消息一起发送到发送器(步骤3305),并关闭利用的套接字(步骤3306)。如果所述会话可用,则加入所述会话(步骤3310),并将响应与会话状态消息一起从接收器发送到发送器(步骤3311)。在步骤3312中,对会话状态进行检查。如果会话完成,则关闭套接字(步骤3315)。如果进一步的请求被保证,则所述处理前进到步骤3313,结合图38来详细描述这种情况。如果进一步的响应被保证,则所述处理前进到步骤3314,结合图39来详细描述这种情况。
图34是针对客户端处的数据交换的顺序图。如图34所示,在3401中,transport::DataBlobSerializeQueue对象从:ClientConnection对象继承getNextDataBlob(DataBlobSerializer):DataBlobSerializer。在3402中,transport::DataBlobSerializeQueue对象从开发工具继承addDataBlob(DataBlobSerializer)。在3403中,:ClientConnection对象将serialize(OutputStream)与:DataBlobSerializer对象相关联。在3404中,transport::DataBlobSerializeQueue对象从:ClientConnection对象继承getNextDataBlob(DataBlobSerializer):DataBlobSerializer。在3405中,:ClientSession对象从开发工具继承waitForCompletion()。在3406中,:ClientConnection将serialize(OutputStream)与:DataBlobSerializer对象相关联。在3407中,:ClientConnection对象将setCompletionState(REQUEST)与:ClientSession对象相关联。在3408中,:ClientConnection对象将setCompletionState(REQUEST)与:ClientSession对象相关联。
在3409中,transport::DataBlobSerializerQueue从:ClientSession对象继承close()。在3410中,:DataBlobSerializer对象从transport::DataBlobSerializerQueue对象继承close()。在3411中,transport::DataBlobDeserializerQueue从:ClientConnecion对象继承getDataBlob(Messages.Header):DataBlobDeserializer。在3412中,transport::DataBlobDeserializerQueue对象从:ClientConnection对象继承getDataBlob(Messages.Header):DataBlobDeserializer。应该注意的是,Message.Header是Messages类(未示出)的内部类,并且它定义DATA-HEADER消息。在3413和3415中,:DataBlobDeserializer对象从:ClientConnection对象继承deserializer(InputStream)和deserializer(InputStream)。在3414和3416中,:ClientConnection对象将setCompletionState(RESPONSE)与:ClientSession对象相关联。在3417和3418中,:ClientConnection对象从它们自己继承close()。在3419和3421中,transport::DataBlobDeserializerQueue对象从开发工具继承getDataBlobs():DataBlobDeserializer和dispose()。在3420和3422中,:DataBlobDeserializer对象继承getData():InputStream和dispose()。
图35和图36是用于提供针对发送器处的数据交换的大致描述的流程图。在图35的步骤3501中,发送数据的请求开始。在步骤3502中,发送器确定是否存在要得到的下一可得串行化数据blob。如果存在下一可得的数据blob,则发送器针对该数据blob写数据头(步骤3503),从数据的源读取该数据blob的数据部分(步骤3504),并将读取的数据部分写到创建的套接字(步骤3505)。在步骤3506中,发送器确定该数据部分是否是数据blob的最后数据部分。如果该数据部分不是最后数据部分,则发送器将该数据blob的下一数据部分写到创建的套接字(步骤3505)。如果在步骤3506中该数据部分是最后数据部分,则所述处理返回到步骤3502。如果在步骤3502中确定不存在下一可得的串行化数据blob,则所述请求完成(步骤3507),并执行对接收数据的响应(步骤3508)。
在图36中,在步骤3601中,执行对接收数据的响应。在步骤3602中,读取传入数据的数据头。在步骤3603中,发送器获得与读取的数据头相关联的解串的数据blob。在步骤3604中,发送器从创建的套接字读取数据blob的数据部分。在步骤3605中,发送器将读取的数据部分写到数据存储器。在步骤3606中,发送器确定该数据部分是否是该数据blob的最后数据部分。如果该数据部分被确定为不是最后数据部分,则所述处理返回到步骤3605,在步骤3605中,发送器将下一数据部分写到数据存储器。如果该数据部分被确定为最后数据部分,则所述处理前进到步骤3607。在步骤3607中,发送器确定该数据头是否是将被接收的数据的最后数据头。如果该数据头是最后数据头,则所述响应完成(步骤3608)。
图37是针对服务器处的数据交换的顺序图。如图37所示,在3701和3702中,:DataBlobDeserializerQueue对象从ServerConnection对象继承getDataBlob(Messages.Header):DataBlobDeserializer。在3703和3704中,:DataBlobDeserializer对象从:ServerConnection对象继承deserializer(InputStream)。在3705和3706中,:ServerSession对象从:ServerConnection对象继承setCompletionState(REQUEST)。在3707中,<<interface>>:Dispatcher对象从:ServerSession对象继承doWork(ServerSession)。在3708中,:DataBlobDeserializerQueue从<<interface>>:Dispatcher对象继承getDataBlobs():DataBlobDeserializer。在3708中,:DataBlobDeserializerQueue从<<interface>>:Dispatcher对象继承getDataBlobs():DataBlobDeserializer。在3709中,:DataBlobDeserializer对象从<<interface>>:Dispatcher对象继承getData():InputStream。
在3710和3711中,:DataBlobDeserializerQueue对象和:DataBlobDeserializer对象继承dispose()。在3712中,:DataBlobSerializerQueue对象从<<interface>>:Dispatcher对象继承addDataBlob(DataBlobSerializer)。在3713和3714中,:DataBlobSerializerQueue对象从:ServerConnection对象继承getNextDataBlob(DataBlobSerializer):DataBlobSerializer。在3715和3716中,:DataBlobSerializer对象从:ServerConnection对象继承serialize(OutputStream)。在3717和3718中,:ServerSession从:ServerConnection对象继承setCompletionState(RESPONSE)。在3719和3720中,:DataBlobSerializerQueue对象和:DataBlobSerializer对象继承close()。
图38和图39是用于提供针对接收器处的数据交换的大致描述的流程图。在图38中,在步骤3801中,执行对接收数据的响应。在步骤3802中,读取传入数据的数据头。在步骤3803中,接收器获得与读取的数据头相关联的解串的数据blob。在步骤3804中,接收器从创建的套接字读取数据blob的数据部分。在步骤3805中,接收器将读取的数据部分写到数据存储器。在步骤3806中,接收器确定该数据部分是否是该数据blob的最后数据部分。如果该数据部分被确定为不是最后数据部分,则所述处理返回到步骤3805,在步骤3805中,接收器将下一数据部分写到数据存储器。如果该数据部分被确定为最后数据部分,则所述处理前进到步骤3807。在步骤3807中,接收器确定该数据头是否是将被接收的数据的最后数据头。如果该数据头是最后数据头,则所述响应完成(步骤3808)。
在图39的步骤3901中,发送数据的请求开始。在步骤3902中,接收器确定是否存在要获得的下一可得的串行化数据blob。如果存在下一可得的数据blob,则接收器针对该数据blob写数据头(步骤3903),从数据的源读取该数据blob的数据部分(步骤3904),并将读取的数据部分写到创建的套接字(步骤3905)。在步骤3906中,接收器确定该数据部分是否是该数据blob的最后数据部分。如果该数据部分不是最后数据部分,则接收器将该数据blob的下一数据部分写到创建的套接字(步骤3905)。如果在步骤3906中该数据部分是最后数据部分,则所述处理返回到步骤3902。如果在步骤3902中确定不存在下一可得的串行化数据blob,则所述请求完成(步骤3907),并执行对接收数据的响应(步骤3908)。
自动调节发送器与接收器之间的连接的数量
图40是用于提供另一示例性实施例的详细解释的流程图。更具体地讲,图40描绘了用于提供关于如图1所示的从发送器101到通过网络120与发送器101连接的接收器102的大量数据传送的示例性实施例的详细解释的流程图。
如图40所示,在步骤4001和4002中,通过网络120在发送器101与接收器102之间建立多个连接。这些连接可以是,例如,并行TCP连接;然而,所述多个连接不限于TCP连接,并且可利用使用并行连接的其他协议。在步骤4003中,通过在所述多个连接上划分地发送数据来将数据从发送器101发送到接收器102,以便聚合网络120的带宽的利用。在步骤4004中,接收器102通过所述多个连接接收划分的数据,并且接收器102将划分的数据重组为其原始形式。
在步骤4005至4010中,至少基于发送器101处的I/O存储系统的性能、接收器102处的I/O存储系统的性能和网络120的性能,基于发送器101与接收器102之间的连接的数量来执行自动调节。自动调节被执行以提供发送器与接收器之间的连接的最佳数量,从而提供理想且高效率的数据吞吐量。更特别地,在步骤4005中,通过图2所示的自动调节软件236来确定发送器101的I/O存储系统读数据是否比通过网络120送出数据快。例如通过下述方式进行该确定:将发送器101的I/O存储系统把数据输入到发送器的内存缓冲区中的速率的计算与从网络120从发送器的内存缓冲区获取数据的速率的计算相比较。如果在步骤4005中确定发送器101的I/O存储系统读数据比通过网络120送出数据快,则对发送器101与接收器102之间的连接的数量执行自动调节,在所述自动调节中,发送器101将用于打开新连接的请求发送到接收器102。如果接收器102返回用于打开新连接的请求成功的响应,则发送器101可通过该新连接发送数据,以提供系统中的平稳数据流动。
当发送用于打开新连接的请求时,发送器101可请求打开一个或多个新连接。然而,如果发送器101请求打开许多个新连接,则接收器102可由于若干个不同原因而拒绝用于打开所有这些新连接的请求,其将在下面被更详细地描述。
如果在步骤4005中确定发送器101的I/O存储系统读数据不比通过网络120送出数据快,则所述处理前进到步骤4006。在步骤4006中,确定发送器101的I/O系统读数据是否比通过网络120送出数据慢。如果确定发送器101的I/O系统读数据比通过网络120送出数据慢,并且多于一个的发送器(例如,图1的发送器131和132之一)正将数据发送到接收器102,则发送器101关闭所述多个连接中的现存连接,以对发送器101与接收器102之间的连接的数量进行自动调节。就这一点而言,现存连接的关闭是次要连接而非主要连接的关闭。作为前面描述的结果,发送器101可基本上防止在接收器102处占用未被发送器101充分用于发送数据的套接字。
通过检查发送器的具有低利用率的内存缓冲区,例如,当内存缓冲区利用率在某一时间段(比如,30秒)内保持低并保持低于总内存缓冲区大小的预定义阈值(比如,30%)时,则发送器可推断发送器读数据比发送数据慢。同样地,如果内存利用率在一时间段内高并且阈值(诸如内存缓冲区的80%正被使用)在该时间帧期间被达到,则发送器可推断发送器101的I/O系统读数据比通过网络120送出数据快。
在步骤4009中,通过自动调节软件336来检测大量数据传送的瓶颈是否存在于接收器102的I/O存储系统中。如果肯定地检测到大量数据传送的瓶颈存在于接收器102的I/O存储系统中,则对发送器101与接收器102之间的连接的数量执行自动调节,在所述自动调节中,接收器102关闭现存连接(即,次要连接)。接收器102可关闭一个或多个现存的次要连接。
在发送器101检测到发送器101处的缓冲区基本上满的情况下,发送器101可将用于打开新连接的请求发送到接收器,或者利用已经被创建但是当前还未被用于发送数据的连接。当发送器处的缓冲区基本上满时打开新连接具有提供平稳的总数据传送的有益效果,这是因为可减小从发送器发送数据时的延迟或间隙。可替换地,在发送器检测到大量数据传送的瓶颈存在于发送器的I/O存储系统中的情况下,发送器101可关闭现存的次要连接。当发送器101处的缓冲区基本上空时,肯定地检测到大量数据传送的瓶颈在发送器101的I/O存储系统中。
在一些情况下,接收器102的I/O存储系统包括盘(例如,图6的盘609)。在这些情况下,当对接收器102的I/O存储系统执行盘的查找操作时,肯定地检测到大量数据传送的瓶颈在接收器102的I/O存储系统中。更具体地讲,因为多个连接正被使用,所以数据可能不能按顺序到达接收器102。如果接收器102在等待下一连续数据块时超时或者填充其内存缓冲区,则接收器102的I/O存储系统可能对乱序数据进行盘写入,对乱序数据进行盘写入稍后可能需要额外的查找操作。这可意味着,数据从发送器101被传送到接收器102比接收器101的I/O存储系统将数据写到盘快。因此,瓶颈可能存在于接收器102的I/O存储系统中。
可替换地,在接收器102的I/O系统包括盘的那些情况下,当接收器102的I/O存储系统将数据写到盘比先前的I/O写速率慢时,肯定地检测到大量数据传送的瓶颈在接收器102的I/O存储系统中。先前的I/O写速率可以基于先前对多于一个的写操作测量的I/O写速率,或者可以基于先前对一时间段的写操作测量的I/O写速率,或者可以基于先前测量的写操作的I/O写速率的加权平均值。例如,如果接收器的I/O存储系统的先前的I/O写速率为10Mb/s,并且接收器的I/O存储系统当前正以5Mb/s写数据,则瓶颈可能存在于接收器的I/O存储系统中。当例如I/O存储系统正对其他非MDT应用进行处理时,接收器的变慢的I/O存储系统写速率可能发生。
在步骤4010中,确定接收器102的I/O存储系统写数据是否比从网络120接收数据快。可例如通过下述方式进行该确定:将接收器102的I/O存储系统从接收器102的内存缓冲区写数据的速率的计算与通过网络120将数据放入接收器102的内存缓冲区中的速率的计算相比较。如果确定接收器102的I/O存储系统写数据比从网络120接收数据快,则接收器102指示或建议发送器打开新连接(通过如图5所示的ACK机制)。
在图40的步骤4010中,如果确定接收器102的I/O存储系统写数据不比从网络102接收数据快,则所述处理前进到步骤4013。在步骤4013中,接收器102确定将由发送器101发送的所有数据是否已被接收器102接收。如果所有数据已被接收器102接收,则所述处理结束(步骤4014)。如果并非所有数据已被接收器102接收,则所述处理前进到步骤4004。
在步骤4007中,发送器101检测大量数据传送的瓶颈是否存在于网络120中。如果在步骤4007中肯定地检测到大量数据传送的瓶颈存在于网络120中,则发送器101关闭发送器101与接收器102之间的现存连接。在网络中的大量数据传送的瓶颈由拥塞引起的情况下,可通过关闭现存的次要连接来减少网络的进一步拥塞。
在步骤4007中,在当前的往返时间(RTT)比先前的RTT长时,肯定地检测到大量数据传送的瓶颈在网络中。当前的RTT和先前的RTT可以基于多于一个消息包的RTT,或者可以基于RTT的加权平均值。如果当前的RTT大大地长于先前的RTT(比如,+20%),则网络可能忙并且具有来自其他发送器-接收器系统的更多流量。通过在网络忙时关闭现存连接,可减少由通过繁忙网络发送更多数据而引起的任何进一步拥塞。
在例子中,加权测量的样本可能看起来如下:如果存在10个RTT顺序样本(诸如n0至n9),则加权RTT测量如下:第1:n0、第2:(n0*0.8+n1*0.2)、第3:(第2*0.8+n2*0.2)、第4(第3*0.8+n3*0.2)、...、第10:(n9*0.8+n9*0.2)。
如果在步骤4007中,大量数据传送的瓶颈未被检测在网络120中,则所述处理前进到步骤4008。在步骤4008中,确定当前的往返时间(RTT)是否从先前的RTT大幅缩短。当前的RTT和先前的RTT可以基于多于一个消息包的RTT,或者可以基于RTT的加权平均值。如果在步骤4008中确定当前的RTT已从先前的RTT大幅缩短,则发送器101将用于打开新连接的请求发送到接收器102。缩短RTT表明网络的性能正在改进。因此,发送器101将想要打开一个或多个新连接来提高数据的吞吐量。
在一些情况下,发送器101和接收器102处的缓冲区大小可根据网络中的瓶颈的检测或者根据接收器的I/O存储系统中的瓶颈的检测被调整。具体地讲,在这个示例性实施例中,发送器处的缓冲区的大小可增大以可防止缓冲区溢出数据。
借助于前述示例性实施例,通常可提供自校准,在所述自校准中,发送器和接收器动态地增加和减少连接的数量,以便通过提供理想的吞吐量来改进大数据传送的性能。另外,在大量的发送器-接收器布置上保持公平性。例如,如果当前瓶颈是接收器的系统I/O,使得当前数量的并行连接聚合了多余的网络带宽,则可关闭这些连接中的一些,以便释放带宽来供其他发送器-接收器系统使用。
在其他示例性实施例中,存在多个发送器,每个发送器将多个大量数据传送中的相应一个大量数据传送发送到接收器102。例如,如图1所示,发送器131和132中的每一个也可基本上与发送器101将大量数据传送发送到接收器102同时地将大量数据传送发送到接收器102。在这些示例性实施例中,当通过网络120建立发送器101与接收器102之间的多个连接时,接收器102基于其他发送器(例如,发送器131和132)请求的连接的数量来设置发送器101与接收器102之间可建立的连接的最多数量。例如,如果接收器102具有所有发送器可共享的最多20个连接,并且其他发送器当前正利用这20个连接中的15个连接,则接收器102可基于正被所述其他发送器使用的15个连接来设置在其上发送器101可用于传送数据的最多5个连接。
在一些情况下,当通过网络120建立发送器101与接收器102之间的多个连接时,接收器102基于其他发送器请求的连接的数量来设置在其内可建立最多数量连接的时间段。另外,接收器102可基于其他发送器请求的连接的数量来设置用于建立可建立的最多数量连接中的每个连接的起始时间。例如,如果接收器102设置最多3个连接,则可在主要连接被建立之后的一分钟建立第一次要连接,并且第一次要连接可持续4分钟,以及可在主要连接被建立之后的两分钟建立第二次要连接,并且第二次要连接可持续2分钟。
在一些情况下,作业队列由接收器102中所包括的调度管理器(即,图3中的调度管理器338)维护,与传入的被请求连接的数量相比,所述调度管理器管理所有多个发送器之间现存的当前连接的数量。另外,调度管理器将优先级分配给所述多个发送器中的每一个。就这一点而言,与将较少数量的连接分配给较低优先级的发送器相比,调度管理器将较多数量的连接分配给较高优先级的发送器。例如,与具有较小数据集合的较低优先级的发送器相比,较高优先级的发送器可以是具有较大数据集合的发送器。在这个例子中,具有较大数据集合的较高优先级的发送器将被分配比具有较小数据集合的较低优先级的发送器多的连接。
另外,当发送器的I/O存储系统读数据比通过网络送出数据快时,发送器可将用于打开一个或多个连接的请求发送到接收器。当自动调节连接的数量时,如果被请求的一个或多个连接被调度管理器确定为可用,则接收器打开所述一个或多个连接。
而且,在当前的往返时间(RTT)从先前的RTT大幅缩短时,发送器可将用于打开一个或多个连接的请求发送到接收器。当前的RTT和先前的RTT可以基于多于一个消息包的RTT,或者可以基于RTT的加权平均值。当自动调节连接的数量时,如果被请求的一个或多个连接被调度管理器确定为可用,则接收器打开所述一个或多个连接。
就这一点而言,在调度管理器设置的时间段内打开和关闭连接。调度管理器设置的时间段可以是对于不同连接中的每一个不同的时间段。最后,连接中的每一个可在不同的起始时间被打开。
当多个请求被接收器102从不同发送器接收时,每个发送器可以用受其处理能力约束的不同传送速率来发送数据。调度管理器338可基于发送器的数量和它接收的数据速率连同文件数据大小(该值可提前获得)来保持公平性和改进总系统吞吐量。
如果新请求在现存数据传送请求的处理期间被接收,则接收器102可接受后来的请求,并返回对于第2请求建议的可加入会话的连接的数量(连同会话id一起)。如果接收器在对数据进行处理和将数据写到I/O存储系统的当中,则接收器可将建议的连接数量与等待时间值一起返回,当所述等待时间值到期时,加入会话请求将被兑现(honored)。同时,如果接收器知道第一请求中剩下的数据量远小于第二请求中要传送的数据量,则接收器可减少用于第一请求的连接数量并增加用于第二请求的允许的连接数量。并且,如果接收器知道第二请求中剩下的数据量远小于第一请求中要传送的数据量,则接收器102可减少用于第二请求的连接数量并增加用于第一请求的允许的连接数量。
调度管理器338还可对请求施加优先级(即,具有较高优先级的新请求在另一请求的处理期间到达)。这可在消息级别上进行并与应用策略相联系,或者在传输数据级别上进行并与将被发送的数据相联系。
本公开内容提供了关于具体的说明性实施例的详细描述。要理解的是,所附权利要求的范围不限于上述实施例,在不脱离权利要求的范围的情况下,相关领域的技术人员可进行各种改变和修改。
本申请要求于2010年8月31日提交的美国申请No.12/873,305的优先权,该申请特此通过引用并入本文。
Claims (48)
1.一种用于从发送器到通过网络与所述发送器连接的接收器的大量数据传送的方法,所述方法包括:
通过所述网络建立所述发送器与所述接收器之间的多个连接;
通过在所述多个连接上划分地发送数据来将数据从所述发送器发送到所述接收器,以便聚合所述网络的带宽的利用;和
通过下述方式来自动调节所述发送器与所述接收器之间的连接的最佳数量:当检测到大量数据传送的瓶颈存在于所述接收器的I/O存储系统中时,关闭现存连接,并且当所述接收器的I/O存储系统写数据比从所述网络接收数据快时,打开新连接。
2.根据权利要求1所述的方法,其中,所述I/O存储系统包括盘,并且其中,当自动调节连接的数量时,当在所述接收器的I/O存储系统上执行所述盘的查找操作时,肯定地检测到大量数据传送的瓶颈在所述接收器的I/O存储系统中。
3.根据权利要求1所述的方法,其中,所述I/O存储系统包括盘,并且其中,当自动调节连接的数量时,当所述接收器的I/O存储系统将数据写到盘比先前的I/O写速率慢时,肯定地检测到大量数据传送的瓶颈在所述接收器的I/O存储系统中。
4.根据权利要求1所述的方法,其中,自动调节还包括:在所述发送器检测到大量数据传送的瓶颈存在于所述网络中的情况下,所述发送器关闭所述发送器与所述接收器之间的现存连接,以便减少所述网络的进一步拥塞。
5.根据权利要求4所述的方法,其中,在当前的往返时间(RTT)比先前的RTT长时,肯定地检测到大量数据传送的瓶颈在所述网络中。
6.根据权利要求4所述的方法,还包括根据瓶颈在所述网络中的检测或者根据瓶颈在所述接收器的I/O存储系统中的检测来调整所述发送器和所述接收器处的缓冲区大小。
7.根据权利要求1所述的方法,其中,在所述发送器检测到所述发送器处的缓冲区基本上满的情况下,所述发送器将用于打开新连接的请求发送到所述接收器,或者利用已经被创建但是当前未被用于发送数据的连接。
8.根据权利要求1所述的方法,其中,存在多个发送器,每个发送器将多个大量数据传送中的相应一个大量数据传送发送到所述接收器。
9.根据权利要求8所述的方法,其中,当通过所述网络建立所述发送器与所述接收器之间的多个连接时,所述接收器基于其他发送器请求的连接的数量来设置能够在所述发送器与所述接收器之间建立的连接的最多数量。
10.根据权利要求9所述的方法,其中,所述接收器基于其他发送器请求的连接的数量来设置在其内能够建立最多数量连接的时间段。
11.根据权利要求9所述的方法,其中,所述接收器基于其他发送器请求的连接的数量来设置用于建立能够被建立的最多数量的连接中的每个连接的起始时间。
12.根据权利要求8所述的方法,还包括维护作业队列,其中,所述作业队列由调度管理器维护,并且与传入的被请求连接的数量相比,管理所有的所述多个发送器之间存在的当前连接的数量。
13.根据权利要求12所述的方法,还包括将优先级分配给所述多个发送器中的每一个,其中,优先级由所述调度管理器分配,以便与将较少数量的连接分配给较低优先级的发送器相比,将较多数量的连接分配给较高优先级的发送器。
14.根据权利要求12所述的方法,其中,当所述发送器的I/O存储系统读数据比通过所述网络送出数据快时,所述发送器将用于打开一个或多个连接的请求发送到所述接收器,并且其中,当自动调节连接的数量时,如果被请求的一个或多个连接被所述调度管理器确定为可用,则所述接收器打开所述一个或多个连接。
15.根据权利要求1所述的方法,其中,当往返时间(RTT)已从先前的RTT缩短时,所述发送器将用于打开一个或多个连接的请求发送到所述接收器,并且其中,当自动调节连接的数量时,如果一个或多个连接被调度管理器确定为可用,则所述接收器打开被请求的一个或多个连接。
16.根据权利要求12所述的方法,其中,当自动调节连接的数量时,在所述调度管理器设置的时间段内打开和关闭所述连接。
17.根据权利要求16所述的方法,其中,所述调度管理器设置的时间段对于不同连接中的每一个是不同的时间段。
18.根据权利要求16所述的方法,其中,所述连接中的每一个在不同的起始时间被打开。
19.一种用于从发送器到通过网络与所述发送器连接的接收器的大量数据传送的方法,所述方法包括:
通过所述网络建立所述发送器与所述接收器之间的多个连接;
通过在所述多个连接上划分地发送数据来将数据从所述发送器发送到所述接收器,以便聚合所述网络的带宽的利用;和
通过下述方式来自动调节所述发送器与所述接收器之间的连接的数量:当所述发送器的I/O存储系统读数据比通过所述网络送出数据快时,打开新连接,并且当所述发送器的I/O存储系统读数据比通过所述网络送出数据慢并且多于一个的发送器正将数据发送到所述接收器时,关闭现存连接。
20.根据权利要求19所述的方法,其中,自动调节还包括:在所述发送器检测到大量数据传送的瓶颈存在于所述网络中的情况下,关闭所述发送器与所述接收器之间的现存连接,以便减少所述网络中的进一步拥塞。
21.根据权利要求20所述的方法,其中,在当前的往返时间(RTT)比先前的RTT长时,肯定地检测到大量数据传送的瓶颈在所述网络中。
22.根据权利要求19所述的方法,其中,自动调节还包括:在所述发送器检测到大量数据传送的瓶颈存在于所述发送器的I/O存储系统中的情况下,关闭所述发送器与所述接收器之间的现存连接,并且其中,当所述发送器处的缓冲区基本上空时,肯定地检测到大量数据传送的瓶颈在所述发送器的I/O存储系统中。
23.根据权利要求19所述的方法,其中,自动调节还包括:当确定往返时间(RTT)已从先前的RTT缩短时,将用于打开新连接的请求发送到所述接收器。
24.一种接收器,包括:
计算机可读存储器,其被构造为存储计算机可执行处理步骤;和
处理器,其被构造为执行存储在所述存储器中的计算机可执行处理步骤,
其中,所述存储器中的处理步骤使所述处理器执行从发送器到通过网络与所述发送器连接的接收器的大量数据传送,并且其中,存储在所述存储器中的处理步骤包括执行如下的计算机可执行步骤:
通过所述网络建立所述发送器与所述接收器之间的多个连接;
通过在所述多个连接上划分地发送数据来将数据从所述发送器发送到所述接收器,以便聚合所述网络的带宽的利用;和
通过下述方式来自动调节所述发送器与所述接收器之间的连接的最佳数量:当检测到大量数据传送的瓶颈存在于所述接收器的I/O存储系统中时,关闭现存连接,并且当所述接收器的I/O存储系统写数据比从所述网络接收数据快时,打开新连接。
25.根据权利要求24所述的接收器,其中,所述I/O存储系统包括盘,并且其中,当自动调节连接的数量时,当在所述接收器的I/O存储系统上执行所述盘的查找操作时,肯定地检测到大量数据传送的瓶颈在所述接收器的I/O存储系统中。
26.根据权利要求24所述的接收器,其中,所述I/O存储系统包括盘,并且其中,当自动调节连接的数量时,当所述接收器的I/O存储系统将数据写到所述盘比先前的I/O写速率慢时,肯定地检测到大量数据传送的瓶颈在所述接收器的I/O存储系统中。
27.根据权利要求24所述的接收器,其中,自动调节还包括:在所述发送器检测到大量数据传送的瓶颈存在于所述网络中的情况下,所述发送器关闭所述发送器与所述接收器之间的现存连接,以便减少所述网络的进一步拥塞。
28.根据权利要求27所述的接收器,其中,在当前的往返时间(RTT)比先前的RTT长时,肯定地检测到大量数据传送的瓶颈在所述网络中。
29.根据权利要求27所述的接收器,其中,存储在所述存储器中的所述处理步骤还包括执行如下的计算机可执行步骤:
根据瓶颈在所述网络中的检测或者根据瓶颈在所述接收器的I/O存储系统中的检测来调整所述发送器和所述接收器处的缓冲区大小。
30.根据权利要求24所述的接收器,其中,在所述发送器检测到所述发送器处的缓冲区基本上满的情况下,所述发送器将用于打开新连接的请求发送到所述接收器,或者利用已经被创建的但是当前未被用于发送数据的连接。
31.根据权利要求24所述的接收器,其中,存在多个发送器,每个发送器将多个大量数据传送中的相应一个大量数据传送发送到所述接收器。
32.根据权利要求31所述的接收器,其中,当通过所述网络建立所述发送器与所述接收器之间的多个连接时,所述接收器基于其他发送器请求的连接的数量来设置能够在所述发送器与所述接收器之间建立的连接的最多数量。
33.根据权利要求32所述的接收器,其中,所述接收器基于其他发送器请求的连接的数量来设置在其内能够建立最多数量连接的时间段。
34.根据权利要求32所述的接收器,其中,所述接收器基于其他发送器请求的连接的数量来设置用于建立能够被建立的最多数量的连接中的每个连接的起始时间。
35.根据权利要求31所述的接收器,其中,存储在所述存储器中的处理步骤还包括执行如下的计算机可执行步骤:
维护作业队列,其中,所述作业队列由调度管理器维护,并且与传入的被请求连接的数量相比,管理所有的所述多个发送器之间存在的当前连接的数量。
36.根据权利要求35所述的接收器,其中,存储在所述存储器中的处理步骤还包括执行如下的计算机可执行步骤:
将优先级分配给所述多个发送器中的每一个,其中,优先级由所述调度管理器分配,以便与将较少数量的连接分配给较低优先级的发送器相比,将较多数量的连接分配给较高优先级的发送器。
37.根据权利要求35所述的接收器,其中,当所述发送器的I/O存储系统读数据比通过所述网络送出数据快时,所述发送器将用于打开一个或多个连接的请求发送到所述接收器,并且其中,当自动调节连接的数量时,如果被请求的一个或多个连接被所述调度管理器确定为可用,则所述接收器打开所述一个或多个连接。
38.根据权利要求35所述的接收器,其中,当往返时间(RTT)已从先前的RTT缩短时,所述发送器将用于打开一个或多个连接的请求发送到所述接收器,并且其中,当自动调节连接的数量时,如果被请求的一个或多个连接被所述调度管理器确定为可用,则所述接收器打开所述一个或多个连接。
39.根据权利要求35所述的接收器,其中,当自动调节连接的数量时,在所述调度管理器设置的时间段内打开和关闭所述连接。
40.根据权利要求39所述的接收器,其中,所述调度管理器设置的时间段对于不同连接中的每一个是不同的时间段。
41.根据权利要求39所述的接收器,其中,所述连接中的每一个在不同的起始时间被打开。
42.一种发送器,包括:
计算机可读存储器,其被构造为存储计算机可执行处理步骤;和
处理器,其被构造为执行存储在所述存储器中的计算机可执行处理步骤,
其中,所述存储器中的处理步骤使所述处理器执行从发送器到通过网络与所述发送器连接的接收器的大量数据传送,并且其中,存储在所述存储器中的处理步骤包括执行如下的计算机可执行步骤:
通过所述网络建立所述发送器与所述接收器之间的多个连接;
通过在所述多个连接上划分地发送数据来将数据从所述发送器发送到所述接收器,以便聚合所述网络的带宽的利用;和
通过下述方式来自动调节所述发送器与所述接收器之间的连接的最佳数量:当所述发送器的I/O存储系统读数据比通过所述网络送出数据快时,打开新连接,并且当所述发送器的I/O存储系统读数据比通过所述网络送出数据慢并且多于一个的发送器正将数据发送到所述接收器时,关闭现存连接。
43.根据权利要求42所述的发送器,其中,自动调节还包括:在所述发送器检测到大量数据传送的瓶颈存在于所述网络中的情况下,关闭所述发送器与所述接收器之间的现存连接,以便减少所述网络中的进一步拥塞。
44.根据权利要求43所述的发送器,其中,在当前的往返时间(RTT)比先前的RTT长时,肯定地检测到大量数据传送的瓶颈在所述网络中。
45.根据权利要求42所述的发送器,其中,自动调节还包括:在所述发送器检测到大量数据传送的瓶颈存在于所述发送器的I/O存储系统中的情况下,关闭所述发送器与所述接收器之间的现存连接,并且其中,当所述发送器处的缓冲区基本上空时,肯定地检测到大量数据传送的瓶颈在所述发送器的I/O存储系统中。
46.根据权利要求42所述的发送器,其中,自动调节还包括:当确定往返时间(RTT)已从先前的RTT缩短时,将用于打开新连接的请求发送到所述接收器。
47.一种计算机可读存储介质,在所述计算机可读存储介质上,存储有用于使处理器执行从发送器到通过网络与所述发送器连接的接收器的大量数据传送的计算机可执行处理步骤,所述处理步骤包括:
通过所述网络建立所述发送器与所述接收器之间的多个连接;
通过在所述多个连接上划分地发送数据来将数据从所述发送器发送到所述接收器,以便聚合所述网络的带宽的利用;和
通过下述方式来自动调节所述发送器与所述接收器之间的连接的最佳数量:当检测到大量数据传送的瓶颈存在于所述接收器的I/O存储系统中时,关闭现存连接,并且当所述接收器的I/O存储系统写数据比从所述网络接收数据快时,打开新连接。
48.一种计算机可读存储介质,在所述计算机可读存储介质上,存储有用于使处理器执行从发送器到通过网络与所述发送器连接的接收器的大量数据传送的计算机可执行处理步骤,所述处理步骤包括:
通过所述网络建立所述发送器与所述接收器之间的多个连接;
通过在所述多个连接上划分地发送数据来将数据从所述发送器发送到所述接收器,以便聚合所述网络的带宽的利用;和
通过下述方式来自动调节所述发送器与所述接收器之间的连接的最佳数量:当所述发送器的I/O存储系统读数据比通过所述网络送出数据快时,打开新连接,并且当所述发送器的I/O存储系统读数据比通过所述网络送出数据慢并且多于一个的发送器正将数据发送到所述接收器时,关闭现存连接。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/873,305 | 2010-08-31 | ||
US12/873,305 US20120054362A1 (en) | 2010-08-31 | 2010-08-31 | Mechanism for autotuning mass data transfer from a sender to a receiver over parallel connections |
PCT/US2011/048141 WO2012030542A1 (en) | 2010-08-31 | 2011-08-17 | Mechanism for autotuning mass data transfer from a sender to a receiver over parallel connections |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103109285A true CN103109285A (zh) | 2013-05-15 |
Family
ID=45698626
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2011800409179A Pending CN103109285A (zh) | 2010-08-31 | 2011-08-17 | 用于自动调节从发送器通过并行连接到接收器的大量数据传送的机制 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20120054362A1 (zh) |
JP (1) | JP5767706B2 (zh) |
CN (1) | CN103109285A (zh) |
WO (1) | WO2012030542A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700830A (zh) * | 2013-12-06 | 2015-06-10 | 中国移动通信集团公司 | 一种语音端点检测方法及装置 |
CN112134909A (zh) * | 2019-06-24 | 2020-12-25 | 同方威视科技江苏有限公司 | 时序数据处理方法、装置、系统、服务器及可读存储介质 |
CN116150066A (zh) * | 2023-01-11 | 2023-05-23 | 南京宏泰半导体科技有限公司 | 一种集成电路测试的总线数据处理方法及系统 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9019854B2 (en) * | 2010-04-26 | 2015-04-28 | Telefonaktiebolaget L M Ericsson (Publ) | Method for setting and adjusting a parameter dependent on a round trip time |
US9825815B2 (en) * | 2011-02-02 | 2017-11-21 | Tata Consultancy Services Limited | System and method for aggregating and estimating the bandwidth of multiple network interfaces |
US8756310B2 (en) * | 2011-03-09 | 2014-06-17 | International Business Machines Corporation | Comprehensive bottleneck detection in a multi-tier enterprise storage system |
US9674637B2 (en) * | 2011-06-16 | 2017-06-06 | Microsoft Technology Licensing, Llc | Object marshaling |
JP5773820B2 (ja) * | 2011-09-16 | 2015-09-02 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9197702B2 (en) * | 2013-12-06 | 2015-11-24 | Cellco Partnership | System for and method for media upload multithreading for large file uploads |
CN103701667A (zh) * | 2013-12-27 | 2014-04-02 | 乐视网信息技术(北京)股份有限公司 | 服务器的心跳的监控方法、装置及系统 |
US20170046199A1 (en) * | 2014-04-30 | 2017-02-16 | Hewlett-Packard Development Company, L.P. | Migrating objects from a source service to a target service |
JP5996691B2 (ja) * | 2015-02-19 | 2016-09-21 | 株式会社シミュラティオ | ファイル転送方法及びファイル転送プログラム |
US10120921B2 (en) * | 2015-10-20 | 2018-11-06 | Mastercard International Incorporated | Parallel transfer of SQL data to software framework |
WO2017165711A1 (en) * | 2016-03-23 | 2017-09-28 | Purdue Research Foundation | Receiver-directed computer network congestion control system |
US10182020B2 (en) | 2016-05-31 | 2019-01-15 | Anchorfree Inc. | System and method for improving an aggregated throughput of simultaneous connections |
US10334055B2 (en) | 2017-02-01 | 2019-06-25 | International Business Machines Corporation | Communication layer with dynamic multi-session management |
US10673801B2 (en) * | 2017-11-29 | 2020-06-02 | International Business Machines Corporation | Dynamic communication session management |
US11178198B1 (en) | 2020-11-04 | 2021-11-16 | Disney Enterprises, Inc. | Buffering data on high bandwidth networks |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050223137A1 (en) * | 2003-02-24 | 2005-10-06 | Mark Core | Dual IDE channel servicing using single multiplexed interface |
US20070088826A1 (en) * | 2001-07-26 | 2007-04-19 | Citrix Application Networking, Llc | Systems and Methods for Controlling the Number of Connections Established with a Server |
US20080225721A1 (en) * | 2007-03-12 | 2008-09-18 | Robert Plamondon | Systems and methods for providing quality of service precedence in tcp congestion control |
US20090292850A1 (en) * | 1999-10-14 | 2009-11-26 | Bluearc Uk Limited | File System Adapter for Hardware Implementation or Acceleration of File System Functions |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149482A (ja) * | 1992-11-11 | 1994-05-27 | Hitachi Ltd | 外部記憶装置 |
JPH11242640A (ja) * | 1998-02-25 | 1999-09-07 | Kdd Corp | ファイル転送方法 |
JP3569149B2 (ja) * | 1999-02-03 | 2004-09-22 | 株式会社日立製作所 | 通信制御装置 |
US7013364B2 (en) * | 2002-05-27 | 2006-03-14 | Hitachi, Ltd. | Storage subsystem having plural storage systems and storage selector for selecting one of the storage systems to process an access request |
JP2006228188A (ja) * | 2005-02-14 | 2006-08-31 | Hitachi Ltd | ストレージシステムの負荷を動的にバランスさせる方法 |
JP5179218B2 (ja) * | 2008-02-19 | 2013-04-10 | 日本電信電話株式会社 | iSCSIセッションのTCPコネクション数制御方法、iSCSIホスト装置、およびiSCSIイニシエータの構成プログラム |
US8155158B2 (en) * | 2008-11-12 | 2012-04-10 | Patricio Humberto Saavedra | System, apparatus and method for providing aggregated network connections |
JP2010198187A (ja) * | 2009-02-24 | 2010-09-09 | Nippon Telegr & Teleph Corp <Ntt> | iSCSIセッションのTCPコネクション数制御方法、iSCSIホスト装置、およびiSCSIイニシエータの構成プログラム。 |
CA2754362C (en) * | 2009-03-06 | 2014-09-23 | Aspera, Inc. | Method and system for i/o driven rate adaptation |
-
2010
- 2010-08-31 US US12/873,305 patent/US20120054362A1/en not_active Abandoned
-
2011
- 2011-08-17 CN CN2011800409179A patent/CN103109285A/zh active Pending
- 2011-08-17 WO PCT/US2011/048141 patent/WO2012030542A1/en active Application Filing
- 2011-08-17 JP JP2013525994A patent/JP5767706B2/ja not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090292850A1 (en) * | 1999-10-14 | 2009-11-26 | Bluearc Uk Limited | File System Adapter for Hardware Implementation or Acceleration of File System Functions |
US20070088826A1 (en) * | 2001-07-26 | 2007-04-19 | Citrix Application Networking, Llc | Systems and Methods for Controlling the Number of Connections Established with a Server |
US20050223137A1 (en) * | 2003-02-24 | 2005-10-06 | Mark Core | Dual IDE channel servicing using single multiplexed interface |
US20080225721A1 (en) * | 2007-03-12 | 2008-09-18 | Robert Plamondon | Systems and methods for providing quality of service precedence in tcp congestion control |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104700830A (zh) * | 2013-12-06 | 2015-06-10 | 中国移动通信集团公司 | 一种语音端点检测方法及装置 |
CN104700830B (zh) * | 2013-12-06 | 2018-07-24 | 中国移动通信集团公司 | 一种语音端点检测方法及装置 |
CN112134909A (zh) * | 2019-06-24 | 2020-12-25 | 同方威视科技江苏有限公司 | 时序数据处理方法、装置、系统、服务器及可读存储介质 |
CN112134909B (zh) * | 2019-06-24 | 2022-04-19 | 同方威视科技江苏有限公司 | 时序数据处理方法、装置、系统、服务器及可读存储介质 |
CN116150066A (zh) * | 2023-01-11 | 2023-05-23 | 南京宏泰半导体科技有限公司 | 一种集成电路测试的总线数据处理方法及系统 |
CN116150066B (zh) * | 2023-01-11 | 2023-07-04 | 南京宏泰半导体科技股份有限公司 | 一种集成电路测试的总线数据处理方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2012030542A1 (en) | 2012-03-08 |
US20120054362A1 (en) | 2012-03-01 |
JP5767706B2 (ja) | 2015-08-19 |
JP2013537009A (ja) | 2013-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103109285A (zh) | 用于自动调节从发送器通过并行连接到接收器的大量数据传送的机制 | |
US11706145B2 (en) | Adaptive private network asynchronous distributed shared memory services | |
US8892720B2 (en) | System and method for network optimization through predictive downloading | |
CN102201977B (zh) | 批量数据传输 | |
Gibbens et al. | Resource pricing and the evolution of congestion control | |
Frömmgen et al. | A programming model for application-defined multipath TCP scheduling | |
US8572158B2 (en) | Distributed computing by carrier-hosted agent | |
CN1783852B (zh) | 使用web服务可靠消息通信协议的高效消息传输 | |
CN1910868B (zh) | 用于控制队列缓冲器的方法及装置 | |
US20020099844A1 (en) | Load balancing and dynamic control of multiple data streams in a network | |
CN109412946A (zh) | 一种确定回源路径的方法、装置、服务器及可读存储介质 | |
US8238243B2 (en) | System and method for network optimization by managing low priority data transfers | |
US9774651B2 (en) | Method and apparatus for rapid data distribution | |
CN106134147A (zh) | 实现请求管理器和连接管理器功能的传输加速器 | |
CN112512018B (zh) | 一种基于移动边缘计算的协作车辆间任务动态卸载方法 | |
CN102255794A (zh) | 远程消息收发吞吐量优化和等待时间缩短用系统和方法 | |
CN113132490A (zh) | 一种基于强化学习的MQTT协议QoS机制选择方案 | |
CN116192766A (zh) | 用于调整数据发送速率和训练拥塞控制模型的方法及装置 | |
Poggi et al. | Matrix-DBP for (m, k)-firm real time guarantee | |
CN112965796B (zh) | 一种任务调度系统、方法和装置 | |
CN113992609B (zh) | 一种处理多链路业务数据乱序的方法及系统 | |
CN108337285B (zh) | 一种通信系统及通信方法 | |
CN110865891B (zh) | 一种异步消息编排方法和装置 | |
CN117459586A (zh) | 访问请求的处理方法和装置、存储介质及电子装置 | |
Poellabauer | Q-fabric: system support for continuous online quality management |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20130515 |