CN101339523A - 多处理器环境中的流水线处理方法和设备 - Google Patents

多处理器环境中的流水线处理方法和设备 Download PDF

Info

Publication number
CN101339523A
CN101339523A CNA2007101274579A CN200710127457A CN101339523A CN 101339523 A CN101339523 A CN 101339523A CN A2007101274579 A CNA2007101274579 A CN A2007101274579A CN 200710127457 A CN200710127457 A CN 200710127457A CN 101339523 A CN101339523 A CN 101339523A
Authority
CN
China
Prior art keywords
processor
task
subtask
subfunction
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2007101274579A
Other languages
English (en)
Other versions
CN101339523B (zh
Inventor
郑凯
冯博
绍凌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IBM China Co Ltd
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to CN2007101274579A priority Critical patent/CN101339523B/zh
Publication of CN101339523A publication Critical patent/CN101339523A/zh
Application granted granted Critical
Publication of CN101339523B publication Critical patent/CN101339523B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Multi Processors (AREA)

Abstract

本申请涉及多处理器环境中的流水线处理方法和设备,其中,将任务分割为交叠的子任务分配给多个处理器,其中各子任务中的交叠部分由处理对应子任务的处理器共享,在各处理器执行所述子任务的过程中,确定各处理器的状态,并根据各处理器的状态动态决定各子任务中交叠的部分由处理对应子任务的处理器中的哪一个处理器来执行。根据本发明,实现了子任务在多处理器之间的动态均衡,从而充分利用了计算资源而实现多核处理器的最佳增益。

Description

多处理器环境中的流水线处理方法和设备
技术领域
本发明涉及流水线技术,尤其涉及多处理器环境中的流水线处理方法和设备。
背景技术
作为一种刚出现并逐渐受到广泛关注的网络应用,DPI(DeepPacket Inspection,深度数据包检查)是对性能敏感的。其处理性能需求与接口网速(interface wire-speed)比例相关,这是因为DPI不仅处理数据包标题(包头),还处理数据包有效载荷。
多处理器(多核或者多芯片,例如SMP(对称多处理器))是一种解决DPI的性能问题的有前景的方法,这是因为它具有强大的处理/计算能力。但是,在某些情况下,DPI难以采用用于进行数据负载平衡的传统的并行编程模型。原因在于,网络通信通常是基于流/会话方式的(所谓的“流”,指的是任意“源-目的”地之间通信的数据包流),流内的各数据包相互间高度相关,因此应当按顺序对流内的数据包进行处理以维持数据相关性。不幸的是,由于存在例如VPN(虚拟专用网络)隧道这样的应用场合,网络流可能具有非常“巨大”的尺寸,甚至可能独占整个电缆带宽,极端情况是所有的数据包都在单个隧道流中,不得不按顺序处理,也就是说无法很好地并行处理。
流水线技术(pipelining)是另一种利用(leverage)并行处理资源以增进性能的方法,尽管以前在通用CPU平台中并不常见。传统上,流水线技术主要用在硬件体系结构的设计上。最近在网络处理器(Netwrok Processor)技术中,提出将流水线技术作为一种针对网络数据的编程模型。DPI应用的处理(检查)对象是数据包,或者说数据包组成的流,但是DPI应用本身是一个程序,其包括许多子程序或者例程。因此,可以利用流水线技术对DPI应用程序函数本身进行分割。通过流水线技术,编程人员可以将大任务分割为多个接续进行的较小的子任务,并将它们分配到多个处理单元,以使这些处理单元并行工作而实现性能的提高。与并行编程模型相比,流水线技术是一种“任务负载平衡(Task Load-Balancing)”方法而不是“数据负载平衡(Data Load-Balancing)”方法,因此保持了数据的相关性。
另一方面,注意到只有当子任务负载在各处理器之间良好均衡时,计算资源才能被充分利用而实现多核处理器的最佳增益。但是,传统的流水线编程受制于非常差的自适应性,任务只能被预先分割并被静态地分配给特定的处理器。注意到每一个数据包的执行代码路径(code path)常常相互不同,也就是说,同一个DPI应用,对于不同的数据包,其参与的子程序以及各子程序对计算资源的需求可能存在差异,因此难以期望通过静态的方法实现高的资源利用率。对于DPI应用来说,这是至关重要的问题,因为即使是百分之一的性能增益损失也会导致与所需的性能不匹配。
类似地,对于DPI应用之外的其他许多应用,也存在子任务在多处理器之间的均衡的问题,而无论所述任务是什么或者其处理的数据是什么。上面以DPI为例来说明现有技术面临的问题,只是因为DPI的数据负载均衡和任务负载均衡问题尤为迫切。
发明内容
鉴于上述问题,需要使子任务负载在各处理器之间更好地均衡。
为此,本发明提供了一种用于多核处理器环境中的,动态流水线子任务调度方法。其主要思想在于:在流水线中,在相互配合的处理器之间共享部分代码/例程,并基于它们的实时负载在处理器之间动态地调度子任务。
进一步,本发明还提供了针对下述问题的解决方案:
1)如何在处理器之间共享代码/例程以实现适应性,同时避免不必要的开销;
2)如何以最小的开销触发子任务的再分配,如何确定从何处进行再分配。
具体地,本发明提供了一种多处理器环境中的流水线处理方法,包括:将任务分割为交叠的子任务分配给多个处理器,其中各子任务中的交叠部分由处理对应子任务的处理器共享;在各处理器执行所述子任务的过程中,确定各处理器的状态;以及,根据各处理器的状态动态地决定各子任务中交叠的部分由处理对应子任务的处理器中的哪一个处理器来执行。
本发明还提供了一种多处理器环境中的流水线处理设备,包括:分割装置,将任务分割为交叠的子任务分配给多个处理器,其中各子任务中的交叠部分由处理对应子任务的处理器共享;处理器状态确定装置,在各处理器执行所述子任务的过程中,确定各处理器的状态;以及动态调节装置,根据各处理器的状态动态决定各子任务中交叠的部分由处理对应子任务的处理器中的哪一个处理器来执行。
在本发明的一种优选实施方式中,可以根据以下因素之一或者它们的组合来确定各处理器的工作负荷:各处理器任务队列的状态;各处理器指令队列的状态;各处理器的吞吐量;各处理器的处理延时。或者可以由各处理器定期主动告知其状态。
在本发明的一种优选实施方式中,任务的分割还可以包括:分析任务,获得该任务的子函数的调用关系图;根据所述调用关系图确定该任务的子函数的关键路径;以及,根据所述关键路径进行任务的分割。
在本发明的一种优选实施方式中,根据所述关键路径进行任务的分割还可以包括:分析所述关键路径中各子函数的自身时间和/或代码长度;以及,根据任务中各子函数的累积自身时间和/或累积代码长度进行任务的分割。
在本发明的一种优选实施方式中,根据所述关键路径进行任务的分割还可以考虑至少以下因素中的至少一个:各子函数的自身时间;各子函数的代码长度;任务的代码冗余比例;指令/数据的局部性;本地存储器大小;高速缓存大小;各子函数本身的负载稳定性;以及子函数之间的耦合程度。
根据本发明的一种优选实施方式,处理器状态的确定和/或所述动态调节可以被集成在所述任务本身当中,也可以通过在外部监测处理器和/或任务来实现。
根据本发明的上述方案,实现了子任务在多处理器之间的动态均衡,从而充分利用了计算资源而实现多核处理器的最佳增益。
附图说明
下面结合附图对本发明进行详细说明。附图中:
图1图示了现有技术中对任务的静态分割;
图2图示了本发明的任务动态分割方法;
图3到图6图示了根据本发明的一种优选实施方式的流水线处理方法的各个步骤;
图7图示了根据本发明的一种优选实施方式的流水线处理方法的流程图;
图8图示了图7所示流水线处理方法的任务分割步骤的详细流程图;
图9图示了根据本发明的一种优选实施方式的子任务动态调节的示意图;
图10图示了根据本发明的一种优选实施方式的流水线处理设备的框图。
具体实施方式
作为举例,一个应用程序具有11个函数或者说例程main()、F1()到F10(),它们的调用关系如图1所示。按照传统的流水线处理技术,是对各函数进行静态的分割。例如,F1()由处理器#1执行,F2()到F6()以及F5()的进一步函数调用由处理器#2执行,F7()及其以后的函数调用由处理器#3执行。如背景技术部分所述,这种静态分割的适应性差,在应用程序的实际执行过程中,随所处理的数据的不同,各处理器的任务有可能并不均衡。例如,当F4()不调用F7()时,此时处理器#3对该应用程序而言就空闲了,而处理器#2需要处理比F4()调用F7()时更多的任务,也就是要多处理F5()、F6()等。
因此,针对这种问题,本发明提出了一种新的流水线处理方法。即,在分割子任务并分配给各处理器时,使各处理器处理的子任务有一定程度的交叠,即交叠部分的子任务由多个处理器“共享”(步骤702,图7)。在任务执行的过程中确定各处理器的状态(步骤704,图7),据之动态地决定交叠部分由共享交叠的子任务的处理器中的哪一个来执行(步骤706,图7)(下面称为子任务动态调节),从而实现多处理器之间的动态均衡。
仍以图1所示的应用程序为例,如图2所示,根据本发明的方法,函数F1()由处理器#1和处理器#2共享,函数F4()及其对F5()、F6()的调用由处理器#2和处理器#3共享。这样,如果在实际执行过程中处理器#2比处理器#1更加空闲,则可以由处理器#2执行F1();反之由处理器#1执行;同样,如果处理器#3比处理器#2更空闲,则可以由处理器#3执行F4()及其对F5()、F6()的调用,反之则由处理器#2执行。这样就实现了处理器#1、#2和#3之间的动态均衡。
在上面的例子中,交叠部分的子任务仅由两个处理器共享,例如F1()由处理器#1和处理器#2共享,F4()及其对F5()和F6()的调用由处理器#2和处理器#3共享。但是,本发明并不局限于此。如果有必要,同一个子任务可以由更多的处理器共享。
在程序的实际运行中,子任务的动态调整可以由多种方法来完成,关键是每一个处理器无论通过何种手段应当知道自身及其邻居的实时工作负荷比,而共享的那部分子任务总是应当送往当前具有相对较低工作负荷的处理器。其中一种可行的方法是:在共享的例程中植入代码(instrumentation)来进行动态调节。代码植入是分析目标程序或者对目标程序进行优化的一种典型手段。通常代码会被植入到某些函数的入口或出口。也就是说,植入代码以后,原来的程序在执行/释放之前,会先执行被植入的代码。在本发明中,将代码植入共享例程的出口(或者入口),被植入的代码负责根据处理器的“闲/忙”状态,动态的决定被共享的那部分子任务由谁来执行。原则是,当前哪个处理器更闲,就谁来执行。例如,这些代码可以负责查询关联处理器的任务队列(TQ)(包括运行当前代码的处理器的任务队列)的状态,根据负载均衡的原则判断是否接纳后面的共享任务。如果接纳,则继续,完成共享的任务;如果否,则把共享的这部分任务移交给流水线后面的处理器来做,同时,为该处理器准备处理当前数据(例如,在DPI应用中是数据包,例如IP包)所需要的上下文(例如源数据和中间数据)。如果还有要处理的另外的数据(例如,在DPI应用中,还有下一个数据包),所述关联处理器自己则切换回去处理所述另外的数据(下一个数据包)。
下面是用伪码表示的代码植入的一个例子。仍沿用图2所示的例子,假设函数F2()被分配给处理器#2执行。在函数F2()的末尾植入代码,根据处理器#2和处理器#3的等待队列长度来判断是由处理器#2还是由处理器#3来处理在F2()中调用的函数F4()。
F2()//假设函数F2()被分配给处理器#2执行
{
...
//下面是在函数F2()的出口注入的代码
       If(TQ长度(处理器#2)<TQ长度(处理器#3))//
比较两个处理器的任务队列长度
  {F4();
       为下一个处理器准备数据(1);//参数“1”代表同时
需要完成共享任务;
  };
   Else
       为下一个处理器准备数据(0);//参数“0”代表共享
的任务由下一个处理器执行,当前处理器仅仅准备数据
   Return;
}
提供处理器任务队列长度的API(例如上面的伪代码中的函数“TQ长度()”)可以由OS/运行时环境或者硬件驱动器容易地提供。
如前所述,子任务的动态调整可以由多种方法来完成。作为代码植入以外的另一个例子,例如有守护进程法。
如图9所示,假设任务的划分仍如图2和图6所示,也就是子函数F1()由处理器#1和#2来分担,子函数F4()(以及其所有支路子函数F5(),F6()和F8())由处理器#2和#3来分担。守护进程法的原理是:
1)额外地为每个处理器设置一个“守护进程”,也就是图9中的D1(),D2()和D3();
2)它们常驻对应的处理器#1、#2和#3,负责监测相应处理器的状态,并根据处理器当前的负载情况,动态地控制分处于相邻的两个处理器里的“互斥流程选择开关对”,让其中一个处理器(如负载较低的一个)处理共享的子函数,而另一个处理器则绕过该共享的子函数,从而达到动态调节的目的;
采用守护进程的方法,用户的运行代码就无需植入特定的代码,只需要根据守护进程的接口,提供“可以用于动态调节的子函数”的标示和可被控制的函数开关即可。
此外,守护进程之间,例如流水线上级/下级对应的守护进程之间(如图中的D1()和D2()之间),还需要有通信的接口,一来用于在守护进程之间交互数据流向的信息,二来,还需要将动态调整的决策告诉下游守护进程,以免任务的漏做或重做。
具体来说,例如,如图9所示,守护进程D1()、D2()和D3()监视各子任务的执行以及各处理器的状态并相互通信,从而决定分担的部分子任务由哪一个处理器执行。例如,如果D1()决定F1()由处理器#2执行,则D1()发出指令,在#1中不执行F1(),并将此信息以及相关中间数据告知D2(),后者则发出指令,由#2执行F1()。依此类推。
可以注意到,在上面对代码植入的说明中,就处理器的状态而言使用的是处理器任务队列长度,这只是一个例子。事实上,在现有技术中,确定处理器状态的方法有很多。比如可以修改处理器(CPU)的硬件,使之能够提供它的状态,或者使用更复杂的动态任务预测的方法。又比如,无论是在视窗还是在Linux/unix操作系统中,都有监视CPU负载的工具。前面所讨论的任务队列的例子是在OS之上的用户应用层面的处理方式,是在任务层面上反映CPU的负载和任务需求之间的关系,从而确定CPU的忙闲情况。此外,还可以监视CPU的指令队列。现代的CPU都是流水线的工作方式,流水线最开头,有一个指令队列,用于存放从OS拿到的要执行的指令(这个队列很小),这个队列如果长时间都是满的,或者较长,说明CPU负载很重,跟不上处理的需求,反之,如果队列是空的,或者较短,说明负载轻。
除了上述的CPU指令队列读取法(微观粒度)和系统级的对应CPU的任务队列状态读取法(宏观粒度)以外,还有更多的方法可用于确定处理器的状态。例如,可以在CPU里面设立一个可配置的计时器(Timer)和汇报模块,以指定的时间或者运行的指令数目为周期,向系统主动提供该CPU或者该CPU核的状态。区别于前面的两种方法,该方法主动向系统汇报状态,而非被动地回答来自系统的状态查询,可以省却一定的系统开销。其效果与前两种方法的区别类似于轮询和中断的区别。
对于CPU的状态的确定,除了上面所述的非常精确的实时查询以外,还可以通过统计CPU的吞吐量和/或处理延时来获知。具体地,我们可以根据送给CPU的任务和它的完成情况的统计数据,来得知这个CPU是否被利用得很充分。原则上,我们可以认为,一个对所分配任务响应得很慢的CPU应该是高负载运行的;相反,对大部分任务都能以很小的处理延时完成的CPU应该是较为空闲的。具体操作上,我们可以通过在递交任务给CPU的时候记录系统时间,在完成的时候根据当前的时间和进入时间的差计算处理延时,这样就可以通过各个CPU处理延时的比较,来确定谁闲谁忙。
上面所讨论的分割子任务并分配给各处理器的步骤(步骤702,图7)可以用现有技术的任务分割方法来执行,只不过,按照本发明,需要使被分配给各处理器的任务存在在执行时动态分配的交叠部分。这只需要简单地移动传统任务分割方法中每一部分子任务的开始点和结束点即可。
任务的分割一般是针对关键路径进行分割的,因此要基于对关键路径的认识。关键路径一般是指在程序的函数调用图里面耗时最多的一条调用链。见图4,其中实线框及实线箭头所示为关键路径。其中,main()→F1()→F2(),这都是一对一调用,自然包括在关键路径里,而F2()可能会调用F3()或F4(),其中假设F4()在运行期间总的运行时间(大致等于调用次数乘以单次调用的运行时间)要多于F3(),因此F2()→F4()属于关键路径的一部分,而F2()→F3()不属于...依此类推。作为举例,图4所示关键路径为:main()→F1()→F2()→F4()→F7()→F9()→F10(),就是所谓的关键路径。当然,也可以考虑使用其他标准来确定关键路径,例如以代码长度为标准(关于代码长度请参见下文所述)。在确定了关键路径以后,即可以使用传统的方法进行如图1所示或者如图2所示的任务分割。
对于某一个应用来说,关键路径可以是已知的。例如,编程时保留了关键路径信息,或者在以前分析过关键路径,或者关键路径可以由外部工具提供。
而对于关键路径未知的应用,首先需要对应用程序进行概要分析(profiling)(步骤802,图8),以获取应用的调用关系图(call-graph)(图8中的804)。这一步有许多现有的工具可以使用,例如用IntelvTune(http://www.intel.com/cd/software/products/apac/zho/vtune/index.htm)、GNU gprof(http://www.gnu.org/software/binutils/manual/gprof-2.9.1/gprof.html)或者oprofile  (http://oprofile.sourceforge.net/news/)等应用程序/代码分析工具。图3所示为图1及图2所示应用程序的调用关系图。在大多数应用中,尤其是在DPI应用(作为一种流处理)中,一般极少看到向前函数调用。换句话说,“调用关系图”倾向于看起来更象“树”而不是“图”。这对于子任务分割是有帮助的。例如,图3所示的树实际上是一个图,因为其中F8()在F5()下和F7()下都被调用,但为了分割任务和描述的方便,可以将其表示为似树的形式。
然后,根据调用关系图确定数据处理的关键路径(步骤806,图8)。在找到关键路径以后,即可以使用传统的方法进行如图1所示或者如图2所示的任务分割。
在本发明的一种优选实施方式中,为了使处理器的负载更加均衡,提出了关于任务分割的更为优选的实施方式,以便更加准确地均匀分割任务,并更加恰当地确定在处理器之间共享的子任务。
为此,需要进行进一步分析,找出关键路径中每一个函数的“自身时间(selftime)”(步骤808,图8)。
这里,“自身时间”是指特定函数本身花的时间,包括其所有支路子函数中的关键路径所花的时间。例如,在图4中,就F4()而言,其“自身时间”不包括其在关键路径上的子函数F7()所花的时间。F4()调用的不在关键路径上的子函数即为支路子函数,即F5()(F5()又进一步调用F8())以及F6()。如果将F4()视为主函数的话,类似于前文所述,也存在一个关键路径。这里,假设F5()→F8()的时间长于F6(),则F4()的支路子函数关键路径为F5()→F8()。也就是说,在图4的例子中,F4()的自身时间为F4()本身所花的时间加上其支路子函数关键路径F5()→F8()所花的时间。又例如,对于F2()或者F7(),由于它们调用的子函数除了在关键路径上的之外只有一个调用链,因此该调用链就是支路子函数关键路径。现有技术中也有很多工具可以分析得到函数的自身时间,例如前述概要分析工具。
按照一种实施方式,在得到所述自身时间之后,即可以按时间平均的原则对任务进行分割,将分界点上的例程由前后两个处理器共享(步骤810,图8)。例如,如图5所示,代表各函数的方框线的宽度示意性地表示自身时间。仍按照图1和图2的假设有三个处理器#1、#2和#3,可以按照累积自身时间将关键路径大致三等分(由于累积自身时间是以函数为单位进行计算,一般不可能绝对等分)。可以假设自身时间的三等分点在F1()和F7(),则可在这两个函数处进行任务分割,并将这两个函数F1()和F7()(包括其支路子函数)在对应的在流水线上相邻的处理器之间共享。
作为“自身时间”的替代方案,可以利用“代码长度”(code length)进行任务分割。为此,需要找出关键路径中每一个函数的代码长度(步骤808,图8)。代码长度是指函数内指令代码的行数,或者可以理解为执行一段程序需要的CPU汇编指令的数量。与自身时间一样,函数的代码长度也包括其支路子函数关键路径的代码长度。代码长度很容易通过反汇编工具得出来,例如前文所述的Intel vTune。在得到所述代码长度之后,即可以按代码长度平均的原则对任务进行分割,将分界点上的例程由前后两个处理器共享(步骤810,图8)。例如,如图5所示,代表各函数的方框的横向宽度示意性地表示代码长度。仍按照图1和图2的假设有三个处理器#1、#2和#3,可以按照累积代码长度将关键路径大致三等分(由于累积代码长度是以函数为单位进行计算,一般不可能绝对等分)。可以假设代码长度的三等分点在F2()和F7(),则可在这两个函数处进行任务分割,并将这两个函数F2()和F7()(包括其支路子函数)在对应的在流水线上相邻的处理器之间共享。
根据一种优选的实施方式,在步骤808中可以同时确定自身时间和代码长度,从而综合考虑自身时间和代码长度进行任务的分割(步骤810,图8)。仍以图5为例,可以分别按照自身时间和代码长度将关键路径大致三等分,仍然假设自身时间的三等分点在F1()和F7(),代码长度的三等分点在F2()和F7()。那么,可以参照这两种三等分点来进行任务分割。作为举例,可以考虑将这两种等分方式的对应的等分点之间的函数在对应的相邻处理器之间共享。在图5所示的例子中,就是将F2()和F7()(包括其支路子函数)在对应的在流水线上相邻的处理器之间共享。
根据本发明的更为优选的实施方式,在进行任务分割时,在上述自身时间和代码长度等分点的基础上,可以应用一些启发式规则或者说约束条件。这些规则包括但不限于:
1.具有较大代码长度但是较短自身时间的例程最好不在处理器之间共享(例如示例中的F7()函数),反之则最好共享(例如示例中的F1()函数)。按照此规则,针对图5的举例,例如可以如图6所示进行任务分割,将在两种等分点附近,代码长度相对来说较短,自身时间相对来说较长的函数F1()和F4()在处理器之间共享。需要注意的是,这里所说的代码长度和自身时间的长短不是绝对值,而是和各子函数之间的相对值。需要根据具体的应用和用户的实际需求和经验来具体制定。在具体的应用中,如果利用程序自动分割任务,当然也可以给出量化值。这都是本领域普通技术人员通过常规劳动可以得到的。
2.可以平衡考虑任务均衡的自适应性和指令/数据局部性对代码冗余比例的要求,选择适当的代码冗余比例。代码冗余的比例就是冗余的代码占全部代码的比例,比如1000行(汇编代码)的程序,处理器1和处理器2之间共享的子程序占100行,,处理器2和处理器3之间共享的子程序占200行,那么冗余比例就是(100+200)/1000=30%。共享更多的代码可以提供更好的自适应性。例如,虽然图2和图6所示的例子只是在处理器之间共享一个子函数(及其支路子函数),但是完全可以在处理器之间共享更多的子函数。但是,冗余比例越高,指令/数据局部性就越差。因此对于具体的应用而言,要平衡考虑任务均衡的自适应性和指令/数据局部性对代码冗余比例的要求。
3.可以将本地存储器/高速缓存大小考虑在内选择适当的代码冗余比例。如果在处理器之间共享代码过多,导致额外的高速缓存未命中(cache miss)或者内存不足,则会带来的其他性能问题。
4.从提高存储访问的局部性出发,可以规定某些子函数不适合在多个处理器之间“共享”。比如,这些子程序所访问的数据或指令空间非常有规律,甚至很固定。如果让这些子程序在多个处理器之间调度,会导致局部性明显恶化。
5.可以规定某个处理器处理的任务不与其他处理器共享。比如,这个处理器运行的子程序本身负载很稳定,基本上可以完全地利用处理器的计算资源,和别的处理器共享部分子程序反而会造成该处理器利用率抖动而降低利用率。
6.可以找出函数调用链中从各种标准来看更适合被分割的点,从而辅助上述任务分割。例如,在这些调用点上,调用方和被调用方之间的通信很少,实时性要求很低,也就是所谓的弱耦合。
显然,上述启发性规则只是举例。在实际应用当中,可以有根多的启发性规则。
上面已经充分描述了本发明的在多处理器环境中的流水线处理方法。下面描述本发明的在多处理器环境中的流水线处理设备。在下面的说明中,为简明起见,对于与前述流水线处理方法中相同或者类似的部分不再重复说明,针对流水线处理方法所说明的技术细节均可应用于流水线处理设备。此外,针对流水线处理设备所说明的具体技术细节亦可应用于流水线处理方法。
如图10所示,图示了根据本发明的一种优选实施方式的流水线处理设备1000。
该流水线处理设备1000包括分割装置1002、处理器状态确定装置1004以及动态调节装置1006。分割装置1002在分割子任务并分配给各处理器时,使各处理器处理的子任务有一定程度的交叠,即交叠部分的子任务由多个处理器“共享”。在任务执行的过程中,处理器状态确定装置1004确定各处理器的状态,据之动态地决定交叠部分由共享交叠的子任务的处理器中的哪一个来执行(下面称为子任务动态调节),从而实现多处理器之间的动态均衡。
分割装置1002进行的任务分割和和动态调节装置1006进行的子任务的动态调节的具体示例可以参见前文结合图2的说明。
如前所述,处理器状态的确定可以有多种方式。包括指令队列读取法(微观粒度),系统级的对应CPU的任务队列状态读取法(宏观粒度),在CPU里面设立一个可配置的计时器(Timer)和汇报模块主动提供该CPU或者该CPU核的状态,或者统计CPU的吞吐量和/或处理延时等。此外,也有许多现有的监视CPU负载的工具,例如无论是在视窗还是在Linux/unix操作系统中,都有监视CPU负载的工具。
如前所述,处理器状态的确定和子任务的动态调节可以通过将代码植入作为任务的应用中的方式来实现。也就是说,处理器状态确定装置1004和动态调节装置1006可以被集成到任务本身当中。
在一种优选实施方式中,对于处理器状态确定装置1004而言,其任务是比较独立的,因此其也可以在任务外部单独地实现为一个模块,包括现有的模块(比如上述操作系统CPU负载监视工具),而动态调节装置1006只需要从外部的处理器状态确定装置1004直接读取处理器的状态。
在一种优选实施方式中,除了代码植入之外,动态调节装置1006也可以在任务外部实现,例如通过前述的守护进程法。此时,类似于前一优选实施方式,处理器状态确定装置1004不仅可以与动态调节装置1006一起通过守护进程来实现,也可以作为单独的装置在守护进程之外实现,动态调节装置1006只需要从处理器状态确定装置1004直接读取处理器的状态即可。
分割装置1002可以用现有技术来实现,只不过,按照本发明,需要使被分配给各处理器的任务存在在执行时动态分配的交叠部分。这只需要简单地移动现有技术中每一部分子任务的开始点和结束点即可。
如前所述,分割装置1002对任务的分割一般是针对关键路径进行分割的,因此要基于对关键路径的认识。基于关键路径即可以使用传统的方法进行如图1所示或者如图2所示的任务分割。
对于一个具体应用来说,关键路径可以是已知的。例如,编程时保留了关键路径信息,或者在以前分析过关键路径,或者关键路径可以由外部工具提供。
当关键路径不已知而需要进行分析以获得关键路径时,首先需要有分析装置1008对应用程序进行概要分析(profiling),以获取应用的调用关系图(call-graph)。这一步有许多现有的工具可以使用,例如用Intel vTune(http://www.intel.com/cd/software/products/apac/zho/vtune/index.htm)、GNU gprof(http://www.gnu.org/software/binutils/manual/gprof-2.9.1/gprof.html)或者oprofile(http://oprofile.sourceforge.net/news/)等应用程序/代码分析工具,或者可以使用与上述工具类似的原理。
然后,可以由关键路径确定装置1010根据调用关系图确定数据处理的关键路径。关键路径的确定也有很多现有的工具可供使用。例如上文提到的概要分析工具,同时也可以确定关键路径。
这样,基于所确定的关键路径,分割装置1002即可进行任务的分割。在本发明中,为了使处理器的负载更加均衡,提出了关于任务分割的更为优选的实施方式,以便更加准确地均匀分割任务,并更加恰当地确定在处理器之间共享的子任务。
为此,可以将分析装置1008配置为找出关键路径中每一个函数的“自身时间(selftime)”,并可以将分割装置1002配置为按时间平均的原则对任务进行分割,将分界点上的例程由前后两个处理器共享。现有技术中也有很多工具可以分析得到函数的自身时间,例如前述概要分析工具。
作为“自身时间”的替代方案,可以利用“代码长度”(code length)进行任务分割。为此,可以将分析装置1008配置为找出关键路径中每一个函数的代码长度。并可以将分割装置1002配置为按代码长度平均的原则对任务进行分割,将分界点上的例程由前后两个处理器共享。同样,现有技术中也有很多工具可以分析得到函数的代码长度,例如前述概要分析工具。
根据一种优选的实施方式,可以将分析装置1008配置为同时确定每一个函数的自身时间和代码长度,并将分割装置1002配置为综合考虑自身时间和代码长度进行任务的分割。
根据本发明的更为优选的实施方式,还可以对分割装置1002应用一些启发式规则或者说约束条件。这些规则包括但不限于:
1.具有较大代码长度但是较短自身时间的例程最好不在处理器之间共享,反之则最好共享。
2.可以平衡考虑任务均衡的自适应性和指令/数据局部性对代码冗余比例的要求,选择适当的代码冗余比例。。
3.可以将本地存储器/高速缓存大小考虑在内选择适当的代码冗余比例。
4.从提高存储访问的局部性出发,可以规定某些子函数不适合在多个处理器之间“共享”。
5.可以规定某个处理器处理的任务不与其他处理器共享。
6.可以找出函数调用链中从各种标准来看更适合被分割的点,从而辅助上述任务分割。
显然,上述启发性规则只是举例。在实际应用当中,可以有根多的启发性规则。
如本领域的普通技术人员所能理解的,本发明的方法和装置的全部或者任何步骤或者部件,可以在任何计算设备(包括处理器、存储介质等)或者计算设备的网络中,以硬件、固件、软件或者它们的组合加以实现,这是本领域普通技术人员在了解本发明的内容的情况下运用他们的基本编程技能就能实现的,因此不需在此具体说明。
此外,显而易见的是,在上面的说明中涉及到可能的外部操作的时候,无疑要使用与任何计算设备相连的任何显示设备和任何输入设备、相应的接口和控制程序。总而言之,计算机、计算机系统或者计算机网络中的相关硬件、软件和实现本发明的前述方法中的各种操作的硬件、固件、软件或者它们的组合,即构成本发明的设备及其各组成部件。
因此,基于上述理解,本发明的目的还可以通过在任何信息处理设备上运行一个程序或者一组程序来实现。所述信息处理设备可以是公知的通用设备。因此,本发明的目的也可以仅仅通过提供包含实现所述方法或者设备的程序代码的程序产品来实现。也就是说,这样的程序产品也构成本发明,并且存储有这样的程序产品的存储介质也构成本发明。显然,所述存储介质可以是本领域技术人员已知的,或者将来所开发出来的任何类型的存储介质,因此也没有必要在此对各种存储介质一一列举。
在本发明的设备和方法中,显然,各部件或各步骤是可以分解和/或重新组合的。这些分解和/或重新组合应视为本发明的等效方案。
根据以上说明可知,本发明采用流水线模型来分割任务,并具有动态重新分配部分子任务的能力,从而在与子任务相关联的处理器之间自适应地平衡负载。这使得能够更好地利用处理资源。此外,由于缩短了代码路径(这是由于将较大的任务分解为较小的子任务),从而形成更好的指令局部性。这对于高速缓存小(例如小L2高速缓存,没有L3高速缓存)或者本地存储能力低的处理器(例如IBM的CELL处理器)是很重要的。当将本发明应用于网络数据处理例如DPI时,由于流水线模型的采用而能保持数据包处理的顺序,从而在避免了数据相关性问题的同时最佳地利用了并行资源,大大提高了效率。
以上结合本发明的优选实施方式对本发明进行了详细说明。本领域的普通技术人员知道,本发明不限于这里所图示和描述的细节,而可以在不脱离本发明的实质范围的前提下作出各种改进和修改,这些改进和修改都在本发明的保护范围之内。
尤其是,对于本领域普通技术人员来说显而易见的是,本发明不仅可应用于DPI应用,事实上可以应用于任何任务的子任务在多处理器之间的均衡,而无论所述任务是什么或者其处理的数据是什么。

Claims (15)

1.一种多处理器环境中的流水线处理方法,包括:
将任务分割为交叠的子任务分配给多个处理器,其中各子任务中的交叠部分由处理对应子任务的处理器共享;
在各处理器执行所述子任务的过程中,确定各处理器的状态;
根据各处理器的状态动态决定各子任务中交叠的部分由处理对应子任务的处理器中的哪一个处理器来执行。
2.如权利要求1所述的流水线处理方法,其中,确定各处理器的状态的步骤包括根据以下因素之一或者它们的组合来确定各处理器的工作负荷:
各处理器任务队列的状态;
各处理器指令队列的状态;
各处理器的吞吐量;
各处理器的处理延时。
3.如权利要求1所述的流水线处理方法,其中,确定各处理器的状态的步骤包括:根据各处理器定期主动告知的处理器状态确定各处理器的工作负荷。
4.如权利要求1到3之一所述的流水线处理方法,其中,将任务分割为交叠的子任务分配给多个处理器的步骤还包括:
分析任务,获得该任务的子函数的调用关系图;
根据所述调用关系图确定该任务的子函数的关键路径;
根据所述关键路径进行任务的分割。
5.如权利要求4所述的流水线处理方法,其中,根据所述关键路径进行任务的分割的步骤还包括:
分析所述关键路径中各子函数的自身时间和/或代码长度;
根据任务中各子函数的累积自身时间和/或累积代码长度进行任务的分割。
6.如权利要求4或5所述的流水线处理方法,其中,根据所述关键路径进行任务的分割的步骤还考虑至少以下因素中的至少一个:
各子函数的自身时间;
各子函数的代码长度;
任务的代码冗余比例;
指令/数据的局部性;
本地存储器大小;
高速缓存大小;
各子函数本身的负载稳定性;
子函数之间的耦合程度。
7.如权利要求1-6任一项所述的流水线处理方法,其中,在根据各处理器的状态动态决定各子任务中交叠的部分由处理对应子任务的处理器中的哪一个处理器来执行的步骤中,将所述各子任务中交叠的部分分配给更空闲的处理器。
8.一种多处理器环境中的流水线处理设备,包括:
分割装置,将任务分割为交叠的子任务分配给多个处理器,其中各子任务中的交叠部分由处理对应子任务的处理器共享;
处理器状态确定装置,在各处理器执行所述子任务的过程中,确定各处理器的状态;
动态调节装置,根据各处理器的状态动态决定各子任务中交叠的部分由处理对应子任务的处理器中的哪一个处理器来执行。
9.如权利要求8所述的流水线处理设备,其中,处理器状态确定装置被配置为根据以下因素之一或者它们的组合来确定各处理器的工作负荷:
各处理器任务队列的状态;
各处理器指令队列的状态;
各处理器的吞吐量;
各处理器的处理延时。
10.如权利要求8所述的流水线处理设备,其中,处理器状态确定装置被配置为根据各处理器定期主动告知的处理器状态确定各处理器的工作负荷。
11.如权利要求8到10之一所述的流水线处理设备,还包括:
分析装置,用于分析任务,获得该任务的子函数的调用关系图的装置;
关键路径确定装置,根据所述调用关系图确定该任务的子函数的关键路径的装置;
其中,所述分割装置根据所述关键路径进行任务的分割。
12.如权利要求11所述的流水线处理设备,其中,所述分析装置还被配置为分析所述关键路径中各子函数的自身时间和/或代码长度,所述分割装置被配置为根据任务中各子函数的累积自身时间和/或累积代码长度进行任务的分割。
13.如权利要求11或12任一项所述的流水线处理设备,其中,所述分割装置被配置为在分割任务时还考虑至少以下因素中的至少一个:
各子函数的自身时间;
各子函数的代码长度;
任务的代码冗余比例;
指令/数据的局部性;
本地存储器大小;
高速缓存大小;
各子函数本身的负载稳定性;
子函数之间的耦合程度。
14.如权利要求8到13任一项所述的流水线处理设备,其中,所述处理器状态确定装置和/或动态调节装置被集成在所述任务本身当中。
15.如权利要求8到14任一项所述的流水线处理设备,其中,所述动态调节装置,将所述各子任务中交叠的部分分配给更空闲的处理器。
CN2007101274579A 2007-07-05 2007-07-05 多处理器环境中的流水线处理方法和设备 Expired - Fee Related CN101339523B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2007101274579A CN101339523B (zh) 2007-07-05 2007-07-05 多处理器环境中的流水线处理方法和设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2007101274579A CN101339523B (zh) 2007-07-05 2007-07-05 多处理器环境中的流水线处理方法和设备

Publications (2)

Publication Number Publication Date
CN101339523A true CN101339523A (zh) 2009-01-07
CN101339523B CN101339523B (zh) 2011-09-21

Family

ID=40213595

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007101274579A Expired - Fee Related CN101339523B (zh) 2007-07-05 2007-07-05 多处理器环境中的流水线处理方法和设备

Country Status (1)

Country Link
CN (1) CN101339523B (zh)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101782862A (zh) * 2009-01-16 2010-07-21 鸿富锦精密工业(深圳)有限公司 处理器分配控制系统及其控制方法
CN101853183A (zh) * 2010-05-14 2010-10-06 中国科学院声学研究所 一种用于动态管理片上指令便签存储器的方法
CN102193830A (zh) * 2010-03-12 2011-09-21 复旦大学 面向众核环境的分治映射/归约并行编程模型
CN102546946A (zh) * 2012-01-05 2012-07-04 中国联合网络通信集团有限公司 移动终端处理任务的方法及装置
CN101674584B (zh) * 2009-09-03 2012-07-04 中兴通讯股份有限公司 病毒检测的方法及系统
CN102780616A (zh) * 2012-07-19 2012-11-14 北京星网锐捷网络技术有限公司 基于多核处理器的报文处理方法、装置和网络设备
CN102929725A (zh) * 2012-11-12 2013-02-13 中国人民解放军海军工程大学 信号处理并行计算软件的动态重配置方法
CN101996103B (zh) * 2009-08-20 2013-03-20 三星电子(中国)研发中心 多核云计算平台并行应用优化方法
CN103218259A (zh) * 2012-01-18 2013-07-24 辉达公司 计算任务的调度和执行
CN103257900A (zh) * 2013-05-24 2013-08-21 杭州电子科技大学 减少cpu占用的多处理器上实时任务集资源预留方法
CN103348641A (zh) * 2010-11-29 2013-10-09 阿尔卡特朗讯公司 单一调制解调器板上改进的多小区支持的方法和系统
CN102087620B (zh) * 2009-12-07 2013-12-04 联想(北京)有限公司 在异构机群中运行应用程序、提升运算速度的方法及装置
CN103838621A (zh) * 2012-11-27 2014-06-04 中国电信股份有限公司 用于调度例行作业的方法和系统、调度节点
US8763002B2 (en) 2008-11-03 2014-06-24 Huawei Technologies Co., Ltd. Method, system, and apparatus for task allocation of multi-core processor
TWI448847B (zh) * 2009-02-27 2014-08-11 Foxnum Technology Co Ltd 處理器分配控制系統及其控制方法
CN104281449A (zh) * 2014-09-16 2015-01-14 上海卫星工程研究所 托管式航天器任务管理系统及管理方法
CN104321747A (zh) * 2012-04-19 2015-01-28 西门子公司 用于多核/众核可编程逻辑控制器的时间裕隙应用流水线平衡
CN104391747A (zh) * 2014-11-18 2015-03-04 北京锐安科技有限公司 一种并行计算方法及装置
CN104933248A (zh) * 2015-06-16 2015-09-23 中国科学技术大学 多核平台上的路网近似最短路径计算方法
CN105471770A (zh) * 2015-11-20 2016-04-06 福建星网锐捷网络有限公司 一种基于多核处理器的报文处理方法及装置
CN105723693A (zh) * 2013-11-18 2016-06-29 株式会社理光 选择系统、通信管理系统、通信系统、计算机程序和选择方法
US9400685B1 (en) 2015-01-30 2016-07-26 Huawei Technologies Co., Ltd. Dividing, scheduling, and parallel processing compiled sub-tasks on an asynchronous multi-core processor
CN106506393A (zh) * 2016-02-05 2017-03-15 华为技术有限公司 一种数据流处理方法、装置和系统
US9715413B2 (en) 2012-01-18 2017-07-25 Nvidia Corporation Execution state analysis for assigning tasks to streaming multiprocessors
CN107430526A (zh) * 2015-03-24 2017-12-01 瑞典爱立信有限公司 用于调度数据处理的方法和节点
CN108447330A (zh) * 2018-01-30 2018-08-24 王志强 一种虚实结合的数控设备级联系统及方法
WO2018184208A1 (en) * 2017-04-07 2018-10-11 Intel Corporation Methods and apparatus for deep learning network execution pipeline on multi-processor platform
CN111142938A (zh) * 2019-11-20 2020-05-12 深圳先进技术研究院 一种异构芯片的任务处理方法、任务处理装置及电子设备
CN112130977A (zh) * 2020-09-25 2020-12-25 山东云海国创云计算装备产业创新中心有限公司 一种任务调度方法、装置、设备及介质
CN113360273A (zh) * 2020-03-04 2021-09-07 北京百度网讯科技有限公司 处理器资源动态分配方法、装置、设备及存储介质
WO2023274060A1 (en) * 2021-06-29 2023-01-05 International Business Machines Corporation Routing instructions in microprocessor

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106776462B (zh) * 2017-01-06 2021-04-30 河南工程学院 一种具有多处理器的计算机及其操作方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7015913B1 (en) * 2003-06-27 2006-03-21 Nvidia Corporation Method and apparatus for multithreaded processing of data in a programmable graphics processor
US7366877B2 (en) * 2003-09-17 2008-04-29 International Business Machines Corporation Speculative instruction issue in a simultaneously multithreaded processor
CN1280712C (zh) * 2004-03-09 2006-10-18 中国人民解放军国防科学技术大学 超长指令字微处理器中的指令控制流水线方法

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8763002B2 (en) 2008-11-03 2014-06-24 Huawei Technologies Co., Ltd. Method, system, and apparatus for task allocation of multi-core processor
CN101782862A (zh) * 2009-01-16 2010-07-21 鸿富锦精密工业(深圳)有限公司 处理器分配控制系统及其控制方法
CN101782862B (zh) * 2009-01-16 2013-03-13 鸿富锦精密工业(深圳)有限公司 处理器分配控制系统及其控制方法
TWI448847B (zh) * 2009-02-27 2014-08-11 Foxnum Technology Co Ltd 處理器分配控制系統及其控制方法
CN101996103B (zh) * 2009-08-20 2013-03-20 三星电子(中国)研发中心 多核云计算平台并行应用优化方法
CN101674584B (zh) * 2009-09-03 2012-07-04 中兴通讯股份有限公司 病毒检测的方法及系统
CN102087620B (zh) * 2009-12-07 2013-12-04 联想(北京)有限公司 在异构机群中运行应用程序、提升运算速度的方法及装置
CN102193830A (zh) * 2010-03-12 2011-09-21 复旦大学 面向众核环境的分治映射/归约并行编程模型
CN102193830B (zh) * 2010-03-12 2014-06-11 复旦大学 面向众核环境的分治映射/归约并行编程模型
CN101853183A (zh) * 2010-05-14 2010-10-06 中国科学院声学研究所 一种用于动态管理片上指令便签存储器的方法
CN101853183B (zh) * 2010-05-14 2012-11-21 中国科学院声学研究所 一种用于动态管理片上指令便签存储器的方法
CN103348641A (zh) * 2010-11-29 2013-10-09 阿尔卡特朗讯公司 单一调制解调器板上改进的多小区支持的方法和系统
CN103348641B (zh) * 2010-11-29 2016-11-23 阿尔卡特朗讯公司 单一调制解调器板上改进的多小区支持的系统
CN102546946A (zh) * 2012-01-05 2012-07-04 中国联合网络通信集团有限公司 移动终端处理任务的方法及装置
CN103218259A (zh) * 2012-01-18 2013-07-24 辉达公司 计算任务的调度和执行
US9715413B2 (en) 2012-01-18 2017-07-25 Nvidia Corporation Execution state analysis for assigning tasks to streaming multiprocessors
CN104321747B (zh) * 2012-04-19 2017-11-17 西门子公司 用于多核/众核可编程逻辑控制器的时间裕隙应用流水线平衡
CN104321747A (zh) * 2012-04-19 2015-01-28 西门子公司 用于多核/众核可编程逻辑控制器的时间裕隙应用流水线平衡
CN102780616B (zh) * 2012-07-19 2015-06-17 北京星网锐捷网络技术有限公司 基于多核处理器的报文处理方法、装置和网络设备
CN102780616A (zh) * 2012-07-19 2012-11-14 北京星网锐捷网络技术有限公司 基于多核处理器的报文处理方法、装置和网络设备
CN102929725A (zh) * 2012-11-12 2013-02-13 中国人民解放军海军工程大学 信号处理并行计算软件的动态重配置方法
CN102929725B (zh) * 2012-11-12 2015-07-08 中国人民解放军海军工程大学 信号处理并行计算软件的动态重配置方法
CN103838621B (zh) * 2012-11-27 2017-05-10 中国电信股份有限公司 用于调度例行作业的方法和系统、调度节点
CN103838621A (zh) * 2012-11-27 2014-06-04 中国电信股份有限公司 用于调度例行作业的方法和系统、调度节点
CN103257900A (zh) * 2013-05-24 2013-08-21 杭州电子科技大学 减少cpu占用的多处理器上实时任务集资源预留方法
CN103257900B (zh) * 2013-05-24 2016-05-18 杭州电子科技大学 减少cpu占用的多处理器上实时任务集资源预留方法
CN105723693A (zh) * 2013-11-18 2016-06-29 株式会社理光 选择系统、通信管理系统、通信系统、计算机程序和选择方法
CN105723693B (zh) * 2013-11-18 2018-12-07 株式会社理光 选择系统、通信管理系统、通信系统和选择方法
US10171568B2 (en) 2013-11-18 2019-01-01 Ricoh Company, Limited Selecting system, communication management system, communication system, computer program, and method of selection
CN104281449A (zh) * 2014-09-16 2015-01-14 上海卫星工程研究所 托管式航天器任务管理系统及管理方法
CN104391747A (zh) * 2014-11-18 2015-03-04 北京锐安科技有限公司 一种并行计算方法及装置
US9400685B1 (en) 2015-01-30 2016-07-26 Huawei Technologies Co., Ltd. Dividing, scheduling, and parallel processing compiled sub-tasks on an asynchronous multi-core processor
WO2016119521A1 (en) * 2015-01-30 2016-08-04 Huawei Technologies Co., Ltd. Asynchronous multiple-core processor
CN107430526B (zh) * 2015-03-24 2021-10-29 瑞典爱立信有限公司 用于调度数据处理的方法和节点
CN107430526A (zh) * 2015-03-24 2017-12-01 瑞典爱立信有限公司 用于调度数据处理的方法和节点
CN104933248A (zh) * 2015-06-16 2015-09-23 中国科学技术大学 多核平台上的路网近似最短路径计算方法
CN104933248B (zh) * 2015-06-16 2018-07-03 中国科学技术大学 多核平台上的路网近似最短路径计算方法
CN105471770A (zh) * 2015-11-20 2016-04-06 福建星网锐捷网络有限公司 一种基于多核处理器的报文处理方法及装置
CN105471770B (zh) * 2015-11-20 2019-03-01 福建星网锐捷网络有限公司 一种基于多核处理器的报文处理方法及装置
CN106506393A (zh) * 2016-02-05 2017-03-15 华为技术有限公司 一种数据流处理方法、装置和系统
WO2018184208A1 (en) * 2017-04-07 2018-10-11 Intel Corporation Methods and apparatus for deep learning network execution pipeline on multi-processor platform
CN110462602B (zh) * 2017-04-07 2024-04-02 英特尔公司 用于多处理器平台上的深度学习网络执行流水线的方法和装置
US11868782B2 (en) 2017-04-07 2024-01-09 Intel Corporation Methods and apparatus for deep learning network execution pipeline on multi-processor platform
CN110462602A (zh) * 2017-04-07 2019-11-15 英特尔公司 用于多处理器平台上的深度学习网络执行流水线的方法和装置
US11461105B2 (en) 2017-04-07 2022-10-04 Intel Corporation Methods and apparatus for deep learning network execution pipeline on multi-processor platform
CN108447330A (zh) * 2018-01-30 2018-08-24 王志强 一种虚实结合的数控设备级联系统及方法
CN108447330B (zh) * 2018-01-30 2020-07-03 王志强 一种虚实结合的数控设备级联系统及方法
WO2021097962A1 (zh) * 2019-11-20 2021-05-27 深圳先进技术研究院 一种异构芯片的任务处理方法、任务处理装置及电子设备
CN111142938A (zh) * 2019-11-20 2020-05-12 深圳先进技术研究院 一种异构芯片的任务处理方法、任务处理装置及电子设备
CN113360273A (zh) * 2020-03-04 2021-09-07 北京百度网讯科技有限公司 处理器资源动态分配方法、装置、设备及存储介质
CN112130977B (zh) * 2020-09-25 2022-08-02 山东云海国创云计算装备产业创新中心有限公司 一种任务调度方法、装置、设备及介质
CN112130977A (zh) * 2020-09-25 2020-12-25 山东云海国创云计算装备产业创新中心有限公司 一种任务调度方法、装置、设备及介质
WO2023274060A1 (en) * 2021-06-29 2023-01-05 International Business Machines Corporation Routing instructions in microprocessor

Also Published As

Publication number Publication date
CN101339523B (zh) 2011-09-21

Similar Documents

Publication Publication Date Title
CN101339523B (zh) 多处理器环境中的流水线处理方法和设备
Hoang et al. FBRC: Optimization of task scheduling in fog-based region and cloud
CN103617086B (zh) 一种并行计算方法及系统
Polo et al. Resource-aware adaptive scheduling for mapreduce clusters
US20090077561A1 (en) Pipeline Processing Method and Apparatus in a Multi-processor Environment
US20080229320A1 (en) Method, an apparatus and a system for controlling of parallel execution of services
KR101694310B1 (ko) 멀티코어 프로세서 기반의 모니터링 장치 및 그 방법
CN102724103B (zh) 代理服务器、分层次网络系统及分布式工作负载管理方法
US20100043009A1 (en) Resource Allocation in Multi-Core Environment
CN105487930A (zh) 一种基于Hadoop的任务优化调度方法
EP2446357A1 (en) High-throughput computing in a hybrid computing environment
CN107193652A (zh) 容器云环境中流数据处理系统的弹性资源调度方法及系统
KR101770191B1 (ko) 자원 할당 방법 및 그 장치
CN109032769A (zh) 一种基于容器的持续集成ci任务处理方法及装置
CN104917839A (zh) 一种用于云计算环境下的负载均衡方法
Eisa et al. Enhancing cloud computing scheduling based on queuing models
CN113867907A (zh) 一种基于cpu资源在工程领域调度系统及优化算法
Natarajan Parallel queue scheduling in dynamic cloud environment using backfilling algorithm
Johannessen et al. Hadoop MapReduce scheduling paradigms
Lin et al. Joint deadline-constrained and influence-aware design for allocating MapReduce jobs in cloud computing systems
Mandal et al. An empirical study and analysis of the dynamic load balancing techniques used in parallel computing systems
Feng et al. A deadline and budget constrained cost-time optimization algorithm for scheduling dependent tasks in grid computing
CN104506452B (zh) 一种报文处理方法及装置
Alecu Performance analysis of parallel algorithms
Maurya et al. Design issues in distributed software

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: IBM (CHINA) CO., LTD.

Free format text: FORMER OWNER: INTERNATIONAL BUSINESS MACHINES CORPORATION

Effective date: 20150728

C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20150728

Address after: 201203 Shanghai city Pudong New Area Keyuan Road No. 399 Zhang Jiang Zhang Jiang high tech Park Innovation Park 10 Building 7 layer

Patentee after: International Business Machines (China) Co., Ltd.

Address before: American New York

Patentee before: International Business Machines Corp.

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110921

Termination date: 20190705