CN112783651B - 一种云平台vGPU负载均衡调度方法、介质及装置 - Google Patents
一种云平台vGPU负载均衡调度方法、介质及装置 Download PDFInfo
- Publication number
- CN112783651B CN112783651B CN202110093416.2A CN202110093416A CN112783651B CN 112783651 B CN112783651 B CN 112783651B CN 202110093416 A CN202110093416 A CN 202110093416A CN 112783651 B CN112783651 B CN 112783651B
- Authority
- CN
- China
- Prior art keywords
- vgpu
- cpu
- subtasks
- task
- queue
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 37
- 230000003068 static effect Effects 0.000 abstract description 15
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012163 sequencing technique Methods 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/505—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5044—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2209/00—Indexing scheme relating to G06F9/00
- G06F2209/50—Indexing scheme relating to G06F9/50
- G06F2209/5017—Task decomposition
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
- Multi Processors (AREA)
Abstract
Description
技术领域
本发明涉及云服务器调度方法技术领域,尤其涉及一种云平台vGPU负载均衡调度方法、介质及装置。
背景技术
虚拟主机运行于云平台的宿主机上,虚拟主机使用宿主机的CPU资源,宿主机的GPU通过vGPU技术,可以为多台虚拟主机提供vGPU资源,对于虚拟主机宿主机CPU和vGPU构成CPU-vGPU处理结构。
一般来说云服务器处理的任务量往往比较大,对于参与任务处理的CPU和vGPU,有效的任务调度能够充分发挥CPU和vGPU的资源,提高云服务器的任务处理能力。现有技术中,传统的CPU-GPU异构计算平台的任务调度策略中,根据CPU和GPU的特性,由CPU负责串行计算部分,管理和提供CPU运算所需的数据以及接收GPU计算完成的结果。然而,由于CPU和vGPU的特性不同,这种调度策略对CPU-vGPU异构计算平台下处理器处理任务时间不均衡造成高效计算单元性能浪费。
发明内容
为解决上述的问题本发明提供一种云平台vGPU负载均衡调度方法,包括:
将云服务器执行的任务分为若干子任务;
构建双向队列,将所述子任务存入所述双向队列,所述双向队列从队首开始将子任务分配给CPU,分配的子任务的计算量为所述双向队列从队尾开始将子任务分配给vGPU,分配的子任务的计算量为S为任务的总计算量,K1为第一比例系数,W为调度系数;
剩余的(1-K1)×S的任务为动态调度任务,所述CPU或者vGPU执行完各自的分配量之后均衡执行所述动态调度任务,直至所述双向队列为空。
更进一步地,所述第一比例系数K1的取值80%-90%。
更进一步地,根据CPU和vGPU的计算能力计算所述调度系数W,包括:
获取云服务器当前状态下CPU和vGPU的计算能力;
根据当前状态下所述计算能力计算CPU和vCPU的当前性能比值P;
取所述调度系数W等于所述当前性能比值P。
更进一步地,计算当前性能比值P过程包括:
判断云服务器是否存储性能比值P存;
如果存储所述性能比值P存,则读取所述性能比值P存,按照所述性能比值P存给CPU分配的任务量执行,给vGPU分配的任务量执行,其中,K2为第二比例系数,并验证所述性能比值P存是否满足当前的系统状态下的CPU和vGPU的均衡,如果所述性能比值P存能实现均衡,则令所述当前性能比值P=P存;
如果没有存储所述性能比值P存或者现存的所述性能比值P存不能实现CPU和vGPU的均衡,则通过分别给CPU和vGPU分配一定量的相同的任务量,所述CPU和vGPU分别执行分配的任务量检测CPU的计算速度VCPU和vGPU的计算速度VGPU,通过所述CPU和vGPU的计算速度计算所述当前性能比值
更进一步地,分配一定量的相同的任务量为ST=K3×S,其中,K3为第三比例系数。
更进一步地,所述CPU和vGPU执行完分配量后,所述双向队列逐一将所述动态调度任务中的子任务分配给空闲的所述CPU或所述vGPU,直至所述双向队列为空。
更进一步地,对所述子任务按需线程量进行排序,将子任务按线程量由低到高存入所述双向队列。
本发明还一种云平台vGPU负载均衡调度介质,存储至少一条指令,执行所述指令实现所述的云平台vGPU负载均衡调度方法。
本发明还一种云平台vGPU负载均衡调度装置,包括宿主机,所述宿主机配置虚拟主机,所述宿主机存储至少一条指令,执行所述指令实现所述的云平台vGPU负载均衡调度方法。
本申请提出的一种云平台vGPU负载均衡调度方法、介质及装置具体有以下有益效果:
本发明云平台vGPU负载均衡调度方法通过将任务分为占主要的静态调度任务和占少数的动态调度任务,双向队列中的静态调度任务按照根据CPU和vGPU计算能力计算的调度系数W进行分配,使CPU和vGPU在差不多的时间完成静态调度任务,然后在均衡的分配动态调度任务使云服务器在执行任务时能够完任务调度的均衡,避免CPU资源或vGPU资源在执行任务时出现空置的情况,充分利用CPU和vGPU资源。且静态调度任务占据主要,而动态调度任务占少数,这就使得均衡过程中,调度过程占用的资源少,充分发挥CPU或者vGPU的执行任务资源占比。
另外,在均衡分配所述动态调度任务可以通过逐一将子任务分配给空闲CPU或vGPU以实现均衡,这样能够时CPU和vGPU均衡度更高。也可以通过将动态调度任务按所述调度系数W将部分先分配给先完成静态调度任务的CPU或者vGPU,剩余的逐一分配给空闲CPU或者vGPU,这样调度占用资源少。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图示出的结构获得其他的附图。
图1是本发明实施例中一种云平台vGPU负载均衡调度方法的流程图;
图2是本发明实施例中获取调度系数的流程图;
图3是本发明实施例中计算当前性能比值P的流程图;
图4是本发明实施例中一种均衡分配动态调度任务的流程图;
图5是本发明实施例中另一种云平台vGPU负载均衡调度方法的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
下面结合附图对本发明进行说明,其中,图1是本发明实施例中一种云平台vGPU负载均衡调度方法的流程图;图2是本发明实施例中获取调度系数的流程图;图3是本发明实施例中计算当前性能比值P的流程图;图4是本发明实施例中一种均衡分配动态调度任务的流程图;图5是本发明实施例中另一种云平台vGPU负载均衡调度方法的流程图。
实施例1
参阅图1所示,本发明提供一种云平台vGPU负载均衡调度方法,包括:
S100,将云服务器执行的任务分为若干子任务;
S200,构建双向队列,将所述子任务存入所述双向队列;
S300,所述双向队列从队首开始将子任务分配给CPU,分配的子任务的计算量为所述双向队列从队尾开始将子任务分配给vGPU,分配的子任务的计算量为其中,S为任务的总计算量,K1为第一比例系数,具体实施过程中,所述第一比例系数K1取值80%-90%,这样取总任务中的大部分为静态调度任务,W为调度系数。参阅图2所示,具体实施过程中,根据CPU和vGPU的计算能力计算所述调度系数W,包括:
S301,获取云服务器当前状态下CPU和vGPU的计算能力;
S302,根据当前状态下所述计算能力计算CPU和vCPU的当前性能比值P;具体实施过程中,参阅图3所示,计算当前性能比值P过程包括:
判断云服务器是否存储性能比值P存;
如果云服务器存储所述性能比值P存,则读取所述性能比值P存,按照所述性能比值P存给CPU分配的任务量执行,给vGPU分配的任务量执行,其中,K2为第二比例系数,具体实施过程中,所述第二比例系数K2取值0.1,并验证所述性能比值P存是否满足当前的系统状态下的CPU和vGPU的均衡,具体的,获取所述CPU执行分配任务的时间tcpu0和所述vGPU执行分配任务的时间tvGPU0,判断所述tvGPU0与所述tcpu0的时间差是否小于设定的时间阈值T,如果小于所述时间阈值T,则实现CPU和vGPU的均衡,如果不小于则未实现CPU和vGPU的均衡;而如果所述性能比值P存能实现均衡,则令所述当前性能比值P=P存;
如果没有存储所述性能比值P存或者现存的所述性能比值P存不能实现CPU和vGPU的均衡,则通过分别给CPU和vGPU分配一定量的相同的任务量,其中,分配一定量的相同的任务量为ST=K3×S,其中,K3为第三比例系数,具体实施过程中,所述第三比例系数K3取值为0.05,所述CPU和vGPU分别执行分配的任务量以检测CPU的计算速度VCPU和vGPU的计算速度VGPU,具体实施过程中,其中,tcpu1为CPU执行分配任务的时间,tvGPU1为vGPU执行分配任务的时间,再通过所述CPU和vGPU的计算速度计算所述当前性能比值
S303,取所述调度系数W等于所述当前性能比值P。所述调度系数W等于所述云服务器当前状态下CPU和vGPU的性能比值P。使得CPU与vGPU的静态调度任务分配量与计算能力挂钩,初步实现CPU和vGPU的均衡。
S400,剩余的(1-K1)×S的任务为动态调度任务,所述CPU或者vGPU执行完各自的静态调度任务分配量之后均衡执行所述动态调度任务,直至所述双向队列为空。其中一种可行的均衡执行所述动态调度任务的方式为:所述CPU和vGPU执行完静态调度任务的分配量后,所述双向队列逐一将所述动态调度任务中的子任务分配给空闲的所述CPU或所述vGPU,直至所述双向队列为空。
实施例2
实施例2与实施例1的区别在于,参阅图4所示,剩余的(1-K1)×S的任务为动态调度任务,所述CPU或者vGPU执行完各自的分配量之后均衡执行所述动态调度任务,直至所述双向队列为空。另一种可行的均衡执行所述动态调度任务的方式为:如果所述CPU比所述vGPU先执行完分配量,将所述动态调度任务中的从队首开始的分配给CPU,双向队列逐一将所述动态调度任务中的剩余的子任务分配给空闲的所述CPU或vGPU;与实施例1相比实施例2在进行任务调度时大部分是vGPU执行完一个动态调度任务中的子任务后,再动态的分配给vGPU一个,最后,如果CPU执行完全部分配的动态调度任务时,还有任务剩余再进行逐一分配的方式给空闲的CPU或者vGPU。
如果所述vGPU比所述CPU先执行完分配量,将所述动态调度任务中的从队尾开始的分配给vGPU,双向队列逐一将所述动态调度任务中的剩余的子任务分配给空闲的所述CPU或vGPU。与实施例1相比实施例2在进行任务调度时大部分是CPU执行完一个动态调度任务的子任务后,再动态的分配给CPU一个,最后,如果vGPU执行完全部分配的动态调度任务时,还有任务剩余再进行逐一分配的方式给空闲的CPU或者vGPU。减少任务调度算量,实现任务调度过程资源占有少。
实施例3
实施例3与实施例1区别在于,参阅图5所示,将云服务器执行的任务分为若干子任务;并获取执行子任务的需线程量属性;
对所述子任务按需线程量进行排序,将子任务按线程量由低到高存入所述双向队列。这样在进行分配时,CPU分配到的往往时线程数较少的子任务,而vGPU分到的往往为线程数较多的子任务,实现进一步地优化,使得云服务器处理任务的速度提升。
本发明提供一种云平台vGPU负载均衡调度介质,存储至少一条指令,执行所述指令实现所述的云平台vGPU负载均衡调度方法。
本发明还提供一种云平台vGPU负载均衡调度装置,包括宿主机,所述宿主机包括CPU,GPU,存储单元,总线单元和接口单元,其中,所述总线单元电性连接CPU、GPU、存储单元和接口单元,所述宿主机配置虚拟主机和vGPU程序,所述宿主机存储至少一条指令,执行所述指令实现所述的云平台vGPU负载均衡调度方法。
本发明云平台vGPU负载均衡调度方法通过将任务分为占主要的静态调度任务和占少数的动态调度任务,双向队列中的静态调度任务按照根据CPU和vGPU计算能力计算的调度系数W进行分配,使CPU和vGPU在差不多的时间完成静态调度任务,然后在均衡的分配动态调度任务使云服务器在执行任务时能够完任务调度的均衡,避免CPU资源或vGPU资源在执行任务时出现空置的情况,充分利用CPU和vGPU资源。且静态调度任务占据主要,而动态调度任务占少数,这就使得均衡过程中,调度过程占用的资源少,充分发挥CPU或者vGPU的执行任务资源占比。
另外,在均衡分配所述动态调度任务可以通过逐一将子任务分配给空闲CPU或vGPU以实现均衡,这样能够时CPU和vGPU均衡度更高。也可以通过将动态调度任务按所述调度系数W将部分先分配给先完成静态调度任务的CPU或者vGPU,剩余的逐一分配给空闲CPU或者vGPU,这样调度占用资源少。通过对子任务按线程数进行排序,使CPU分配到适合处理的线程数量少的子任务,vGPU分配到适合处理的线程数量多的子任务。能提供CPU和vGPU执行的效率。
应当注意的是,在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的部件或步骤。位于部件之前的单词“一”或“一个”不排除存在多个这样的部件。本发明可以借助于包括有若干不同部件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (9)
1.一种云平台vGPU负载均衡调度方法,其特征在于,包括:
将云服务器执行的任务分为若干子任务;
构建双向队列,将所述子任务存入所述双向队列,所述双向队列从队首开始将子任务分配给CPU,分配的子任务的计算量为SCPU0=(K1×S×W)/(1+W),所述双向队列从队尾开始将子任务分配给vGPU,分配的子任务的计算量为SvGPU0=(K1×S×1)/(1+W),S为所述任务的总计算量,K1为第一比例系数,W为根据CPU和vGPU的计算能力计算的调度系数:获取云服务器当前状态下CPU和vGPU的计算能力;根据当前状态下所述计算能力计算CPU和vGPU的当前性能比值P;取所述调度系数W等于所述当前性能比值P;
剩余的(1-K1)×S的子任务为动态调度任务,所述CPU或者vGPU执行完各自的分配量之后均衡执行所述动态调度任务,直至所述双向队列为空。
2.根据权利要求1所述的云平台vGPU负载均衡调度方法,其特征在于,所述第一比例系数K1的取值80%-90%。
3.根据权利要求1所述的云平台vGPU负载均衡调度方法,其特征在于,计算当前性能比值P过程包括:
判断云服务器是否存储性能比值P存;
如果存储所述性能比值P存,则读取所述性能比值P存,按照所述性能比值P存给CPU分配SCPU1=(K2×S×P存)/(1+P存)的任务量执行,给vGPU分配SvGPU1=(K2×S×1)/(1+P存)的任务量执行,其中,K2为第二比例系数,并验证所述性能比值P存是否满足当前的系统状态下的CPU和vGPU的均衡,如果所述性能比值P存能实现均衡,则令所述当前性能比值P=P存;
如果没有存储所述性能比值P存或者现存的所述性能比值P存不能实现CPU和vGPU的均衡,则通过分别给CPU和vGPU分配一定量的相同的任务量,所述CPU和vGPU分别执行分配的任务量检测CPU的计算速度VCPU和vGPU的计算速度VGPU,通过所述CPU和vGPU的计算速度计算所述当前性能比值P=VCPU/VGPU。
4.根据权利要求3所述的云平台vGPU负载均衡调度方法,其特征在于,分配一定量的相同的任务量为ST=K3×S,其中,K3为第三比例系数。
5.根据权利要求1所述的云平台vGPU负载均衡调度方法,其特征在于,所述CPU和vGPU执行完分配量后,所述双向队列逐一将所述动态调度任务中的子任务分配给空闲的所述CPU或所述vGPU,直至所述双向队列为空。
6.根据权利要求1所述的云平台vGPU负载均衡调度方法,其特征在于,如果所述CPU比所述vGPU先执行完分配量,将所述动态调度任务中的从队首开始SCPU2=(K1×W×(1-K1)×S)/(1+W)的分配给CPU,双向队列逐一将所述动态调度任务中的剩余的子任务分配给空闲的所述CPU或vGPU;
如果所述vGPU比所述CPU先执行完分配量,将所述动态调度任务中的从队尾开始SvGPU2=(K1×1×(1-K1)×S)/(1+W)的分配给vGPU,双向队列逐一将所述动态调度任务中的剩余的子任务分配给空闲的所述CPU或vGPU。
7.根据权利要求1所述的云平台vGPU负载均衡调度方法,其特征在于,将所述子任务按所需线程量进行排序,将子任务按需线程量由低到高存入所述双向队列。
8.一种云平台vGPU负载均衡调度介质,其特征在于,存储至少一条指令,执行所述指令实现如权利要求1-7任一所述的云平台vGPU负载均衡调度方法。
9.一种云平台vGPU负载均衡调度装置,其特征在于,包括宿主机,所述宿主机配置虚拟主机,所述宿主机存储至少一条指令,执行所述指令实现如权利要求1-7任一所述的云平台vGPU负载均衡调度方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110093416.2A CN112783651B (zh) | 2021-01-22 | 2021-01-22 | 一种云平台vGPU负载均衡调度方法、介质及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110093416.2A CN112783651B (zh) | 2021-01-22 | 2021-01-22 | 一种云平台vGPU负载均衡调度方法、介质及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112783651A CN112783651A (zh) | 2021-05-11 |
CN112783651B true CN112783651B (zh) | 2022-11-25 |
Family
ID=75758756
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110093416.2A Active CN112783651B (zh) | 2021-01-22 | 2021-01-22 | 一种云平台vGPU负载均衡调度方法、介质及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112783651B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113553103B (zh) * | 2021-06-03 | 2022-09-23 | 中国人民解放军战略支援部队信息工程大学 | 基于cpu+gpu异构处理平台的多核并行调度方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718317A (zh) * | 2016-01-15 | 2016-06-29 | 浪潮(北京)电子信息产业有限公司 | 一种任务调度方法及装置 |
CN107087019A (zh) * | 2017-03-14 | 2017-08-22 | 西安电子科技大学 | 一种端云协同计算架构及任务调度装置及方法 |
-
2021
- 2021-01-22 CN CN202110093416.2A patent/CN112783651B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718317A (zh) * | 2016-01-15 | 2016-06-29 | 浪潮(北京)电子信息产业有限公司 | 一种任务调度方法及装置 |
CN107087019A (zh) * | 2017-03-14 | 2017-08-22 | 西安电子科技大学 | 一种端云协同计算架构及任务调度装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112783651A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107038069B (zh) | Hadoop平台下动态标签匹配DLMS调度方法 | |
US7650601B2 (en) | Operating system kernel-assisted, self-balanced, access-protected library framework in a run-to-completion multi-processor environment | |
JP2682770B2 (ja) | 仮想計算機システムのcpu制御方式 | |
KR101626378B1 (ko) | 병렬도를 고려한 병렬 처리 장치 및 방법 | |
CN110990154B (zh) | 一种大数据应用优化方法、装置及存储介质 | |
WO2013131340A1 (zh) | 片上系统soc的多处理器的调度方法及装置 | |
TWI786564B (zh) | 任務調度方法和裝置、儲存媒體及計算機設備 | |
CN111352727B (zh) | 一种应用于图像混合集群处理系统的图像处理方法 | |
US9471387B2 (en) | Scheduling in job execution | |
CN110300959B (zh) | 用于动态运行时任务管理的方法、系统、设备、装置和介质 | |
CN112925616A (zh) | 任务分配方法、装置、存储介质及电子设备 | |
US9760969B2 (en) | Graphic processing system and method thereof | |
CN118069379B (zh) | 一种基于gpu资源的调度实现方法 | |
CN108984286A (zh) | 一种云计算平台的资源调度方法和系统 | |
CN112783651B (zh) | 一种云平台vGPU负载均衡调度方法、介质及装置 | |
CN111597044A (zh) | 任务调度方法、装置、存储介质及电子设备 | |
CN114721818A (zh) | 一种基于Kubernetes集群的GPU分时共享方法和系统 | |
CN107615246B (zh) | 线程弹性负载平衡的内核负载知识 | |
CN114816709A (zh) | 任务调度方法、装置、服务器及可读存储介质 | |
CN114579284A (zh) | 任务调度方法及装置 | |
CN115640113A (zh) | 多平面弹性调度方法 | |
CN112114967B (zh) | 一种基于服务优先级的gpu资源预留方法 | |
CN116244073A (zh) | 混合关键分区实时操作系统的资源感知型任务分配方法 | |
CN115964164A (zh) | 计算机实现的方法、硬件加速器以及存储介质 | |
CN112506640B (zh) | 一种用于加密运算芯片的多处理器架构及调配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |