CN111190739B - 一种资源分配方法、装置、电子设备及存储介质 - Google Patents

一种资源分配方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111190739B
CN111190739B CN201911415750.4A CN201911415750A CN111190739B CN 111190739 B CN111190739 B CN 111190739B CN 201911415750 A CN201911415750 A CN 201911415750A CN 111190739 B CN111190739 B CN 111190739B
Authority
CN
China
Prior art keywords
task
resources
gpu
information
resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911415750.4A
Other languages
English (en)
Other versions
CN111190739A (zh
Inventor
刘红红
张宏伟
孙琳娜
田珍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Xiangteng Microelectronics Technology Co Ltd
Original Assignee
Xian Xiangteng Microelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Xiangteng Microelectronics Technology Co Ltd filed Critical Xian Xiangteng Microelectronics Technology Co Ltd
Priority to CN201911415750.4A priority Critical patent/CN111190739B/zh
Publication of CN111190739A publication Critical patent/CN111190739A/zh
Application granted granted Critical
Publication of CN111190739B publication Critical patent/CN111190739B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5021Priority
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Sources (AREA)

Abstract

本发明公开了一种资源分配方法、装置、电子设备及存储介质;所述方法包括:获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,所述任务信息包括:每个任务的任务类型和需求资源;所述任务执行需求包括:与GPU执行所述至少一个任务时的顺序、功耗和/或时长所相关的需求;响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源。本发明可以使用配置信息控制任务的执行效果达到用户的期望。

Description

一种资源分配方法、装置、电子设备及存储介质
技术领域
本发明属于光学成像领域,具体涉及一种资源分配方法、装置、电子设备及存储介质。
背景技术
GPU(Graphics Processing Unit,图形处理器)是一种专门在个人电脑、工作站、游戏机和一些移动设备(如平板电脑、智能手机等)上做图像和图形相关运算工作的微处理器单元。GPU在工作时,需要为接收的任务分配资源,从而按照分配的资源执行任务。
相关技术中,GPU根据自身的未占资源以及任务的需求资源,为任务分配资源。
然而,相关技术的资源分配方法在给任务分配资源时,仅考虑了未占资源和任务的需求资源。当用户对任务的执行效果有特殊需求时,相关技术的资源分配方法无法给与相应的支持。
发明内容
为了解决现有技术中存在的上述问题,本发明实施例提供了一种资源分配方法、装置、电子设备及存储介质。
本发明要解决的技术问题通过以下技术方案实现:
第一方面,本发明实施例提供了一种资源分配方法,应用于GPU,所述方法包括:
获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,所述任务信息包括:每个任务的任务类型和需求资源;所述任务执行需求包括:与GPU执行所述至少一个任务时的顺序、功耗和/或时长所相关的需求;
响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源。
在本发明的一个实施例中,所述配置信息包括:GPU的已占资源上限;所述已占资源上限,用于限制GPU执行所述至少一个任务时的功耗;
所述响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源,包括:
当所述任务执行需求为与GPU执行所述至少一个任务时的功耗所相关的需求时,针对所述至少一个任务中的每个任务,判断GPU当前的已占资源加上该任务的需求资源后的值,是否小于所述已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
在本发明的一个实施例中,所述配置信息包括:所述至少一个任务的优先级信息;所述优先级信息,用于控制GPU执行所述至少一个任务时的顺序;
所述响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源,包括:
当所述任务执行需求为与GPU执行所述至少一个任务时的顺序所相关的需求时,根据所述优先级信息,确定为所述至少一个任务分配资源时的分配顺序;
根据所述任务信息以及GPU的未占资源,按照所述分配顺序,为所述至少一个任务分配资源。
在本发明的一个实施例中,每个任务的需求资源为GPU执行该任务时所需的最小资源;
所述配置信息包括:所述至少一个任务中的每个任务的资源增量信息;所述至少一个任务的资源增量信息,用于控制GPU执行所述至少一个任务时的时长;
所述响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源,包括:
当所述任务执行需求为与GPU执行所述至少一个任务时的时长所相关的需求时,针对所述至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务。
在本发明的一个实施例中,所述方法还包括:
实时采集GPU的负载信息;
当所采集的负载信息中存在异常信息时,根据所述异常信息,调整所述配置信息。
在本发明的一个实施例中,所述负载信息包括下述信息中的一种或多种:
GPU每个任务时的执行时长、GPU执行任务时的任务并行度、GPU的已占资源与未占资源的比值,以及每个任务的任务等待周期占比。
在本发明的一个实施例中,所述方法还包括:
利用为所述至少一个任务中的每个任务所分配的资源,分别执行所述至少一个任务。
第二方面,本发明实施例提供了一种资源分配装置,应用于GPU,所述装置包括:
获取模块,用于获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,所述任务信息包括:每个任务的任务类型和需求资源;所述任务执行需求包括:与GPU执行所述至少一个任务时的顺序、功耗和/或时长所相关的需求;
分配模块,用于响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源。
在本发明的一个实施例中,所述配置信息包括:GPU的已占资源上限;所述已占资源上限,用于限制GPU执行所述至少一个任务时的功耗;
所述分配模块,具体用于:
当所述任务执行需求为与GPU执行所述至少一个任务时的功耗所相关的需求时,针对所述至少一个任务中的每个任务,判断GPU当前的已占资源加上该任务的需求资源后的值,是否小于所述已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
在本发明的一个实施例中,所述配置信息包括:所述至少一个任务的优先级信息;所述优先级信息,用于控制GPU执行所述至少一个任务时的顺序;
所述分配模块,具体用于:
当所述任务执行需求为与GPU执行所述至少一个任务时的顺序所相关的需求时,根据所述优先级信息,确定为所述至少一个任务分配资源时的分配顺序;
根据所述任务信息以及GPU的未占资源,按照所述分配顺序,为所述至少一个任务分配资源。
在本发明的一个实施例中,每个任务的需求资源为GPU执行该任务时所需的最小资源;
所述配置信息包括:所述至少一个任务中的每个任务的资源增量信息;所述至少一个任务的资源增量信息,用于控制GPU执行所述至少一个任务时的时长;
所述分配模块,具体用于:
当所述任务执行需求为与GPU执行所述至少一个任务时的时长所相关的需求时,针对所述至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务。
在本发明的一个实施例中,所述装置还包括:采集模块和调整模块;
所述采集模块,用于实时采集GPU的负载信息;
所述调整模块,用于当所采集的负载信息中存在异常信息时,根据所述异常信息,调整所述配置信息。
在本发明的一个实施例中,所述负载信息包括下述信息中的一种或多种:
每个任务的执行时长、GPU执行任务时的任务并行度、GPU的已占资源与未占资源的比值,以及每个任务的任务等待周期占比。
在本发明的一个实施例中,所述装置还包括:任务执行模块;
所述任务执行模块,用于利用为所述至少一个任务中的每个任务所分配的资源,分别执行所述至少一个任务。
第三方面,本发明实施例提供一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述任一资源分配方法所述的方法步骤。
优选地,所述处理器为图形处理器。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述任一资源分配方法所述的方法步骤。
在本发明实施例的又一方面中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一资源分配方法所述的方法步骤。
本发明的有益效果:
本发明实施例提供的资源分配方法中,用户可以根据对GPU执行任务时的执行效果的期望,预先设置与预设的任务执行需求所相关的配置信息;这里,任务执行需求可以包括:与GPU执行这些任务时的顺序、功耗和/或时长所相关的需求;相应的,GPU在为待分配资源的至少一个任务分配资源时,可以使用该配置信息,从而控制任务的执行效果达到用户的期望。可见,本方案在用户对任务的执行效果有特殊需求时,能够给与相应的支持。
以下将结合附图及实施例对本发明做进一步详细说明。
附图说明
图1是本发明实施例提供的一种资源分配方法的流程示意图;
图2是本发明实施例提供的一种资源分配装置的结构示意图;
图3是本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面结合具体实施例对本发明做进一步详细的描述,但本发明的实施方式不限于此。
为了在用户对任务的执行效果有特殊需求时能够给与相应的支持,本发明实施例提供了一种资源分配方法、装置、电子设备及存储介质;其中,本发明实施例提供的一种资源分配方法的执行主体,可以为一种资源分配装置,该装置可以应用于图形处理器中;该图形处理器可以应用于电子设备中;在具体应用中,该电子设备可以为:台式计算机、便携式计算机、智能移动终端、服务器等。在此不作限定,任何可以实现本发明的电子设备,均属于本发明的保护范围。
首先,对本发明实施例提供的资源分配方法进行详细说明;如图1所示,该方法可以包括以下步骤:
S10:获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,任务信息包括:每个任务的任务类型和需求资源;任务执行需求包括:与GPU执行至少一个任务时的顺序、功耗和/或时长所相关的需求。
其中,待分配资源的至少一个任务,为用户提交给GPU运行的应用程序中的指令所对应的任务;因此,GPU可以从应用程序中获取待分配资源的至少一个任务的任务信息;在具体应用中,每个任务的任务类型可以是图形类任务或计算类任务。可以理解的是,每个任务的需求资源为GPU执行该任务时所需要消耗的资源;在实际应用中,用户将应用程序提交给GPU运行后,GPU可以根据应用程序中的指令计算出指令对应的任务的需求资源。
该步骤中,与预设的任务执行需求所相关的配置信息,可以从GPU对应的管理客户端中获取,也可以从GPU自身的驱动程序中获取。
另外,为了方便引用,后续将与GPU执行至少一个任务时的顺序所相关的需求称为第一需求,将与GPU执行至少一个任务时的功耗所相关的需求称为第二需求,并将与GPU执行至少一个任务时的时长所相关的需求称为第三需求;这样,该步骤中所预设的任务执行需求可以表示为:
第一需求、第二需求、第三需求、第一需求+第二需求、第一需求+第三需求、第二需求+第三需求,或第一需求+第二需求+第三需求。
其中,符号“+”代表所连接的多种需求是共存的。
S20:响应于任务执行需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源。
这里,GPU的未占资源是指为每个任务分配资源时的未占资源。
该步骤中,GPU在为至少一个任务分配资源时,按照用户在配置信息中所设置的内容,对资源分配时的先后顺序和/或资源数量进行控制;并且,针对每个任务,从当前的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源。
在实际应用中,GPU获取与该任务的任务类型相匹配的资源,具体可以是将任务发送到与任务的任务类型对应的处理单元中运行。例如,将任务类型为图形类的任务,发送到专用于图形处理的处理单元中运行,将任务类型为计算类的任务,发送到专门用于计算处理的处理单元中运行。
可以理解的是,响应于不同的任务执行需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源的具体实现方式存在不同;为了方案清楚及布局清晰,后续对各种任务执行需求下,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源的具体实现方式进行示例性的说明。
本发明实施例提供的资源分配方法中,用户可以根据对GPU执行任务时的执行效果的期望,预先设置与预设的任务执行需求所相关的配置信息;这里,任务执行需求可以包括:与GPU执行这些任务时的顺序、功耗和/或时长所相关的需求;相应的,GPU在为待分配资源的至少一个任务分配资源时,可以使用该配置信息,从而控制任务的执行效果达到用户的期望。可见,本方案在用户对任务的执行效果有特殊需求时,能够给与相应的支持。
下面,对响应于不同的任务执行需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源的具体实现方式进行示例性的说明。
示例1,任务执行需求为第一需求;此时,与第一需求相关的配置信息可以包括:GPU的已占资源上限;该已占资源上限,用于限制GPU执行至少一个任务时的功耗;
相应的,响应于第一需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
针对每个任务,判断GPU当前的已占资源加上该任务的需求资源后的值,是否小于已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
可以理解的是,GPU为下一个未分配资源的任务分配资源时,同样从判断GPU当前的已占资源加上任务的需求资源后的值,是否小于已占资源上限的步骤开始。还可以理解的是,GPU暂停为该任务分配资源后,该任务同样属于未分配资源的任务。
另外,若GPU从未占资源中获取资源分配给该任务时,检测到与该任务的任务类型相匹配的未占资源不足,也可以暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。同理的,暂停后的该任务同样属于未分配资源的任务。
该示例1中,在第一需求下,GPU对资源分配时的资源数量进行控制,而对于资源分配时的分配顺序,可以与现有的资源分配方法中的分配顺序相同,这里不再赘述。
基于该示例1可见,本发明实施例提供的资源分配方法中,响应于第一需求为至少一个任务分配资源,可以控制GPU的已占资源始终不超过预定的已占资源上限;这样,在GPU执行任务时,始终工作在已占资源上限所限定的功耗之下,不会出现超负荷运行的情况。
示例2,任务执行需求为第二需求;此时,与第二需求相关的配置信息可以包括:上述的至少一个任务的优先级信息;该优先级信息,用于控制GPU执行至少一个任务时的顺序;
相应的,响应于第二需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
根据优先级信息,确定为至少一个任务分配资源时的分配顺序;
根据任务信息以及GPU的未占资源,按照分配顺序,为至少一个任务分配资源。
在实际应用中,用户在优先级信息中,可以将任务类型相同的任务设置相同的优先级;这样,GPU在给任务分配资源时,可以集中为任务类型相同的多个任务分配资源,从而使任务类型相同的任务可以被GPU集中执行,从而提升GPU的执行效率;当然,并不一定局限于此,采用任何方式所设置的优先级信息,均适用于本发明实施例提供的资源分配方法。
该示例2中,根据优先级信息,确定为至少一个任务分配资源时的分配顺序的具体实现方式存在多种。示例性的,在一种实现方式中,可以按照优先级信息中所指示的每个任务的优先级,设置为至少一个任务分配资源时的分配顺序;其中,优先级高的任务,位于分配顺序中的前位,优先级低的任务,位于分配顺序中的后位;而对于优先级相等的多个任务,在分配顺序中的排位可以随机排定。
在另一种实现方式中,在按照优先级信息中所指示的每个任务的优先级,设置为至少一个任务分配资源时的分配顺序时,对于优先级相等的多个任务,在分配顺序中的排位可以根据任务的需求资源来确定。例如,需求资源较少的任务排在前位,需求资源较多的任务排在后位;这样,GPU在同等的时间内可以为更多的优先级相等的任务分配资源。
在另一种实现方式中,在按照优先级信息中所指示的每个任务的优先级,设置为至少一个任务分配资源时的分配顺序时,对于优先级相等的多个任务,在分配顺序中的排位可以根据任务的估计执行时长来确定;例如,估计执行时长较短的任务排在前位,估计执行时长较长的任务排在前位;这样,估计执行时长较短的任务可以被GPU尽早执行完毕,释放出所占用的资源供GPU分配给其他未分配到资源的任务。其中,每个任务的估计执行时长即为GPU预估的执行该任务时所需要耗费的时间;在实际应用中,对于任务类型为图形类的任务来说,根据任务类型便可以确定估计执行时长;而对于任务类型为计算类的任务来说,根据任务类型以及任务的参数,利用与任务类型对应的估计公式,也可以计算出估计执行时长。其中,估计公式可以是较为简单的公式,如查表类的公式或一元方程等等;另外,任务的参数可以理解为任务对应的指令的参数。
当确定分配顺序后,GPU便可以根据任务信息以及GPU的未占资源,按照分配顺序,为至少一个任务分配资源。具体的,在按照分配顺序为至少一个任务分配资源时,针对每个任务,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务。在这个过程中,若GPU从未占资源中获取资源分配给该任务时,检测到与该任务的任务类型相匹配的未占资源不足,可以暂停为任务分配资源,继续按照分配顺序为下一个未分配资源的任务分配资源;当为下一个任务分配资源完毕后,将暂停的该任务归于未分配资源的任务中,继续按照分配顺序为未分配到资源的任务分配资源。
该示例2中,在第二需求下,GPU对资源分配时的分配顺序进行控制,而对于资源分配时的资源数量则并未进行控制,满足任务的需求资源即可。
基于该示例2可见,本发明实施例提供的资源分配方法中,响应于第二需求为至少一个任务分配资源,优先为优先级高的任务分配资源,从而可以使优先级高的任务优先被GPU执行,达到了控制任务的执行顺序的效果。
示例3,任务执行需求为第三需求;此时,每个任务的需求资源为GPU执行该任务时所需的最小资源;与第三需求相关的配置信息可以包括:每个任务的资源增量信息;这些资源增量信息,用于控制GPU执行至少一个任务时的时长;
相应的,响应于第三需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
针对至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务。
其中,针对每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源的具体实现方式存在多种。示例性的,在一种实现方式中,任务的资源增量信息具体为一个大于等于1的数值;相应的,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源,可以包括:
将该任务的需求资源乘以该任务的资源增量信息,得到该任务的待分配资源。
可以理解的是,当该任务的资源增量信息等于1时,计算得到的待分配资源与该任务原来的需求资源相等;此时,可以理解为用户并不想要为该任务增加资源。而当该任务的资源增量信息大于1时,计算得到的待分配资源比该任务原来的需求资源多;此时,可以理解为用户想要为该任务增加资源,从而给该任务的执行过程加速。可见,任务的资源增量信息比数值1大得越多,该任务的待分配资源便越多,GPU执行该任务的时长便越短。另外,在计算任务的待分配资源时,若所计算的待分配资源超出GPU执行该任务时所需的最大资源,则可以将该最大资源直接作为该任务的待分配资源。
在另一种实现方式中,任务的资源增量信息为大于等于0的数值,且该资源增量信息的单位与GPU的资源的单位相同;相应的,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源,可以包括:
将该任务的需求资源加上该任务的资源增量信息;得到该任务的待分配资源。
同理的,在计算任务的待分配资源时,若所计算的待分配资源超出GPU执行该任务时所需的最大资源,则可以将该最大资源直接作为该任务的待分配资源。
该示例3中,在第三需求下,GPU对资源分配时的资源数量进行控制,而对于资源分配时的分配顺序,可以与现有的资源分配方法中的分配顺序相同,这里不再赘述。
基于该示例3可见,本发明实施例提供的资源分配方法中,用户在配置信息中为想要加速执行的任务设置相应的资源增量信息;GPU响应于第三需求为至少一个任务分配资源,可以为用户想要加速执行的任务分配更多的资源,从而可以缩短执行该任务时的时长。
示例4,任务执行需求为第一需求+第二需求;此时,与该任务执行需求相关的配置信息可以包括:GPU的已占资源上限和至少一个任务的优先级信息;
相应的,响应于第一需求+第二需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
根据优先级信息,确定为至少一个任务分配资源时的分配顺序;
按照分配顺序,为至少一个任务分配资源;
其中,针对每个任务,判断GPU当前的已占资源加上该任务的需求资源后的值,是否小于已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
该示例4中,在第一需求+第二需求下,GPU对资源分配时的资源数量和分配顺序两方面均进行了控制。基于该示例4可见,本发明实施例提供的资源分配方法中,响应于第一需求+第二需求为至少一个任务分配资源,可以控制任务的执行顺序,还可以控制GPU工作在已占资源上限所限定的功耗之下,不会出现超负荷运行的情况。
示例5,任务执行需求为第二需求+第三需求;此时,与任务执行需求相关的配置信息可以包括:至少一个任务的优先级信息以及每个任务的资源增量信息;并且,每个任务的需求资源为GPU执行该任务时所需的最小资源;
相应的,响应于第二需求+第三需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
根据优先级信息,确定为至少一个任务分配资源时的分配顺序;
按照分配顺序,为至少一个任务分配资源;
其中,针对至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务。
该示例5中,在第二需求+第三需求下,GPU对资源分配时的资源数量和分配顺序两方面均进行了控制。基于该示例5可见,本发明实施例提供的资源分配方法中,响应于第二需求+第三需求为至少一个任务分配资源,可以控制任务的执行顺序,还可以为用户想要加速执行的任务分配更多的资源,从而可以缩短执行该任务时的时长。
示例6,任务执行需求为第一需求+第三需求;此时,与任务执行需求相关的配置信息可以包括:GPU的已占资源上限和至少一个任务中的每个任务的资源增量信息;并且,每个任务的需求资源为GPU执行该任务时所需的最小资源;
相应的,响应于第一需求+第三需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
针对至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
判断GPU当前的已占资源加上该任务的待分配资源后的值,是否小于已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
该示例6中,在第一需求+第三需求下,GPU对资源分配时的资源数量进行控制,而对于资源分配时的分配顺序,可以与现有的资源分配方法中的分配顺序相同,这里不再赘述。
基于该示例6可见,本发明实施例提供的资源分配方法中,响应于第一需求+第三需求为至少一个任务分配资源,可以为用户想要加速执行的任务分配更多的资源,从而可以缩短执行该任务时的时长。并且,在为任务的执行速度加速的同时,还可以确保GPU的已占资源始终不超过预定的已占资源上限;这样,在GPU执行任务时,始终工作在已占资源上限所限定的功耗之下,不会出现超负荷运行的情况。
示例7,任务执行需求为第一需求+第二需求+第三需求;此时,与该任务执行需求相关的配置信息可以包括:GPU的已占资源上限、至少一个任务的优先级信息以及每个任务的资源增量信息;并且,每个任务的需求资源为GPU执行该任务时所需的最小资源;
相应的,响应于第一需求+第二需求+第三需求,根据任务信息、配置信息以及GPU的未占资源,为至少一个任务分配资源,可以包括:
根据优先级信息,确定为至少一个任务分配资源时的分配顺序;
按照分配顺序,为至少一个任务分配资源;
其中,针对至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
判断GPU当前的已占资源加上该任务的待分配资源后的值,是否小于已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
该示例7中,在第一需求+第二需求+第三需求下,GPU对资源分配时的资源数量和分配顺序均进行控制。基于该示例7可见,本发明实施例提供的资源分配方法中,响应于第一需求+第二需求+第三需求为至少一个任务分配资源,可以控制任务的执行顺序;还可以为用户想要加速执行的任务分配更多的资源,从而可以缩短执行该任务时的时长。并且,在为任务的执行速度加速的同时,还可以确保GPU的已占资源始终不超过预定的已占资源上限,从而确保始终工作在已占资源上限所限定的功耗之下,不会超负荷运行。
可以理解的是,在示例4、示例5、示例6以及示例7中,关于GPU检测到与任务的任务类型相匹配的未占资源不足的处理方式,以及GPU为下一个未分配资源的任务分配资源的处理方式,可以与示例1相同;关于根据优先级信息,确定为至少一个任务分配资源时的分配顺序的实现方式,与示例2相同;关于根据任务的需求资源以及任务的资源增量信息,确定任务的待分配资源的具体实现方式与示例3相同;这里均不再赘述。
可选地,在一种实现方式中,本发明实施例提供的资源分配方法,还可以包括:
实时采集GPU的负载信息;
当所采集的负载信息中存在异常信息时,根据异常信息,调整配置信息。
可以理解的是,由于配置信息是由GPU的用户预先设置的,因此,若用户所设置的配置信息使得GPU的运行存在异常,GPU可以根据所采集的负载信息中的异常信息,自动调整配置信息。
其中,GPU的负载信息可以包括下述信息中的一种或多种:
每个任务的执行时长、GPU执行任务时的任务并行度、GPU的已占资源与未占资源的比值,以及每个任务的任务等待周期占比。
该实现方式中,当所采集的负载信息中存在异常信息时,根据异常信息,调整配置信息,具体指的可以是:当所采集的负载信息中,存在与当前的任务执行需求所相关的异常信息时,根据该异常信息,调整与当前的任务执行需求所相关的配置信息。
其中,与第一需求相关的异常信息可以包括:异常的任务并行度,以及异常的已占资源与未占资源的比值;与第二需求相关的异常信息可以包括:异常的任务并行度和异常的任务等待周期占比;与第三需求相关的异常信息可以包括:异常的执行时长,以及异常的已占资源与未占资源的比值。
这里,任务的执行时长存在异常,具体指的是任务的执行时长过长,超出预定的时长阈值;任务并行度存在异常,具体指的可以是任务并行度超出预定的并行度阈值;GPU的已占资源与未占资源的比值存在异常,具体指的可以是该比值超出预定比值;任务等待周期占比存在异常指的是任务等待周期占比超出预定的等待周期占比。
可以理解的是,在第一需求中,若任务并行度存在异常,则GPU可能已工作在超负荷状态下,这可以说明配置信息中的已占资源上限设置的过高,并未达到降低GPU功耗的效果;此时,可以降低已占资源上限。另外,若已占资源与未占资源的比值存在异常,说明GPU已经工作在超负荷状态下,同样说明已占资源上限需要被降低。
在第二需求中,若任务并行度存在异常,可以说明优先级相等的任务过多;此时,可以对优先级信息中,优先级相等的多个任务的优先级进行修改,降低相同优先级的任务的数量。另外,若任务等待周期占比存在异常,同样可以说明优先级相等的任务过多。
在第三需求中,若任务的执行时长存在异常,可以说明GPU给任务所分配的资源偏少;因此,可以对任务的资源增量信息进行修改,提高为任务增加的资源的数量,达到缩短任务的执行时长的效果。另外,若已占资源与未占资源的比值存在异常,说明GPU已经工作在超负荷状态下;此时,可以对任务的资源增量信息进行修改,降低为任务增加的资源的数量,达到为GPU降负荷的效果。
另外,在组合的需求下,根据异常信息修改配置信息的实现方式,参照单个需求下的实现方式即可,此处不再赘述。
在为每个任务分配资源后,GPU便可以利用为该任务所分配的资源,执行该任务。这里,关于GPU执行任务的具体实现方式,非本发明实施例的发明点,可以参照现有技术中GPU执行任务的具体实现方式,这里不再赘述。
以上,为对本发明实施例提供的资源分配方法所进行的详细说明。
相应于上述的一种资源分配方法,本发明实施例还提供了一种资源分配装置,应用于GPU,如图2所示,该装置可以包括:
获取模块201,用于获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,所述任务信息包括:每个任务的任务类型和需求资源;所述任务执行需求包括:与GPU执行所述至少一个任务时的顺序、功耗和/或时长所相关的需求;
分配模块202,用于响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源。
可选地,所述配置信息包括:GPU的已占资源上限;所述已占资源上限,用于限制GPU执行所述至少一个任务时的功耗;
所述分配模块202,具体用于:
当所述任务执行需求为与GPU执行所述至少一个任务时的功耗所相关的需求时,针对所述至少一个任务中的每个任务,判断GPU当前的已占资源加上该任务的需求资源后的值,是否小于所述已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
可选地,所述配置信息包括:所述至少一个任务的优先级信息;所述优先级信息,用于控制GPU执行所述至少一个任务时的顺序;
所述分配模块202,具体用于:
当所述任务执行需求为与GPU执行所述至少一个任务时的顺序所相关的需求时,根据所述优先级信息,确定为所述至少一个任务分配资源时的分配顺序;
根据所述任务信息以及GPU的未占资源,按照所述分配顺序,为所述至少一个任务分配资源。
可选地,每个任务的需求资源为GPU执行该任务时所需的最小资源;
所述配置信息包括:所述至少一个任务中的每个任务的资源增量信息;所述至少一个任务的资源增量信息,用于控制GPU执行所述至少一个任务时的时长;
所述分配模块202,具体用于:
当所述任务执行需求为与GPU执行所述至少一个任务时的时长所相关的需求时,针对所述至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务。
可选地,所述装置还包括:采集模块和调整模块;
所述采集模块,用于实时采集GPU的负载信息;
所述调整模块,用于当所采集的负载信息中存在异常信息时,根据所述异常信息,调整所述配置信息。
可选地,所述负载信息包括下述信息中的一种或多种:
每个任务的执行时长、GPU执行任务时的任务并行度、GPU的已占资源与未占资源的比值,以及每个任务的任务等待周期占比。
可选地,所述装置还包括:任务执行模块;
所述任务执行模块,用于利用为所述至少一个任务中的每个任务所分配的资源,分别执行所述至少一个任务。
本发明实施例提供的资源分配装置中,用户可以根据对GPU执行任务时的执行效果的期望,预先设置与预设的任务执行需求所相关的配置信息;这里,任务执行需求可以包括:与GPU执行这些任务时的顺序、功耗和/或时长所相关的需求;相应的,GPU在为待分配资源的至少一个任务分配资源时,可以使用该配置信息,从而控制任务的执行效果达到用户的期望。可见,本方案在用户对任务的执行效果有特殊需求时,能够给与相应的支持。
本发明实施例还提供了一种电子设备,如图3所示,包括处理器301、通信接口302、存储器303和通信总线304,其中,处理器301,通信接口302,存储器303通过通信总线304完成相互间的通信,
存储器303,用于存放计算机程序;
处理器301,用于执行存储器303上所存放的程序时,实现上述任一种资源分配方法所述的方法步骤。
优选地,处理器301具体为图形处理器。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明还提供了一种计算机可读存储介质。在该计算机可读存储介质中存储有计算机程序,计算机程序被处理器执行时,实现上述任一种资源分配方法所述的方法步骤。
可选地,该计算机可读存储介质可以为非易失性存储器(Non-Volatile Memory,NVM),例如为至少一个磁盘存储器。
可选的,所述计算机可读存储器还可以是至少一个位于远离前述处理器的存储装置。
在本发明的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述任一资源分配方法所述的方法步骤。
需要说明的是,对于装置/电子设备/存储介质/计算机程序产品实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行接合和组合。
尽管在此结合各实施例对本申请进行了描述,然而,在实施所要求保护的本申请过程中,本领域技术人员通过查看所述附图、公开内容、以及所附权利要求书,可理解并实现所述公开实施例的其他变化。在权利要求中,“包括”(comprising)一词不排除其他组成部分或步骤,“一”或“一个”不排除多个的情况。单个处理器或其他单元可以实现权利要求中列举的若干项功能。相互不同的从属权利要求中记载了某些措施,但这并不表示这些措施不能组合起来产生良好的效果。
本申请是参照本申请实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (9)

1.一种资源分配方法,其特征在于,应用于GPU,所述方法包括:
获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,所述任务信息包括:每个任务的任务类型和需求资源;所述任务执行需求包括:与GPU执行所述至少一个任务时的顺序、功耗和/或时长所相关的需求;
响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源;
实时采集GPU的负载信息;
当所采集的负载信息中存在异常信息时,根据所述异常信息,调整所述配置信息。
2.根据权利要求1所述的方法,其特征在于,所述配置信息包括:GPU的已占资源上限;所述已占资源上限,用于限制GPU执行所述至少一个任务时的功耗;
所述响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源,包括:
当所述任务执行需求为与GPU执行所述至少一个任务时的功耗所相关的需求时,针对所述至少一个任务中的每个任务,判断GPU当前的已占资源加上该任务的需求资源后的值,是否小于所述已占资源上限;
如果是,从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的需求资源相等的资源分配给该任务;
如果否,暂停为该任务分配资源,继续为下一个未分配资源的任务分配资源。
3.根据权利要求1所述的方法,其特征在于,所述配置信息包括:所述至少一个任务的优先级信息;所述优先级信息,用于控制GPU执行所述至少一个任务时的顺序;
所述响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源,包括:
当所述任务执行需求为与GPU执行所述至少一个任务时的顺序所相关的需求时,根据所述优先级信息,确定为所述至少一个任务分配资源时的分配顺序;
根据所述任务信息以及GPU的未占资源,按照所述分配顺序,为所述至少一个任务分配资源。
4.根据权利要求1所述的方法,其特征在于,每个任务的需求资源为GPU执行该任务时所需的最小资源;
所述配置信息包括:所述至少一个任务中的每个任务的资源增量信息;所述至少一个任务的资源增量信息,用于控制GPU执行所述至少一个任务时的时长;
所述响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源,包括:
当所述任务执行需求为与GPU执行所述至少一个任务时的时长所相关的需求时,针对所述至少一个任务中的每个任务,根据该任务的需求资源以及该任务的资源增量信息,确定该任务的待分配资源;
从GPU的未占资源中,获取与该任务的任务类型相匹配的、且与该任务的待分配资源相等的资源分配给该任务。
5.根据权利要求1所述的方法,其特征在于,所述负载信息包括下述信息中的一种或多种:
GPU每个任务时的执行时长、GPU执行任务时的任务并行度、GPU的已占资源与未占资源的比值,以及每个任务的任务等待周期占比。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
利用为所述至少一个任务中的每个任务所分配的资源,分别执行所述至少一个任务。
7.一种资源分配装置,其特征在于,应用于GPU,所述装置包括:
获取模块,用于获取待分配资源的至少一个任务的任务信息,并获取与预设的任务执行需求所相关的配置信息;其中,所述任务信息包括:每个任务的任务类型和需求资源;所述任务执行需求包括:与GPU执行所述至少一个任务时的顺序、功耗和/或时长所相关的需求;
分配模块,用于响应于所述任务执行需求,根据所述任务信息、所述配置信息以及GPU的未占资源,为所述至少一个任务分配资源;
实时采集GPU的负载信息;
当所采集的负载信息中存在异常信息时,根据所述异常信息,调整所述配置信息。
8.一种电子设备,其特征在于,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现权利要求1-6任一所述的方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-6任一所述的方法的步骤。
CN201911415750.4A 2019-12-31 2019-12-31 一种资源分配方法、装置、电子设备及存储介质 Active CN111190739B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911415750.4A CN111190739B (zh) 2019-12-31 2019-12-31 一种资源分配方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911415750.4A CN111190739B (zh) 2019-12-31 2019-12-31 一种资源分配方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111190739A CN111190739A (zh) 2020-05-22
CN111190739B true CN111190739B (zh) 2023-09-01

Family

ID=70707961

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911415750.4A Active CN111190739B (zh) 2019-12-31 2019-12-31 一种资源分配方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111190739B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112214299A (zh) * 2020-09-30 2021-01-12 深圳云天励飞技术股份有限公司 多核处理器及其任务调度方法和装置
CN113238861A (zh) * 2021-05-08 2021-08-10 北京天空卫士网络安全技术有限公司 一种任务执行方法和装置
CN113238848A (zh) * 2021-05-27 2021-08-10 上海商汤科技开发有限公司 一种任务调度方法、装置、计算机设备和存储介质
CN114356586B (zh) * 2022-03-17 2022-09-02 飞腾信息技术有限公司 一种处理器及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026132A (ja) * 2013-07-24 2015-02-05 日本電信電話株式会社 リソース制御装置及び方法及びプログラム
CN105808333A (zh) * 2016-03-04 2016-07-27 上海携程商务有限公司 任务分配方法及系统
CN106033371A (zh) * 2015-03-13 2016-10-19 杭州海康威视数字技术股份有限公司 一种视频分析任务的调度方法及系统
CN108182560A (zh) * 2017-12-26 2018-06-19 北京小度信息科技有限公司 配送任务分配方法、装置、电子设备及计算机存储介质
CN109144710A (zh) * 2017-06-16 2019-01-04 中国移动通信有限公司研究院 资源调度方法、装置及计算机可读存储介质
CN109885388A (zh) * 2019-01-31 2019-06-14 上海赜睿信息科技有限公司 一种适用于异构系统的数据处理方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015026132A (ja) * 2013-07-24 2015-02-05 日本電信電話株式会社 リソース制御装置及び方法及びプログラム
CN106033371A (zh) * 2015-03-13 2016-10-19 杭州海康威视数字技术股份有限公司 一种视频分析任务的调度方法及系统
CN105808333A (zh) * 2016-03-04 2016-07-27 上海携程商务有限公司 任务分配方法及系统
CN109144710A (zh) * 2017-06-16 2019-01-04 中国移动通信有限公司研究院 资源调度方法、装置及计算机可读存储介质
CN108182560A (zh) * 2017-12-26 2018-06-19 北京小度信息科技有限公司 配送任务分配方法、装置、电子设备及计算机存储介质
CN109885388A (zh) * 2019-01-31 2019-06-14 上海赜睿信息科技有限公司 一种适用于异构系统的数据处理方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
谈群 ; 彭黎 ; 李志猛 ; 祁炜 ; .一种航天侦察任务-资源匹配的负载均衡方法.国防科技大学学报.2011,(02),全文. *

Also Published As

Publication number Publication date
CN111190739A (zh) 2020-05-22

Similar Documents

Publication Publication Date Title
CN111190739B (zh) 一种资源分配方法、装置、电子设备及存储介质
WO2017080273A1 (zh) 任务管理方法和系统、计算机存储介质
CN107124472A (zh) 负载均衡方法及装置、计算机可读存储介质
CN108223415B (zh) 一种调整风扇转速的方法及扩展坞
CN105159782A (zh) 基于云主机为订单分配资源的方法和装置
CN104239153A (zh) 多核cpu负载均衡的方法和装置
CN106897299B (zh) 一种数据库访问方法及装置
US20160154676A1 (en) Method of Resource Allocation in a Server System
US10733022B2 (en) Method of managing dedicated processing resources, server system and computer program product
US20140164662A1 (en) Methods and apparatus for interleaving priorities of a plurality of virtual processors
CN109788325B (zh) 视频任务分配方法及服务器
WO2019228346A1 (zh) 调度设备执行任务的方法和装置
CN110637272A (zh) 处理核组的动态最大频率极限
CN113032102A (zh) 资源重调度方法、装置、设备和介质
CN111338575B (zh) 一种存储服务质量控制方法、装置、设备及存储介质
CN114629960B (zh) 资源调度方法、装置、系统、设备、介质和程序产品
CN114896029A (zh) 电力系统仿真优化计算方法、装置、设备及可读存储介质
CN103823712A (zh) 一种多cpu虚拟机系统的数据流处理方法和装置
CN103870331A (zh) 一种动态分配处理器内核的方法及电子设备
JP2016012344A (ja) アプリケーションを実行する方法及びリソースマネジャ
CN115373826B (zh) 一种基于云计算的任务调度方法及装置
CN109189581B (zh) 一种作业调度方法和装置
CN113742059B (zh) 任务分配方法、装置、计算机设备和存储介质
CN111857996B (zh) 一种中断处理方法、系统、设备及计算机可读存储介质
CN115269131A (zh) 一种任务调度方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant