CN111176852A - 资源分配方法、装置、芯片及计算机可读存储介质 - Google Patents
资源分配方法、装置、芯片及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111176852A CN111176852A CN202010044413.5A CN202010044413A CN111176852A CN 111176852 A CN111176852 A CN 111176852A CN 202010044413 A CN202010044413 A CN 202010044413A CN 111176852 A CN111176852 A CN 111176852A
- Authority
- CN
- China
- Prior art keywords
- task
- tasks
- parameters
- resource
- resource pool
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013468 resource allocation Methods 0.000 title claims abstract description 42
- 238000000034 method Methods 0.000 title claims abstract description 40
- 230000006399 behavior Effects 0.000 claims description 32
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013473 artificial intelligence Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提一种资源分配方法、装置、芯片及计算机可读存储介质,能提高资源的分配效率。本发明实施例,一种资源分配方法,包括:接收至少一个任务请求,获取任务的参数,参数至少包括:任务类型、任务对应的用户;根据任务参数为任务分配资源,资源包括具有图形处理器GPU的多个机器组成的资源池,资源池具有不同的优先级。其中,根据参数中的任务类型为用户分配资源,包括:估计任务的计算量;根据任务类型和估计的计算量确定所述任务的优先级;将任务按照其优先级分配到优先级与其相匹配的资源池中,本发明实施例综合任务类型和任务对应的用户进行资源分配,在满足优先级顺序性和任务不长期排队的情况下,能进一步提升调度效率。
Description
技术领域
本发明涉及人工智能领域,特别涉及一种资源分配方法、装置、芯片及计算机可读存储介质。
背景技术
深度学习是模拟人脑神经系统而建立的数学网络模型,这个模型的最大特点是,需要大数据来训练。因此,深度学习对电脑处理器提出了能进行大量并行的重复计算的需求,GPU正好能满足此需求。大量配有GPU卡的机器(例如服务器)能够形成训练平台,当需要使用GPU资源训练深度学习对应的模型时,就会对GPU资源进行分配或调度,如何最大限度的将闲置的GPU资源全部利用起来就是一个面临需要解决的问题。
现有技术中的分配GPU资源方法一般是人工分配,主要通过人工方式判断是否有空闲机器来进行分配。现有技术中或者采用常规的排队式方式来分配GPU资源,最多再会进行一些常规的优化。现有技术没有考虑深度学习训练时任务的特点,使得现有技术中对计算资源的分配效率较低。
因此,寻找一种能提高分配效率的用于为人工智能的任务分配计算资源的技术已成为业内亟待解决的技术问题。
发明内容
针对现有技术的上述问题,本发明提出了一种资源分配方法、装置、芯片及计算机可读存储介质,能提高资源的分配效率。
第一方面,本发明实施例提出,一种资源分配方法,包括:接收至少一个任务请求,获取任务的参数,参数至少包括:任务类型、任务对应的用户;根据任务参数为任务分配资源,资源包括具有图形处理器GPU的多个机器组成的资源池,资源池具有不同的优先级,其中,根据所述参数中的任务类型为所述用户分配资源,包括:估计所述任务的计算量;根据所述任务类型和估计的计算量确定所述任务的优先级;将所述任务按照其优先级分配到优先级与其相匹配的资源池中。
在一些实施例中,估计任务的计算量,包括:根据任务类型和类型任务的历史计算量预测任务计算量。
在一些实施例中,将任务按照其优先级分配到优先级与其相匹配的资源池中,包括:多个任务基于先到先处理的规则分配到资源池,尽可能地将多个任务分配到数量尽可能少且相邻的GPU上以运行任务。
在一些实施例中,至少一个任务至少包括:训练任务、数据任务和模型推断任务,其中,训练任务的预估运行时长为数据任务或模型推断任务的预估运行时长的至少十倍以上,训练任务的预估运行时长能以时日计,数据任务和模型推断任务的预估运行时长能以分钟计,训练任务的优先级高于数据任务和模型推断任务的优先级。
在一些实施例中,还包括针对模型推断任务的专用资源池,方法还包括:将模型推断任务集中分配在专用资源池上,专用资源池能超分配预定比例的模型推断任务。在一些实施例中,还包括:将数据任务和模型推断任务分配到GPU剩余资源相对最少的预设数量机器中的任一上。
在一些实施例中,根据任务对应的用户为任务分配资源,包括:获取用户的历史行为,并分析多个用户历史行为的差异性;将历史行为差异性大于预设值的多个用户尽可能分配到同一资源池中。
在一些实施例中,分析多个用户历史行为的差异性,包括:获取用户在预设时间内任务直方图;根据直方图确定多个用户历史行为差异性。
第二方面,本发明实施例提出,一种资源分配装置,装置包括:任务接收单元,用于接收至少一个任务请求,获取任务的参数,参数至少包括:任务类型、任务对应的用户;资源分配单元,根据任务参数为任务分配资源,资源包括具有图形处理器GPU的多个机器组成的资源池,资源池具有不同的优先级,其中,所述资源分配单元,包括:计算量估计子单元,用于估计所述任务的计算量;任务优先级确定子单元,用于根据所述任务类型和估计的计算量确定所述任务的优先级;分配子单元,用于将所述任务按照其优先级分配到优先级与其相匹配的资源池中。
在一些实施例中,资源分配单元,包括,用户历史行为分析子单元,用于获取用户的历史行为,并分析多个用户历史行为的差异性;
分配子单元,用于将历史行为差异性大于预设值的多个用户尽可能分配到同一资源池中。
第三方面,本发明实施例还提供一种特定标志检测装置,包括:至少一个处理器;与所述至少一个处理器耦合的存储器,所述存储器存储有可执行指令,其中,所述可执行指令在被所述至少一个处理器执行时使得实现如上第一方面的任一项所述所述的方法。
第四方面,本发明实施例还提供一种芯片,用于执行上述第一方面中的方法。具体地,该芯片包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有该芯片的设备用于执行上述第一方面中的方法。
第五方面,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面的任一项所述的方法。
第六方面,本发明实施例还提供一种计算机程序产品,包括计算机程序指令,该计算机程序指令使得计算机执行上述第一方面中的方法。
与现有技术相比,本发明具有以下有益效果:本发明通过将多个任务按照任务类型和任务对应的用户等参数分配到具有不同优先级的资源池中,能综合任务类型和任务对应的用户进行资源分配,且可以进一步针对任务类型及具体任务计算量的估计进行资源分配,在满足优先级顺序性和任务不长期排队的情况下,能进一步提升调度效率。
附图说明
在结合以下附图阅读本公开的实施例的详细描述之后,能够更好地理解本发明的上述特征和优点。在附图中,各组件不一定是按比例绘制,并且具有类似的相关特性或特征的组件可能具有相同或相近的附图标记。
图1为本发明资源分配方法一实施例流程示意图;
图2为本发明资源分配装置一实施例结构示意图;
图3为本发明资源分配装置另一的实施例的组成结构示意图;
图4为本发明资源分配方法另一实施例的流程图。
具体实施方案
以下结合附图和具体实施例对本发明作详细描述,以便更清楚理解本发明的目的、特点和优点。应理解的是,以下结合附图和具体实施例描述的诸方面仅是示例性的,而不应被理解为对本发明的保护范围进行任何限制。除非上下文明确地另外指明,否则单数形式“一”和“所述”包括复数指代物。
图1为本发明资源分配方法一实施例流程示意图,如图1所示,第一方面,本发明实施例一种资源分配方法,包括:
步骤501,接收至少一个任务请求,获取任务的参数,参数至少包括:任务类型、任务对应的用户;
步骤502,根据任务参数为任务分配资源,资源包括具有图形处理器GPU的多个机器组成的资源池,资源池具有不同的优先级。
具体的,根据任务类型为任务分配资源,包括:根据任务类型确定任务的优先级,根据不同任务需要占用的计算资源不同,对不同任务确定不同的优先级,此外,也可以先估计任务的计算量。具体的,可以根据任务类型和该类型任务的历史计算量预测任务计算量。在得到估计的计算量之后,可以根据估计任务类型和估计的计算量确定任务的优先级。
本发明实施例综合任务类型和任务对应的用户进行资源分配,在满足优先级顺序性和任务不长期排队的情况下,且可以进一步针对任务类型及具体任务计算量的估计进行资源分配,能进一步提升调度效率。
通常,对于训练任务、数据任务和模型推断任务,其中,训练任务的预估运行时长为数据任务或模型推断任务的预估运行时长的至少十倍以上,训练任务的预估运行时长能以时日计,数据任务和模型推断任务的预估运行时长能以分钟计,训练任务的优先级高于数据任务和模型推断任务的优先级。进一步的,将任务按照其优先级分配到优先级与其相匹配的资源池中。可以使得高优先级的任务得到更多的资源,优先满足其计算任务的需要。
可选的,将任务按照其优先级分配到优先级与其相匹配的资源池中,包括:多个任务基于先到先处理的规则分配到资源池,尽可能地将多个任务分配到数量尽可能少且相邻的GPU上以运行任务。例如,如果多个GPU跨总线通信,尽可能的多的任务分配到同一个总线上,或者传输距离更近GPU上,可以使得残留的碎片更少,进一步提高资源的利用率。
可选的,在根据任务类型分配资源时,还可以给需要运算资源较少的任务配置较低的优先级低,给它们分配专用的优先级较差的资源池,这类资源池可能运算速度不是最高。例如,可以包括针对模型推断任务的专用资源池,将模型推断任务集中分配在专用资源池上,专用资源池能超分配预定比例的模型推断任务。还可以是,将数据任务和模型推断任务分配到GPU剩余资源相对最少的预设数量机器中的任一上。
可选的,还可以根据任务对应的用户为任务分配资源,例如,获取用户在历史的预设时间内的任务直方图,根据多个用户历史行为的直方图的差异分析用户历史行为的差异性, 将历史行为差异性大于预设值的多个用户尽可能分配到同一资源池中。将任务差异较大的用户分配同一资源池,可以使得统一资源池的各种类型的资源都得到充分的利用,进一步提高资源利用率。
第二方面,本发明实施例提出,一种资源分配装置,装置包括:
任务接收单元601,用于接收至少一个任务请求,获取任务的参数,参数至少包括:任务类型、任务对应的用户;
资源分配单元602,根据任务参数为任务分配资源,资源包括具有图形处理器GPU的多个机器组成的资源池,资源池具有不同的优先级。
其中,资源分配单元,可以包括:任务优先级确定子单元,用于根据任务类型确定任务的优先级;分配子单元,用于将任务按照其优先级分配到优先级与其相匹配的资源池中。进一步的,还可以包括,计算量估计子单元,用于估计任务的计算量;任务优先级确定子单元,用于根据任务类型和估计的计算量确定任务的优先级;分配子单元,用于将任务按照其优先级分配到优先级与其相匹配的资源池中。
可选的,资源分配单元,包括,用户历史行为分析子单元,用于获取用户的历史行为,并分析多个用户历史行为的差异性;分配子单元,用于将历史行为差异性大于预设值的多个用户尽可能分配到同一资源池中。
上述的涉及到的资源分配装置具体技术细节和资源分配装置方法中类似,在资源分配装置的实施方式中所能达到的技术效果在资源分配装置方法的实施方式中也同样可以实现,为了减少重复,这里不再赘述。相应地,在资源分配方法实施方式中提到的相关技术细节也可应用在资源分配装置的实施方式中。
本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。
图3为本发明资源分配装置另一的实施例的组成结构示意图,参见图3,其显示了本发明的资源分配装置的实施例的组成结构示意图,用于资源分配装置1包括计算平台10、第一处理模块11、第二处理模块12和分配模块13。所述多个任务包括训练任务W1、数据任务W2和模型推断任务W3等。所述训练任务W1因涉及到复杂的迭代运算而具有能以日计的运行时长,而数据任务W2和模型推断任务W3仅需要几分钟或几十分钟的运行时长。
计算平台10包括各自具有图形处理器GPU的多个机器,每个GPU具有能运行任务的资源池,所述资源池具有不同的优先级。图1中示例性地示出了计算平台10包括的可为服务器的两个机器10A和10B,两个机器10A和10B各自具有GPU M1和M2,GPU M1包括资源池100和102,GPU M2 具有资源池104。GPU所包括的资源池的数量可以根据实际情况或需求进行划分。
第一处理模块11用于接收多个任务,例如接收训练任务W1、数据任务W2和模型推断任务W3,并根据任务类型或预估运行时长来确定多个任务的优先级。所述预估运行时长可由第一处理模块11根据任务类型和任务运行的历史数据来进行预测,所述历史数据包括任务的历史运行时长。训练任务W1作为人工智能能自我学习的关键所在,因此其通常具有最高的优先级,所述训练任务W1的优先级高于所述数据任务W2和模型推断任务W3的优先级。所述训练任务W1的预估运行时长通常可为所述数据任务W2或模型推断任务W3的预估运行时长的至少十倍以上,具体可达上百倍,所述训练任务W1的预估运行时长可以时日计,所述数据任务W2和模型推断任务W3的预估运行时长可以分钟计。所述数据任务W2和模型推断任务W3具有频次高耗时短的特点。
第二处理模块12用于识别多个任务对应的用户并确定用户对应的历史行为,且将历史行为差异性相对最大的预设数量的用户分类到一个用户组14中,并尽可能地将不同用户分类在同一用户组14中,并为不同用户组14对应配置用户组资源池。所述第二处理模块12根据用户的历史行为归纳用户的生活作息,所述历史行为包括用户在一天中的使用直方图,所述第二处理模块12将用户的使用直方图差异相对最大的预设数量的用户归为一个用户组。在一些实施例中,训练任务W1、数据任务W2和模型推断任务W3属于三个不同的用户提交给计算平台10的任务,第二处理模块12能计算得出三个用户的使用直方图,并能将三个用户按照使用直方图差异程度进行排序,例如W1用户、W2用户和W3用户,当用户组1中需要分入两个用户时,可将W1用户和W2用户分入用户组1。用户组1和用户组2如图示示例性地具有不同的用户组资源池。
分配模块13与第一处理模块11和第二处理模块12相连接并接收后两者所得的任务优先级、任务被分入的用户组及对应的用户组资源池。分配模块13用于将所述多个任务按照其优先级分配到优先级与其相匹配的资源池中。分配模块13或用于将所述多个任务分配到其各自对应的用户组资源池中。所述分配模块13可基于先到先处理的规则将所述多个任务分配到资源池,并尽可能地将所述多个任务分配到数量尽可能少且相邻的GPU上以运行任务,将所述不同用户对应的任务或用户组资源池尽可能地分配在同一GPU上。
所述多个GPU 10A和10B中可包括针对所述模型推断任务W3的专用资源池,例如资源池100,所述分配模块13还将所述模型推断任务W3集中分配在专用资源池100上,所述专用资源池100能超分配预定比例的所述模型推断任务W3,以避免干扰训练任务W1的分配。所述预定比例例如为20%。
参见图4,其示出了本发明的资源分配方法的实施例的流程图。如图4所示,计算资源分配方法20包括步骤S1,提供由各自具有图形处理器GPU的多个机器组成的计算平台,所述GPU各自包括能运行任务的资源池,所述资源池具有不同的优先级。资源池的优先级可以根据其计算速度、计算容量及硬件的可靠性进行设定,例如计算速度越快优先级越高,计算容量越大优先级越高。所述计算机平台的结构可参照图1及以上描述。
所示方法20在完成步骤S1后,可进行步骤S2,接收多个任务并根据任务类型或预估运行时长来确定多个任务的优先级。在一些实施例中,所述多个任务可包括训练任务、数据任务和模型推断任务以及其他任务;可根据任务类型和任务运行的历史数据来预测S2中的任务的所述预估运行时长,所述历史数据包括任务的历史运行时长。所述训练任务的预估运行时长为所述数据任务或模型推断任务的预估运行时长的至少十倍以上,所述训练任务的预估运行时长能以时日计,所述数据任务和模型推断任务的预估运行时长能以分钟计,所述训练任务的优先级高于所述数据任务和模型推断任务的优先级。
所示该方法20包括步骤S3,识别多个任务对应的用户并分析对应用户的历史行为,且将历史行为差异性相对最大的预定数量的用户分类到一个用户组中,并尽可能地将不同用户分类在同一用户组中,还为不同用户组分别配置用户组资源池。在S3中,根据用户的历史行为归纳用户的生活作息,所述历史行为包括用户在一天中的使用直方图,将其使用直方图差异性相对最大的预定数量的用户归为一个用户组。步骤S3可与步骤S2并行或步骤S2和S3可以任意的先后顺序进行。
所示该方法20在完成步骤S2后还可进行步骤S40,在步骤S40中,将所述多个任务按照其优先级分配到优先级与其相匹配的资源池,其中所述多个任务基于先到先处理的规则分配到资源池,尽可能地将所述多个任务分配到数量尽可能少且相邻的GPU上以运行任务。
所示该方法20在完成步骤S3后还可进行步骤S42,在步骤S42中,将所述多个任务分配到其各自对应的用户组资源池中,其中所述多个任务基于先到先处理的规则分配到用户组资源池,尽可能地将所述多个任务分配到数量尽可能少且相邻的GPU上以运行任务,将所述不同用户对应的任务或用户组资源池尽可能地分配在同一GPU上。步骤S40和S42与权利要求书及说明书中的步骤S4相对应。
所示该方法20包括步骤S5,使多个GPU中包括针对所述模型推断任务的专用资源池,并将所述模型推断任务集中分配在专用资源池上,所述专用资源池能超分配预定比例的所述模型推断任务,以避免干扰对训练任务的分配。
所述方法20还包括S6,将所述数据任务和模型推断任务分配到GPU剩余资源相对最少的预设数量机器中的任一上。在步骤S6中,可将机器按照GPU剩余资源的多少进行排序,并从排序中取出剩余资源最少的预设数量的机器且从中取出一个用于分配所述数据任务和模型推断任务,例如可以取剩余资源最少的也可取次最少的机器。步骤S5和S6可以都不运行、也可择一运行、也可全都运行。
本发明通过将多个任务按照其优先级分配到优先级与其相匹配的资源池中或将所述多个任务分配到其各自对应的用户组资源池中,其中所述多个任务基于先到先处理的规则分配到资源池,尽可能地将所述多个任务分配到数量尽可能少且相邻的GPU上以运行任务,并将所述不同用户对应的任务或用户组资源池尽可能地分配在同一GPU上,本发明在满足优先级顺序性和任务不长期排队的情况下,能有效提升调度效率。
上述实施例是提供给熟悉本领域内的人员来实现或使用本发明的,熟悉本领域的人员可在不脱离本发明的发明思想的情况下,对上述实施例做出种种修改或变化,因而本发明的保护范围并不被上述实施例所限,而应该是符合权利要求书提到的创新性特征的最大范围。
Claims (10)
1.一种资源分配方法,其特征在于,包括:
接收至少一个任务请求,获取所述任务的参数,所述参数至少包括:任务类型、任务对应的用户;
根据所述任务参数为所述任务分配资源,所述资源包括具有图形处理器GPU的多个机器组成的资源池,所述资源池具有不同的优先级,其中,根据所述参数中的任务类型为所述用户分配资源,包括:
估计所述任务的计算量;
根据所述任务类型和估计的计算量确定所述任务的优先级;
将所述任务按照其优先级分配到优先级与其相匹配的资源池中。
2.根据权利要求1所述的方法,其特征在于,所述估计任务的计算量,包括:根据所述任务类型和所述类型任务的历史计算量预测所述任务计算量。
3.根据权利要求1所述的方法,其特征在于,所述将任务按照其优先级分配到优先级与其相匹配的资源池中,包括:所述多个任务基于先到先处理的规则分配到资源池,尽可能地将所述多个任务分配到数量尽可能少且相邻的GPU上以运行任务。
4.根据权利要求1-3任一项所述的方法,其特征在于,根据所述参数中的任务对应的用户为所述任务分配资源,包括:
获取所述用户的历史行为,并分析多个用户历史行为的差异性;
将历史行为差异性大于预设值的多个用户尽可能分配到同一资源池中。
5.根据权利要求4所述的方法,其特征在于,所述分析多个用户历史行为的差异性,包括:
获取所述用户在预设时间内任务直方图;
根据所述直方图确定多个用户历史行为差异性。
6.一种资源分配装置,其特征在于,所述装置包括:
任务接收单元,用于接收至少一个任务请求,获取所述任务的参数,所述参数至少包括:任务类型、任务对应的用户;
资源分配单元,根据所述任务参数为所述任务分配资源,所述资源包括具有图形处理器GPU的多个机器组成的资源池,所述资源池具有不同的优先级,其中,所述资源分配单元,包括:
计算量估计子单元,用于估计所述任务的计算量;
任务优先级确定子单元,用于根据所述任务类型和估计的计算量确定所述任务的优先级;
分配子单元,用于将所述任务按照其优先级分配到优先级与其相匹配的资源池中。
7.根据权利要求6所述的装置,其特征在于,所述资源分配单元,包括,用户历史行为分析子单元,用于获取所述用户的历史行为,并分析多个用户历史行为的差异性;
所述分配子单元,用于将历史行为差异性大于预设值的多个用户尽可能分配到同一资源池中。
8.一种资源分配装置,包括:
至少一个处理器;
与所述至少一个处理器耦合的存储器,所述存储器存储有可执行指令,其中,所述可执行指令在被所述至少一个处理器执行时使得实现根据权利要求1至5中任一项所述的方法。
9.一种芯片,其特征在于,包括:处理器,用于从存储器中调用并运行计算机程序,使得安装有所述芯片的设备执行:如权利要求1至5中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上权利要求1至5中任一项所述的的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010044413.5A CN111176852B (zh) | 2020-01-15 | 2020-01-15 | 资源分配方法、装置、芯片及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010044413.5A CN111176852B (zh) | 2020-01-15 | 2020-01-15 | 资源分配方法、装置、芯片及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111176852A true CN111176852A (zh) | 2020-05-19 |
CN111176852B CN111176852B (zh) | 2024-04-16 |
Family
ID=70658018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010044413.5A Active CN111176852B (zh) | 2020-01-15 | 2020-01-15 | 资源分配方法、装置、芯片及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111176852B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111949411A (zh) * | 2020-08-31 | 2020-11-17 | 平安国际智慧城市科技股份有限公司 | 资源分配方法、装置、计算机设备及计算机可读存储介质 |
CN112488579A (zh) * | 2020-12-17 | 2021-03-12 | 上海亿保健康管理有限公司 | 任务指派方法及装置、电子设备、存储介质 |
CN112527509A (zh) * | 2020-12-21 | 2021-03-19 | 北京百度网讯科技有限公司 | 一种资源分配方法、装置、电子设备及存储介质 |
CN112559147A (zh) * | 2020-12-08 | 2021-03-26 | 和美(深圳)信息技术股份有限公司 | 基于gpu占用资源特点的动态匹配算法、系统和设备 |
CN112783659A (zh) * | 2021-02-01 | 2021-05-11 | 北京百度网讯科技有限公司 | 一种资源分配方法、装置、计算机设备及存储介质 |
CN113157397A (zh) * | 2021-04-27 | 2021-07-23 | 全球能源互联网研究院有限公司 | 一种虚拟资源分配、服务功能链构建方法及装置 |
CN113391905A (zh) * | 2021-06-25 | 2021-09-14 | 图灵人工智能研究院(南京)有限公司 | 基于多gpu的任务调度方法、装置 |
CN113535405A (zh) * | 2021-07-30 | 2021-10-22 | 上海壁仞智能科技有限公司 | 云端服务系统及其操作方法 |
CN113742059A (zh) * | 2021-07-15 | 2021-12-03 | 上海朋熙半导体有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN113791906A (zh) * | 2021-08-09 | 2021-12-14 | 戴西(上海)软件有限公司 | 基于gpu资源在人工智能与工程领域调度系统及优化算法 |
CN113867907A (zh) * | 2021-08-09 | 2021-12-31 | 唐维昌 | 一种基于cpu资源在工程领域调度系统及优化算法 |
WO2022007781A1 (zh) * | 2020-07-08 | 2022-01-13 | 中兴通讯股份有限公司 | 任务处理方法、边缘计算设备、计算机设备和介质 |
CN114666410A (zh) * | 2022-02-14 | 2022-06-24 | 深圳爱捷云科技有限公司 | 资源调用方法、装置、电子设备和存储介质 |
CN115311123A (zh) * | 2022-08-11 | 2022-11-08 | 浙江中测新图地理信息技术有限公司 | 一种像素流gpu资源调度方法及装置 |
CN115495224A (zh) * | 2022-11-18 | 2022-12-20 | 天河超级计算淮海分中心 | 基于优先级的超算节点使用方法、电子设备和存储介质 |
CN115686865A (zh) * | 2022-11-18 | 2023-02-03 | 天河超级计算淮海分中心 | 一种基于多场景应用的超算节点资源分配系统 |
CN116560860A (zh) * | 2023-07-12 | 2023-08-08 | 太极计算机股份有限公司 | 一种基于机器学习的资源优先级的实时优化调整方法 |
TWI827953B (zh) * | 2020-12-09 | 2024-01-01 | 美商戴爾產品有限公司 | 用於使用組合系統執行工作量之系統及方法 |
WO2024055168A1 (zh) * | 2022-09-13 | 2024-03-21 | 华为技术有限公司 | 一种资源分配方法、处理器和计算平台 |
WO2024082692A1 (zh) * | 2022-10-21 | 2024-04-25 | 华为技术有限公司 | 执行任务的方法和异构服务器 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017127976A1 (zh) * | 2016-01-25 | 2017-08-03 | 华为技术有限公司 | 一种用于增量式学习云系统的训练、调度方法及相关设备 |
CN107291545A (zh) * | 2017-08-07 | 2017-10-24 | 星环信息科技(上海)有限公司 | 计算集群中多用户的任务调度方法及设备 |
CN107977268A (zh) * | 2017-10-13 | 2018-05-01 | 北京百度网讯科技有限公司 | 人工智能的异构硬件的任务调度方法、装置及可读介质 |
CN109857551A (zh) * | 2019-01-09 | 2019-06-07 | 平安科技(深圳)有限公司 | 基于云计算的服务资源的调度方法及装置、电子设备 |
CN110087324A (zh) * | 2019-04-22 | 2019-08-02 | 京信通信系统(中国)有限公司 | 资源分配方法、装置、接入网设备和存储介质 |
CN110413412A (zh) * | 2019-07-19 | 2019-11-05 | 苏州浪潮智能科技有限公司 | 一种基于gpu集群资源分配的方法和装置 |
-
2020
- 2020-01-15 CN CN202010044413.5A patent/CN111176852B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017127976A1 (zh) * | 2016-01-25 | 2017-08-03 | 华为技术有限公司 | 一种用于增量式学习云系统的训练、调度方法及相关设备 |
CN108027889A (zh) * | 2016-01-25 | 2018-05-11 | 华为技术有限公司 | 一种用于增量式学习云系统的训练、调度方法及相关设备 |
CN107291545A (zh) * | 2017-08-07 | 2017-10-24 | 星环信息科技(上海)有限公司 | 计算集群中多用户的任务调度方法及设备 |
CN107977268A (zh) * | 2017-10-13 | 2018-05-01 | 北京百度网讯科技有限公司 | 人工智能的异构硬件的任务调度方法、装置及可读介质 |
CN109857551A (zh) * | 2019-01-09 | 2019-06-07 | 平安科技(深圳)有限公司 | 基于云计算的服务资源的调度方法及装置、电子设备 |
CN110087324A (zh) * | 2019-04-22 | 2019-08-02 | 京信通信系统(中国)有限公司 | 资源分配方法、装置、接入网设备和存储介质 |
CN110413412A (zh) * | 2019-07-19 | 2019-11-05 | 苏州浪潮智能科技有限公司 | 一种基于gpu集群资源分配的方法和装置 |
Non-Patent Citations (1)
Title |
---|
杨涌;潘波;郑建;刘光文;林小光;成亮;: "一种作业调度和计算资源动态分配方法" * |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022007781A1 (zh) * | 2020-07-08 | 2022-01-13 | 中兴通讯股份有限公司 | 任务处理方法、边缘计算设备、计算机设备和介质 |
CN111949411A (zh) * | 2020-08-31 | 2020-11-17 | 平安国际智慧城市科技股份有限公司 | 资源分配方法、装置、计算机设备及计算机可读存储介质 |
CN111949411B (zh) * | 2020-08-31 | 2023-02-03 | 深圳赛安特技术服务有限公司 | 资源分配方法、装置、计算机设备及计算机可读存储介质 |
CN112559147A (zh) * | 2020-12-08 | 2021-03-26 | 和美(深圳)信息技术股份有限公司 | 基于gpu占用资源特点的动态匹配算法、系统和设备 |
CN112559147B (zh) * | 2020-12-08 | 2024-04-19 | 和美(深圳)信息技术股份有限公司 | 基于gpu占用资源特点的动态匹配方法、系统和设备 |
TWI827953B (zh) * | 2020-12-09 | 2024-01-01 | 美商戴爾產品有限公司 | 用於使用組合系統執行工作量之系統及方法 |
CN112488579A (zh) * | 2020-12-17 | 2021-03-12 | 上海亿保健康管理有限公司 | 任务指派方法及装置、电子设备、存储介质 |
CN112527509A (zh) * | 2020-12-21 | 2021-03-19 | 北京百度网讯科技有限公司 | 一种资源分配方法、装置、电子设备及存储介质 |
CN112527509B (zh) * | 2020-12-21 | 2023-09-01 | 北京百度网讯科技有限公司 | 一种资源分配方法、装置、电子设备及存储介质 |
CN112783659A (zh) * | 2021-02-01 | 2021-05-11 | 北京百度网讯科技有限公司 | 一种资源分配方法、装置、计算机设备及存储介质 |
CN112783659B (zh) * | 2021-02-01 | 2023-08-04 | 北京百度网讯科技有限公司 | 一种资源分配方法、装置、计算机设备及存储介质 |
CN113157397A (zh) * | 2021-04-27 | 2021-07-23 | 全球能源互联网研究院有限公司 | 一种虚拟资源分配、服务功能链构建方法及装置 |
CN113391905A (zh) * | 2021-06-25 | 2021-09-14 | 图灵人工智能研究院(南京)有限公司 | 基于多gpu的任务调度方法、装置 |
CN113391905B (zh) * | 2021-06-25 | 2024-05-14 | 图灵人工智能研究院(南京)有限公司 | 基于多gpu的任务调度方法、装置 |
CN113742059A (zh) * | 2021-07-15 | 2021-12-03 | 上海朋熙半导体有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN113742059B (zh) * | 2021-07-15 | 2024-03-29 | 上海朋熙半导体有限公司 | 任务分配方法、装置、计算机设备和存储介质 |
CN113535405A (zh) * | 2021-07-30 | 2021-10-22 | 上海壁仞智能科技有限公司 | 云端服务系统及其操作方法 |
CN113867907A (zh) * | 2021-08-09 | 2021-12-31 | 唐维昌 | 一种基于cpu资源在工程领域调度系统及优化算法 |
CN113791906A (zh) * | 2021-08-09 | 2021-12-14 | 戴西(上海)软件有限公司 | 基于gpu资源在人工智能与工程领域调度系统及优化算法 |
CN114666410A (zh) * | 2022-02-14 | 2022-06-24 | 深圳爱捷云科技有限公司 | 资源调用方法、装置、电子设备和存储介质 |
CN115311123A (zh) * | 2022-08-11 | 2022-11-08 | 浙江中测新图地理信息技术有限公司 | 一种像素流gpu资源调度方法及装置 |
CN115311123B (zh) * | 2022-08-11 | 2023-04-28 | 浙江中测新图地理信息技术有限公司 | 一种像素流gpu资源调度方法及装置 |
WO2024055168A1 (zh) * | 2022-09-13 | 2024-03-21 | 华为技术有限公司 | 一种资源分配方法、处理器和计算平台 |
WO2024082692A1 (zh) * | 2022-10-21 | 2024-04-25 | 华为技术有限公司 | 执行任务的方法和异构服务器 |
CN115495224A (zh) * | 2022-11-18 | 2022-12-20 | 天河超级计算淮海分中心 | 基于优先级的超算节点使用方法、电子设备和存储介质 |
CN115686865A (zh) * | 2022-11-18 | 2023-02-03 | 天河超级计算淮海分中心 | 一种基于多场景应用的超算节点资源分配系统 |
CN116560860B (zh) * | 2023-07-12 | 2023-10-10 | 太极计算机股份有限公司 | 一种基于机器学习的资源优先级的实时优化调整方法 |
CN116560860A (zh) * | 2023-07-12 | 2023-08-08 | 太极计算机股份有限公司 | 一种基于机器学习的资源优先级的实时优化调整方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111176852B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111176852B (zh) | 资源分配方法、装置、芯片及计算机可读存储介质 | |
CN109783224B (zh) | 基于负载调配的任务分配方法、装置及终端设备 | |
CN108027889B (zh) | 一种用于增量式学习云系统的训练、调度方法及相关设备 | |
Downey | Predicting queue times on space-sharing parallel computers | |
EP2176751B1 (en) | Scheduling by growing and shrinking resource allocation | |
CN110837410A (zh) | 任务调度方法、装置、电子设备及计算机可读存储介质 | |
KR20180077218A (ko) | 계산 그래프들 프로세싱 | |
CN113377540A (zh) | 集群资源调度方法及装置、电子设备和存储介质 | |
CN112068957B (zh) | 资源分配方法、装置、计算机设备及存储介质 | |
CN112214319B (zh) | 一种计算资源感知的任务调度方法 | |
CN112559147B (zh) | 基于gpu占用资源特点的动态匹配方法、系统和设备 | |
CN110347602B (zh) | 多任务脚本执行方法及装置、电子设备及可读存储介质 | |
CN113946431B (zh) | 一种资源调度方法、系统、介质及计算设备 | |
CN111104210A (zh) | 一种任务处理方法、装置及计算机系统 | |
CN113886034A (zh) | 任务调度方法、系统、电子设备及存储介质 | |
CN112181613A (zh) | 异构资源分布式计算平台批量任务调度方法及存储介质 | |
CN111176840A (zh) | 分布式任务的分配优化方法和装置、存储介质及电子装置 | |
CN114518945A (zh) | 一种资源调度方法、装置、设备及存储介质 | |
CN110780991B (zh) | 一种基于优先级的深度学习任务调度方法及装置 | |
CN110796591B (zh) | 一种gpu卡的使用方法及相关设备 | |
CN116700920A (zh) | 云原生混合部署集群资源调度方法及装置 | |
CN112463361A (zh) | 一种分布式计算的弹性资源分配的方法和设备 | |
CN115373826B (zh) | 一种基于云计算的任务调度方法及装置 | |
CN107391262B (zh) | 一种作业调度方法及装置 | |
US20140047454A1 (en) | Load balancing in an sap system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |