CN112579281B - 资源分配方法、装置、电子设备及存储介质 - Google Patents

资源分配方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN112579281B
CN112579281B CN201910926439.XA CN201910926439A CN112579281B CN 112579281 B CN112579281 B CN 112579281B CN 201910926439 A CN201910926439 A CN 201910926439A CN 112579281 B CN112579281 B CN 112579281B
Authority
CN
China
Prior art keywords
algorithm model
target
computing unit
algorithm
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910926439.XA
Other languages
English (en)
Other versions
CN112579281A (zh
Inventor
胡双
方家乐
俞阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Hikvision Digital Technology Co Ltd
Original Assignee
Hangzhou Hikvision Digital Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Hikvision Digital Technology Co Ltd filed Critical Hangzhou Hikvision Digital Technology Co Ltd
Priority to CN201910926439.XA priority Critical patent/CN112579281B/zh
Publication of CN112579281A publication Critical patent/CN112579281A/zh
Application granted granted Critical
Publication of CN112579281B publication Critical patent/CN112579281B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Stored Programmes (AREA)

Abstract

本申请实施例提供了资源分配方法、装置、电子设备及存储介质,应用于数据处理技术领域,该方法包括:确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;确定等待队列中类型为目标类型的任务的目标数量;若目标数量满足预设冷门数量规则,则清理目标计算单元中加载的算法模型,利用目标计算单元加载指定算法模型。在目标数量满足预设冷门数量规则时,说明目标类型的任务处理压力较小,可以利用目标计算单元去执行处理压力更大的任务,清理目标计算单元中加载的算法模型,清理算法模型后的目标计算单元可以加载指定算法模型,从而更合理的利用计算单元,进而提高整体的任务处理效率。

Description

资源分配方法、装置、电子设备及存储介质
技术领域
本申请涉及数据处理技术领域,特别是涉及资源分配方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的不断发展,网络中的数据量呈现井喷式的增长,用于处理大数据的分析系统应运而生。分析系统中包括多个计算单元,每个计算单元均可以加载独立的算法模型以处理相应的任务,此处的算法模型具体可以为深度学习算法模型。
相关技术中,在处理任务前,会预测各类型的任务的占比,并为占比高的任务分配较多的计算单元,为占比低的任务分配较少的计算单元,在分配完成后便开始任务的处理,其中,为任务配置计算单元是指利用计算单元加载处理该任务的算法模型。
但是采用上述方法,依赖于对任务占比的预测,在预测结果不准确时,会导致计算单元算法模型分配不准确,影响整体的任务处理效率。并且因为任务可能会存在先后关系,或各任务集中处理的时机不同,也会响整体的任务处理效率。
发明内容
本申请实施例的目的在于提供一种资源分配方法、装置、电子设备及存储介质,以实现提高整体的任务处理效率。具体技术方案如下:
第一方面,本申请实施例提供了一种资源分配方法,应用于分析系统,所述分析系统包括多个计算单元,所述方法包括:
确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
确定等待队列中类型为所述目标类型的任务的目标数量;
若所述目标数量满足预设冷门数量规则,则清理所述目标计算单元中加载的算法模型;
利用所述目标计算单元加载指定算法模型。
可选的,所述方法还包括:
计算所述等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为所述指定算法模型。
可选的,在所述确定用于动态加载算法模型的各目标计算单元中加载的算法模型的任务类型,得到各目标类型之前,所述方法还包括:
检测是否有未加载算法模型的空闲计算单元;
所述确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型,包括:
若不存在所述空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型。
可选的,在所述检测是否有未加载算法模型的空闲计算单元之后,所述方法还包括:
若存在所述空闲计算单元,利用所述空闲计算单元动态加载所述指定算法模型。
可选的,所述若存在所述空闲计算单元,利用所述空闲计算单元动态加载所述指定算法模型,包括:
获取各所述空闲计算单元的最大负载,获取各所述指定算法模型的算法负载;
按照各所述空闲计算单元的最大负载及各所述指定算法模型的算法负载,确定各所述空闲计算单元各自对应的指定算法模型;
利用各所述空闲计算单元各自加载对应的指定算法模型。
可选的,所述方法还包括:
获取预分配资源指令,其中,所述预分配资源指令包括指定计算单元与算法模型的对应关系;
按照所述预分配资源指令中的对应关系,利用所述指定计算单元预加载相应的算法模型,其中,所述分析系统中除预加载算法模型的计算单元外的其他计算单元为所述目标计算单元。
可选的,所述计算单元为图形处理器GPU。
第二方面,本申请实施例提供了一种资源分配装置,应用于分析系统,所述分析系统包括多个计算单元,所述装置包括:
目标类型确定模块,用于确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
目标数量确定模块,用于确定等待队列中类型为所述目标类型的任务的目标数量;
算法模型清理模块,用于若所述目标数量满足预设冷门数量规则,则清理所述目标计算单元中加载的算法模型;
算法模型加载模块,利用所述目标计算单元加载指定算法模型。
可选的,所述装置还包括:
指定算法模型确定模块,用于计算所述等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为所述指定算法模型。
可选的,所述装置还包括:
空闲单元检测模块,用于检测是否有未加载算法模型的空闲计算单元;
所述目标数量确定模块,具体用于:若不存在所述空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型。
可选的,所述装置还包括:
指定算法模型加载模块,用于若存在所述空闲计算单元,利用所述空闲计算单元动态加载所述指定算法模型。
可选的,所述指定算法模型加载模块,具体用于:
获取各所述空闲计算单元的最大负载,获取各所述指定算法模型的算法负载;
按照各所述空闲计算单元的最大负载及各所述指定算法模型的算法负载,确定各所述空闲计算单元各自对应的指定算法模型;
利用各所述空闲计算单元各自加载对应的指定算法模型。
可选的,所述装置还包括:
指令获取模块,用于获取预分配资源指令,其中,所述预分配资源指令包括指定计算单元与算法模型的对应关系;
单元配置模块,用于按照所述预分配资源指令中的对应关系,利用所述指定计算单元预加载相应的算法模型,其中,所述分析系统中除预加载算法模型的计算单元外的其他计算单元为所述目标计算单元。
可选的,所述计算单元为图形处理器GPU。
第三方面,本申请实施例提供了一种电子设备,包括处理器及存储器;
所述存储器,用于存放计算机程序;
所述处理器,用于执行所述存储器上所存放的程序时,实现上述第一方面任一所述的资源分配方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面任一所述的资源分配方法。
本申请实施例提供的资源分配方法、装置、电子设备及存储介质,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;确定等待队列中类型为目标类型的任务的目标数量;若目标数量满足预设冷门数量规则,则清理目标计算单元中加载的算法模型;利用目标计算单元加载指定算法模型。在目标数量满足预设冷门数量规则时,说明目标类型的任务处理压力较小,可以利用目标计算单元去执行处理压力更大的任务,清理目标计算单元中加载的算法模型,清理算法模型后的目标计算单元可以加载指定算法模型,从而更合理的利用计算单元,进而提高整体的任务处理效率。当然,实施本申请的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例的资源分配方法的第一种示意图;
图2为本申请实施例的资源分配方法的第二种示意图;
图3为本申请实施例的资源分配方法的第三种示意图;
图4为本申请实施例的资源分配装置的一种示意图;
图5为本申请实施例的电子设备的一种示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
相关的资源分配方法中,先调用资源分配接口进行算法模型分配,计算单元加载好算法模型后,该算法模型对应的任务才能下派,并进行任务分析;否则任务只能停留在调度服务的等待队列中,当计算节点算法模型分配好后,除非人工进行算法模型的变更,否则计算单元加载的算法模型不会进行调整。
在硬件资源有限的情况下,会根据等待队列中的任务个数动态的加载算法类型,当一种任务(例如人脸识别任务)达到高峰期时,计算单元加载人脸的算法模型,任务能够正常的分析,一旦该任务的高峰期结束之后,该算法模型不能自动释放,在其他任务(例如人体识别任务)高峰期来临时,由于硬件资源有限,不再加载其他算法,导致任务处理缓慢。
有鉴于此,本申请实施例提供了一种资源分配方法,应用于分析系统,上述分析系统包括多个计算单元,参见图1,该方法包括:
S101,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型。
本申请实施例的资源分配方法应用于分析系统,因此可以通过分析系统实现,具体的,可以通过分析系统中的服务器实现。计算单元可以为一个物理节点,例如,CPU或GPU(Graphics Processing Unit,图形处理器)等;计算单元也可以为基于虚拟化技术的虚拟节点,例如虚拟机等。在一种可能的实施方式中,上述计算单元为GPU。每个计算单元都可以为一个独立的GPU芯片,用于加载及运行算法模型。
目标计算单元为用于动态加载算法模型的节点,具体可以按照实际情况进行设定,例如,可以将各计算单元均设定为目标计算单元。本申请实施例中的动态加载,是指加载的算法模型可以改变。在一种可能的实施方式中,在S101之前,上述方法还包括:
步骤一,获取预分配资源指令,其中,上述预分配资源指令包括指定计算单元与算法模型的对应关系。
步骤二,按照上述预分配资源指令中的对应关系,利用上述指定计算单元预加载相应的算法模型,其中,上述分析系统中除预加载算法模型的计算单元外的其他计算单元为上述目标计算单元。
在处理任务前,先按照预分配资源指令对指定计算单元配置对应的算法模型。该预分配资源指令可以为用户输入的,也可以为分析系统通过相关算法自动生成的。预分配资源指令包括指定计算单元与算法模型的对应关系,例如,预分配资源指令包括计算单元A对应算法模型A,则按照预分配资源指令中的对应关系,利用计算单元A预记载算法模型A。预加载与动态加载的不同之处在于,在等待队列中的任务全部执行完成前,预加载算法模型的计算单元加载的算法模型不会被清理,而动态加载算法模型的计算单元加载的算法模型允许被清理。
S102,确定等待队列中类型为上述目标类型的任务的目标数量。
分析系统统计调度服务的等待队列中类型为目标类型的任务的数量,即目标数量。
S103,若上述目标数量满足预设冷门数量规则,则清理上述目标计算单元中加载的算法模型。
目标数量满足预设冷门数量规则,表示目标类型的任务的处理压力较小,此处的较小是指即使目标计算单元不在处理目标类型的任务,仍不会造成目标类型的任务的堆积。预设冷门数量规则可以按照实际情况进行设定,例如,在目标数量小于预设数量阈值时,判定目标数量满足预设冷门数量规则;或在目标数量与等待队列中所有任务数量的比值小于预设比值阈值时,判定目标数量满足预设冷门数量规则;或在等待队列各任务类型的任务的数量中,当目标数量不为前三个最多的数量之一时,判定目标数量满足预设冷门数量规则。
S104,利用上述目标计算单元加载指定算法模型。
可以通过向目标计算单元下载用于加载指定算法模型的指令,从而使目标计算单元加载指定算法模型。指定算法模型可以为自定义设定的,也可以为自动确定的。指定算法模型用于处理数量较多的任务类型的任务,例如,可以统计等待队列中各类型的任务的总数,选取总数排行前N的任务类型,将这N个任务类型对应的算法模型作为指定算法模型,其中N为正整数。在一种可能的实施方式中,上方法还包括:
计算上述等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为上述指定算法模型。
在本申请实施例中,在目标数量满足预设冷门数量规则时,说明目标类型的任务处理压力较小,可以利用目标计算单元去执行处理压力更大的任务,清理目标计算单元中加载的算法模型,清理算法模型后的目标计算单元可以加载指定算法模型,从而更合理的利用计算单元,进而提高整体的任务处理效率。
可选的,参见图2,在上述确定用于动态加载算法模型的各目标计算单元中加载的算法模型的任务类型,得到各目标类型之前,上述方法还包括:
S201,检测是否有未加载算法模型的空闲计算单元。
检测分析系统中是否有未加载算法模型的计算单元,即空闲计算单元。
上述确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型,包括:
S202,若不存在上述空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型。
可选的,在上述检测是否有未加载算法模型的空闲计算单元之后,上述方法还包括:
S203,若存在上述空闲计算单元,利用上述空闲计算单元动态加载上述指定算法模型。
若存在空闲计算单元,说明分析系统的任务处理能力尚有剩余,利用空闲计算单元动态加载指定算法模型即可。
在一种可能的实施方式中,上述若存在上述空闲计算单元,利用上述空闲计算单元动态加载上述指定算法模型,包括:
步骤一,获取各上述空闲计算单元的最大负载,获取各上述指定算法模型的算法负载。
在各空闲计算单元的最大负载不同,且各指定算法模型的算法负载不同时,可以分别获取各空闲计算单元的最大负载,并获取各指定算法模型的算法负载。
步骤二,按照各上述空闲计算单元的最大负载及各上述指定算法模型的算法负载,确定各上述空闲计算单元各自对应的指定算法模型。
确定各空闲计算单元各自对应的指定算法模型,其中,针对任一空闲计算单元,该空闲计算单元的最大负载不小于该空闲计算单元对应的指定算法模型。
步骤三,利用各上述空闲计算单元各自加载对应的指定算法模型。
在本申请实施例中,通过空闲计算单元的最大负载及指定算法模型的算法负载,确定各空闲计算单元各自对应的指定算法模型,能够减少计算单元过载的情况,挺高分析系统的处理效率。
本申请实施例还提供了一种资源分配方法,参见图3,包括:
步骤1,计算等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为指定算法模型。
步骤2,检测是否有未加载算法模型的空闲计算单元,若存在空闲计算单元执行步骤3,若不存在空闲计算单元执行步骤4。
步骤3,若存在空闲计算单元,利用空闲计算单元动态加载指定算法模型。
步骤4,若不存在空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型。
步骤5,确定等待队列中类型为目标类型的任务的目标数量。
步骤6,若目标数量满足预设冷门数量规则,则清理目标计算单元中加载的算法模型。
用于分配任务的调度服务启动后,会开启执行本申请实施例的资源分配方法,本轮执行完成后睡眠预设时间,然后再次启动执行本申请实施例的资源分配方法,以此类推直至等待队列中任务均执行完成。
若清理了计算单元中的算法模型,在下一轮任务中,会通过上述步骤1-3,为该计算单元配置算法模型,进而能够完成任务的分析,实现了资源的循环利用。
本申请实施例中,能够根据任务量的大小动态配置计算单元的算法模型,能够实现算法模型的自适应切换,算法模型自适应切换后,任务能够通过算法模型进行分析,资源的循环利用,从而更合理的利用计算单元,进而提高整体的任务处理效率。
本申请实施例还提供了一种资源分配装置,应用于分析系统,所述分析系统包括多个计算单元,参见图4,上述装置包括:
目标类型确定模块401,用于确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
目标数量确定模块402,用于确定等待队列中类型为所述目标类型的任务的目标数量;
算法模型清理模块403,用于若所述目标数量满足预设冷门数量规则,则清理所述目标计算单元中加载的算法模型。
算法模型加载模块404,利用所述目标计算单元加载指定算法模型。
可选的,所述装置还包括:
指定算法模型确定模块,用于计算所述等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为所述指定算法模型。
可选的,所述装置还包括:
空闲单元检测模块,用于检测是否有未加载算法模型的空闲计算单元;
所述目标数量确定模块,具体用于:若不存在所述空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型。
可选的,所述装置还包括:
指定算法模型加载模块,用于若存在所述空闲计算单元,利用所述空闲计算单元动态加载所述指定算法模型。
可选的,所述指定算法模型加载模块,具体用于:
获取各所述空闲计算单元的最大负载,获取各所述指定算法模型的算法负载;
按照各所述空闲计算单元的最大负载及各所述指定算法模型的算法负载,确定各所述空闲计算单元各自对应的指定算法模型;
利用各所述空闲计算单元各自加载对应的指定算法模型。
可选的,所述装置还包括:
指令获取模块,用于获取预分配资源指令,其中,所述预分配资源指令包括指定计算单元与算法模型的对应关系;
单元配置模块,用于按照所述预分配资源指令中的对应关系,利用所述指定计算单元预加载相应的算法模型,其中,所述分析系统中除预加载算法模型的计算单元外的其他计算单元为所述目标计算单元。
可选的,所述计算单元为GPU。
本申请实施例还提供了一种电子设备,包括:处理器及存储器;
上述存储器,用于存放计算机程序;
上述处理器用于执行上述存储器存放的计算机程序时,实现如下步骤:
确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
确定等待队列中类型为目标类型的任务的目标数量;
若目标数量满足预设冷门数量规则,则清理目标计算单元中加载的算法模型,以使目标计算单元动态加载指定算法模型。
在本申请实施例中,在目标数量满足预设冷门数量规则时,说明目标类型的任务处理压力较小,可以利用目标计算单元去执行处理压力更大的任务,清理目标计算单元中加载的算法模型,清理算法模型后的目标计算单元可以加载指定算法模型,从而更合理的利用计算单元,进而提高整体的任务处理效率。
可选的,参见图5,本申请实施例的电子设备还包括通信接口502和通信总线504,其中,处理器501,通信接口502,存储器503通过通信总线504完成相互间的通信。
可选的,上述处理器用于执行上述存储器存放的计算机程序时,还能够实现上述任一资源分配方法。
本申请实施例还提供了一种分析系统,所述分析系统包括:
多个计算单元及模型配置服务器;
所述模型配置服务器用于:确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;确定等待队列中类型为所述目标类型的任务的目标数量;若所述目标数量满足预设冷门数量规则,则清理所述目标计算单元中加载的算法模型;利用所述目标计算单元加载指定算法模型。
所述计算单元,用于按照所述模型配置服务器的用于加载算法模型的指令,加载并运行相应的算法模型。
可选的,所述模型配置服务器还用于实现上述任一资源分配方法。
本申请实施例中的模型配置服务器及计算单元可以为物理节点,例如,CPU或GPU等,也可以为基于虚拟化技术的虚拟节点,例如虚拟机等。在一种可能的实施方式中,计算单元为GPU。每个计算单元都可以为一个独立的GPU芯片,用于加载及运行算法模型。
上述电子设备提到的通信总线可以是PCI(Peripheral ComponentInterconnect,外设部件互连标准)总线或EISA(Extended Industry StandardArchitecture,扩展工业标准结构)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括RAM(Random Access Memory,随机存取存储器),也可以包括NVM(Non-Volatile Memory,非易失性存储器),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括CPU(Central Processing Unit,中央处理器)、NP(Network Processor,网络处理器)等;还可以是DSP(Digital Signal Processing,数字信号处理器)、ASIC(Application Specific Integrated Circuit,专用集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本申请实施例还提供了一种计算机可读存储介质,上述计算机可读存储介质内存储有计算机程序,上述计算机程序被处理器执行时实现如下步骤:
确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
确定等待队列中类型为目标类型的任务的目标数量;
若目标数量满足预设冷门数量规则,则清理目标计算单元中加载的算法模型,以使目标计算单元动态加载指定算法模型。
在本申请实施例中,在目标数量满足预设冷门数量规则时,说明目标类型的任务处理压力较小,可以利用目标计算单元去执行处理压力更大的任务,清理目标计算单元中加载的算法模型,清理算法模型后的目标计算单元可以加载指定算法模型,从而更合理的利用计算单元,进而提高整体的任务处理效率。
可选的,上述计算机程序被处理器执行时,还能够实现上述任一资源分配方法。
需要说明的是,在本文中,各个可选方案中的技术特征只要不矛盾均可组合来形成方案,这些方案均在本申请公开的范围内。诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备及存储介质的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本申请的保护范围内。

Claims (8)

1.一种资源分配方法,其特征在于,应用于分析系统,所述分析系统包括多个计算单元,所述方法包括:
确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
确定等待队列中类型为所述目标类型的任务的目标数量;
若所述目标数量满足预设冷门数量规则,则清理所述目标计算单元中加载的算法模型;
利用所述目标计算单元加载指定算法模型;所述指定算法模型为用于处理等待队列中总数排行前N的任务类型对应的算法模型;其中,N为正整数;
在所述确定用于动态加载算法模型的各目标计算单元中加载的算法模型的任务类型,得到各目标类型之前,
检测是否有未加载算法模型的空闲计算单元;
若不存在所述空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
若存在所述空闲计算单元,获取各所述空闲计算单元的最大负载,获取各所述指定算法模型的算法负载;按照各所述空闲计算单元的最大负载及各所述指定算法模型的算法负载,确定各所述空闲计算单元各自对应的指定算法模型;利用各所述空闲计算单元各自加载对应的指定算法模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
计算所述等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为所述指定算法模型。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取预分配资源指令,其中,所述预分配资源指令包括指定计算单元与算法模型的对应关系;
按照所述预分配资源指令中的对应关系,利用所述指定计算单元预加载相应的算法模型,其中,所述分析系统中除预加载算法模型的计算单元外的其他计算单元为所述目标计算单元。
4.根据权利要求1-3任一所述的方法,其特征在于,所述计算单元为图形处理器GPU。
5.一种资源分配装置,其特征在于,应用于分析系统,所述分析系统包括多个计算单元,所述装置包括:
目标类型确定模块,用于确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
目标数量确定模块,用于确定等待队列中类型为所述目标类型的任务的目标数量;
算法模型清理模块,用于若所述目标数量满足预设冷门数量规则,则清理所述目标计算单元中加载的算法模型;
算法模型加载模块,利用所述目标计算单元加载指定算法模型;所述指定算法模型为用于处理等待队列中总数排行前N的任务类型对应的算法模型;其中,N为正整数;
空闲单元检测模块,用于检测是否有未加载算法模型的空闲计算单元;
所述目标数量确定模块,具体用于:若不存在所述空闲计算单元,确定用于动态加载算法模型的目标计算单元中加载的算法模型的任务类型,得到目标类型;
指定算法模型加载模块,用于若存在所述空闲计算单元,获取各所述空闲计算单元的最大负载,获取各所述指定算法模型的算法负载;按照各所述空闲计算单元的最大负载及各所述指定算法模型的算法负载,确定各所述空闲计算单元各自对应的指定算法模型;利用各所述空闲计算单元各自加载对应的指定算法模型。
6.根据权利要求5所述的装置,其特征在于,所述装置还包括:
指定算法模型确定模块,用于计算所述等待队列中各任务类型的任务的数量,将任务数量最多的任务类型对应的算法模型作为所述指定算法模型。
7.根据权利要求5所述的装置,其特征在于,所述装置还包括:
指令获取模块,用于获取预分配资源指令,其中,所述预分配资源指令包括指定计算单元与算法模型的对应关系;
单元配置模块,用于按照所述预分配资源指令中的对应关系,利用所述指定计算单元预加载相应的算法模型,其中,所述分析系统中除预加载算法模型的计算单元外的其他计算单元为所述目标计算单元。
8.根据权利要求5-7任一所述的装置,其特征在于,所述计算单元为图形处理器GPU。
CN201910926439.XA 2019-09-27 2019-09-27 资源分配方法、装置、电子设备及存储介质 Active CN112579281B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910926439.XA CN112579281B (zh) 2019-09-27 2019-09-27 资源分配方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910926439.XA CN112579281B (zh) 2019-09-27 2019-09-27 资源分配方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN112579281A CN112579281A (zh) 2021-03-30
CN112579281B true CN112579281B (zh) 2023-10-10

Family

ID=75110036

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910926439.XA Active CN112579281B (zh) 2019-09-27 2019-09-27 资源分配方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN112579281B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458634A (zh) * 2008-01-22 2009-06-17 中兴通讯股份有限公司 负载均衡调度方法和装置
CN107291544A (zh) * 2017-08-03 2017-10-24 山东浪潮云服务信息科技有限公司 任务调度的方法及装置、分布式任务执行系统
US9898347B1 (en) * 2017-03-15 2018-02-20 Sap Se Scaling computing resources in a cluster
CN107766129A (zh) * 2016-08-17 2018-03-06 北京金山云网络技术有限公司 一种任务处理方法、装置及系统
CN108965364A (zh) * 2017-05-22 2018-12-07 杭州海康威视数字技术股份有限公司 资源配置方法、装置及系统
CN109298990A (zh) * 2018-10-17 2019-02-01 平安科技(深圳)有限公司 日志存储方法、装置、计算机设备及存储介质
CN109343941A (zh) * 2018-08-14 2019-02-15 阿里巴巴集团控股有限公司 任务处理方法、装置、电子设备及计算机可读存储介质
CN109542617A (zh) * 2018-10-30 2019-03-29 精硕科技(北京)股份有限公司 系统资源的处理方法及装置
CN109936472A (zh) * 2017-12-18 2019-06-25 上海无线通信研究中心 面向雾计算的节点计算能力描述方法、交互方法及其设备
CN110096353A (zh) * 2019-05-14 2019-08-06 厦门美图之家科技有限公司 任务调度方法及装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8863144B2 (en) * 2010-03-15 2014-10-14 International Business Machines Corporation Method and apparatus for determining resources consumed by tasks
US10031785B2 (en) * 2015-04-10 2018-07-24 International Business Machines Corporation Predictive computing resource allocation for distributed environments
CN106776024B (zh) * 2016-12-13 2020-07-21 苏州浪潮智能科技有限公司 一种资源调度装置、系统和方法
US10140151B2 (en) * 2017-04-19 2018-11-27 International Business Machines Corporation Leveraging directed acyclic graph (DAG) information to group tasks for execution

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101458634A (zh) * 2008-01-22 2009-06-17 中兴通讯股份有限公司 负载均衡调度方法和装置
CN107766129A (zh) * 2016-08-17 2018-03-06 北京金山云网络技术有限公司 一种任务处理方法、装置及系统
US9898347B1 (en) * 2017-03-15 2018-02-20 Sap Se Scaling computing resources in a cluster
CN108965364A (zh) * 2017-05-22 2018-12-07 杭州海康威视数字技术股份有限公司 资源配置方法、装置及系统
CN107291544A (zh) * 2017-08-03 2017-10-24 山东浪潮云服务信息科技有限公司 任务调度的方法及装置、分布式任务执行系统
CN109936472A (zh) * 2017-12-18 2019-06-25 上海无线通信研究中心 面向雾计算的节点计算能力描述方法、交互方法及其设备
CN109343941A (zh) * 2018-08-14 2019-02-15 阿里巴巴集团控股有限公司 任务处理方法、装置、电子设备及计算机可读存储介质
CN109298990A (zh) * 2018-10-17 2019-02-01 平安科技(深圳)有限公司 日志存储方法、装置、计算机设备及存储介质
CN109542617A (zh) * 2018-10-30 2019-03-29 精硕科技(北京)股份有限公司 系统资源的处理方法及装置
CN110096353A (zh) * 2019-05-14 2019-08-06 厦门美图之家科技有限公司 任务调度方法及装置

Also Published As

Publication number Publication date
CN112579281A (zh) 2021-03-30

Similar Documents

Publication Publication Date Title
CN109783224B (zh) 基于负载调配的任务分配方法、装置及终端设备
US10558498B2 (en) Method for scheduling data flow task and apparatus
US8726290B2 (en) System and/or method for balancing allocation of data among reduce processes by reallocation
US9800519B2 (en) Equitable sharing of system resources in workflow execution
CN109710376A (zh) 容器集群管理系统的动态调度方法和装置
CN106874100B (zh) 计算资源分配方法及装置
US9547520B1 (en) Virtual machine load balancing
US20160154676A1 (en) Method of Resource Allocation in a Server System
CN111752706B (zh) 资源配置方法、装置及存储介质
WO2019105379A1 (zh) 资源管理的方法、装置、电子设备及存储介质
CN113515382B (zh) 云资源的分配方法、装置、电子设备及存储介质
CN112148468A (zh) 一种资源调度方法、装置、电子设备及存储介质
CN111176833A (zh) 一种多处理节点的任务分配方法及系统
CN108616553B (zh) 云计算资源池进行资源调度的方法及装置
CN113886069A (zh) 一种资源分配方法、装置、电子设备及存储介质
US10754547B2 (en) Apparatus for managing disaggregated memory and method thereof
CN109992408B (zh) 一种资源分配方法、装置、电子设备和存储介质
US20090187614A1 (en) Managing Dynamically Allocated Memory in a Computer System
CN112579281B (zh) 资源分配方法、装置、电子设备及存储介质
JP2011141703A (ja) 資源配置システム、資源配置方法、及び資源配置用プログラム
CN111782466A (zh) 一种大数据任务资源利用检测方法及装置
CN115904724A (zh) 线程分配方法、装置、存储介质及计算机设备
US20140047454A1 (en) Load balancing in an sap system
CN114296872A (zh) 用于容器集群管理系统的调度方法及装置
CN114398178A (zh) 一种任务执行方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant