CN114896070A - 一种用于深度学习任务的gpu资源分配方法 - Google Patents
一种用于深度学习任务的gpu资源分配方法 Download PDFInfo
- Publication number
- CN114896070A CN114896070A CN202210617292.8A CN202210617292A CN114896070A CN 114896070 A CN114896070 A CN 114896070A CN 202210617292 A CN202210617292 A CN 202210617292A CN 114896070 A CN114896070 A CN 114896070A
- Authority
- CN
- China
- Prior art keywords
- deep learning
- task
- gpu
- learning task
- resource
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明提供了一种用于深度学习任务的GPU资源分配方法,包括:获取深度学习任务对应的网络结构特征、执行特征及可用资源集;基于利用率预测模型根据网络结构特征、执行特征对深度学习任务的资源利用率进行预测,得到资源利用率集;基于资源利用率集从可用资源集中确定满足深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从所有工作节点中选择一个工作节点为深度学习任务分配资源,并将深度学习任务及其资源需求发送给所选择的工作节点。本发明的技术方案通过对深度学习任务的资源需求量进行预测,根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,从而实现容器云集群中的GPU资源共享以及提升容器云集群中的GPU利用率。
Description
技术领域
本发明涉及容器云平台技术领域,具体来说涉及一种GPU资源分配方法,更具体地说,涉及一种用于深度学习任务的GPU资源分配方法。
背景技术
随着人工智能、深度学习技术的迅速发展,传统CPU(图形处理器,graphicsprocessing unit))的计算资源已难以满足深度学习应用负载的算力需求。GPU因具有更强的计算资源和较高的访存带宽,成为了深度学习应用的主流加速器。GPU集群中的一个关键问题就是如何调度多个深度学习应用任务,来实现最优的系统性能。当前,伴随着云计算技术的迅速发展,基于Docker容器化的云平台成为了运行深度学习应用的主要基础设施平台之一。Kubernetes作为容器集群调度系统及资源管理平台,可以集中管理集群中的CPU、内存以及网络等资源,也支持通过设备插件框架添加包括GPU在内的其他异构硬件资源。在NVIDIA实现的GPU调度管理插件中,Kubernetes可以管理GPU资源,但只能将一块GPU分配给一个容器组,无法在多个容器组中共享资源。
为解决上述技术问题,现目前多基于虚拟统一计算设备架构(virtual ComputeUnified Device Architecture,vCUDA)来现GPU资源在任务间的共享,即:vCUDA通过对GPU资源进行细粒度的切割,让用户指定GPU使用份额,以限制容器组对单个GPU的使用,从而实现多个容器组共享同一GPU资源。但在任务调度上,由于vCUDA采用简单的Binpack方法,忽略了任务本身的特征,因此容易造成资源过度分配,使得GPU资源无法得到充分利用的问题。
发明内容
因此,本发明的目的在于克服上述现有技术的缺陷,提供一种用于深度学习任务的GPU资源分配方法。
本发明的目的是通过以下技术方案实现的:
根据本发明的第一方面,提供一种用于深度学习任务的GPU资源分配方法,应用于多租户容器云平台的资源调度系统,所述资源调度系统包括一个控制节点及多个工作节点,所述方法包括在控制节点执行如下步骤:
获取深度学习任务对应的网络结构特征、深度学习任务对应的执行特征以及可用资源集,所述可用资源集包括多个工作节点中指定算力GPU的剩余资源;
基于利用率预测模型根据所述网络结构特征和所述执行特征对所述深度学习任务的资源利用率进行预测,得到资源利用率集,所述资源利用率集包括所述深度学习任务在多种指定算力GPU上的资源利用率;
基于所述资源利用率集从所述可用资源集中确定满足所述深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从满足所述深度学习任务的资源需求的所有工作节点中选择一个工作节点为所述深度学习任务分配资源;
将所述深度学习任务及其资源需求发送给所选择的工作节点,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率。
在本发明的一些实施例中,预定的选择规则是从满足所述深度学习任务的资源需求的所有工作节点中选择具有最多的GPU剩余资源的工作节点为所述深度学习任务分配资源。
在本发明的一些实施例中,所述利用率预测模型按照以下方式训练得到:
获取第一训练样本集,其包括多个训练样本,每个训练样本包括指定算力GPU对应的硬件特征、深度学习任务对应的网络结构特征、深度学习任务对应的执行特征以及标签,所述标签包括对训练样本中深度学习任务在该指定算力GPU上的资源利用率的指示;
利用所述第一训练样本集训练所述利用率预测模型输出资源利用率集,根据输出的资源利用率集和对应标签计算的损失值更新所述利用率预测模型的参数。
在本发明的一些实施例中,所述深度学习任务对应的网络结构特征包括其中各种图节点对应的输入数据大小,当所述网络计算图特征中存在重复的计算图节点时,从重复的计算图节点中选取具有最大的输入数据大小的计算图节点作为训练样本中所述重复的计算图节点对应的输入数据大小。
在本发明的一些实施例中,所述执行特征包括批次大小、迭代次数、输入大小或者其组合。
在本发明的一些实施例中,所述方法还包括:
在当前所有的工作节点均不能满足所述深度学习任务的资源需求且所述深度学习任务为延时敏感任务时,判断是否存在可释放资源且可释放资源不少于分配给所述深度学习任务资源的工作节点,
若是,释放所述可释放资源并将所述深度学习任务分配给该工作节点;
若否,将所述深度学习任务存放至延时敏感任务等待队列,所述可释放资源为分配给非延时敏感任务的资源。
在本发明的一些实施例中,所述方法还包括:
在当前所有的工作节点均不能满足所述深度学习任务的资源需求且所述深度学习任务为非延时敏感任务时,将所述深度学习任务存放至非延时敏感任务等待队列。
在本发明的一些实施例中,所述方法还包括:
基于执行时间预测模型根据所述深度学习任务对应的网络结构特征、所述深度学习任务对应的执行特征、所述深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对所述深度学习任务在指定算力GPU上的执行时间进行预测,得到用于检测非延时敏感任务的执行情况是否满足预设服务质量的预测执行时间集,并将所述预测执行时间集传输至为所述深度学习任务分配资源的工作节点,所述预测执行时间集包括所述深度学习任务在多种指定算力GPU上的预测执行时间。
在本发明的一些实施例中,所述执行时间预测模型按照以下方式训练得到:
获取第二训练样本集;其包括多个训练样本,每个训练样本包括指定算力GPU对应的硬件特征、深度学习任务对应的网络结构特征、深度学习任务对应的执行特征、深度学习任务在指定算力GPU上对应的资源利用率以及标签,所述标签包括对训练样本中深度学习任务在该指定算力GPU上的执行时间的指示;
利用所述第二训练样本集训练所述执行时间预测模型输出预测执行时间,根据输出的预测执行时间和对应标签计算的损失值更新所述执行时间预测模型的参数。
根据本发明第二方面,提供一种用于深度学习任务的GPU资源分配方法,应用于多租户容器云平台的资源调度系统,所述资源调度系统包括一个控制节点及多个工作节点,每个工作节点包括多个GPU,所述方法包括在每个工作节点执行如下步骤:
接收控制节点按照第一方面的方法发送给当前工作节点的深度学习任务及其资源需求,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率;
基于当前工作节点中多个GPU的剩余资源和所述资源需求为所述深度学习任务分配GPU及对应的GPU资源。
在本发明的一些实施例中,当所述深度学习任务为延时敏感任务时,将所述深度学习任务分配至具有最多剩余资源的GPU中。
在本发明的一些实施例中,当所述深度学习任务为非延时敏感任务时,将所述深度学习任务分配至具有最短执行时间的GPU中,其中,执行时间基于执行时间预测模型根据所述深度学习任务对应的网络结构特征、所述深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征进行预测。
在本发明的一些实施例中,所述方法还包括:
当所述深度学习任务为延时敏感任务时,从控制节点发送的预测执行时间集中获取所述深度学习任务在当前GPU上的预测执行时间,基于所述预测执行时间监控所述深度学习任务的执行情况是否满足预设服务质量。
在本发明的一些实施例中,所述监控所述深度学习任务的执行情况是否满足预设服务质量包括:
获取所述深度学习任务的已执行时间以及执行进度;
根据所述执行进度更新所述深度学习任务对应的执行特征以及网络结构特征;
基于所述执行时间预测模型根据所述深度学习任务在指定算力GPU上对应的资源利用率、指定算力GPU对应的硬件特征、更新后的执行特征以及网络结构特征预测所述深度学习任务的剩余执行时间;
在所述已执行时间和所述剩余执行时间之和大于预设执行时间时,判断所述延时敏感任务的执行情况未满足所述预设服务质量。
在本发明的一些实施例中,在监控到所述深度学习任务的执行情况未满足预设服务质量时,增加当前GPU分配给所述深度学习任务的GPU资源;若在增加分配给所述深度学习任务的资源时出现GPU资源不足,减少对当前GPU上的非延时敏感任务的资源分配;若增加分配给所述深度学习任务的GPU资源后,出现非延时敏感任务的执行资源不足,保存所述非延时敏感任务的执行状态并结束所述非延时敏感任务的执行。
在本发明的一些实施例中,所述方法还包括:
在监控到所述深度学习任务的执行情况满足预设服务质量时,查询所述深度学习任务在当前GPU上的资源利用率,若所述资源利用率超过所述控制节点发送的所述深度学习任务在当前GPU上的预测资源利用率时,暂停所述深度学习任务在当前GPU上的执行,待所述资源利用率下降至所述预测资源利用率时,重新在当前GPU上执行所述深度学习任务。
根据本发明第三方面,提供一种支持GPU共享的资源调度系统,包括:
控制节点,被配置为按照第一方面的方法向工作节点传输深度学习任务及其资源需求,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率;
多个工作节点,每个工作节点被配置为按照第二方面的方法为所述深度学习任务分配GPU及对应的GPU资源。
在本发明的一些实施例中,所述控制节点包括:
第一预测单元,用于基于利用率预测模型根据所述网络结构特征和所述执行特征对所述深度学习任务的资源利用率进行预测,得到资源利用率集,所述资源利用率集包括所述深度学习任务在多种指定算力GPU上的资源利用率;
第一调度单元,用于基于所述资源利用率集从所述可用资源集中确定满足所述深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从满足所述深度学习任务的资源需求的所有工作节点中选择一个工作节点为所述深度学习任务分配资源,并将所述深度学习任务及其资源需求发送给所选择的工作节点,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率。
在本发明的一些实施例中,所述控制节点还包括:
延时敏感任务等待队列,用于在当前所有的工作节点均不能满足延时敏感任务的资源需求时存放所述延时敏感任务;
非延时敏感任务等待队列,用于当前所有的工作节点均不能满足非延时敏感任务的资源需求时存放所述非延时敏感任务;
其中,在延时敏感任务等待队列不为空时,优先为敏感任务等待队列中的延时敏感任务分配GPU资源。
在本发明的一些实施例中,所述第一预测单元还用于基于执行时间预测模型根据所述深度学习任务对应的网络结构特征、所述深度学习任务对应的执行特征、所述深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对所述深度学习任务在指定算力GPU上的执行时间进行预测,得到用于检测非延时敏感任务的执行情况是否满足预设服务质量的预测执行时间集。
在本发明的一些实施例中,所述工作节点包括:
拓扑感知单元,用于获取当前工作节点中多个GPU的剩余资源;
第二预测单元,用于基于执行时间预测模型根据非延时敏感任务对应的网络结构特征、非延时敏感任务对应的执行特征、非延时敏感任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对非延时敏感任务在指定算力GPU上的执行时间进行预测,得到非延时敏感任务在多种指定算力GPU上的执行时间;
第二调度单元,用于基于当前工作节点中多个GPU的剩余资源和所述资源需求为所述深度学习任务分配GPU及对应的GPU资源;还用于根据非延时敏感任务在多种指定算力GPU上的执行时间为所述非延时敏感任务分配具有最短执行时间的GPU。
在本发明的一些实施例中,所述工作节点还包括:
弹性调整单元,用于监控延时敏感任务的执行情况是否满足预设服务质量,并在延时敏感任务的执行情况未满足预设服务质量时,增加当前GPU分配给所述深度学习任务的GPU资源;若在增加分配给所述深度学习任务的资源时出现GPU资源不足,减少对当前GPU上的非延时敏感任务的资源分配;若增加分配给所述深度学习任务的GPU资源后,出现非延时敏感任务的执行资源不足,保存所述非延时敏感任务的执行状态并结束所述非延时敏感任务的执行;
资源限制单元,用于在延时敏感任务的执行情况满足预设服务质量时,查询延时敏感任务在当前GPU上的资源利用率,若所述延时敏感任务在当前GPU上的资源利用率超过所述控制节点发送的所述延时敏感任务在当前GPU上的预测资源利用率时,暂停所述延时敏感任务在当前GPU上的执行,待所述资源利用率下降至所述预测资源利用率时,重新在当前GPU上执行所述延时敏感任务。
与现有技术相比,本发明的优点在于:
通过对深度学习任务的资源需求量进行预测,根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,从而实现容器云集群中的GPU资源共享以及提升容器云集群中的GPU利用率。
附图说明
以下参照附图对本发明实施例作进一步说明,其中:
图1为根据本发明实施例的一种用于深度学习任务的GPU资源分配方法在控制节点上实施的流程示意图;
图2为根据本发明实施例的深度学习任务的网络结构的DAG图;
图3为根据本发明实施例的一种用于深度学习任务的GPU资源分配方法在工作节点上实施的流程示意图;
图4为根据本发明实施例的一种基于Kubernetes平台的资源调度系统的示意图。
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如在背景技术部分提到的,为了实现在多个容器组中共享GPU资源,现目前提出了基于虚拟统一计算设备架构(virtual Compute Unified Device Architecture,vCUDA)来现GPU资源在任务间的共享,但由于在任务调度上,vCUDA采用简单的Binpack方法,忽略了任务本身的特征,因此存在资源过度分配,使得GPU资源无法得到充分利用的问题。为解决上述技术问题,本申请实施例提供了一种用于深度学习任务的GPU资源分配方法,通过对深度学习任务的资源需求量进行预测,以根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,从而实现容器云集群中的GPU资源共享及提升容器云集群中的GPU利用率。
为了实现本发明,发明人对应用于Kubernetes容器云平台中的资源调度系统的控制节点和工作节点分别进行了相应的改进,下面分别从(一)控制节点的改进、(二)工作节点的改进和(三)资源调度系统这三个方面进行说明。
(一)控制节点的改进
根据本发明的一个实施例,本发明提供一种用于深度学习任务的GPU资源分配方法,应用于多租户容器云平台的资源调度系统,其中,资源调度系统包括一个控制节点及多个工作节点,方法包括在控制节点执行如图1所示的步骤A1、步骤A2、步骤A3以及步骤A4。为了更好地理解本发明,下面结合具体的实施例针对每一个步骤分别进行详细说明。
步骤A1:获取深度学习任务对应的网络结构特征、深度学习任务对应的执行特征以及可用资源集;
其中,深度学习任务对应的网络结构特征包括各种计算图节点以及各种计算图节点对应的输入数据大小(计算图节点的输入数据的个数),计算图节点至少包括加运算(AddV2)、偏移加运算(BiasAdd)、梯度偏移加(BiasAddGrad)、乘运算(Mul)、二维卷积运算(Conv2D)、合并数组运算(Concat)、归一化指数函数(SoftMax)、线性整流函数(ReLU)、最大池化运算(MaxPool)、平均池化运算(AvgPool)或者其组合。由于每个深度学习任务不同,因此每个深度学习任务所涵盖的计算图节点以及对应的输入数据大小也不相同,为使得利用率预测模型能根据不同深度学习任务的网络结构特征都进行对应的资源预测,根据本发明的一个实施例,预先根据计算图节点构建一个网络结构特征表,然后在后续获取深度学习任务对应的网络结构特征时,将获取的输入数据大小填入网络结构特征表中对应的计算图节点即可,例如:预设的网络结构特征表为:{AddV2(0),Conv2D(0),MaxPool(0),ReLU(0),MatMul(0),AvgPool(0),Mul(0),Concat(0),SoftMax(0)},其中,括号前的内容为计算图节点的名称,括号中的内容是计算图节点的输入数据大小。若深度学习任务a包括的图节点有AddV2、Conv2D、MaxPool、MatMul以及SoftMax,且各个计算图节点对应的输入数据大小分别为:2000、4800、3200、4200、100,则将输入数据大小填入对应的计算图节点即可得到深度学习任务a的网络结构特征:{AddV2(2000),Conv2D(4800),MaxPool(3200),ReLU(0),MatMul(4200),AvgPool(0),Mul(0),Concat(0),SoftMax(100)};进一步地,考虑到在重复的计算图节点中对利用率预测影响较大的为具有最大输入数据大小的那个重复节点,因此当一个深度学习任务中出现了重复的计算图节点时,将重复的计算图节点中的最大的输入数据大小填入网络结构特征表中对应的计算图节点。例如:深度学习任务b包括3个重复的计算图节点Conv2D,输入数据大小分别为2400、2800、4800;其余的计算图节点为:AddV2、MaxPool、ReLU以及Concat,输入数据大小分别为2400、4800、1000、100,由于计算图节点Conv2D中的最大输入数据大小为4800,因此将4800填入网络结构特征表中的Conv2D处,则深度学习任务b对应的网络结构特征为:{AddV2(2400),Conv2D(4800),MaxPool(4800),ReLU(1000),MatMul(0),AvgPool(0),Mul(0),Concat(100),SoftMax(100)}。
执行特征包括批次大小、迭代次数、输入大小或者其组合,由于每个深度学习任务不同,因此批次大小、迭代次数以及输入大小所对应的数据也不相同,为使得利用率预测模型能根据不同深度学习任务的执行特征都进行对应的资源预测,根据本发明的一个实施例,预先根据执行特征构建一个执行特征表,在后续获取深度学习任务对应的执行特征时,将获取的数据填入执行特征表中对应的计算图节点即可,例如:预设的执行特征表为:{batchsize(0),iteration(0),input(0)},其中,括号前的内容分别为批次大小、迭代次数和输入大小,括号中的内容是对应的参数。若深度学习任务a的批次大小、迭代次数和输入大小的参数分别为32、2000以及1000,则深度学习任务a的执行特征表示为:{batchsize(32),iteration(2000),input(1000)}。
根据本发明的一个实施例,考虑到资源调度系统中具有多个工作节点,每个工作节点中拥有多个GPU,GPU会因其规格参数的不同导致其具备不同的算力,因此为便于后续为深度学习任务分配合适的GPU资源,在获取可用资源集时,除了统计工作节点中各个GPU具有的剩余资源,还需要统计各个GPU对应的算力,即在本申请实施例中,可用资源集包括多个工作节点中指定算力GPU的剩余资源。
步骤A2:基于利用率预测模型根据网络结构特征和执行特征对深度学习任务的资源利用率进行预测,得到资源利用率集;根据本发明的一个实施例,考虑到GPU的算力存在差异性,相同的深度学习任务在不同算力的GPU上的资源利用率是不一致的,因此,为合理的为深度学习任务分配相应的GPU资源,需对深度学习任务在所有算力的GPU上都进行预测,得到深度学习任务在所有算力GPU上的资源利用率,即在本申请实施例中,资源利用率集包括深度学习任务在多种指定算力GPU上的资源利用率。
根据本发明的一个实施例,利用率预测模型包括GPU计算资源利用率预测模型和存储资源使用率预测模型,其中,GPU计算资源利用率预测模型用于预测深度学习任务在多种指定算力GPU上的计算资源利用率,以便GPU为其分配相应的计算资源;存储资源使用率预测模型用于预测深度学习任务在多种指定算力GPU上的存储资源利用率,以便GPU为其分配相应的存储资源。根据本发明的一个实施例,GPU计算资源利用率预测模型和存储资源使用率预测模型除了标签不相同(GPU计算资源利用率预测模型的标签为:对训练样本中深度学习任务在该指定算力GPU上的计算资源利用率的指示;存储资源使用率预测模型的标签为:对训练样本中深度学习任务在该指定算力GPU上的存储资源利用率的指示),其余的训练样本、训练模型以及训练方式均一致,因此,以下以GPU计算资源利用率预测模型为例对两个模型的训练过程进行说明。根据本发明的一个实施例,GPU计算资源利用率预测模型按照以下方式训练得到:获取第一训练样本集,其包括多个训练样本,每个训练样本包括指定算力GPU对应的硬件特征、深度学习任务对应的网络结构特征、深度学习任务对应的执行特征以及标签,标签包括对训练样本中深度学习任务在该指定算力GPU上的计算资源利用率的指示;利用第一训练样本集训练利用率预测模型输出计算资源利用率集,根据输出的计算资源利用率集和对应标签计算的损失值更新GPU计算资源利用率预测模型的参数。根据本发明的一个实施例,GPU计算资源利用率预测模型基于多层感知机采用反向传播算法训练得到,代价函数设置均方误差或平均绝对值误差。根据本发明的一个实施例,训练样本中的硬件特征包括GPU的计算能力、GPU的显存大小以及GPU的计算核心数,可直接通过查看GPU的性能参数获取,为便于模型识别GPU的硬件特征,训练样本中的GPU的硬件特征按照预设格式表示,例如可表示为:{capability(),memory(),cores()},其中,括号前的内容分别表示为GPU的计算能力、GPU的显存大小(单位为吉字节(Giga Byte,GB))和GPU的计算核心数,括号中的内容为对应的性能参数,例如一GPU的硬件特征可表示为:{capability(7),memory(32),cores(2880)}。根据本发明的一个实施例,训练样本中的深度学习任务对应的网络结构特征由TensorFlow程序通过有向无环图(DAG)来描述,如图2所示,使用DAG节点结构作为深度学习任务的网络模型特征。考虑到每个深度学习任务不同,因此每个深度学习任务所涵盖的计算图节点以及对应的输入数据大小也不相同,为便于模型识别出网络结构特征,训练样本中的网络结构特征按照预设格式表示,例如可表示为:{AddV2(0),Conv2D(0),MaxPool(0),ReLU(0),MatMul(0),AvgPool(0),Mul(0),Concat(0),SoftMax(0)},其中,括号前的内容为计算图节点的名称,括号中的内容是计算图节点对应的输入数据大小。若深度学习任务a包括的计算图节点有AddV2、Conv2D、MaxPool、MatMul以及SoftMax,且各个计算图节点对应的输入数据大小分别为:2000、4800、3200、4200、100,则深度学习任务a的网络结构特征表示为:{AddV2(2000),Conv2D(4800),MaxPool(3200),ReLU(0),MatMul(4200),AvgPool(0),Mul(0),Concat(0),SoftMax(100)}。进一步地,考虑到网络结构特征中存在重复的计算图节点,而在重复的计算图节点中对利用率预测影响较大的为具有最大输入数据大小的那个重复节点,因此当一个深度学习任务中出现了重复的计算图节点时,将重复的计算图节点中的最大的输入数据大小填入网络结构特征表中对应的计算图节点。例如:深度学习任务b包括3个重复的计算图节点Conv2D,输入数据大小分别为2400、2800、4800;其余的计算图节点为:AddV2、MaxPool、ReLU以及Concat,输入数据大小分别为2400、4800、1000、100,由于计算图节点Conv2D中最大的输入数据大小为4800,因此将4800填入网络结构特征表中的Conv2D处,则深度学习任务b对应的网络结构特征为:{AddV2(2400),Conv2D(4800),MaxPool(4800),ReLU(1000),MatMul(0),AvgPool(0),Mul(0),Concat(100),SoftMax(100)}。根据本发明的一个实施例,执行特征包括批次大小、迭代次数以及输入大小,为便于模型识别执行特征,训练样本中的执行特征按照预设格式表示,例如可表示为:{batchsize(0),iteration(0),input(0)},其中,括号前的内容分别表示为批次大小、迭代次数和输入大小,括号中的内容为对应的参数。例如一深度学习任务a的批次大小、迭代次数和输入大小的参数分别为32、2000以及1000,则深度学习任务a的执行特征表示为:{batchsize(32),iteration(2000),input(1000)}。综上,在本发明的一个实施例中,每个训练样本由网络结构特征、执行特征以及GPU硬件特征三个维度的数据表示,即训练样本表示为:
P={i_dag,i_exec,i_gpu};
其中,idag,iexec,igpu分别表示网络计算图特征,执行特征和硬件特征的关键信息。例如:一训练样本的网络计算图特征表示为:i_dag={AddV2(2000),Conv2D(4800),MaxPool(3200),ReLU(1000),MatMul(4200),AvgPool(0),Mul(0),Concat(100),SoftMax(100)};执行特征表示为:idag={batchsize(32),iteration(2000),input(1000)};硬件特征表示为igpu={capability(7),memory(32),cores(2880)},则P表示为:P={AddV2(2000),Conv2D(4800),MaxPool(3200),ReLU(1000),MatMul(4200),AvgPool(0),Mul(0),Concat(100),SoftMax(100),batchsize(32),iteration(2000),input(1000),capability(7),memory(32),cores(2880)}。
其中,值得说明的是,网络计算图特征中各个计算图节点的顺序、执行特征中各个特征的顺序、硬件特征中各个特征的顺序以及训练样本中各个参数的顺序仅为一个适应性说明,实施者可以根据实际应用的具体情况作出相应的调整,本发明对此不作任何限制。
步骤A3:基于资源利用率集从可用资源集中确定满足深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从满足深度学习任务的资源需求的所有工作节点中选择一个工作节点为深度学习任务分配资源;
由于可用资源集中包含了各工作节点中各个GPU的剩余资源,资源利用率集中包含了深度学习任务在各种算力GPU上的资源利用率,因此在用深度学习任务在各种算力GPU上的资源利用率去匹配满足相应资源需求的工作节点时会存在匹配出多个工作节点的情况,而在为深度学习任务分配资源时,只需要一个工作节点为其分配GPU资源,因此还需要根据预定的选择规则从满足深度学习任务的资源需求的所有工作节点中选择一个工作节点为深度学习任务分配资源。考虑到后续可以根据深度学习任务的执行情况增加分配给深度学习任务的GPU资源,根据本发明的一个实施例,预定的选择规则设置为:从满足深度学习任务的资源需求的所有工作节点中选择具有最多的GPU剩余资源的工作节点为深度学习任务分配资源。例如,深度学习任务d对应的资源利用率集为:{A1算力GPU的40%资源、A2算力GPU的50%资源、A3算力GPU的70%资源},可用资源集为:{工作节点a(A1算力GPU的剩余资源90%、A1算力GPU的剩余资源100%、A1算力GPU的剩余资源30%)、工作节点b(A1算力GPU的剩余资源90%、A2算力GPU的剩余资源40%、A3算力GPU的剩余资源80%)、工作节点c(A1算力GPU的剩余资源10%、A2算力GPU的剩余资源20%、A3算力GPU的剩余资源50%)},由此可知,工作节点a和工作节点b均能分配相应的GPU资源给深度学习任务d,但是由于工作节点a中有一个A1算力GPU的剩余资源为100%,多于工作节点b中A1算力GPU的剩余资源和A3算力GPU的剩余资源,因此为便于后续根据深度学习任务d的执行情况增加分配给深度学习任务d的GPU资源,将深度学习任务d发送至工作节点a。此外,若多个工作节点中用于为深度学习任务分配资源的GPU的剩余资源相同,则随机选择一个工作节点分配深度学习任务或者按照工作节点在资源调度系统中的分布顺序进行分配。例如,深度学习任务e对应的资源利用率集为:{A1算力GPU的30%资源、A2算力GPU的50%资源、A3算力GPU的90%资源},可用资源集为:{工作节点a(A1算力GPU的剩余资源0%、A1算力GPU的剩余资源20%、A1算力GPU的剩余资源80%)、工作节点b(A1算力GPU的剩余资源0%、A1算力GPU的剩余资源30%、A3算力GPU的剩余资源80%)、工作节点c(A1算力GPU的剩余资源20%、A2算力GPU的剩余资源80%、A3算力GPU的剩余资源80%)},由此可知,三个工作节点均能为深度学习任务分配GPU资源且能为深度学习任务分配GPU资源的GPU具有的最大剩余资源相同,均为80%,因此将深度学习任务随机分配给其中的一个工作节点,或者根据工作节点在资源调度系统中的分布顺序将深度学习任务分配给工作节点a。
其中,值的说明的是,本方案中的选择规则并不唯一,本申请实施例只是一个示意性说明,实施者可以根据实际应用的具体情况作出相应的调整,例如,可以基于预定的评分规则对满足深度学习任务的资源需求的所有工作节点进行评分,从所有的工作节点中选择评分最高的工作节点为深度学习任务分配资源,本发明对此不作任何限制。
根据本发明的一个实施例,若在分配过程中出现当前所有的工作节点均不能满足深度学习任务的资源需求且深度学习任务为延时敏感任务时,则判断是否存在可释放资源且可释放资源不少于分配给深度学习任务资源的工作节点,若是,释放可释放资源并将深度学习任务分配给该工作节点;若否,将深度学习任务存放至延时敏感任务等待队列,其中,可释放资源为分配给非延时敏感任务的资源。由于延时敏感任务对时效性要求较高,不能容忍长时间的延迟,而非延时敏感任务对时效无要求,不需要保障其执行速度,因此在没有GPU资源分配给延时敏感任务时,通过检查是否有非延时敏感任务占用GPU资源,并在有非延时敏感任务占用GPU资源释放其资源,使得将资源优先供给延时敏感任务以提升延时敏感任务的服务质量。例如:深度学习任务f对应的资源利用率集为:{A1算力GPU的35%资源、A2算力GPU的45%资源、A3算力GPU的65%资源},可用资源集为:{工作节点a(A1算力GPU的剩余资源0%、A1算力GPU的剩余资源0%、A1算力GPU的剩余资源0%)、工作节点b(A1算力GPU的剩余资源0%、A1算力GPU的剩余资源30%、A3算力GPU的剩余资源50%)、工作节点c(A1算力GPU的剩余资源20%、A2算力GPU的剩余资源20%、A3算力GPU的剩余资源40%)},由此可知,工作节点a、工作节点b以及工作节点c均不能分配相应的资源给深度学习任务c,但是工作节点c中A1算力GPU分配有40%的资源给非延时敏感任务,在回收给分配给非延时敏感任务的资源后,工作节点c中A1算力GPU的可用资源变为60%,因此可以在回收分配给非延时敏感任务的资源后,将深度学习任务发送至工作节点c。根据本发明的一个实施例,若在当前所有的工作节点均不能满足深度学习任务的资源需求且深度学习任务为非延时敏感任务时,则将深度学习任务存放至控制节点中的非延时敏感任务等待队列,待有空闲资源时再被重新调度。
步骤A4:将深度学习任务及其资源需求发送给所选择的工作节点,资源需求指示深度学习任务在多种指定算力GPU上的资源利用率。
进一步地,考虑到在单个GPU上并发执行多个服务会增加单一任务的延时,影响任务的执行。而在深度学习任务中,很多延时敏感任务都有服务质量的要求,其对时效性要求较高,不能容忍长时间的延迟,因此在资源分配中,不仅需要考虑任务的资源利用率,还需要满足任务的服务质量,根据本发明的一个实施例,为监控延时敏感任务的服务质量,还对延时敏感任务的执行时间进行了预测,以便后续根据延时敏感任务的执行时间来增加分配给延时敏感任务的GPU资源,防止因GPU资源分配不足而带来的低服务质量问题。根据本发明的一个实施例,基于执行时间预测模型根据延时敏感任务对应的网络结构特征、延时敏感任务对应的执行特征、延时敏感任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对延时敏感任务在指定算力GPU上的执行时间进行预测,得到预测执行时间集,并将预测执行时间集传输至为延时敏感任务分配资源的工作节点,预测执行时间集包括延时敏感任务在多种指定算力GPU上的预测执行时间。根据本发明的一个实施例,执行时间预测模型按照以下方式训练得到:获取第二训练样本集;其包括多个训练样本,每个训练样本包括指定算力GPU对应的硬件特征、延时敏感任务对应的网络结构特征、延时敏感任务对应的执行特征、延时敏感任务在指定算力GPU上对应的资源利用率以及标签,标签包括对训练样本中延时敏感任务在该指定算力GPU上的执行时间的指示;利用第二训练样本集训练执行时间预测模型输出预测执行时间,根据输出的预测执行时间和对应标签计算的损失值更新执行时间预测模型的参数。其中,GPU对应的硬件特征、延时敏感任务对应的网络结构特征以及延时敏感任务对应的执行特征的处理方式参见利用率预测模型,因此本申请实施例不在对其进行阐述。
(二)工作节点的改进
根据本发明的一个实施例,本发明提供一种用于深度学习任务的GPU资源分配方法,应用于多租户容器云平台的资源调度系统,资源调度系统包括一个控制节点及多个工作节点,每个工作节点包括多个GPU,方法包括在每个工作节点执行如图3所示的步骤B1和步骤B2。为了更好地理解本发明,下面结合具体的实施例针对每一个步骤分别进行详细说明。
步骤B1:接收控制节点按照前述实施例的方法发送给当前工作节点的深度学习任务及其资源需求,其中,资源需求指示深度学习任务在多种指定算力GPU上的资源利用率;
步骤B2:基于当前工作节点中多个GPU的剩余资源和资源需求为深度学习任务分配GPU及对应的GPU资源。
由于单个工作节点中具有多个GPU,每个GPU的算力及剩余资源并不相同,因此工作节点还需根据GPU的剩余资源为深度学习任务分配对应的GPU及GPU资源。例如,深度学习任务g所需的资源为:A1算力GPU的20%资源,而工作节点具有4个A1算力GPU,每个GPU的剩余资源分别为:50%、10%、0%、0%。则工作节点则需将深度学习任务g分配给具有50%剩余资源的GPU,并分配20%的资源给深度学习任务g,从而实现资源的合理分配。其中,当当前工作节点中存在多个GPU可以为深度学习任务分配资源时,为便于后续可动态的调整分配给延时敏感任务的资源量,优选地,将深度学习任务分配至具有最多剩余资源的GPU中,例如:深度学习任务所需的资源为:A1算力GPU的30%资源,而工作节点具有4个A1算力GPU,每个GPU的剩余资源分别为:80%、40%、100%、10%。则工作节点将深度学习任务分配给具有100%剩余资源的GPU,并分配30%的资源给深度学习任务。
根据本发明的一个实施例,为了保证有足够多的GPU资源可以分配给延时敏感任务,也为了减少延时敏感任务在延时敏感等待队列的等待时间,保证延时敏感任务的执行效率,当深度学习任务为非延时敏感任务时,将深度学习任务分配至具有最短执行时间的GPU中。其中,执行时间基于执行时间预测模型根据非延时敏感任务对应的网络结构特征、非延时敏感任务对应的执行特征、非延时敏感任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征进行预测。由于本申请实施例中的执行时间预测模型与控制节点中的执行时间预测模型相同,因此,相关训练或处理过程参见控制节点对执行时间预测模型的训练或处理过程即可,本申请实施例不再对其进行阐述。
考虑到在深度学习任务中,很多延时敏感任务都有服务质量的要求,因此为满足延时敏感任务的服务质量要求,还需要对延时敏感任务的执行情况是否满足预设服务质量进行监控。根据本发明的一个实施例,监控深度学习任务的执行情况是否满足预设服务质量包括:
获取延时敏感任务的已执行时间以及执行进度;
根据执行进度更新延时敏感任务对应的执行特征以及网络结构特征;
例如,一延时敏感任务的总迭代次数为100次,即iteration(100),执行一段时间后,该延时敏感任务已经执行了60次,还剩余40次未执行,则更新对应的迭代次数即可,即将iteration(100)更新iteration(40)。其中,值得说明的是,根据执行进度更新延时敏感任务对应的执行特征以及网络结构特征为现有技术,本申请不涉及对其的改进,因此不再对其具体的更新过程及原理做过多的阐述。
基于执行时间预测模型根据深度学习任务在指定算力GPU上对应的资源利用率、指定算力GPU对应的硬件特征、更新后的执行特征以及网络结构特征预测深度学习任务的剩余执行时间;
在已执行时间和剩余执行时间之和大于预设执行时间时,判断延时敏感任务的执行情况未满足预设服务质量。根据本发明的一个实施例,预设执行时间为控制节点发送的深度学习任务在当前GPU上的预测执行时间。
例如,延时敏感任务的预设执行时间为2min,此时任务已经执行了1min30s,执行时间预测模型根据当前的执行状况预测还有1min方能执行完毕,即:在当前执行情况下,该任务的实际执行实际为2min30s,超过了预设执行时间2min,说明任务的执行状态不正常,未满足预设服务质量,需要增加分配给该任务的资源,从而来缩短未执行时间以达到预设服务质。其中,值得说明的是,在增加分配给该任务的资源时,可以通过预先设置增长步长来实现资源的增加,例如预设增长步长为10%,则在未满足预设服务质量,从当前的GPU中再分配10%的GPU资源给任务,若增加10%的GPU资源后,还是未满足预设服务质量,则从当前的GPU中再分配10%的GPU资源给任务,直至当前的GPU无剩余资源可分配给该任务。根据本发明的一个实施例,若在增加分配给深度学习任务的资源时出现GPU资源不足,则减少对该GPU上的非延时敏感任务的资源分配,由于非延时敏感任务可以容忍较长的延时,因此可以通过释放非延时敏感任务的资源以使得有更多的资源分配给延时敏感人物;若在增加分配给深度学习任务的资源后,出现非延时敏感任务的执行资源不足时,则保存非延时敏感任务的执行状态并结束非延时敏感任务的执行,并将非延时敏感任务放入非敏感等待队列,等到当前的GPU有空余的GPU资源时,再重新调度非延时敏感任务进行执行。根据本发明的一个实施例,在监控到深度学习任务的执行情况满足预设服务质量时,查询深度学习任务在当前GPU上的资源利用率,若资源利用率超过控制节点发送的深度学习任务在当前GPU上的预测资源利用率时,暂停深度学习任务在当前GPU上的执行,待资源利用率下降至预测资源利用率时,重新在当前GPU上执行所述深度学习任务。
(三)资源调度系统
根据本发明的一个实施例,本发明提供一种基于Kubernetes平台的资源调度系统,如图4所示,包括:
控制节点,被配置为按照(一)控制节点的改进中对应实施例的方法向工作节点传输深度学习任务及其资源需求,资源需求指示深度学习任务在多种指定算力GPU上的资源利用率;
多个工作节点,每个工作节点被配置为根据(二)工作节点的改进中对应实施例的方法为深度学习任务分配GPU及对应的GPU资源。
根据本发明的一个实施例,控制节点包括:
第一预测单元,用于基于利用率预测模型根据网络结构特征和执行特征对深度学习任务的资源利用率进行预测,得到资源利用率集,资源利用率集包括深度学习任务在多种指定算力GPU上的资源利用率;
第一调度单元,用于基于资源利用率集从可用资源集中确定满足深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从满足深度学习任务的资源需求的所有工作节点中选择一个工作节点为深度学习任务分配资源,并将深度学习任务及其资源需求发送给所选择的工作节点,资源需求指示深度学习任务在多种指定算力GPU上的资源利用率。
根据本发明的一个实施例,控制节点还包括:
延时敏感任务等待队列,用于在当前所有的工作节点均不能满足延时敏感任务的资源需求时存放所述延时敏感任务;
非延时敏感任务等待队列,用于当前所有的工作节点均不能满足非延时敏感任务的资源需求时存放非延时敏感任务;
其中,在延时敏感任务等待队列不为空时,优先为敏感任务等待队列中的延时敏感任务分配GPU资源。
根据本发明的一个实施例,第一预测单元还用于:
基于执行时间预测模型根据深度学习任务对应的网络结构特征、深度学习任务对应的执行特征、深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对深度学习任务在指定算力GPU上的执行时间进行预测,得到用于检测非延时敏感任务的执行情况是否满足预设服务质量的预测执行时间集。
根据本发明的一个实施例,工作节点包括:
拓扑感知单元,用于获取当前工作节点中多个GPU的剩余资源;
第二预测单元,用于基于执行时间预测模型根据非延时敏感任务对应的网络结构特征、非延时敏感任务对应的执行特征、非延时敏感任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对非延时敏感任务在指定算力GPU上的执行时间进行预测,得到非延时敏感任务在多种指定算力GPU上的执行时间;
第二调度单元,用于基于当前工作节点中多个GPU的剩余资源和资源需求为深度学习任务分配GPU及对应的GPU资源;还用于根据非延时敏感任务在多种指定算力GPU上的执行时间为非延时敏感任务分配具有最短执行时间的GPU。
根据本发明的一个实施例,工作节点还包括:
弹性调整单元,用于监控延时敏感任务的执行情况是否满足预设服务质量,并在延时敏感任务的执行情况未满足预设服务质量时,增加当前GPU分配给所述深度学习任务的GPU资源;若在增加分配给所述深度学习任务的资源时出现GPU资源不足,减少对当前GPU上的非延时敏感任务的资源分配;若增加分配给所述深度学习任务的GPU资源后,出现非延时敏感任务的执行资源不足,保存所述非延时敏感任务的执行状态并结束所述非延时敏感任务的执行;
资源限制单元,用于在延时敏感任务的执行情况满足预设服务质量时,查询延时敏感任务在当前GPU上的资源利用率,若所述延时敏感任务在当前GPU上的资源利用率超过所述控制节点发送的所述延时敏感任务在当前GPU上的预测资源利用率时,暂停所述延时敏感任务在当前GPU上的执行,待所述资源利用率下降至所述预测资源利用率时,重新在当前GPU上执行所述延时敏感任务。
现有技术中由用户指定任务在GPU中的使用份额,忽略了任务本身的特征,存在资源过度分配导致GPU资源无法得到充分利用的问题,基于此,为克服上述技术问题,本申请实施例通过对深度学习任务的资源需求量进行预测,从而根据预测的资源需求量来对容器云集群中的GPU资源进行合理分配,实现了针对不同任务的特征合理分配GPU资源,用户不必指定任务需要使用的资源,避免了资源过度分配的问题,在实现容器云集群中的GPU资源共享的同时,提升了容器云集群中的GPU利用率。除此之外,还通过执行时间预测模块对任务的执行时间进行预测,从而可以实时监控延时敏感任务的执行状态并根据执行状态对延时敏感任务的资源分配进行及时的调整,保证了用户提交任务的服务质量。
需要说明的是,虽然上文按照特定顺序描述了各个步骤,但是并不意味着必须按照上述特定顺序来执行各个步骤,实际上,这些步骤中的一些可以并发执行,甚至改变顺序,只要能够实现所需要的功能即可。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序控制指令。
计算机可读存储介质可以是保持和存储由控制指令执行设备使用的控制指令的有形设备。计算机可读存储介质例如可以包括但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有控制指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (22)
1.一种用于深度学习任务的GPU资源分配方法,应用于多租户容器云平台的资源调度系统,所述资源调度系统包括一个控制节点、多个工作节点,其特征在于,所述方法包括在控制节点执行如下步骤:
获取深度学习任务对应的网络结构特征、深度学习任务对应的执行特征以及可用资源集,所述可用资源集包括多个工作节点中指定算力GPU的剩余资源;
基于利用率预测模型根据所述网络结构特征和所述执行特征对所述深度学习任务的资源利用率进行预测,得到资源利用率集,所述资源利用率集包括所述深度学习任务在多种指定算力GPU上的资源利用率;
基于所述资源利用率集从所述可用资源集中确定满足所述深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从满足所述深度学习任务的资源需求的所有工作节点中选择一个工作节点为所述深度学习任务分配资源;
将所述深度学习任务及其资源需求发送给所选择的工作节点,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率。
2.根据权利要求1所述的方法,其特征在于,预定的选择规则是从满足所述深度学习任务的资源需求的所有工作节点中选择具有最多的GPU剩余资源的工作节点为所述深度学习任务分配资源。
3.根据权利要求1所述的方法,其特征在于,所述利用率预测模型按照以下方式训练得到:
获取第一训练样本集,其包括多个训练样本,每个训练样本包括指定算力GPU对应的硬件特征、深度学习任务对应的网络结构特征、深度学习任务对应的执行特征以及标签,所述标签包括对训练样本中深度学习任务在该指定算力GPU上的资源利用率的指示;
利用所述第一训练样本集训练所述利用率预测模型输出资源利用率集,根据输出的资源利用率集和对应标签计算的损失值更新所述利用率预测模型的参数。
4.根据权利要求3所述的方法,其特征在于,所述深度学习任务对应的网络结构特征包括其中各种图节点对应的输入数据大小,当所述网络计算图特征中存在重复的计算图节点时,从重复的计算图节点中选取具有最大的所述输入数据大小的计算图节点作为训练样本中所述重复的计算图节点对应的输入数据大小。
5.根据权利要求3所述的方法,其特征在于,所述执行特征包括批次大小、迭代次数、输入大小或者其组合。
6.根据权利要求1-5之一所述的方法,其特征在于,所述方法还包括:
在当前所有的工作节点均不能满足所述深度学习任务的资源需求且所述深度学习任务为延时敏感任务时,判断是否存在可释放资源且可释放资源不少于分配给所述深度学习任务资源的工作节点,
若是,释放所述可释放资源并将所述深度学习任务分配给该工作节点;
若否,将所述深度学习任务存放至延时敏感任务等待队列,所述可释放资源为分配给非延时敏感任务的资源。
7.根据权利要求1-5之一所述的方法,其特征在于,所述方法还包括:
在当前所有的工作节点均不能满足所述深度学习任务的资源需求且所述深度学习任务为非延时敏感任务时,将所述深度学习任务存放至非延时敏感任务等待队列。
8.根据权利要求6所述的方法,其特征在于,所述方法还包括:
基于执行时间预测模型根据所述深度学习任务对应的网络结构特征、所述深度学习任务对应的执行特征、所述深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对所述深度学习任务在指定算力GPU上的执行时间进行预测,得到用于检测非延时敏感任务的执行情况是否满足预设服务质量的预测执行时间集,并将所述预测执行时间集传输至为所述深度学习任务分配资源的工作节点,所述预测执行时间集包括所述深度学习任务在多种指定算力GPU上的预测执行时间。
9.根据权利要求8所述的方法,其特征在于,所述执行时间预测模型按照以下方式训练得到:
获取第二训练样本集;其包括多个训练样本,每个训练样本包括指定算力GPU对应的硬件特征、深度学习任务对应的网络结构特征、深度学习任务对应的执行特征、深度学习任务在指定算力GPU上对应的资源利用率以及标签,所述标签包括对训练样本中深度学习任务在该指定算力GPU上的执行时间的指示;
利用所述第二训练样本集训练所述执行时间预测模型输出预测执行时间,根据输出的预测执行时间和对应标签计算的损失值更新所述执行时间预测模型的参数。
10.一种用于深度学习任务的GPU资源分配方法,应用于多租户容器云平台的资源调度系统,所述资源调度系统包括一个控制节点、多个工作节点,每个工作节点包括多个GPU,其特征在于,所述方法包括在每个工作节点执行如下步骤:
接收控制节点按照如权利要求1-9中任意一项所述的方法发送给当前工作节点的深度学习任务及其资源需求,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率;
基于当前工作节点中多个GPU的剩余资源和所述资源需求为所述深度学习任务分配GPU及对应的GPU资源。
11.根据权利要求10所述的方法,其特征在于,当所述深度学习任务为延时敏感任务时,将所述深度学习任务分配至具有最多剩余资源的GPU中。
12.根据权利要求10所述的方法,其特征在于,当所述深度学习任务为非延时敏感任务时,将所述深度学习任务分配至具有最短执行时间的GPU中,其中,执行时间基于执行时间预测模型根据所述深度学习任务对应的网络结构特征、所述深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征进行预测。
13.根据权利要求10所述的方法,其特征在于,所述方法还包括:
当所述深度学习任务为延时敏感任务时,从控制节点发送的预测执行时间集中获取所述深度学习任务在当前GPU上的预测执行时间,基于所述预测执行时间监控所述深度学习任务的执行情况是否满足预设服务质量。
14.根据权利要求13所述的方法,其特征在于,所述监控所述深度学习任务的执行情况是否满足预设服务质量包括:
获取所述深度学习任务的已执行时间以及执行进度;
根据所述执行进度更新所述深度学习任务对应的执行特征以及网络结构特征;
基于所述执行时间预测模型根据所述深度学习任务在指定算力GPU上对应的资源利用率、指定算力GPU对应的硬件特征、更新后的执行特征以及网络结构特征预测所述深度学习任务的剩余执行时间;
在所述已执行时间和所述剩余执行时间之和大于预设执行时间时,判断所述延时敏感任务的执行情况未满足所述预设服务质量。
15.根据权利要求13所述的方法,其特征在于,在监控到所述深度学习任务的执行情况未满足预设服务质量时,增加当前GPU分配给所述深度学习任务的GPU资源;若在增加分配给所述深度学习任务的资源时出现GPU资源不足,减少对当前GPU上的非延时敏感任务的资源分配;若增加分配给所述深度学习任务的GPU资源后,出现非延时敏感任务的执行资源不足,保存所述非延时敏感任务的执行状态并结束所述非延时敏感任务的执行。
16.根据权利要求13所述的方法,其特征在于,所述方法还包括:
在监控到所述深度学习任务的执行情况满足预设服务质量时,查询所述深度学习任务在当前GPU上的资源利用率,若所述资源利用率超过所述控制节点发送的所述深度学习任务在当前GPU上的预测资源利用率时,暂停所述深度学习任务在当前GPU上的执行,待所述资源利用率下降至所述预测资源利用率时,重新在当前GPU上执行所述深度学习任务。
17.一种支持GPU共享的资源调度系统,其特征在于,包括:
控制节点,被配置为按照如权利要求1-9中任意一项所述的方法向工作节点传输深度学习任务及其资源需求,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率;
多个工作节点,每个工作节点被配置为根据如权利要求10-16中任意一项所述的方法为所述深度学习任务分配GPU及对应的GPU资源。
18.根据权利要求17所述的资源调度系统,其特征在于,所述控制节点包括:
第一预测单元,用于基于利用率预测模型根据所述网络结构特征和所述执行特征对所述深度学习任务的资源利用率进行预测,得到资源利用率集,所述资源利用率集包括所述深度学习任务在多种指定算力GPU上的资源利用率;
第一调度单元,用于基于所述资源利用率集从所述可用资源集中确定满足所述深度学习任务的资源需求的所有工作节点并且根据预定的选择规则从满足所述深度学习任务的资源需求的所有工作节点中选择一个工作节点为所述深度学习任务分配资源,并将所述深度学习任务及其资源需求发送给所选择的工作节点,所述资源需求指示所述深度学习任务在多种指定算力GPU上的资源利用率。
19.根据权利要求18所述的资源调度系统,其特征在于,所述控制节点还包括:
延时敏感任务等待队列,用于在当前所有的工作节点均不能满足延时敏感任务的资源需求时存放所述延时敏感任务;
非延时敏感任务等待队列,用于当前所有的工作节点均不能满足非延时敏感任务的资源需求时存放所述非延时敏感任务;
其中,在延时敏感任务等待队列不为空时,优先为敏感任务等待队列中的延时敏感任务分配GPU资源。
20.根据权利要求18所述的资源调度系统,其特征在于,所述第一预测单元还用于基于执行时间预测模型根据所述深度学习任务对应的网络结构特征、所述深度学习任务对应的执行特征、所述深度学习任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对所述深度学习任务在指定算力GPU上的执行时间进行预测,得到用于检测非延时敏感任务的执行情况是否满足预设服务质量的预测执行时间集。
21.根据权利要求17所述的资源调度系统,其特征在于,所述工作节点包括:
拓扑感知单元,用于获取当前工作节点中多个GPU的剩余资源;
第二预测单元,用于基于执行时间预测模型根据非延时敏感任务对应的网络结构特征、非延时敏感任务对应的执行特征、非延时敏感任务在指定算力GPU上对应的资源利用率以及指定算力GPU对应的硬件特征对非延时敏感任务在指定算力GPU上的执行时间进行预测,得到非延时敏感任务在多种指定算力GPU上的执行时间;
第二调度单元,用于基于当前工作节点中多个GPU的剩余资源和所述资源需求为所述深度学习任务分配GPU及对应的GPU资源;还用于根据非延时敏感任务在多种指定算力GPU上的执行时间为所述非延时敏感任务分配具有最短执行时间的GPU。
22.根据权利要求21所述的资源调度系统,其特征在于,所述工作节点还包括:
弹性调整单元,用于监控延时敏感任务的执行情况是否满足预设服务质量,并在延时敏感任务的执行情况未满足预设服务质量时,增加当前GPU分配给所述深度学习任务的GPU资源;若在增加分配给所述深度学习任务的资源时出现GPU资源不足,减少对当前GPU上的非延时敏感任务的资源分配;若增加分配给所述深度学习任务的GPU资源后,出现非延时敏感任务的执行资源不足,保存所述非延时敏感任务的执行状态并结束所述非延时敏感任务的执行;
资源限制单元,用于在延时敏感任务的执行情况满足预设服务质量时,查询延时敏感任务在当前GPU上的资源利用率,若所述延时敏感任务在当前GPU上的资源利用率超过所述控制节点发送的所述延时敏感任务在当前GPU上的预测资源利用率时,暂停所述延时敏感任务在当前GPU上的执行,待所述资源利用率下降至所述预测资源利用率时,重新在当前GPU上执行所述延时敏感任务。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210617292.8A CN114896070A (zh) | 2022-06-01 | 2022-06-01 | 一种用于深度学习任务的gpu资源分配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210617292.8A CN114896070A (zh) | 2022-06-01 | 2022-06-01 | 一种用于深度学习任务的gpu资源分配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114896070A true CN114896070A (zh) | 2022-08-12 |
Family
ID=82726913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210617292.8A Pending CN114896070A (zh) | 2022-06-01 | 2022-06-01 | 一种用于深度学习任务的gpu资源分配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114896070A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024066330A1 (zh) * | 2022-09-27 | 2024-04-04 | 中兴通讯股份有限公司 | Gpu资源调度方法、服务器及存储介质 |
-
2022
- 2022-06-01 CN CN202210617292.8A patent/CN114896070A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024066330A1 (zh) * | 2022-09-27 | 2024-04-04 | 中兴通讯股份有限公司 | Gpu资源调度方法、服务器及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115269717B (zh) | 存储设备、分布式存储系统以及数据处理方法 | |
CN107239336B (zh) | 一种实现任务调度的方法及装置 | |
CN105718479B (zh) | 跨idc大数据处理架构下执行策略生成方法、装置 | |
US20200174844A1 (en) | System and method for resource partitioning in distributed computing | |
CN109788046B (zh) | 一种基于改进蜂群算法的多策略边缘计算资源调度方法 | |
KR101471749B1 (ko) | 클라우드 서비스의 가상자원 할당을 위한 퍼지 로직 기반의 자원평가 장치 및 방법 | |
CN113342477A (zh) | 一种容器组部署方法、装置、设备及存储介质 | |
CN115629865B (zh) | 一种基于边缘计算的深度学习推理任务调度方法 | |
JP2022539955A (ja) | タスクスケジューリング方法及び装置 | |
CN114205317B (zh) | 基于sdn与nfv的服务功能链sfc资源分配方法及电子设备 | |
CN113946431A (zh) | 一种资源调度方法、系统、介质及计算设备 | |
CN112148454A (zh) | 一种支持串行和并行的边缘计算方法及电子设备 | |
CN115580882A (zh) | 动态网络切片资源分配方法及装置、存储介质及电子设备 | |
CN116467082A (zh) | 一种基于大数据的资源分配方法及系统 | |
CN106502790A (zh) | 一种基于数据分布的任务分配优化方法 | |
CN114896070A (zh) | 一种用于深度学习任务的gpu资源分配方法 | |
KR20240105337A (ko) | 클러스터 컴퓨팅 시스템에서의 리소스 할당 방법 및 장치 | |
CN113448714B (zh) | 基于云平台的计算资源控制系统 | |
KR101595967B1 (ko) | 데드라인 부여된 작업의 분산 처리 성능 향상을 위한 맵리듀스 스케쥴링 시스템 및 방법 | |
CN102184124B (zh) | 任务调度方法及系统 | |
CN116915869A (zh) | 基于云边协同的时延敏感型智能服务快速响应方法 | |
CN117407160A (zh) | 一种边缘计算场景下在线任务和离线任务的混合部署方法 | |
CN110928649A (zh) | 资源调度的方法和装置 | |
CN116610422A (zh) | 一种任务调度方法、装置和系统 | |
KR101639947B1 (ko) | 하둡 선점 데드라인 제약 스케줄링 방법 및 그 방법을 수행하는 컴퓨터프로그램과, 그 프로그램이 기록된 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |