CN113867959A - 一种训练任务资源调度方法、装置、设备及介质 - Google Patents
一种训练任务资源调度方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN113867959A CN113867959A CN202111150775.3A CN202111150775A CN113867959A CN 113867959 A CN113867959 A CN 113867959A CN 202111150775 A CN202111150775 A CN 202111150775A CN 113867959 A CN113867959 A CN 113867959A
- Authority
- CN
- China
- Prior art keywords
- resources
- training task
- new
- server
- resource
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012549 training Methods 0.000 title claims abstract description 355
- 238000000034 method Methods 0.000 title claims abstract description 178
- 238000012216 screening Methods 0.000 claims abstract description 38
- 230000008569 process Effects 0.000 claims description 101
- 238000013468 resource allocation Methods 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 8
- 238000012544 monitoring process Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000008602 contraction Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 5
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5022—Mechanisms to release resources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
- G06F9/5072—Grid computing
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Debugging And Monitoring (AREA)
Abstract
本申请公开了一种训练任务资源调度方法、装置、设备及介质,该方法包括:确定服务器集群中正在运行的目标训练任务的已分配资源利用率;若已分配资源利用率满足预设条件,则根据当前服务器集群中的空闲资源对服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为目标训练任务分配新资源,以得到扩容后训练任务;当获取新训练任务,并且当前服务器集群中的空闲资源不满足新训练任务的资源需求时,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。通过上述方案,能够提升服务器集群的训练任务资源伸缩效率。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种训练任务资源调度方法、装置、设备及介质。
背景技术
在基于服务器集群的AI(即Artificial Intelligence,人工智能)训练场景中,一个模型训练所需要的具体资源由于无法被预先准确计算出来,所以目前算法人员在申请训练任务使用的CPU(即Central Processing Unit,中央处理器)和GPU(即GraphicsProcessing Unit,图形处理器)时,通常都会按照个人主观判断申请或者按照最大规格来申请,这可能会导致训练任务资源不充分或者资源浪费。对于已经在运行的训练任务Job来说,如果该训练任务Job的已分配资源利用率已经很高,此时会出现由于训练任务Job的预分配资源不足致使无法提高训练性能、而集群中却存在资源闲置情况的问题。
为了克服上述问题,当前可以采取以下两种方式来对训练任务Job进行资源伸缩,以达到为训练任务Job进行资源扩容或缩容的目的,其中,一种方式是采用Horovod训练框架为训练任务提供的弹性资源伸缩机制,但是在使用这种方式时需要用户进行手动处理,从而降低了资源伸缩效率;而另外一种方式则是基于checkpoint来进行训练任务的资源弹性扩容,不过这种方式需要先终止训练任务Job中的所有任务运行进程task,并进行task的重建,整个过程消耗时间过多,由此也降低了资源伸缩效率。
综上,如何提升服务器集群的训练任务资源伸缩效率是目前有待解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种训练任务资源调度方法、装置、设备及介质,能够提升服务器集群的训练任务资源伸缩效率。其具体方案如下:
第一方面,本申请公开了一种训练任务资源调度方法,包括:
确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;所述目标训练任务为所述分布式训练任务中的任一训练任务;
若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,以得到扩容后训练任务;
当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;
若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
可选的,所述确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率,包括:
确定当前所述服务器集群中正在运行的目标训练任务的已分配GPU利用率;
相应的,所述若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,包括:
若所述已分配GPU利用率不小于第一预设阈值,并且所述服务器集群中的空闲GPU资源数量不小于第一预设GPU资源数量,则对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中根据所述第一预设GPU资源数量和预设CPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
可选的,所述确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率,包括:
确定当前所述服务器集群中正在运行的目标训练任务的已分配GPU利用率和已分配CPU利用率;
相应的,所述若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,包括:
若所述已分配GPU利用率小于第一预设阈值,并且所述已分配CPU利用率不小于第二预设阈值,则确定当前所述目标训练任务所需的新CPU资源数量,并判断当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量是否不小于所述新CPU资源数量;
如果所述空闲CPU资源数量不小于所述新CPU资源数量,则从所述服务器集群中筛选出当前运行所述目标训练任务的服务器节点,并在筛选到的服务器节点中为所述目标训练任务的已创建任务运行进程分配与所述新CPU资源数量相一致的新CPU资源;
如果所述空闲CPU资源数量小于所述新CPU资源数量,则根据当前所述服务器集群中其他服务器节点的空闲资源,对所述其他服务器节点进行筛选,并在筛选到的服务器节点中根据所述新CPU资源数量以及第二预设GPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
可选的,所述从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放,包括:
确定每个所述服务器节点中包含的新资源总数;
确定每个所述服务器节点中与所述新资源相关的训练任务总数,以得到关联任务总数;
基于所述服务器节点中的所述新资源总数和所述关联任务总数,确定出所述服务器集群中每个所述服务器节点的优先级;
基于所述服务器节点的优先级从所述服务器集群中确定出目标服务器,并对所述目标服务器节点中的所述新资源进行释放,以使释放后的所述服务器集群中的空闲资源满足所述新训练任务的资源需求。
可选的,还包括:
按照预设扩容触发时刻定期触发为已分配资源利用率满足所述预设条件的所述目标训练任务分配新资源的步骤;
按照预设缩容触发时刻定期触发对所述目标服务器节点中的所述新资源进行释放的步骤。
可选的,还包括:
对同时运行有第一训练任务和第二训练任务的任一服务器节点进行实时监视,当监视到所述任一服务器节点中的所述第一训练任务结束运行,则确定当前所述任一服务器节点中的空闲资源,并确定运行在其他服务器节点上的属于所述第二训练任务的任务运行进程所对应的进程资源;
判断所述任一服务器节点中的空闲资源是否大于所述进程资源,如果是,则将所述其他服务器节点上的属于所述第二训练任务的任务运行进程迁移至所述任一服务器节点。
第二方面,本申请公开了一种训练任务资源调度装置,应用于服务器集群,所述服务器集群用于执行分布式训练任务,所述装置包括:
利用率确定模块,用于确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;所述目标训练任务为所述分布式训练任务中的任一训练任务;
资源分配模块,用于若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,在筛选到的服务器节点中为所述目标训练任务分配新的资源,以得到扩容后训练任务;
需求判断模块,用于当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;
资源释放模块,用于若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
第三方面,本申请公开了一种电子设备,包括处理器和存储器;其中,所述处理器执行所述存储器中保存的计算机程序时实现前述公开的训练任务资源调度方法。
第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现前述公开的训练任务资源调度方法。
可见,本申请中,确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新的资源,以得到扩容后训练任务;当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。如此一来,能够在不停止训练任务中的所有进程的运行的情况下,自动进行资源伸缩,进一步提升了服务器集群的训练任务资源伸缩效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请提供的一种训练任务资源调度方法流程图;
图2为本申请提供的一种具体的训练任务资源调度方法流程图;
图3为本申请提供的一种训练任务资源调度方法示意图;
图4为本申请提供的一种训练任务资源调度方法示意图;
图5为本申请提供的一种具体的训练任务资源调度方法流程图;
图6为本申请提供的一种具体的训练任务资源调度方法流程图;
图7为本申请提供的一种训练任务资源调度方法示意图;
图8为本申请提供的一种具体的训练任务资源调度方法流程图;
图9为本申请提供的一种训练任务资源调度方法示意图;
图10为本申请提供的一种训练任务资源调度装置结构示意图;
图11为本申请提供的一种电子设备结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
当前可以采取以下两种方式来对训练任务进行资源伸缩,以达到为训练任务进行资源扩容或缩容的目的,其中,一种方式是采用Horovod训练框架为训练任务提供的弹性资源伸缩机制,但是在使用这种方式时需要用户进行手动处理,从而降低了资源伸缩效率;而另外一种方式则是基于checkpoint来进行训练任务的资源弹性扩容,不过这种方式需要先终止训练任务Job中的所有任务运行进程,并进行任务运行进程的重建,整个过程消耗时间过多,由此也降低了资源伸缩效率。为了克服上述问题,本申请提供了一种训练任务资源调度方案,能够有效提升服务器集群的训练任务资源伸缩效率。
参见图1所示,本申请实施例公开了一种训练任务资源调度方法流程图,该方法包括:
步骤S11:确定当前服务器集群中正在运行的目标训练任务的已分配资源利用率。
本实施例中所述已分配资源利用率包括已分配GPU利用率和已分配CPU利用率;所述目标训练任务为所述分布式训练任务中的任一训练任务。
本实施例中,所述服务器集群中需要部署资源调度平台,用于申请训练任务所需的GPU资源和CPU资源,创建训练任务。另外,训练任务中的已分配GPU和已分配CPU是算法人员在创建训练任务时指定的,同时,算法人员可以设置训练任务可以使用的资源数量。例如,分配训练任务运行需要的任务运行进程数量时,最小数量taskNummin为4个,最大数量taskNummax为8个,每个任务运行进程的GPU数量taskGpu为2个,最小CPU数量taskCpumin为12个,最大CPU数量taskCpumax为24个。另外,资源调度器在为初始创建的训练任务进行资源分配时,默认按照最小资源数量进行资源分配。
本实施例中,所述资源调度平台也可以提供分布式训练框架,本实施例中使用的分布式训练框架为Horovod框架。平台内有多个分布式训练任务,单个训练任务有多个任务运行进程。其中所述任务运行进程以容器的方式运行在GPU服务器。
步骤S12:若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,以得到扩容后训练任务。
本实施例中,在所述服务器集群中,对于初始设置的服务器节点数目可以根据实际使用时对所述服务器集群的需求来部署,如果实际需求对所述服务器集群的处理性能要求较高,则可以在当前服务器集群中部署较多的服务器节点,将所述服务器节点设置为较大的数值,从而可以提升服务器集群的处理性能;如果实际需求对所述服务器集群的处理性能要求较低,则可以在当前服务器集群中部署较少的服务器节点,将所述服务器节点设置为较小的数值。
本实施例中,所述新资源可以是新任务运行进程,也可以是新CPU资源。可以理解的是,所述服务器集群可以通过创建新任务运行进程为训练任务分配新资源,也可以通过为训练任务分配新CPU资源对训练任务进行新资源分配;另外,所述服务器集群中存在多个服务器节点,每个所述服务器节点中存在多个训练任务,并且每个训练任务存在上述两种分配新资源的方法中的一种,因此所述服务器节点中可能存在一种或两种上述分配新资源的方法,进一步,所述服务器集群中可能存在一种或两种上述分配新资源的方法。
步骤S13:当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求。
本实施例中,获取到新训练任务后,需要判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求,也即,判断当前所述服务器集群中的空闲CPU资源和空闲GPU资源是否不小于所述新训练任务所需要的相应的CPU资源和GPU资源,如果当前所述服务器集群中的空闲CPU资源和空闲GPU资源不小于所述新训练任务所需要的相应的CPU资源和GPU资源,则表示当前所述服务器集群中的空闲资源满足所述新训练任务的资源需求;反之,则表示当前所述服务器集群中的空闲资源不满足所述新训练任务的资源需求。可以理解的是,当前所述服务器集群中的空闲资源是得到前述扩容后训练任务后的剩余资源。
步骤S14:若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
本实施例中,当获取到新训练任务,并且当前所述服务器集群中的空闲资源不满足所述新建训练任务的资源需求时,需要按照一定的规则对所述新资源进行回收,以便所述服务器集群中的空闲资源能够满足新建训练任务的最小资源需求。
本实施例中,可以通过减少前述扩容阶段创建的新任务运行进程来进行资源释放;也可以通过减少前述扩容阶段为已有任务运行进程分配的新CPU资源来进行资源释放;另外,由于所述服务器集群中可能存在一种或多种分配新资源的方法,因此,所述服务器集群中也可能同时存在通过减少新资源对应的新任务运行进程和减少新资源对应的新CPU资源来进行新资源释放的方法。
可以理解的是,进行新资源分配和新资源释放的过程中需要随时获取所述服务器集群中的新资源变化情况,在本实施例中,通过预设脚本创建接口获取资源变化监测脚本,并利用所述资源变化监测脚本对新资源分配操作或资源释放操作对应的资源变化情况进行监测。例如,定义通知horovodrun训练任务新增任务运行进程或者减少任务运行进程的的通信机制,horovod训练任务提供了一种发现可用任务运行进程的机制,支持用户自定义discovery_host脚本,需要在启动horovod训练任务的同时指定启动参数--host-discovery-script,以便获得任务运行进程的数量情况。例如--host-discovery-script=/usr/local/bin/discovery_host.sh,则horovod会通过该脚本获取任务运行进程数量的变化情况。本方案中,在用户提交horovod训练任务时,平台自动为用户追加--host-discovery-script参数,平台为训练任务自动进行新资源分配或者新资源释放时,用于将正确的任务运行进程数量信息通知到horovod训练任务。
本实施例中,当分布式训练任务创建时,由于所需的服务器节点的资源被其它的训练任务所占用,导致无法将该分布式训练任务的所有任务运行进程分配到同一所需服务器节点中,出现同一分布式训练任务的多个任务运行进程被分配在不同的服务器节点中的情况,此时训练任务跨节点运行,通信开销增大,并且受到网络带宽的限制,进一步影响了训练任务运行的速度。因此,在服务器集群的资源充足的前提下,通常要求一个训练任务尽量运行在同一个服务器节点中。具体的,参见图2所示,本实施例还可以进一步包括:
步骤S21:当同时存在第一训练任务和第二训练任务时,对同时运行有第一训练任务和第二训练任务的任一服务器节点进行实时监视;
步骤S22:当监视到所述任一服务器节点中的所述第一训练任务结束运行,则确定当前所述任一服务器节点中的空闲资源,并确定运行在其他服务器节点上的属于所述第二训练任务的任务运行进程所对应的进程资源;
步骤S23:判断当前所述任一服务器节点中的空闲资源是否大于所述进程资源,如果是,则将所述其他服务器节点上的属于所述第二训练任务的任务运行进程迁移至所述任一服务器节点。
本实施例中,所述第一训练任务和所述第二训练任务可以有一个,也可以存在多个,在此不做具体限定。
图3和图4的训练任务资源调度方法示意图展示了自动将单个任务的已分配任务进程迁移到同一个服务器节点的过程。具体的,服务器节点1中存在训练任务1的任务运行进程1以及训练任务2的任务运行进程1,服务器节点2中存在训练任务1的任务运行进程2和训练任务2的任务运行进程1,当所述训练任务1结束运行,并且所述服务器节点1中有足够的空闲资源用于运行训练任务2的任务运行进程1和训练任务2的任务运行进程2时,将训练任务2的任务运行进程2迁移至服务器节点1。
可以理解的是,将训练任务2的任务运行进程2迁移至服务器节点1的具体过程为:删除训练任务2中的任务运行进程2,通知Horovod,重建Horovod通信域,Horovod训练任务正常运行后,在服务器节点1创建任务运行进程2,并通知Horovod,重建Horovod通信域,以便Horovod训练任务正常运行。
本实施例中,对于一些特殊情况可以定时进行新资源分配和新资源释放的过程。具体的,按照预设扩容触发时刻定期触发为已分配资源利用率满足所述预设条件的所述目标训练任务分配新资源的步骤;按照预设缩容触发时刻定期触发对所述目标服务器节点中的所述新资源进行释放的步骤。
可以理解的是,不同时间段训练任务的个数不同,因此需要使用的资源也不同,在使用资源多的时候,对目标服务器节点进行新资源释放,以便为新建训练任务提供足够的空闲资源;在使用资源少的时候,对目标训练任务进行新资源的分配。例如,对于某些高校场景,通常白天会有大量的学生人员使用GPU资源,但是夜间使用GPU资源较少,此时对于训练任务,特别是大模型训练任务,可以定时进行新资源分配和新资源释放,例如,设置晚上7点对指定的训练任务进行新资源分配,使用所述服务器集群中全部的空闲资源进行新资源分配,同时设置早上7点进行新资源释放,保证使用最少的资源进行训练,以便为新建训练任务提供更多的空闲资源。
可见,本实施例中,确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新的资源,以得到扩容后训练任务;当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。如此一来,可以在不终止训练任务的情况下,进行新资源的分配和释放,提升服务器集群的训练任务资源伸缩效率。并且,对于特殊情况也支持定时对新资源进行分配和释放。另外,对于分布式训练任务,可以将已分配在不同服务器节点中的训练任务迁移到同一服务器节点,减少通信开销,提高训练速度。
参见图5所示,本申请实施例公开了一种具体的训练任务资源调度方法流程图,该方法包括:
步骤S31:确定当前服务器集群中正在运行的目标训练任务的已分配GPU利用率。
其中,关于步骤S31的更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S32:若所述已分配GPU利用率不小于第一预设阈值,并且所述服务器集群中的空闲GPU资源数量不小于第一预设GPU资源数量,则对所述服务器集群中的服务器节点进行筛选。
本实施例中,所述第一预设阈值是通过多次试验获得的经验值,可以是100%;所述第一预设GPU资源数量表示预先设定的在分配新资源时所需要的GPU资源数量。
本实施例中,进行新资源的分配以得到扩容后训练任务时需要对已分配GPU利用率和所述服务器集群中的空闲GPU资源数量进行判断,当已分配GPU利用率高,且不小于第一预设阈值时,需要对训练任务进行新资源分配,然后,当所述服务器集群中的空闲GPU资源数量高,且不小于第一预设GPU资源数量时,所述服务器集群满足新资源分配的条件,之后进行服务器节点筛选的过程。
步骤S33:在筛选到的服务器节点中根据所述第一预设GPU资源数量和预设CPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
本实施例中,首先确定已分配GPU利用率不小于第一预设阈值和所述服务器集群中的空闲GPU资源数量不小于第一预设GPU资源数量,然后进行服务器节点的筛选,在进行服务器节点的筛选时,需要选择具有足够的用于创建新任务运行进程的资源的服务器节点。所述创建新任务运行进程时,需要足够的空闲资源,包括足够的GPU资源和足够的CPU资源,并且所述创建每个新任务运行进程所需要的GPU资源数量和CPU资源数量是预先设定的。
本实施例中,所述新任务运行进程的数目可以有多个,并且,由于一个服务器节点的空闲资源数量可能不足以创建多个新任务运行进程,因此,所述新任务运行进程可以位于相同或不同的服务器节点中。
步骤S34:当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求。
其中,关于步骤S34的更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S35:若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
本实施例中,当获取到新训练任务后,判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求,如果当前所述服务器集群中的空闲资源满足所述新训练任务的资源需求,则不需要对新资源进行释放,可以直接创建新训练任务对应的新任务运行进程;如果当前所述服务器集群中的空闲资源不满足所述新训练任务的资源需求,则需要对分配的新资源进行释放,首先应找到扩容后训练任务对应的所述新资源所在的服务器节点,之后,从所述服务器节点中筛选出用于释放新资源的目标服务器节点。然后,对所述目标服务器节点的新资源进行释放,所述资源需求表示进行新训练任务创建所需要的空闲资源,包括GPU资源和CPU资源。
可见,本实施例中,如果已分配GPU利用率不小于第一预设阈值,则表明需要进行新资源的分配,然后,判断所述服务器集群中的空闲GPU资源数量是否不小于第一预设GPU资源数量,如果是,则所述服务器集群满足进行新资源分配的条件,可以进行新资源分配。进一步,从所述服务器集群筛选出扩容后训练任务的所述新资源所在的服务器节点,之后,从所述扩容后训练任务的所述新资源所在的服务器节点筛选出具有足够的GPU资源和CPU资源,可以创建新任务运行进程的目标服务器节点,并对所述目标服务器节点的新资源进行释放。如此一来,能够在不终止训练任务的情况下,自动进行新资源分配,提高了服务器集群的训练任务资源伸缩效率。
参见图6所示,本申请实施例公开了一种具体的训练任务资源调度方法流程图,该方法包括:
步骤S41:确定当前服务器集群中正在运行的目标训练任务的已分配GPU利用率和已分配CPU利用率。
其中,关于步骤S41的更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S42:若所述已分配GPU利用率小于第一预设阈值,并且所述已分配CPU利用率不小于第二预设阈值,则确定当前所述目标训练任务所需的新CPU资源数量,并判断当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量是否不小于所述新CPU资源数量。
本实施例中,当所述已分配GPU利用率小于第一预设阈值,也就是已分配GPU资源足够时,就需要对已分配CPU利用率进行判断,如果所述已分配CPU利用率不小于第二预设阈值,则需要进行新资源的分配;所述第一预设阈值和第二预设阈值是通过多次试验获得的经验值,其中,所述第二预设阈值可以是90%。
本实施例中,确定所述目标训练任务需要进行新资源分配后,进一步确定所述目标训练任务所需要的新资源数量,并判断当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量是否不小于所述新CPU资源数量,对于当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量不小于所述新CPU资源数量和当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量小于所述新CPU资源数量的两种情况,所述目标训练任务具有不同的分配新资源的方法。
步骤S43:如果所述空闲CPU资源数量不小于所述新CPU资源数量,则从所述服务器集群中筛选出当前运行所述目标训练任务的服务器节点,并在筛选到的服务器节点中为所述目标训练任务的已创建任务运行进程分配与所述新CPU资源数量相一致的新CPU资源。
本实施例中,经过上述判断,如果当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量不小于所述新CPU资源数量,则可以不考虑GPU资源数量,只对所述目标训练任务的每一个已分配任务运行进程分配新CPU资源;由于CPU的资源数量在一定范围内,并且具有最大值和最小值,所述目标训练任务的每一个已分配任务运行进程的已分配CPU资源的数量都是创建任务运行进程时的CPU的最小资源数量,因此可以对所述目标训练任务的每一个已分配任务运行进程分配新CPU资源。
在一种具体实施方式中,直接将所述目标训练任务的每一个已分配任务运行进程的已分配CPU资源的数量由最小资源数量分配新CPU资源达到最大资源数量。例如,所述目标训练任务的最小可分配CPU数量为12个,最大可分配CPU数量为24个,所述所需的新资源为3个CPU,则将所述目标训练任务的CPU数量变为24个。
在另一种具体实施方式中,可以根据所述目标训练任务所需的新资源将所述目标训练任务的每一个已分配任务运行进程的已分配CPU资源的数量由最小资源数量逐渐分配新CPU资源,最大可变为最大资源数量。例如,所述目标训练任务的最小可分配CPU数量为12个,最大可分配CPU数量为24个,所述所需的新资源为3个CPU,则将所述目标训练任务的CPU数量变为15个。
步骤S44:如果所述空闲CPU资源数量小于所述新CPU资源数量,则根据当前所述服务器集群中其他服务器节点的空闲资源,对所述其他服务器节点进行筛选,并在筛选到的服务器节点中根据所述新CPU资源数量以及第二预设GPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
本实施例中,经过上述判断,如果当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量小于所述新CPU资源数量,则表明当前所述训练任务所在的服务器节点的空闲资源不足,则从不包含当前所述训练任务的其他服务器节点中筛选合适的服务器节点。
本实施例中,需要确保所述筛选到的服务器节点中的空闲CPU资源和空闲GPU资源都不小于一个任务运行进程需要的GPU资源和最小CPU资源。之后,在筛选到的服务器节点中根据所述新CPU资源数量以及第二预设GPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
可以理解的是,所述筛选到的服务器节点可以是一个或多个,每个所述筛选到的服务器节点中的所述新任务运行进程也可以是一个或多个。
步骤S45:当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求。
其中,关于步骤S45的更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S46:若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
本实施例中,上述提到了两种新资源分配方法,第一种方法为在当前所述目标训练任务所在的服务器节点中为所述目标训练任务的已分配任务运行进程分配新CPU资源,第二种方法为在不包含当前所述训练任务的其他服务器节点中筛选合适的服务器节点,然后在筛选到的服务器节点中创建新任务运行进程。
可以理解的是,对所述目标服务器节点进行新资源分配的方法可以是第一种方法,也可以是第二种方法,并且所述目标服务器节点可以是一个或多个,因此所述目标服务器节点中的所述新资源可以是第一种方法中的新CPU资源,可以是第二种方法中的新任务运行进程中的资源,也可以是第一种方法中的新CPU资源和第二种方法中的新任务运行进程中的资源的综合。
如图7所示,对运行态horovod训练任务进行已分配资源利用率的判断,首先判断已分配GPU利用率是否不小于第一预设阈值,如果是,便通过创建新任务运行进程来分配新资源,如果否,则需要判断已分配CPU资源是否不小于第二预设阈值,如果是,则进一步判断该训练任务所在的服务器节点的空闲CPU资源是否充足,如果充足,则在该服务器节点为该训练任务的任务运行进程分配新CPU资源,如果不充足,则通过创建新任务运行进程来分配新资源。以上分配新资源的方法的最终目的是使horovod训练任务正常运行。
可见,本实施例中,如果所述已分配GPU利用率小于第一预设阈值,并且所述已分配CPU利用率不小于第二预设阈值,判断当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量是否不小于所述新CPU资源数量,如果是,则在当前所述目标训练任务所在的服务器节点中为所述目标训练任务的已分配任务运行进程分配新CPU资源;如果不是,则在当前所述目标训练任务所在的服务器节点之外的其他服务器节点中筛选到所需的服务器节点,然后在筛选到的服务器节点中创建新任务运行进程;根据上述两种情况对所述目标服务器节点中的所述新资源进行释放。如此一来,可以在不终止训练进程的情况下,自动进行新资源分配,进一步提高服务器集群的训练任务资源伸缩效率。
参见图8所示,本申请实施例公开了一种具体的训练任务资源调度方法流程图,该方法包括:
步骤S51:确定当前服务器集群中正在运行的目标训练任务的已分配资源利用率。
其中,关于步骤S51的更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S52:若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,以得到扩容后训练任务。
本实施例中,所述服务器集群中进行新资源分配得到扩容后训练任务的方法有三种,第一种方法为在当前所述目标训练任务所在的服务器节点中为所述目标训练任务的已分配任务运行进程分配新CPU资源;第二种方法为在所述服务器集群中筛选出所需的服务器节点,然后在筛选到的服务器节点中创建新任务运行进程。
可以理解的是,所述服务器集群中可以存在上述两种方法中的任意一种或两种。
步骤S53:当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求。
其中,关于步骤S53的更加具体的处理过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S54:确定每个所述服务器节点中包含的新资源总数。
本实施例中,所述新资源为所述服务器集群中每个所述服务器节点采用两种方法中的任意一种分配的新资源。
步骤S55:确定每个所述服务器节点中与所述新资源相关的训练任务总数,以得到关联任务总数。
本实施例中,所述关联任务总数表示释放服务器节点的新资源时受到影响的训练任务的数量。
步骤S56:基于所述服务器节点中的所述新资源总数和所述关联任务总数,确定出所述服务器集群中每个所述服务器节点的优先级。
本实施例中,所述新资源总数越大的所述服务器节点优先级越高,当所述新资源总数相同时,所述关联任务总数越少,优先级越高。
步骤S57:基于所述服务器节点的优先级从所述服务器集群中确定出目标服务器,并对所述目标服务器节点中的所述新资源进行释放,以使释放后的所述服务器集群中的空闲资源满足所述新训练任务的资源需求。
本实施例中,{(Gpuij,Cpuij)|JobTaskij,i,j∈0,1...}表示该服务器集群中第i个训练任务Job自动扩容的第j个任务进程的资源规格集合,即扩容的GPU和CPU信息,若任务进程只是基于cgroup(进程组)进行了CPU的扩容,则Gpuij=0。进行资源释放时,需要满足的条件是回收的资源与所述服务器集群中的空闲资源能够满足新建训练任务的资源需求,可用公式表示为:
式中,表示服务器集群中回收的全部资源,Clusterfree表示服务器集群中进行资源释放之前所有的空闲资源,Jobnew(Gup,Cup)表示新建训练任务所需要的资源。另外,上述Gpuij表示该服务器集群中第i个训练任务Job自动扩容的第j个任务进程的GPU资源,Cpuij表示该服务器集群中第i个训练任务Job自动扩容的第j个任务进程的CPU资源,JobTaskij表示该服务器集群中第i个训练任务Job自动扩容的第j个任务进程。
本实施例中,进行资源释放时,统计出每个所述服务器节点中能够回收的最大资源数量,即所述服务器节点中的所述新资源总数,根据所述服务器节点中的所述新资源总数和所述关联任务总数将所述服务器节点进行降序排序以得到节点列表;按照所述节点列表中的所述服务器节点顺序对所述服务器节点的新资源进行释放,直到所述服务器集群中的空闲资源大于新建训练任务的资源需求。
本实施例中,按照所述节点列表中的所述服务器节点顺序对所述服务器节点的新资源进行释放的过程中,如果存在所述新资源总数相同的两个所述服务器节点,则首先对影响训练任务数量少的服务器节点的新资源进行释放,如果释放后所述服务器集群中空闲资源不足再继续释放另一个服务器节点的新资源。例如,最大资源数量相同的两个所述服务器节点,第一个服务器节点释放新资源会影响2个训练任务,第二个服务器节点释放资源会影响4个训练任务,则首先释放第一个服务器节点中的新资源,如果释放后所述服务器集群空闲资源不足再继续释放第二个服务器中的新资源。
如图9所示,当检测到有新建horovod训练任务时,将所述新建horovod训练任务加入调度队列,再判断服务器集群中的空闲资源是否充足,能否有足够的空闲资源创建该新建horovod训练任务,如果空闲资源充足,则训练任务调度成功,该新建horovod训练任务可正常运行;如果空闲资源不充足,则判断服务器集群中是否存在扩容任务,如果不存在,则训练任务调度失败,如果存在,则通过减少已扩容任务的进程的CPU资源或减少已扩容任务的进程数量来释放新资源,当利用减少已扩容任务的进程数量来释放新资源的方法时,还需要在进行新资源释放之后通知horovod,重建horovod通信域,使horovod训练任务正常运行。
可以理解的是,在进行资源释放时,所述服务器集群中所释放的资源可以不仅仅是所述扩容后训练任务对应的所述新资源,也可以是所述服务器集群中的每个服务器节点中的空闲资源。例如,当所述服务器集群中不存在扩容后训练任务时,可以释放所述服务器集群中的每个服务器节点中的空闲资源以便新建训练任务。
可见,当获取到新的训练任务,由于所述服务器集群中空闲资源不足而进行新资源释放时,首先从所述服务器集群中根据所述新资源总数和所述关联任务总数确定出进行资源释放的服务器节点的顺序,然后依次对所述服务器节点进行新资源释放,直到所述服务器集群中的空闲资源大于新建训练任务的资源需求。如此一来,可以在不终止训练进程的情况下,自动进行新资源释放,进一步提高服务器集群的训练任务资源伸缩效率。
参见图10所示,本申请实施例公开了一种训练任务资源调度装置,应用于服务器集群,所述服务器集群用于执行分布式训练任务,包括:
利用率确定模块11,用于确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;所述目标训练任务为所述分布式训练任务中的任一训练任务;
资源分配模块12,用于若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,在筛选到的服务器节点中为所述目标训练任务分配新资源,以得到扩容后训练任务;
需求判断模块13,用于当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;
资源释放模块14,用于若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
其中,关于上述各个模块更加具体的工作过程可以参考前述实施例中公开的相应内容,在此不再进行赘述。
可见,本实施例中,确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新的资源,以得到扩容后训练任务;当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。如此一来,可以在不终止训练任务的情况下,进行新资源的分配和释放,提升服务器集群的训练任务资源伸缩效率。
进一步的,本申请实施例还提供了一种电子设备,该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、输入输出接口24、通信接口25和通信总线26。其中,所述存储器22用于存储计算机程序,所述计算机程序由所述处理器21加载并执行,以实现前述任意实施例公开的训练任务资源调度方法的相关步骤。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口25能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本申请技术方案的任意通信协议,在此不对其进行具体限定。
另外,存储器22作为可以包括作为运行内存的随机存取存储器和用于外部内存的存储用途的非易失性存储器,其上的存储资源包括操作系统221、计算机程序222等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制源主机上电子设备20上的各硬件设备以及计算机程序222,操作系统221可以是Windows、Unix、Linux等。计算机程222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的训练任务资源调度方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
本实施例中,所述输入输出接口24具体可以包括但不限于USB接口、硬盘读取接口、串行接口、语音输入接口、指纹输入接口等。
进一步的,本申请实施例还公开了一种计算机可读存储介质,这里所说的计算机可读存储介质包括随机存取存储器(Random Access Memory,RAM)、内存、只读存储器(Read-Only Memory,ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、磁碟或者光盘或技术领域内所公知的任意其他形式的存储介质。其中,所述计算机程序被处理器执行时实现前述训练任务资源调度方法。关于该方法的具体步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
结合本文中所公开的实施例描述的训练任务资源调度或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种训练任务资源调度方法、装置、设备及介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种训练任务资源调度方法,其特征在于,应用于服务器集群,所述服务器集群用于执行分布式训练任务,包括:
确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;所述目标训练任务为所述分布式训练任务中的任一训练任务;
若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,以得到扩容后训练任务;
当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;
若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
2.根据权利要求1所述的训练任务资源调度方法,其特征在于,所述确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率,包括:
确定当前所述服务器集群中正在运行的目标训练任务的已分配GPU利用率;
相应的,所述若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,包括:
若所述已分配GPU利用率不小于第一预设阈值,并且所述服务器集群中的空闲GPU资源数量不小于第一预设GPU资源数量,则对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中根据所述第一预设GPU资源数量和预设CPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
3.根据权利要求1所述的训练任务资源调度方法,其特征在于,所述确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率,包括:
确定当前所述服务器集群中正在运行的目标训练任务的已分配GPU利用率和已分配CPU利用率;
相应的,所述若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,并在筛选到的服务器节点中为所述目标训练任务分配新资源,包括:
若所述已分配GPU利用率小于第一预设阈值,并且所述已分配CPU利用率不小于第二预设阈值,则确定当前所述目标训练任务所需的新CPU资源数量,并判断当前运行所述目标训练任务的服务器节点中的空闲CPU资源数量是否不小于所述新CPU资源数量;
如果所述空闲CPU资源数量不小于所述新CPU资源数量,则从所述服务器集群中筛选出当前运行所述目标训练任务的服务器节点,并在筛选到的服务器节点中为所述目标训练任务的已创建任务运行进程分配与所述新CPU资源数量相一致的新CPU资源;
如果所述空闲CPU资源数量小于所述新CPU资源数量,则根据当前所述服务器集群中其他服务器节点的空闲资源,对所述其他服务器节点进行筛选,并在筛选到的服务器节点中根据所述新CPU资源数量以及第二预设GPU资源数量为所述目标训练任务创建具有相应资源的新任务运行进程。
4.根据权利要求1所述的训练任务资源调度方法,其特征在于,所述从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放,包括:
确定每个所述服务器节点中包含的新资源总数;
确定每个所述服务器节点中与所述新资源相关的训练任务总数,以得到关联任务总数;
基于所述服务器节点中的所述新资源总数和所述关联任务总数,确定出所述服务器集群中每个所述服务器节点的优先级;
基于所述服务器节点的优先级从所述服务器集群中确定出目标服务器,并对所述目标服务器节点中的所述新资源进行释放,以使释放后的所述服务器集群中的空闲资源满足所述新训练任务的资源需求。
5.根据权利要求1所述的训练任务资源调度方法,其特征在于,还包括:
按照预设扩容触发时刻定期触发为已分配资源利用率满足所述预设条件的所述目标训练任务分配新资源的步骤;
按照预设缩容触发时刻定期触发对所述目标服务器节点中的所述新资源进行释放的步骤。
6.根据权利要求1所述的训练任务资源调度方法,其特征在于,还包括:
通过预设脚本创建接口获取资源变化监测脚本,并利用所述资源变化监测脚本对新资源分配操作或资源释放操作对应的资源变化情况进行监测。
7.根据权利要求1至6任一项所述的训练任务资源调度方法,其特征在于,还包括:
对同时运行有第一训练任务和第二训练任务的任一服务器节点进行实时监视,当监视到所述任一服务器节点中的所述第一训练任务结束运行,则确定当前所述任一服务器节点中的空闲资源,并确定运行在其他服务器节点上的属于所述第二训练任务的任务运行进程所对应的进程资源;
判断当前所述任一服务器节点中的空闲资源是否大于所述进程资源,如果是,则将所述其他服务器节点上的属于所述第二训练任务的任务运行进程迁移至所述任一服务器节点。
8.一种训练任务资源调度装置,其特征在于,应用于服务器集群,所述服务器集群用于执行分布式训练任务,所述装置包括:
利用率确定模块,用于确定当前所述服务器集群中正在运行的目标训练任务的已分配资源利用率;所述目标训练任务为所述分布式训练任务中的任一训练任务;
资源分配模块,用于若所述已分配资源利用率满足预设条件,则根据当前所述服务器集群中的空闲资源对所述服务器集群中的服务器节点进行筛选,在筛选到的服务器节点中为所述目标训练任务分配新的资源,以得到扩容后训练任务;
需求判断模块,用于当获取到新训练任务,则判断当前所述服务器集群中的空闲资源是否满足所述新训练任务的资源需求;
资源释放模块,用于若当前所述服务器集群中的空闲资源不满足所述资源需求,则从所有所述扩容后训练任务对应的所述新资源所在的服务器节点中筛选出目标服务器节点,并对所述目标服务器节点中的所述新资源进行释放。
9.一种电子设备,其特征在于,包括处理器和存储器;其中,所述处理器执行所述存储器中保存的计算机程序时实现如权利要求1至7任一项所述的训练任务资源调度方法。
10.一种计算机可读存储介质,其特征在于,用于存储计算机程序;其中,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的训练任务资源调度方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111150775.3A CN113867959A (zh) | 2021-09-29 | 2021-09-29 | 一种训练任务资源调度方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111150775.3A CN113867959A (zh) | 2021-09-29 | 2021-09-29 | 一种训练任务资源调度方法、装置、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113867959A true CN113867959A (zh) | 2021-12-31 |
Family
ID=78992671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111150775.3A Withdrawn CN113867959A (zh) | 2021-09-29 | 2021-09-29 | 一种训练任务资源调度方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113867959A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114661247A (zh) * | 2022-05-23 | 2022-06-24 | 武汉四通信息服务有限公司 | 自动扩容方法、装置、电子设备及存储介质 |
CN115473901A (zh) * | 2022-11-15 | 2022-12-13 | 四川汉唐云分布式存储技术有限公司 | 一种分布式算力集群智慧调度方法、装置及计算机设备 |
CN115601221A (zh) * | 2022-11-28 | 2023-01-13 | 苏州浪潮智能科技有限公司(Cn) | 一种资源的分配方法、装置和一种人工智能训练系统 |
CN116089477A (zh) * | 2023-04-10 | 2023-05-09 | 荣耀终端有限公司 | 分布式训练方法及系统 |
CN116483546A (zh) * | 2023-06-21 | 2023-07-25 | 苏州浪潮智能科技有限公司 | 分布式训练任务调度方法、装置、设备及存储介质 |
CN117112218A (zh) * | 2023-08-29 | 2023-11-24 | 广东鼎尧科技有限公司 | 一种服务器资源自适应匹配方法、系统和介质 |
WO2024001861A1 (zh) * | 2022-06-29 | 2024-01-04 | 华为技术有限公司 | 模型训练方法、装置、系统及相关设备 |
-
2021
- 2021-09-29 CN CN202111150775.3A patent/CN113867959A/zh not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114661247A (zh) * | 2022-05-23 | 2022-06-24 | 武汉四通信息服务有限公司 | 自动扩容方法、装置、电子设备及存储介质 |
CN114661247B (zh) * | 2022-05-23 | 2022-09-20 | 武汉四通信息服务有限公司 | 自动扩容方法、装置、电子设备及存储介质 |
WO2024001861A1 (zh) * | 2022-06-29 | 2024-01-04 | 华为技术有限公司 | 模型训练方法、装置、系统及相关设备 |
CN115473901A (zh) * | 2022-11-15 | 2022-12-13 | 四川汉唐云分布式存储技术有限公司 | 一种分布式算力集群智慧调度方法、装置及计算机设备 |
CN115601221A (zh) * | 2022-11-28 | 2023-01-13 | 苏州浪潮智能科技有限公司(Cn) | 一种资源的分配方法、装置和一种人工智能训练系统 |
CN115601221B (zh) * | 2022-11-28 | 2023-05-23 | 苏州浪潮智能科技有限公司 | 一种资源的分配方法、装置和一种人工智能训练系统 |
CN116089477A (zh) * | 2023-04-10 | 2023-05-09 | 荣耀终端有限公司 | 分布式训练方法及系统 |
CN116089477B (zh) * | 2023-04-10 | 2023-08-08 | 荣耀终端有限公司 | 分布式训练方法及系统 |
CN116483546A (zh) * | 2023-06-21 | 2023-07-25 | 苏州浪潮智能科技有限公司 | 分布式训练任务调度方法、装置、设备及存储介质 |
CN116483546B (zh) * | 2023-06-21 | 2023-09-05 | 苏州浪潮智能科技有限公司 | 分布式训练任务调度方法、装置、设备及存储介质 |
CN117112218A (zh) * | 2023-08-29 | 2023-11-24 | 广东鼎尧科技有限公司 | 一种服务器资源自适应匹配方法、系统和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113867959A (zh) | 一种训练任务资源调度方法、装置、设备及介质 | |
US8332862B2 (en) | Scheduling ready tasks by generating network flow graph using information receive from root task having affinities between ready task and computers for execution | |
CN103823714A (zh) | 一种基于虚拟化下NUMA节点内存QoS的调节方法及装置 | |
CN112799817A (zh) | 一种微服务资源调度系统和方法 | |
CN112486642B (zh) | 资源调度方法、装置、电子设备及计算机可读存储介质 | |
CN111880936A (zh) | 资源调度方法、装置、容器集群、计算机设备和存储介质 | |
CN111813523A (zh) | 时长预估模型生成方法、系统资源调度方法、装置、电子设备和存储介质 | |
CN115794337B (zh) | 资源调度方法、装置、云平台、设备及存储介质 | |
CN111861412A (zh) | 面向完成时间优化的科学工作流调度方法及系统 | |
CN109117244B (zh) | 一种虚拟机资源申请排队机制的实现方法 | |
CN114661482B (zh) | 一种gpu算力管理方法、介质、设备及系统 | |
CN111798113A (zh) | 资源分配方法、装置、存储介质和电子设备 | |
CN116069496A (zh) | 一种gpu资源调度的方法及装置 | |
CN113032102A (zh) | 资源重调度方法、装置、设备和介质 | |
CN112214288B (zh) | 基于Kubernetes集群的Pod调度方法、装置、设备和介质 | |
CN111796933A (zh) | 资源调度方法、装置、存储介质和电子设备 | |
CN114816753A (zh) | 一种数据集群计算节点扩缩方法、装置、设备及介质 | |
CN113961353A (zh) | 一种ai任务的任务处理方法和分布式系统 | |
CN112698947B (zh) | 一种基于异构应用平台的gpu资源弹性调度方法 | |
CN116483546B (zh) | 分布式训练任务调度方法、装置、设备及存储介质 | |
CN112256441A (zh) | 神经网络推理的内存分配方法及装置 | |
CN116881012A (zh) | 一种容器应用垂直扩容方法、装置、设备及可读存储介质 | |
CN109189581B (zh) | 一种作业调度方法和装置 | |
CN116743825A (zh) | 服务器管理方法、装置、计算机设备和存储介质 | |
CN116360922A (zh) | 集群资源调度方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20211231 |
|
WW01 | Invention patent application withdrawn after publication |