CN111858025B - 一种基于gpu卡显存的混合调度方法、装置、设备和介质 - Google Patents
一种基于gpu卡显存的混合调度方法、装置、设备和介质 Download PDFInfo
- Publication number
- CN111858025B CN111858025B CN202010524659.2A CN202010524659A CN111858025B CN 111858025 B CN111858025 B CN 111858025B CN 202010524659 A CN202010524659 A CN 202010524659A CN 111858025 B CN111858025 B CN 111858025B
- Authority
- CN
- China
- Prior art keywords
- video memory
- gpu
- node
- card
- gpu card
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000015654 memory Effects 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 64
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 37
- 230000014509 gene expression Effects 0.000 claims abstract description 9
- 238000004590 computer program Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
- G06F9/5016—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于GPU卡显存的混合调度方法,包括:按照预设周期向调度系统传递各个节点的GPU卡的显存使用信息;根据训练任务所需的GPU卡的个数和显存大小定义训练任务申请共享GPU卡或独享GPU卡的资源表现形式;获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点;对训练任务中不同的调度策略分别定义打分算法,根据打分算法计算每个预选节点的分数,并根据分数在预选节点中选择执行训练任务的节点。本发明还公开了一种装置、设备和介质。本发明提出的基于GPU卡显存的混合调度方法、装置、设备和介质可以同时支持GPU卡共享和GPU卡独享两种场景下的GPU卡资源调度。
Description
技术领域
本发明涉及计算机技术领域,更具体地,特别是指一种基于GPU卡显存的混合调度方法、装置、设备和介质。
背景技术
GPU(Graphics Processing Unit,图形处理器)常用于并行计算加速,GPU以其强大的计算能力和低功耗特性,已经被大规模使用,特别是近些年火热的人工智能领域,大部分的模型训练都基于GPU运行,从而节省大量的计算时间,从而加速模型迭代。但是由于GPU高昂的成本,企业需要承担较多的成本用于购买GPU服务器。但是通常情况下,一个GPU卡被分配到一个研发人员后,GPU卡不可能一直被使用,或者即使使用,GPU卡的利用率也不会太高,这就导致整个集群的GPU资源利用率并不高,此时需要考虑将一个GPU卡共享给多个研发人员同时使用,此时调度系统需要能够支持共享GPU卡的调度,与之相反的另一个场景,研发人员进行较大的模型训练时,由于模型参数,导致需要占满一个GPU卡的显存,此时研发人员需要独享一个GPU卡,此时调度系统需要能够支持独享GPU卡的调度。通常的集群调度系统,需要针对这两种场景,定义不同的资源申请方式和不同的调度机制,也比较难实现GPU卡共享的训练任务和GPU卡独享的训练任务运行在同一主机,这就增加了集群管理的复杂度。
发明内容
有鉴于此,本发明实施例的目的在于提供一种基于GPU卡显存的混合调度策略,该方法通过为GPU卡的资源描述形式、节点GPU卡显存利用率、GPU卡利用率建立统一模型,基于该模型为GPU卡共享和GPU卡独享场景下的节点打分,并将该打分机制与Kubernetes默认的节点打分策略结合,为训练任务选择最优的节点,即调度系统在做GPU卡选择时,根据训练任务申请的GPU卡的资源不同,既可以选择独享GPU卡,也可以选择共享GPU卡,并且单个主机既可以存在GPU卡共享的训练任务,也可以存在GPU卡独享的训练任务。
基于上述目的,本发明一方面提供了一种基于GPU卡显存的混合调度方法,该方法包括:
按照预设周期向调度系统传递各个节点的GPU卡的显存使用信息;
响应于创建训练任务,根据训练任务所需的GPU卡的个数和显存大小定义训练任务申请共享GPU卡或独享GPU卡的资源表现形式;
获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点;
对训练任务中不同的调度策略分别定义打分算法,根据打分算法计算每个预选节点的分数,并根据分数在预选节点中选择执行训练任务的节点。
在本发明的基于GPU卡显存的混合调度方法的一些实施方式中,显存使用信息包括显存利用率和计算利用率,获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点还包括:
若是判断节点满足资源表现形式中的所需GPU卡的个数和显存大小,且GPU卡的显存利用率小于或等于GPU卡的显存总量减去训练任务所需显存大小后再除以GPU卡的显存总量的值,且GPU卡的计算利用率小于预设阈值,判断节点符合所需条件。
在本发明的基于GPU卡显存的混合调度方法的一些实施方式中,判断节点满足资源表现形式中的所需的GPU卡的个数和显存大小还包括:
判断节点的GPU卡的空闲卡数大于或等于训练任务所需GPU卡的个数,且判断节点的GPU卡的显存空闲值大于或等于训练任务所需的显存大小。
在本发明的基于GPU卡显存的混合调度方法的一些实施方式中,对训练任务中不同的调度策略分别定义打分算法还包括:
在调度策略为spread调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更多的节点配置更高的分数。
在本发明的基于GPU卡显存的混合调度方法的一些实施方式中,对训练任务中不同的调度策略分别定义打分算法还包括:
在调度策略为bestfit调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更少的节点配置更高的分数。
本发明实施例的另一方面,还提供了一种基于GPU卡显存的混合调度装置,该装置包括:
信息传递模块,信息传递模块配置为按照预设周期向调度系统传递各个节点的GPU卡的显存使用信息;
节点申请模块,节点申请模块配置为响应于创建训练任务,根据训练任务所需的GPU卡的个数和显存大小定义训练任务申请共享GPU卡或独享GPU卡的资源表现形式;
节点过滤模块,节点过滤模块配置为获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点;
打分选择模块,打分选择模块配置为对训练任务中不同的调度策略分别定义打分算法,根据打分算法计算每个预选节点的分数,并根据分数在预选节点中选择执行训练任务的节点。
在本发明的基于GPU卡显存的混合调度装置的一些实施方式中,打分选择模块还配置为:
在调度策略为spread调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更多的节点配置更高的分数。
在本发明的基于GPU卡显存的混合调度装置的一些实施方式中,打分选择模块还配置为:
在调度策略为bestfit调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更少的节点配置更高的分数。
本发明实施例的另一方面,还提供了一种计算机设备,该计算机设备包括:
至少一个处理器;以及
存储器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行前述的基于GPU卡显存的混合调度方法。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,其特征在于,计算机程序被处理器执行时执行前述的基于GPU卡显存的混合调度方法。
本发明至少具有以下有益技术效果:本发明是对AI训练任务在集群环境下选择主机和GPU卡时的优化,基于本发明,可以同时支持GPU卡共享和GPU卡独享两种场景下的GPU卡的资源调度,能够支持在同一节点,既能够运行GPU卡共享的训练任务,也可以运行GPU卡独享的训练任务。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1示出了根据本发明的基于GPU卡显存的混合调度方法的实施例的示意性框图;
图2示出的是根据本发明的基于GPU卡显存的混合调度方法的实施例的调度系统集成规则的结构性示意图;
图3示出了根据本发明的基于GPU卡显存的混合调度方法的实施例的单个节点的GPU卡的分配情况示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”和“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种基于GPU卡显存的混合调度方法的实施例。图1示出的是根据本发明的基于GPU卡显存的混合调度方法的实施例的示意性框图。如图1所示的实施例中,该方法至少包括如下步骤:
S100、按照预设周期向调度系统传递各个节点的GPU卡的显存使用信息;
S200、响应于创建训练任务,根据训练任务所需的GPU卡的个数和显存大小定义训练任务申请共享GPU卡或独享GPU卡的资源表现形式;
S300、获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点;
S400、对训练任务中不同的调度策略分别定义打分算法,根据打分算法计算每个预选节点的分数,并根据分数在预选节点中选择执行训练任务的节点。
在本发明的一些实施例中,基于Kubernetes(开源的容器编排管理系统)的调度系统扩展机制,增加了基于GPU卡的显存(GPU卡配置的内存,用于存储GPU卡计算时使用的数据)的预选策略和优选策略,当创建AI(Artificial Intelligence,人工智能)训练任务时,指定该训练任务需要使用的GPU卡个数和显存大小。调度系统会根据配置的GPU卡的信息以及节点GPU卡的真实使用情况(如,GPU卡的利用率),过滤出满足该资源需求的全部主机信息,并通过自定义的打分算法,基于每个节点的GPU卡的使用情况、GPU卡的显存使用情况,为每个节点计算一个分值,用于标明选择该节点运行该任务的可能性。
在本发明的一些具体实施方式中,(1)在集群内部署Kubernetes容器管理系统,并在集群内的每个节点部署自研的agent(代理服务),该agent会周期地将节点每个GPU卡的显存使用率、GPU卡的计算使用率上报到调度系统,同时将节点的GPU卡型号、GPU卡的显存上报到调度系统。
(2)定义AI训练任务申请共享GPU卡和独享GPU卡的资源表现形式,定义inspur.com/gpu为key值时,表示该任务需要申请GPU卡的资源,该key对应的value值定义为四位数的整数,用abcd表示,其中前两位ab表示GPU卡的个数;后两位cd表示GPU卡的显存大小,单位为Gb。如下所示:
inspur.com/gpu:abcd
其中ab的取值范围为01~99:表示GPU卡个数为1~99张GPU卡;
其中cd的取值范围为00~99:表示GPU卡的显存大小,其中为00时,表示需要独享GPU卡。
(3)定义节点预选规则,获得节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点。
(4)定义节点优选规则,当通过步骤(3)后,可能存在多个节点满足任务的GPU卡的资源需求,为了满足集群资源的使用策略,针对GPU卡的资源定义节点的打分算法,选择得分最高的节点用于运行任务,资源调度策略包括spread和bestfit两种调度策略,针对不同的调度策略定义不同的打分算法:
在spread调度策略场景下,选择GPU卡时,选择GPU卡的显存空闲最多的GPU卡;
在bestfit调度策略场景下,选择GPU卡时,选择GPU卡的显存空闲最小的GPU卡。
(5)图2示出的是根据本发明的基于GPU卡显存的混合调度方法的实施例的调度系统集成规则的结构性示意图,如图2所示,基于Kubernetes的调度器扩展机制,将步骤(3)和步骤(4)分别作为预选规则和优选规则集成到Kubernetes的调度系统。
(6)在本发明的一些实施例中,单个节点的GPU卡分配情况可以如图3所示,该节点有4张GPU卡分别是图3中所示的GPU0、GPU2、GPU3、GPU4,运行了4个任务分别是图3中所示的task1、task2、task3、task4,其中task1独享GPU0和GPU4两张GPU卡,任务2、任务3、任务4共享另外两张GPU卡,即共享GPU2和GPU3。
根据本发明的基于GPU卡显存的混合调度方法的一些实施方式,显存使用信息包括显存利用率和计算利用率,获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点还包括:
若是判断节点满足资源表现形式中的所需GPU卡的个数和显存大小,且GPU卡的显存利用率小于或等于GPU卡的显存总量减去训练任务所需显存大小后再除以GPU卡的显存总量的值,且GPU卡的计算利用率小于预设阈值(例如90%),判断节点符合所需条件。
在本发明的一些实施例中,满足以下全部条件,才会允许该任务可以运行在该节点:
条件1:节点满足资源表现形式中的所需GPU卡的个数和显存大小;
条件3:由步骤(1)中上报的GPU卡实际的计算利用率必须小于90%,即,90%为调度器设置的默认值,即当GPU卡的计算力被使用了90%后,不能再允许其他任务被调度到这张GPU卡。
根据本发明的基于GPU卡显存的混合调度方法的一些实施方式,判断节点满足资源表现形式中的所需的GPU卡的个数和显存大小还包括:
判断节点的GPU卡的空闲卡数大于或等于训练任务所需GPU卡的个数,且判断节点的GPU卡的显存空闲值大于或等于训练任务所需的显存大小。
在本发明的一些实施例中,节点满足资源表现形式中的所需GPU卡的个数和显存大小具体需要满足以下条件:
该节点至少存在ab个GPU卡,且GPU卡的空闲的显存的值至少为cd Gb;
当cd为00时,表示要求GPU卡上的显存全部未被分配,即此时需要节点至少存在ab个空闲的GPU卡。
根据本发明的基于GPU卡显存的混合调度方法的一些实施方式,对训练任务中不同的调度策略分别定义打分算法还包括:
在调度策略为spread调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更多的节点配置更高的分数。
在本发明的一些实施例中,在spread调度策略场景下,希望使用的GPU卡的资源能够均衡的分布到集群中的各个节点以及节点上的GPU卡,节点的空闲资源越多,该节点的分值一般就更高,该任务越有可能被调度到该节点,节点的分值计算公式如下所示:
其中,gpuCount为节点的GPU卡数量,perGpuMemory为每张GPU卡的显存总量,totalGpuFree为节点此时GPU卡的显存的空闲总量,即节点上每张GPU卡空闲显存的求和值,avaiableGpuNum为空闲的GPU卡数量,totalGpuNum为节点的GPU卡数量,weight为调度策略可以自定义的权重,默认值为10。
根据本发明的基于GPU卡显存的混合调度方法的一些实施方式,对训练任务中不同的调度策略分别定义打分算法还包括:
在调度策略为bestfit调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更少的节点配置更高的分数。
在本发明的一些实施例中,在bestfit调度策略场景下,被使用的GPU卡的资源能够集中到某些节点,即优先使用完一个节点的GPU卡的资源,再考虑去使用其他节点的GPU卡的资源,节点在满足任务对GPU卡的资源的需求的前提下,该节点的空闲资源越少,该节点的分值一般就更高,该任务越有可能被调度到该节点,节点的分值计算公式如下所示:
本发明实施例的另一方面,提出了一种基于GPU卡显存的混合调度装置的实施例。该装置包括:
信息传递模块,信息传递模块配置为按照预设周期向调度系统传递各个节点的GPU卡的显存使用信息;
节点申请模块,节点申请模块配置为响应于创建训练任务,根据训练任务所需的GPU卡的个数和显存大小定义训练任务申请共享GPU卡或独享GPU卡的资源表现形式;
节点过滤模块,节点过滤模块配置为获取每个节点的GPU卡的显存使用信息,根据显存使用信息和资源表现形式选择所有节点中符合所需条件的节点作为预选节点;
打分选择模块,打分选择模块配置为对训练任务中不同的调度策略分别定义打分算法,根据打分算法计算每个预选节点的分数,并根据分数在预选节点中选择执行训练任务的节点。
根据本发明的基于GPU卡显存的混合调度装置的一些实施方式,打分选择模块还配置为:
在调度策略为spread调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更多的节点配置更高的分数。
根据本发明的基于GPU卡显存的混合调度装置的一些实施方式,打分选择模块还配置为:
在调度策略为bestfit调度策略的情况下,定义打分算法为对GPU卡的显存空闲值更少的节点配置更高的分数。
基于上述目的,本发明实施例的另一方面,还提出了一种计算机设备,该计算机设备包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机程序,处理器执行程序时执行前述的基于GPU卡显存的混合调度方法。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,其特征在于,计算机程序被处理器执行时执行前述的基于GPU卡显存的混合调度方法。
同样地,本领域技术人员应当理解,以上针对根据本发明的基于GPU卡显存的混合调度方法阐述的所有实施方式、特征和优势同样地适用于根据本发明的装置、计算机设备和介质。为了本公开的简洁起见,在此不再重复阐述。
需要特别指出的是,上述基于GPU卡显存的混合调度方法、装置、设备和介质的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于基于GPU卡显存的混合调度方法、装置、设备和介质也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,基于GPU卡显存的混合调度方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被处理器执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种基于GPU卡显存的混合调度方法,其特征在于,所述方法包括:
按照预设周期向调度系统传递各个节点的所述GPU卡的显存使用信息;
响应于创建训练任务,根据所述训练任务所需的GPU卡的个数和显存大小定义所述训练任务申请共享GPU卡或独享GPU卡的资源表现形式;
获取每个所述节点的所述GPU卡的所述显存使用信息,根据所述显存使用信息和所述资源表现形式选择所有所述节点中符合所需条件的节点作为预选节点;
对所述训练任务中不同的调度策略分别定义打分算法,根据所述打分算法计算每个所述预选节点的分数,并根据所述分数在所述预选节点中选择执行所述训练任务的节点。
2.根据权利要求1所述的基于GPU卡显存的混合调度方法,其特征在于,所述显存使用信息包括显存利用率和计算利用率,所述获取每个所述节点的所述GPU卡的所述显存使用信息,根据所述显存使用信息和所述资源表现形式选择所有所述节点中符合所需条件的节点作为预选节点还包括:
若是判断所述节点满足所述资源表现形式中的所需GPU卡的个数和显存大小,且所述GPU卡的所述显存利用率小于或等于所述GPU卡的显存总量减去所述训练任务所需显存大小后再除以所述GPU卡的所述显存总量的值,且所述GPU卡的所述计算利用率小于预设阈值,判断所述节点符合所需条件。
3.根据权利要求2所述的基于GPU卡显存的混合调度方法,其特征在于,所述判断所述节点满足所述资源表现形式中的所需的GPU卡的个数和显存大小还包括:
判断所述节点的所述GPU卡的空闲卡数大于或等于所述训练任务所需GPU卡的个数,且判断所述节点的GPU卡显存空闲值大于或等于所述训练任务所需的显存大小。
4.根据权利要求1所述的基于GPU卡显存的混合调度方法,其特征在于,所述对所述训练任务中不同的调度策略分别定义打分算法还包括:
在所述调度策略为spread调度策略的情况下,定义所述打分算法为对所述GPU卡的显存空闲值更多的所述节点配置更高的所述分数。
5.根据权利要求1所述的基于GPU卡显存的混合调度方法,其特征在于,所述对所述训练任务中不同的调度策略分别定义打分算法还包括:
在所述调度策略为bestfit调度策略的情况下,定义所述打分算法为对所述GPU卡的显存空闲值更少的所述节点配置更高的所述分数。
6.一种基于GPU卡显存的混合调度装置,其特征在于,所述装置包括:
信息传递模块,所述信息传递模块配置为按照预设周期向调度系统传递各个节点的所述GPU卡的显存使用信息;
节点申请模块,所述节点申请模块配置为响应于创建训练任务,根据训练任务所需的GPU卡的个数和显存大小定义所述训练任务申请共享GPU卡或独享GPU卡的资源表现形式;
节点过滤模块,所述节点过滤模块配置为获取每个所述节点的所述GPU卡的所述显存使用信息,根据所述显存使用信息和所述资源表现形式选择所有所述节点中符合所需条件的节点作为预选节点;
打分选择模块,所述打分选择模块配置为对所述训练任务中不同的调度策略分别定义打分算法,根据所述打分算法计算每个所述预选节点的分数,并根据所述分数在所述预选节点中选择执行所述训练任务的节点。
7.根据权利要求6所述的基于GPU卡显存的混合调度装置,其特征在于,所述打分选择模块还配置为:
在所述调度策略为spread调度策略的情况下,定义所述打分算法为对所述GPU卡的显存空闲值更多的所述节点配置更高的所述分数。
8.根据权利要求6所述的基于GPU卡显存的混合调度装置,其特征在于,所述打分选择模块还配置为:
在所述调度策略为bestfit调度策略的情况下,定义所述打分算法为对所述GPU卡的显存空闲值更少的所述节点配置更高的所述分数。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-5任意一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-5任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010524659.2A CN111858025B (zh) | 2020-06-10 | 2020-06-10 | 一种基于gpu卡显存的混合调度方法、装置、设备和介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010524659.2A CN111858025B (zh) | 2020-06-10 | 2020-06-10 | 一种基于gpu卡显存的混合调度方法、装置、设备和介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111858025A CN111858025A (zh) | 2020-10-30 |
CN111858025B true CN111858025B (zh) | 2022-11-22 |
Family
ID=72986478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010524659.2A Active CN111858025B (zh) | 2020-06-10 | 2020-06-10 | 一种基于gpu卡显存的混合调度方法、装置、设备和介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858025B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112506666B (zh) * | 2020-12-22 | 2024-08-23 | 鹏城实验室 | 基于驱动封装的gpu分时共享方法及系统 |
CN112860373A (zh) * | 2021-01-29 | 2021-05-28 | 西藏宁算科技集团有限公司 | 人工智能分布式训练平台的搭建方法及平台 |
CN112925611A (zh) * | 2021-03-11 | 2021-06-08 | 南京邮电大学 | 一种基于共享式gpu的分布式容器调度方法及其系统 |
CN115686803B (zh) * | 2023-01-05 | 2023-03-28 | 北京华恒盛世科技有限公司 | 一种调度策略动态加载的计算任务管理系统、方法和装置 |
CN115718724B (zh) * | 2023-01-09 | 2023-05-09 | 阿里巴巴(中国)有限公司 | Gpu、数据选择方法及芯片 |
CN117687802B (zh) * | 2024-02-02 | 2024-04-30 | 湖南马栏山视频先进技术研究院有限公司 | 一种基于云平台的深度学习并行调度方法、装置和云平台 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109634748A (zh) * | 2018-12-12 | 2019-04-16 | 深圳前海微众银行股份有限公司 | 集群资源调度方法、装置、设备及计算机可读存储介质 |
CN109766183A (zh) * | 2018-12-28 | 2019-05-17 | 郑州云海信息技术有限公司 | 一种集群gpu复用及智能负载的方法及系统 |
-
2020
- 2020-06-10 CN CN202010524659.2A patent/CN111858025B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111858025A (zh) | 2020-10-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111858025B (zh) | 一种基于gpu卡显存的混合调度方法、装置、设备和介质 | |
US8429097B1 (en) | Resource isolation using reinforcement learning and domain-specific constraints | |
CN110869909B (zh) | 应用机器学习算法来计算健康分数以进行工作负载调度的系统和方法 | |
CN105205014B (zh) | 一种数据存储方法和装置 | |
US8418177B2 (en) | Virtual machine and/or multi-level scheduling support on systems with asymmetric processor cores | |
US8429096B1 (en) | Resource isolation through reinforcement learning | |
CN113377540A (zh) | 集群资源调度方法及装置、电子设备和存储介质 | |
CN111478857B (zh) | 一种接口限流控制方法、装置以及电子设备 | |
US20120284354A1 (en) | Method and system for dynamically creating and servicing master-slave pairs within and across switch fabrics of a portable computing device | |
CN111858034B (zh) | 一种资源的管理方法、系统、设备以及介质 | |
KR20200142070A (ko) | 그래프 데이터 기반의 태스크 스케줄링 방법, 디바이스, 저장 매체 및 장치 | |
CN111240593A (zh) | 一种动态自适应调度的数据迁移方法、装置、设备和介质 | |
CN105556419A (zh) | 场景功率管理 | |
CN111737168A (zh) | 一种缓存系统、缓存处理方法、装置、设备及介质 | |
CN109445947B (zh) | 资源的分配处理方法、装置、设备及存储介质 | |
US20210373962A1 (en) | System and method of identifying equivalents for task completion | |
CN111324457A (zh) | 一种gpu集群中发布推理服务的方法、装置、设备和介质 | |
CN112052097A (zh) | 虚拟场景的渲染资源处理方法、装置、设备及存储介质 | |
CN113268329B (zh) | 一种请求调度方法、装置及存储介质 | |
CN111078398A (zh) | 一种gpu的分配方法、设备以及存储介质 | |
CN113032149B (zh) | 基于演化博弈的边缘计算服务放置和请求分配方法及系统 | |
CN117675566A (zh) | 一种资源配额的分配方法、装置、存储介质及电子设备 | |
CN108762684A (zh) | 热点数据迁移流控方法、装置、电子设备及存储介质 | |
CN115361285B (zh) | 实现离在线业务混合部署的方法、装置、设备及介质 | |
US11669442B2 (en) | Co-operative memory management system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |