CN111078398A - 一种gpu的分配方法、设备以及存储介质 - Google Patents
一种gpu的分配方法、设备以及存储介质 Download PDFInfo
- Publication number
- CN111078398A CN111078398A CN201911199331.1A CN201911199331A CN111078398A CN 111078398 A CN111078398 A CN 111078398A CN 201911199331 A CN201911199331 A CN 201911199331A CN 111078398 A CN111078398 A CN 111078398A
- Authority
- CN
- China
- Prior art keywords
- gpu
- quota
- user
- gpus
- acquiring
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 title description 2
- 230000004044 response Effects 0.000 claims abstract description 6
- 238000004590 computer program Methods 0.000 claims description 14
- 238000013468 resource allocation Methods 0.000 abstract description 5
- 238000012544 monitoring process Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000013515 script Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种GPU的分配方法,包括步骤:接收用户提交的新任务申请;获取所述用户对应的GPU配额文件;根据所述GPU配额文件获取所述用户的GPU配额;获取所述用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述GPU配额;响应于CPU的数量之和大于所述GPU配额,返回错误提示。本发明公开的方案公开了一种多用户场景下GPU资源配额管理的方法,通过该方法可以限制用户的GPU资源最大在用额度,从而实现集群GPU资源分配的公平共享。
Description
技术领域
本发明涉及计算机领域,具体涉及一种GPU的分配方法、设备以及存储介质。
背景技术
随着目前人工智能AI计算需求的不断增长,高性能集群中的GPU资源作为加速计算资源也越来越重要,GPU作为一种昂贵稀少的计算资源(相比CPU、内存而言),需要能够提供更加细粒度的、更弹性化的调度分配策略。
现有的Maui中可通过配置maui.cfg文件增加NODECFG设置,如“NODECFG[node1]GRES=gpu:4”,表示node1节点存在4个gpu;作业提交时通过qsub命令的“-W x=gpu@2”表示把作业提交到设置gpu属性且当前该属性存量大于等于2的节点。
由于GPU相比CPU、内存而言是一种稀缺的计算资源,因此更需要对其进行用户配额限制,从而保证资源分配的公平性,而Maui本身只能限制用户的作业数量、CPU使用核数、节点使用数,并不具备对GRES属性资源进行配额限制的功能。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例的提出一种GPU的分配方法,包括步骤:
接收用户提交的新任务申请;
获取所述用户对应的GPU配额文件;
根据所述GPU配额文件获取所述用户的GPU配额;
获取所述用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;
判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述GPU配额;
响应于GPU的数量之和大于所述GPU配额,返回错误提示。
在一些实施例中,获取所述用户对应的GPU配额文件,进一步包括:
根据所述用户的属性判断用户是否属于用户组;
响应于所述用户不属于所述用户组,获取所述用户对应的第一GPU配额文件。
在一些实施例中,根据所述第一GPU配额文件获取所述用户的GPU配额,进一步包括:
根据所述第一GPU配额文件判断是否限制所述用户的GPU配额;
响应于限制所述用户的GPU配额,获取所述用户的GPU配额;
响应于不限制所述用户的GPU配额,直接为所述新任务分配GPU资源。
在一些实施例中,还包括:
响应于所述用户属于所述用户组,获取所述用户组对应的第二GPU配额文件。
在一些实施例中,还包括:
根据所述第二GPU配额文件获取所述用户组的GPU配额;
获取所述用户组中所有的用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;
判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述用户组的GPU配额;
响应于CPU的数量之和大于所述用户组的GPU配额,返回错误提示。
在一些实施例中,根据所述第二GPU配额文件获取所述用户组的GPU配额,进一步包括:
根据所述第二GPU配额文件判断是否限制所述用户组的GPU配额;
响应于限制所述用户组的GPU配额,获取所述用户组的GPU配额;
响应于不限制所述用户组的GPU配额,直接为所述新任务分配GPU资源。
在一些实施例中,获取所述用户已经使用的GPU的数量,进一步包括:
根据所述用户已经提交的任务的标识获取任务信息;
根据所述任务信息获取所述用户已经使用的GPU的数量。
在一些实施例中,接收用户提交的新任务申请,进一步包括:
判断所述用户提交的新申请是否需要GPU资源;
响应于需要GPU资源,进行后续获取所述用户对应的GPU配额文件的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种GPU的分配方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种GPU的分配方法的步骤。
本发明具有以下有益技术效果之一:本发明公开的方案公开了一种多用户场景下GPU资源配额管理的方法,通过该方法可以限制用户的GPU资源最大在用额度,从而实现集群GPU资源分配的公平共享。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的一种GPU的分配方法的流程示意图;
图2为本发明的实施例提供的GPU的分配方法的流程框图;
图3为本发明的实施例提供的计算机设备的结构示意图;
图4为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
需要说明的是,在本发明的实施例中,Maui是一个开源的作业调度应用软件,被广泛应用于高性能服务集群中实现作业的调度管理,通过Maui的GRES属性可以设置节点的GPU数量并支持GPU资源的调度,但Maui本身并不支持对用户/用户组使用GPU资源的配额限制。
根据本发明的一个方面,本发明的实施例提出一种GPU的分配方法,如图1所示,其可以包括步骤:S1,接收用户提交的新任务申请;S2,获取所述用户对应的GPU配额文件;S3,根据所述GPU配额文件获取所述用户的GPU配额;S4,获取所述用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;S5,判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述GPU配额;S6,响应于GPU的数量之和大于所述GPU配额,返回错误提示。
本发明公开的方案公开了一种多用户场景下GPU资源配额管理的方法,通过该方法可以限制用户的GPU资源最大在用额度,从而实现集群GPU资源分配的公平共享。
在一些实施例中,在步骤S1接收用户提交的新任务申请中,可以进一步包括:
判断所述用户提交的新申请是否需要GPU资源;
响应于需要GPU资源,进行后续获取所述用户对应的GPU配额文件的步骤;
响应于不需要GPU资源,不进行后续获取所述用户对应的GPU配额文件的步骤。
具体的,可以定义GPU配额监控单元,这样可以利用GPU配额监控单元调用Torque接口获取当前任务信息,如果任务不需要GPU资源则直接输出“true”并退出,也即不进行后续获取所述用户对应的GPU配额文件的步骤,如果任务需要GPU资源则获取用户对应的GPU配额文件。
如图2所示,在一些实施例中,在步骤S2获取所述用户对应的GPU配额文件中,可以进一步包括:
根据所述用户的属性判断用户是否属于用户组;
响应于所述用户不属于所述用户组,获取所述用户对应的第一GPU配额文件;
响应于所述用户属于所述用户组,获取所述用户组对应的第二GPU配额文件。
具体的,可以定义配额设置模块,通过配额设置模块为不属于用户组的用户创建单独的第一GPU配额文件,为用户组整体创建第二GPU配额文件。
在一些实施例中,配额设置模块可以创建名为“user.conf”(的文件第一GPU配额文件)以及名为“sysgroup.conf”的文件(第二GPU配额文件),文件中每条记录代表一个用户或者用户组的GPU资源配额情况。例如“user.conf”可以如下所示:
user01:4
user02:4
user03:8
如上所示,“user01:4”表示用户user01最多同时使用4块GPU卡,当其使用的GPU卡达到数量限制后,user01新提交的任务将保持等待状态直到其他处于运行状态的任务结束后释放GPU资源。
在一些实施例中,可以通过细化配置和业务规则可以很方便的实现对不同类型的GPU用户配额管控,如user01可以最多使用2块NVIDIA Tesla V100卡和2块Tesla M40,此外,可以通过插件式的规则定制实现对特定用户、特定任务优先级或资源配额的临时调整而不需要重启服务。
在一些实施例中,管理员可以手动对user.conf和sysgroup.conf文件进行配置,也可通过脚本进行,或者构造web服务通过页面进行修改,这里不再进行赘述。
在一些实施例中,在步骤S3根据所述GPU配额文件获取所述用户的GPU配额中,可以进一步包括:
根据所述第一GPU配额文件判断是否限制所述用户的GPU配额;
响应于限制所述用户的GPU配额,获取所述用户的GPU配额;
响应于不限制所述用户的GPU配额,直接为所述新任务分配GPU资源。
具体的,可以通过用户配额监控模块根据第一GPU配额文件判断是否对该用户进行限额,如果没有限额则直接为该用户提交的新任务分配GPU资源,如果进行了限额则获取该用户对应的GPU限额。
在一些实施例中,在步骤S4获取所述用户已经使用的GPU的数量以及所述新任务所需的GPU的数量中,可以进一步包括:
根据所述用户已经提交的任务的标识获取任务信息;
根据所述任务信息获取所述用户已经使用的GPU的数量。
具体的,可以通过用户配额监控模块根据任务标识获取任务信息并提取出任务需要的GPU数量,然后获取用户的GPU资源配额以及用户运行任务在用的GPU数量。
例如,可以通过调用Torque接口获取用户当前运行任务列表,如果任务在用资源中包含GPU,则累加任务在用GPU数量。
这样,通过用户配额监控模块获取到已经使用的GPU的数量以及新任务对应的GPU数量之后,通过步骤S5判断两者之和是否大于在第一GPU配额文件中预先设置的GPU配额,如果大于,则进行步骤S6,返回错误提示,即无法运行新任务,直到其他处于运行状态的任务结束释放GPU资源后,使得新任务能够在GPU配额下运行。如果不大于,则直接运行该新任务。
在一些实施例中,本发明提出的方案还可以包括:
根据所述第二GPU配额文件获取所述用户组的GPU配额;
获取所述用户组中所有的用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;
判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述用户组的GPU配额;
响应于GPU的数量之和大于所述用户组的GPU配额,返回错误提示。
在一些实施例中,根据所述第二GPU配额文件获取所述用户组的GPU配额,进一步包括:
根据所述第二GPU配额文件判断是否限制所述用户组的GPU配额;
响应于限制所述用户组的GPU配额,获取所述用户组的GPU配额;
响应于不限制所述用户组的GPU配额,直接为所述新任务分配GPU资源。
具体的,可以定义用户组配额监控模块,当处于用户组中的用户提交新任务时,用户组配额监控模块通过与Torque调度器通信获取用户组任务列表,计算运行任务累计使用的GPU资源,判断新任务申请资源与已用资源数量的和是否超出用户组配额,如果超出则返回false,即无法运行新任务,只有当直到其他处于运行状态的任务结束释放GPU资源后,使得新任务能够在用户组的GPU配额下运行。
需要说明的是,用户配额监控模块和用户组配额监控模块均属于GPU配额监控单元,用户组配额监控模块与用户配额监控模块大体类似,只是用户组配额监控模块获取当前任务归属用户的用户组,然后累加该用户组在用的GPU资源数量,新申请数量与在用数量之和大于配额则返回false,否则返回true。
在一些实施例中,可以修改MAUI调度源码,在任务状态检查模块增加对配额监控的调用,即在任务调度模块增加配置监控模块的接口,当配额监控模块返回false时,任务状态保持不变(不会改为“运行”),继续处于等待运行状态。
例如,可以修改MAUI源码MJob.c文件,在函数MJobStart中增加对用户配额监控模块以及用户组配置模块的调用,并且可以通过在MJob.c文件中调用shell脚本进行实现,通过这种方式可以在实际使用过程中简单修改shell脚本即可插件化的管控任务,不需要每次功能添加都要重新编译安装maui,使用起来更加方便灵活。
本发明提出的方案,在前期PBS+MAUI按卡进行GPU调度的基础上,提出了一种多用户场景下GPU资源配额管理的策略,通过该策略可以限制用户或用户组的GPU资源最大在用额度,从而实现集群GPU资源分配的公平共享。并且本发明提供的MAUI插件化方式可以更灵活的控制任务状态,方便系统运维人员在系统运行时即可通过修改脚本进行规则定制,不需要MAUI调度器的重新编译和安装。
基于同一发明构思,根据本发明的另一个方面,如图3所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种GPU的分配方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图4所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种GPU的分配方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种GPU的分配方法,包括步骤:
接收用户提交的新任务申请;
获取所述用户对应的GPU配额文件;
根据所述GPU配额文件获取所述用户的GPU配额;
获取所述用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;
判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述GPU配额;
响应于所述GPU的数量之和大于所述GPU配额,返回错误提示。
2.如权利要求1所述的方法,其特征在于,获取所述用户对应的GPU配额文件,进一步包括:
根据所述用户的属性判断用户是否属于用户组;
响应于所述用户不属于所述用户组,获取所述用户对应的第一GPU配额文件。
3.如权利要求2所述的方法,其特征在于,根据所述GPU配额文件获取所述用户的GPU配额,进一步包括:
根据所述第一GPU配额文件判断是否限制所述用户的GPU配额;
响应于限制所述用户的GPU配额,获取所述用户的GPU配额;
响应于不限制所述用户的GPU配额,直接为所述新任务分配GPU资源。
4.如权利要求2所述的方法,其特征在于,还包括:
响应于所述用户属于所述用户组,获取所述用户组对应的第二GPU配额文件。
5.如权利要求4所述的方法,其特征在于,还包括:
根据所述第二GPU配额文件获取所述用户组的GPU配额;
获取所述用户组中所有的用户已经使用的GPU的数量以及所述新任务所需的GPU的数量;
判断所述已经使用的GPU的数量和所述新任务所需的GPU的数量之和是否不大于所述用户组的GPU配额;
响应于所述GPU的数量之和大于所述用户组的GPU配额,返回错误提示。
6.如权利要求5所述的方法,其特征在于,根据所述第二GPU配额文件获取所述用户组的GPU配额,进一步包括:
根据所述第二GPU配额文件判断是否限制所述用户组的GPU配额;
响应于限制所述用户组的GPU配额,获取所述用户组的GPU配额;
响应于不限制所述用户组的GPU配额,直接为所述新任务分配GPU资源。
7.如权利要求1所述的方法,其特征在于,获取所述用户已经使用的GPU的数量,进一步包括:
根据所述用户已经提交的任务的标识获取任务信息;
根据所述任务信息获取所述用户已经使用的GPU的数量。
8.如权利要求1所述的方法,其特征在于,接收用户提交的新任务申请,进一步包括:
判断所述用户提交的新申请是否需要GPU资源;
响应于需要GPU资源,进行后续获取所述用户对应的GPU配额文件的步骤。
9.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行权利要求1-8任意一项所述的方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-8任意一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911199331.1A CN111078398A (zh) | 2019-11-29 | 2019-11-29 | 一种gpu的分配方法、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911199331.1A CN111078398A (zh) | 2019-11-29 | 2019-11-29 | 一种gpu的分配方法、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111078398A true CN111078398A (zh) | 2020-04-28 |
Family
ID=70312275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911199331.1A Withdrawn CN111078398A (zh) | 2019-11-29 | 2019-11-29 | 一种gpu的分配方法、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111078398A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210191780A1 (en) * | 2020-09-30 | 2021-06-24 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for processing development machine operation task, device and storage medium |
WO2023071172A1 (zh) * | 2021-10-26 | 2023-05-04 | 上海商汤智能科技有限公司 | 任务调度方法、装置、设备、存储介质、计算机程序及计算机程序产品 |
CN117473212A (zh) * | 2023-12-27 | 2024-01-30 | 粤港澳大湾区数字经济研究院(福田) | Ntt算法的gpu加速方法、装置、设备及存储介质 |
-
2019
- 2019-11-29 CN CN201911199331.1A patent/CN111078398A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210191780A1 (en) * | 2020-09-30 | 2021-06-24 | Beijing Baidu Netcom Science Technology Co., Ltd. | Method and apparatus for processing development machine operation task, device and storage medium |
WO2023071172A1 (zh) * | 2021-10-26 | 2023-05-04 | 上海商汤智能科技有限公司 | 任务调度方法、装置、设备、存储介质、计算机程序及计算机程序产品 |
CN117473212A (zh) * | 2023-12-27 | 2024-01-30 | 粤港澳大湾区数字经济研究院(福田) | Ntt算法的gpu加速方法、装置、设备及存储介质 |
CN117473212B (zh) * | 2023-12-27 | 2024-04-16 | 粤港澳大湾区数字经济研究院(福田) | Ntt算法的gpu加速方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108614726B (zh) | 虚拟机创建方法及装置 | |
US20190324819A1 (en) | Distributed-system task assignment method and apparatus | |
US10481953B2 (en) | Management system, virtual communication-function management node, and management method for managing virtualization resources in a mobile communication network | |
CN108776934B (zh) | 分布式数据计算方法、装置、计算机设备及可读存储介质 | |
US8667499B2 (en) | Managing allocation of computing capacity | |
CN111078398A (zh) | 一种gpu的分配方法、设备以及存储介质 | |
CN112465359B (zh) | 算力调用方法和装置 | |
CN110673933A (zh) | 基于ZooKeeper的分布式异步队列实现方法、装置、设备及介质 | |
CN106569898A (zh) | 一种资源分配的方法以及移动终端 | |
TWI795565B (zh) | 資源分享方法、裝置、電腦裝置及存儲介質 | |
CN110795202B (zh) | 一种虚拟化集群资源管理系统的资源分配方法以及装置 | |
CN113760516A (zh) | 一种多云环境下的弹性伸缩方法、装置、设备及介质 | |
EP4404539A1 (en) | Resource scheduling method, apparatus and system, device, medium, and program product | |
CN117675566A (zh) | 一种资源配额的分配方法、装置、存储介质及电子设备 | |
CN103973691A (zh) | 资源访问方法及资源访问装置 | |
CN111352719A (zh) | 交易簿记服务数据处理方法、装置及系统 | |
US11582049B2 (en) | Virtual network function management | |
CN107426109B (zh) | 一种流量调度方法、vnf模块及流量调度服务器 | |
CN117499490A (zh) | 基于多集群的网络调度方法及装置 | |
CN115794396A (zh) | 资源分配的方法、系统和电子设备 | |
CN114327862B (zh) | 一种内存分配方法、装置、电子设备及存储介质 | |
US20210256600A1 (en) | Connector leasing for long-running software operations | |
CN114040378A (zh) | 应用的编排方法、装置、计算机设备和存储介质 | |
CN110058866B (zh) | 集群组件安装方法及设备 | |
CN113395291B (zh) | 流量控制方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200428 |