CN111858045A - 一种多任务gpu资源调度方法、装置、设备及可读介质 - Google Patents
一种多任务gpu资源调度方法、装置、设备及可读介质 Download PDFInfo
- Publication number
- CN111858045A CN111858045A CN202010667475.1A CN202010667475A CN111858045A CN 111858045 A CN111858045 A CN 111858045A CN 202010667475 A CN202010667475 A CN 202010667475A CN 111858045 A CN111858045 A CN 111858045A
- Authority
- CN
- China
- Prior art keywords
- gpu
- node
- resource
- attribute information
- resources
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013468 resource allocation Methods 0.000 claims abstract description 21
- 238000004891 communication Methods 0.000 claims abstract description 17
- 230000004044 response Effects 0.000 claims abstract description 16
- 230000003044 adaptive effect Effects 0.000 claims abstract description 7
- 238000004590 computer program Methods 0.000 claims description 9
- 230000001360 synchronised effect Effects 0.000 claims description 7
- 230000006870 function Effects 0.000 description 7
- 230000006978 adaptation Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 102100033121 Transcription factor 21 Human genes 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 101150109289 tcf21 gene Proteins 0.000 description 3
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种多任务GPU资源调度的方法,包括以下步骤:将每个子节点上GPU的属性信息同步到主节点上,根据GPU的属性信息计算并更新配置的资源数;响应于接收到用户任务申请,判断申请的资源数是否大于配置的资源数;以及响应于申请的资源数不大于配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持该GPU资源分配方案的调用申请并进行分配。本发明还公开了一种多任务GPU资源调度的装置、计算机设备和可读存储介质。本发明实现了在K8S集群内部跨节点分配GPU资源,支持在单GPU上部署多个任务,提升了容器间通信效率。
Description
技术领域
本发明涉及云计算技术领域,尤其涉及一种多任务GPU资源调度的方法、装置、设备及可读介质。
背景技术
容器是广泛使用的现有技术,具有轻量级与可移植性。K8S是基于容器技术的分布式容器编排平台,为容器化的应用(服务化)提供部署,资源分配,服务发现,动态伸缩等全套功能。
图1示出的是现有技术容器云共享GPU的方案,如图1所示,容器云共享GPU方案包括以下四部分:GPU Manager(host)是一个设备插件,负责创建vGPUs、与kubelet通信(gRPCservice);GPU Scheduler(host) 用于动态资源申请;vGPU Manager(host)用于监听容器及维护;vGPU Library(container)用于管理容器内的GPU,向vGPU Manager注册自己,拦截显存和计算相关的CUDA API,当有一个GPU资源请求,就从GPU 资源总数中减去相应的请求资源。
在K8S集群上执行多个任务时,一张GPU卡在同一时间只准许一个任务执行,多个任务无法在一张GPU卡上执行,GPU的计算资源及显存资源未能有效的使用,造成GPU资源浪费。与系统中现有的插件nvidia-plugin 不兼容问题。集群内部不能跨节点分配资源。K8S单个节点内部容器之间通信时间长。
发明内容
有鉴于此,本发明实施例的目的在于提出一种多任务GPU资源调度的方法、装置、设备及可读介质,实现了在K8S集群内部跨节点分配GPU资源,支持在单GPU上部署多个任务,提升了容器间通信效率。
基于上述目的,本发明实施例的一方面提供了一种多任务GPU资源调度的方法,包括以下步骤:将每个子节点上GPU的属性信息同步到主节点上,根据GPU的属性信息计算并更新配置的资源数;响应于接收到用户任务申请,判断申请的资源数是否大于配置的资源数;以及响应于申请的资源数不大于配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持该GPU资源分配方案的调用申请并进行分配。
在一些实施方式中,还包括:在每个子节点和主节点之间设置心跳信息;响应于主节点与子节点心跳信息超时,确认子节点掉线,主节点删除子节点同步的全部GPU的属性信息。
在一些实施方式中,还包括:响应于加入新的子节点,将新的子节点上GPU的属性信息发送给主节点以同步更新配置的资源数。
在一些实施方式中,还包括:响应于申请的资源数大于配置的资源数,确认用户任务申请失败并报错。
在一些实施方式中,将每个子节点上GPU的属性信息同步到主节点上包括:子节点同步模块向主节点同步模块发起的同步信息,以将子节点上 GPU的属性信息同步到主节点上;响应于全部子节点上GPU的属性信息同步完成,主节点同步模块通过UNIX通信族通知调度模块。
本发明实施例的另一方面,还提供了一种多任务GPU资源调度的装置,包括:初始化模块,配置用于将每个子节点上GPU的属性信息同步到主节点上,根据GPU的属性信息计算并更新配置的资源数;判断模块,配置用于响应于接收到用户任务申请,判断申请的资源数是否大于配置的资源数;以及调度模块,配置用于响应于申请的资源数不大于配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持该GPU 资源分配方案的调用申请并进行分配。
在一些实施方式中,初始化模块进一步配置用于:子节点同步模块向主节点同步模块发起的同步信息,以将子节点上GPU的属性信息同步到主节点上;响应于全部子节点上GPU的属性信息同步完成,主节点同步模块通过UNIX通信族通知调度模块。
在一些实施方式中,调度模块进一步配置用于:响应于申请的资源数大于配置的资源数,确认用户任务申请失败并报错。
本发明实施例的再一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行时实现上述方法的步骤。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明具有以下有益技术效果:实现了在K8S集群内部跨节点分配 GPU资源,支持在单GPU上部署多个任务,提升了容器间通信效率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为现有技术容器云共享GPU的架构示意图;
图2为本发明提供的多任务GPU资源调度的方法的实施例的示意图;
图3为本发明提供的多任务GPU资源调度的架构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了多任务GPU资源调度的方法的实施例。图2示出的是本发明提供的多任务GPU资源调度的方法的实施例的示意图。如图2所示,本发明实施例包括如下步骤:
S1、将每个子节点上GPU的属性信息同步到主节点上,根据GPU的属性信息计算并更新配置的资源数;
S2、响应于接收到用户任务申请,判断申请的资源数是否大于配置的资源数;以及
S3、响应于申请的资源数不大于配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持该GPU资源分配方案的调用申请并进行分配。
在本实施例中,将每个子节点上GPU的属性信息同步到主节点上GPU 的属性信息包括UUID、计算资源和显存资源,同步完成后通知scheduler 完成同步;当用户创建任务请求时,判断申请的资源数是否大于配置的资源数,申请的资源数不大于配置的资源数,scheduler根据最佳适应算法计算出分配在子节点上GPU的方案并发送给子节点同步模块创建容器,虚拟 Cuda劫持执行任务过程中调用的所有的计算资源和显存资源的申请进行。
图2示出的是本发明提供的多任务GPU资源调度的架构示意图。如图 2所示,架构包括scheduler,master sync,node sync和vCuda四部分。其中主节点的scheduler负责所有GPU资源的分配,根据最佳适应算法找到最合适的GPU;master sync负责与node sync同步node节点上所有GPU的属性信息,所有node信息同步结束之后,master sync使用UNIX通信族发送消息通知scheduler所有的GPU资源同步结束;vCuda负责劫持与计算资源和显存资源相关的所有CUDA API,保证计算资源和显存资源的隔离性。在 master上,scheduler与master sync采用UNIX通信族收发消息,减少scheduler与master sync容器间的通信时间,在node上,node sync与vCuda 采用UNIX通信族收发消息,减少node sync与vCuda容器间的通信时间。
在本实施例中,K8S master获取所有node节点上的GPU属性信息,node 上的nodesync负责发起同步信息,通知master sysncGPU资源信息已经更新;master sync通知scheduler所有GPU属性信息已经更新完成。
当用户创建一个请求0.6核计算资源pod1容器的任务申请时,scheduler 根据最佳适应算法,计算出分配node1上的GPU0,向master sync发送带有资源配置的消息,mastersync收到消息后会发送消息给node1sync, node1sync创建pod1容器,并管理pod1,vCuda劫持执行任务过程中调用的所有的计算资源和显存资源的申请进行。
当用户创建第二个请求1.5核计算资源pod2容器的任务申请时, scheduler根据最佳适应算法,K8S node1不能满足资源要求,K8S node2满足资源要求,分配K8S node2的1核GPU0和node2的0.5核GPU1,将配置信息发送给master sync,然后同步给node2sync,创建pod2容器。
当用户创建第三个请求0.5核的任务申请时,根据最佳适应算法,K8S node2满足资源要求,分配K8S node2的GPU1上完成第三次的任务申请。
在本发明的一些实施例中,还包括:在每个子节点和主节点之间设置心跳信息;响应于主节点与子节点心跳信息超时,确认子节点掉线,主节点删除子节点同步的全部GPU的属性信息。
node sync与master sync之间有心跳消息,当K8S节点掉线时,master sync与node sync心跳消息超时,master sync会删除这个node上的所有GPU 属性信息,保证K8Smaster拥有准确的GPU信息。
在本发明的一些实施例中,还包括:响应于加入新的子节点,将新的子节点上GPU的属性信息发送给主节点以同步更新配置的资源数。
继续参考图2,当有新节点加入K8S时,node sync会主动使用TCP通信族消息通知master sync更性GPU的属性信息。
在本发明的一些实施方式中,还包括:响应于申请的资源数大于配置的资源数,确认用户任务申请失败并报错。
在本实施例中,vCuda在申请资源时,根据配置的资源数和申请的资源数进行分配,当一个任务申请的资源没有达到任务配置的最大资源数时,按照申请资源数进行分配,当任务申请的资源累加超过了任务配置的最大资源数时,则申请失败,保证资源的隔离性。
在本发明的一些实施方式中,将每个子节点上GPU的属性信息同步到主节点上包括:子节点同步模块向主节点同步模块发起的同步信息,以将子节点上GPU的属性信息同步到主节点上;响应于全部子节点上GPU的属性信息同步完成,主节点同步模块通过UNIX通信族通知调度模块。
需要特别指出的是,上述多任务GPU资源调度的方法的各个实施例中的各个步骤均可以相互交叉、替换、增加、删减,因此,这些合理的排列组合变换之于多任务GPU资源调度的方法也应当属于本发明的保护范围,并且不应将本发明的保护范围局限在实施例之上。
基于上述目的,本发明实施例的第二个方面,提出了一种多任务GPU 资源调度的装置,包括:初始化模块,配置用于将每个子节点上GPU的属性信息同步到主节点上,根据GPU的属性信息计算并更新配置的资源数;判断模块,配置用于响应于接收到用户任务申请,判断申请的资源数是否大于配置的资源数;以及调度模块,配置用于响应于申请的资源数不大于配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持该GPU资源分配方案的调用申请并进行分配。
在本发明的一些实施方式中,初始化模块进一步配置用于:子节点同步模块向主节点同步模块发起的同步信息,以将子节点上GPU的属性信息同步到主节点上;响应于全部子节点上GPU的属性信息同步完成,主节点同步模块通过UNIX通信族通知调度模块。
在本发明的一些实施方式中,调度模块进一步配置用于:响应于申请的资源数大于配置的资源数,确认用户任务申请失败并报错。
基于上述目的,本发明实施例的第三个方面,提出了一种计算机设备,包括:至少一个处理器;以及存储器,存储器存储有可在处理器上运行的计算机指令,指令由处理器执行时实现以上方法的步骤。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时执行如上方法的计算机程序。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,多任务GPU资源调度的方法的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM) 等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,根据本发明实施例公开的方法还可以被实现为由处理器执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被处理器执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器) 可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDR SDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA) 或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM 存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC 可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路 (DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种多任务GPU资源调度的方法,其特征在于,包括以下步骤:
将每个子节点上GPU的属性信息同步到主节点上,根据所述GPU的属性信息计算并更新配置的资源数;
响应于接收到用户任务申请,判断所述申请的资源数是否大于所述配置的资源数;以及
响应于所述申请的资源数不大于所述配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持所述GPU资源分配方案的调用申请并进行分配。
2.根据权利要求1所述的多任务GPU资源调度的方法,其特征在于,还包括:
在所述每个子节点和所述主节点之间设置心跳信息;
响应于所述主节点与子节点心跳信息超时,确认所述子节点掉线,所述主节点删除所述子节点同步的全部GPU的属性信息。
3.根据权利要求1所述的多任务GPU资源调度的方法,其特征在于,还包括:
响应于加入新的子节点,将所述新的子节点上GPU的属性信息发送给所述主节点以同步更新所述配置的资源数。
4.根据权利要求1所述的多任务GPU资源调度的方法,其特征在于,还包括:
响应于所述申请的资源数大于所述配置的资源数,确认所述用户任务申请失败并报错。
5.根据权利要求1所述的多任务GPU资源调度的方法,其特征在于,将每个子节点上GPU的属性信息同步到主节点上包括:
子节点同步模块向主节点同步模块发起的同步信息,以将所述子节点上GPU的属性信息同步到所述主节点上;
响应于全部所述子节点上GPU的属性信息同步完成,所述主节点同步模块通过UNIX通信族通知调度模块。
6.一种多任务GPU资源调度的装置,其特征在于,包括:
初始化模块,配置用于将每个子节点上GPU的属性信息同步到主节点上,根据所述GPU的属性信息计算并更新配置的资源数;
判断模块,配置用于响应于接收到用户任务申请,判断所述申请的资源数是否大于所述配置的资源数;以及
调度模块,配置用于响应于所述申请的资源数不大于所述配置的资源数,创建容器并根据最佳适应算法得到GPU资源分配方案,虚拟CUDA劫持所述GPU资源分配方案的调用申请并进行分配。
7.根据权利要求6所述的多任务GPU资源调度的装置,其特征在于,初始化模块进一步配置用于:
子节点同步模块向主节点同步模块发起的同步信息,以将所述子节点上GPU的属性信息同步到所述主节点上;
响应于全部所述子节点上GPU的属性信息同步完成,所述主节点同步模块通过UNIX通信族通知调度模块。
8.根据权利要求6所述的多任务GPU资源调度的装置,其特征在于,调度模块进一步配置用于:
响应于所述申请的资源数大于所述配置的资源数,确认所述用户任务申请失败并报错。
9.一种计算机设备,其特征在于,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机指令,所述指令由所述处理器执行时实现1-5任意一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-5任意一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010667475.1A CN111858045A (zh) | 2020-07-13 | 2020-07-13 | 一种多任务gpu资源调度方法、装置、设备及可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010667475.1A CN111858045A (zh) | 2020-07-13 | 2020-07-13 | 一种多任务gpu资源调度方法、装置、设备及可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111858045A true CN111858045A (zh) | 2020-10-30 |
Family
ID=72983260
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010667475.1A Withdrawn CN111858045A (zh) | 2020-07-13 | 2020-07-13 | 一种多任务gpu资源调度方法、装置、设备及可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858045A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112835695A (zh) * | 2021-01-28 | 2021-05-25 | 北京市商汤科技开发有限公司 | Pod间通信的方法和分布式计算系统 |
CN113127192A (zh) * | 2021-03-12 | 2021-07-16 | 山东英信计算机技术有限公司 | 一种多个服务共享同一个gpu的方法、系统、设备及介质 |
CN113377529A (zh) * | 2021-05-24 | 2021-09-10 | 阿里巴巴新加坡控股有限公司 | 一种智能加速卡及基于智能加速卡的数据处理方法 |
CN113791593A (zh) * | 2021-11-15 | 2021-12-14 | 西安热工研究院有限公司 | 分散控制系统测点导出方法、系统、终端设备及可读存储介质 |
CN114661465A (zh) * | 2022-03-17 | 2022-06-24 | 维塔科技(北京)有限公司 | 资源管理的方法、装置、存储介质及电子设备 |
CN116578416A (zh) * | 2023-04-26 | 2023-08-11 | 中国人民解放军92942部队 | 一种基于gpu虚拟化的信号级仿真加速方法 |
WO2023207567A1 (zh) * | 2022-04-29 | 2023-11-02 | 中兴通讯股份有限公司 | 网络服务方法、主节点、子节点、计算机可读介质 |
-
2020
- 2020-07-13 CN CN202010667475.1A patent/CN111858045A/zh not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112835695A (zh) * | 2021-01-28 | 2021-05-25 | 北京市商汤科技开发有限公司 | Pod间通信的方法和分布式计算系统 |
CN112835695B (zh) * | 2021-01-28 | 2022-12-23 | 北京市商汤科技开发有限公司 | Pod间通信的方法和分布式计算系统 |
CN113127192A (zh) * | 2021-03-12 | 2021-07-16 | 山东英信计算机技术有限公司 | 一种多个服务共享同一个gpu的方法、系统、设备及介质 |
CN113127192B (zh) * | 2021-03-12 | 2023-02-28 | 山东英信计算机技术有限公司 | 一种多个服务共享同一个gpu的方法、系统、设备及介质 |
CN113377529A (zh) * | 2021-05-24 | 2021-09-10 | 阿里巴巴新加坡控股有限公司 | 一种智能加速卡及基于智能加速卡的数据处理方法 |
CN113377529B (zh) * | 2021-05-24 | 2024-04-19 | 阿里巴巴创新公司 | 一种智能加速卡及基于智能加速卡的数据处理方法 |
CN113791593A (zh) * | 2021-11-15 | 2021-12-14 | 西安热工研究院有限公司 | 分散控制系统测点导出方法、系统、终端设备及可读存储介质 |
CN113791593B (zh) * | 2021-11-15 | 2022-02-01 | 西安热工研究院有限公司 | 分散控制系统测点导出方法、系统、终端设备及可读存储介质 |
CN114661465A (zh) * | 2022-03-17 | 2022-06-24 | 维塔科技(北京)有限公司 | 资源管理的方法、装置、存储介质及电子设备 |
WO2023207567A1 (zh) * | 2022-04-29 | 2023-11-02 | 中兴通讯股份有限公司 | 网络服务方法、主节点、子节点、计算机可读介质 |
CN116578416A (zh) * | 2023-04-26 | 2023-08-11 | 中国人民解放军92942部队 | 一种基于gpu虚拟化的信号级仿真加速方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111858045A (zh) | 一种多任务gpu资源调度方法、装置、设备及可读介质 | |
WO2018141183A1 (zh) | 一种编排管理系统和网络切片处理方法 | |
CN110262902B (zh) | 信息处理方法及系统、介质和计算设备 | |
CN107729176B (zh) | 一种配置文件管理系统的容灾方法及容灾系统 | |
CN111897633A (zh) | 一种任务处理的方法和装置 | |
CN111367659A (zh) | 一种Kubernetes中节点的资源管理方法、设备以及介质 | |
US10802896B2 (en) | Rest gateway for messaging | |
CN114124948A (zh) | 一种云端组件高可用的方法、装置、设备及可读介质 | |
WO2020216038A1 (zh) | 数据管理方法、lepm和mepm | |
CN109885612A (zh) | 区块链智能合约的同步生效方法及装置 | |
CN114565502A (zh) | Gpu资源管理方法、调度方法、装置、电子设备及存储介质 | |
CN113079098B (zh) | 路由更新的方法、装置、设备和计算机可读介质 | |
CN114301914A (zh) | 一种云边协同方法、装置及存储介质 | |
CN106790354B (zh) | 一种防数据拥堵的通信方法及其装置 | |
CN111314241B (zh) | 一种任务调度方法及调度系统 | |
CN114629958B (zh) | 资源分配方法、装置、电子设备及存储介质 | |
JP6445715B2 (ja) | Vnfm間のインターフェースを確立するための方法及び装置、並びにシステム | |
CN111382132A (zh) | 医学影像数据云存储系统 | |
CN115277707A (zh) | 业务处理方法、装置、电子设备和存储介质 | |
CN111767345B (zh) | 建模数据同步方法、装置、计算机设备及可读存储介质 | |
CN115629909A (zh) | 业务数据处理的方法、装置、电子设备和存储介质 | |
CN111083182B (zh) | 分布式物联网设备管理方法及装置 | |
CN114827177A (zh) | 一种分布式文件系统的部署方法、装置及电子设备 | |
CN110290215B (zh) | 一种信号传输方法及装置 | |
CN105827567B (zh) | 服务管控方法及能力开放平台 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20201030 |
|
WW01 | Invention patent application withdrawn after publication |