CN115114022A - 对gpu资源进行使用的方法、系统、设备及介质 - Google Patents
对gpu资源进行使用的方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN115114022A CN115114022A CN202210722305.8A CN202210722305A CN115114022A CN 115114022 A CN115114022 A CN 115114022A CN 202210722305 A CN202210722305 A CN 202210722305A CN 115114022 A CN115114022 A CN 115114022A
- Authority
- CN
- China
- Prior art keywords
- gpu
- training
- resource
- server
- container
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 135
- 238000004364 calculation method Methods 0.000 claims abstract description 23
- 230000015654 memory Effects 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 6
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 claims 12
- 238000011176 pooling Methods 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000306 component Substances 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
Abstract
本发明公开了一种对GPU资源进行使用的方法、系统、设备及介质,方法包括:启动容器,依次将第一资源、GPU资源与客户端挂载于容器,并在容器建立训练框架;基于客户端从训练框架获取CUDA调用请求并将CUDA调用请求转发到全局服务端,并将训练框架置于停止状态;基于全局服务端获取服务器集群的GPU资源使用信息以将CUDA调用请求转发到对应的本地服务端,并基于客户端将训练框架置于运行状态;基于本地服务端调用对应的GPU资源执行训练任务,并在训练任务执行结束后将计算结果返回给全局服务端和训练框架。通过本发明的方案,实现了GPU资源的池化和高效的利用率。
Description
技术领域
本发明涉及服务器技术领域,尤其涉及一种对GPU资源进行使用的方法、系统、设备及介质。
背景技术
人工智能业务的已经广泛落地,海量的业务数据需要被分析和用来作为人工智能业务更新的训练材料,越来越多的深度学习业务已经部署到Kubernetes上,而如何通过优化Kubernetes的组件提高对硬件设备利用和高效的调度策略来提高效率成为业界重要的研究课题之一。
随着计算力大幅提高,人工智能业务的广泛落地,数据中心中出现不同种类的高性能设备来满足人工智能业务的不同计算需求,例如通过使用GPU(Graphic ProcessingUnits,图形处理单元)来满足训练要求。
深度学习开发过程中,尤其在开发前期中,开发人员更多的是在进行代码构建、模型搭建工作,在此过程中,GPU资源几乎不需要,只有在具体执行用户训练调试代码的时候才会利用GPU资源,尤其是在NVIDIA(一种显卡)的GPU设备上,几乎都是通过CUDA(ComputeUnified Device Architecture,统一计算设备架构)调用来完成相应的GPU计算资源使用。但实际客户在容器化开发过程和使用中,GPU资源很多在独占使用中,因此在资源有限的情况下,很多实际需要GPU资源的应用就不能利用GPU资源,造成了GPU资源的浪费。
发明内容
有鉴于此,本发明提出了一种对GPU资源进行使用的方法、系统、设备及介质,实现了在用户应用程序真正使用GPU计算资源时,才调用GPU资源,在其他情况下,不独占GPU资源,以此能够最大程度上将GPU资源进行池化与储备,一旦有应用调用GPU资源,则通过特定的客户端对CUDA消息进行获取和转发执行,即可以使用GPU资源。通过分析用户应用程序对GPU的调用,然后通过内置优化策略的客户端对其GPU调用过程进行二次调度,以此实现应用程序在真正使用GPU时才调用GPU资源,从而达到GPU资源随用随取的使用方式,最大程度地提高集群的可用GPU资源和减少闲置GPU资源。
基于上述目的,本发明实施例的一方面提供了一种对GPU资源进行使用的方法,具体包括如下步骤:
启动容器,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架;
基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端,并将所述训练框架置于停止状态;
基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端,并基于所述客户端将所述训练框架置于运行状态;
基于所述本地服务端调用对应的GPU资源执行训练任务,并在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架。
在一些实施方式中,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架包括:
将第一资源挂载于所述容器,并在所述容器建立训练框架,其中,所述第一资源包括CPU资源、内存资源、磁盘资源;
获取用户对GPU资源的使用方式,并基于所述用户对所述GPU资源的使用方式将所述GPU资源挂载于所述容器;
将客户端挂载于所述容器。
在一些实施方式中,基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端包括:
响应于所述训练框架的用户训练进程需使用GPU资源,基于所述客户端从所述用户训练进程获取所述CUDA调用请求并将所述CUDA调用请求转发到全局服务端。
在一些实施方式中,在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架包括:
在所述训练任务执行结束后将计算结果返回给所述全局服务端,并基于所述全局服务端将所述计算结果发送给所述训练框架。
在一些实施方式中,在将所述计算结果发送给所述训练框架之后,方法进一步包括:
响应于所述训练框架接收到所述计算结果,基于所述训练框架结束所述用户训练进程,并基于所述客户端向所述全局服务端发出GPU资源释放消息;
基于所述全局服务端接收所述GPU资源释放消息,并向所述本地服务端发出GPU资源使用结束消息,并更新所述GPU使用信息。
在一些实施方式中,基于所述用户对所述GPU资源的使用方式将所述GPU资源挂载于所述容器包括:
响应于所述用户需要使用物理GPU资源,则将对应的GPU资源直接挂载到所述容器;
响应于所述用户不需要使用物理GPU,则劫持对应的GPU资源对应的动态库文件,并将所述对应的GPU资源及其所对应的动态库文件一并挂载到所述容器。
在一些实施方式中,基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端包括:
基于所述全局服务端获取所述服务器集群中每个服务器节点的GPU使用信息,并基于所述GPU使用信息以及调度策略将所述CUDA调用请求转发到对应的本地服务端;
其中,所述调度策略包括:基于训练任务所需GPU资源以及每个服务器节点的剩余GPU资源的匹配情况将所述训练任务调度到对应的GPU;
所述训练框架包括:TensorFlow、PyTorch中的任意一种。
本发明实施例的另一方面,还提供了一种对GPU资源进行使用的系统,包括:
挂载模块,所述挂载模块配置为启动容器,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架;
第一转发模块,所述第一转发模块配置为基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端,并将所述训练框架置于停止状态;
第二转发模块,所述第二转发模块基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端,并基于所述客户端将所述训练框架置于运行状态;
调用模块,所述调用模块配置为基于所述本地服务端调用对应的GPU资源执行训练任务,并在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架。
本发明实施例的又一方面,还提供了一种计算机设备,包括:至少一个处理器;以及存储器,所述存储器存储有可在所述处理器上运行的计算机程序,所述计算机程序由所述处理器执行时实现如上方法的步骤。
本发明实施例的再一方面,还提供了一种计算机可读存储介质,计算机可读存储介质存储有被处理器执行时实现如上方法步骤的计算机程序。
本发明至少具有以下有益技术效果:通过启动容器,依次将第一资源、GPU资源与客户端挂载于容器,并在容器建立训练框架;基于客户端从训练框架获取CUDA调用请求并将CUDA调用请求转发到全局服务端,并将训练框架置于停止状态;基于全局服务端获取服务器集群的GPU资源使用信息以将CUDA调用请求转发到对应的本地服务端,并基于客户端将训练框架置于运行状态;基于本地服务端调用对应的GPU资源执行训练任务,并在训练任务执行结束后将计算结果返回给全局服务端和训练框架,解决了在服务器对GPU独占使用过程中出现的长时间资源闲置问题,实现了在用户应用程序真正使用GPU计算资源时,才调用GPU资源,在其他情况下,不独占GPU资源;并且通过将集群所有的GPU资源放在统一的资源池中进行调度和使用,实现了GPU资源的池化和高效的利用率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明提供的对GPU资源进行使用的方法的一实施例的框图;
图2为Tensorflow训练框架通过CUDA使用GPU的一实施例的示意图;
图3为本发明提供的调用GPU资源并执行训练任务的的一实施例的流程示意图;
图4为本发明提供的基于客户端、全局服务端和本地服务端进行信息传输的一实施例的流程示意图;
图5为本发明提供的对GPU资源进行使用的系统的一实施例的示意图;
图6为本发明提供的计算机设备的一实施例的结构示意图;
图7为本发明提供的计算机可读存储介质的一实施例的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
基于上述目的,本发明实施例的第一个方面,提出了一种对GPU资源进行使用方法的实施例。如图1所示,其包括如下步骤:
S10、启动容器,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架;
S20、基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端,并将所述训练框架置于停止状态;
S30、基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端,并基于所述客户端将所述训练框架置于运行状态;
S40、基于所述本地服务端调用对应的GPU资源执行训练任务,并在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架。
首先对CUDA以及CUDA调用GPU资源的执行流程进行说明。
CUDA是一种由NVIDIA推出的通用并行计算架构,是一种并行计算平台和编程模型。CUDA架构由主机(host)和设备(device)组成;其中主机指的是传统的CPU,而设备指的是带有大量算术单元的处理器,通常是GPU。基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU负责处理数据密集型的并行计算程序,从而发挥最大功效。当一个kernel(核)被加载时,该kernel会被大量CUDA设备的线程同时执行,其中的某个集合可以被称为一个线程块(block of threads),块可以集聚为网格(grid)。
一个CUDA设备只有一个全局内存空间,加载核和产生大量用于计算的设备线程的首要条件是将所需的数据从主机复制到设备内存。一旦计算完成,还必须按相反的方向将结果复制回去。典型的CUDA程序的执行流程如下:
1)分配host内存,并进行数据初始化;
2)分配device内存,并从host将数据拷贝到device上;
3)调用CUDA的核函数在device上完成指定的运算;
4)将device上的运算结果拷贝到host上;
5)释放device和host上分配的内存。
GPU存在很多CUDA核心,充分利用CUDA核心可以充分发挥GPU的并行计算能力。GPU硬件的一个核心组件是SM(Streaming Multiprocessor,流式多处理器)。如图2所示,为Tensorflow训练框架如何通过CUDA使用GPU的过程。在图2中,训练框架通过Kernel使用CUDA中的Core API,从而调用CUDA核心函数进而使用GPU进行训练任务的运算。
基于此,本实施例通过两个模块,分别为在服务器上作为常驻守护进程的Server(服务)端和容器内挂载的Client(客户)端,基于该服务端和客户端实现GPU资源的池化使用,减少服务器集群中的GPU资源碎片,以及GPU资源利用率的最大化。客户端和服务端如何调用GPU资源执行训练任务具体过程如下:
用户在容器内的训练任务在使用GPU时,通过CUDA-runtime API调用CUDA内核进而使用GPU,Client端用于获取对CUDA-runtime API调用消息(即CUDA调用请求)并对训练框架进行暂停设置,以此保证训练处于正常状态而不因调用GPU而意外失败,在获取到CUDA调用请求的同时,Client端将获取的CUDA调用请求转发到Server端,以待Server端发出进一步指令,在训练完成时同样接收训练框架对GPU释放的消息并转给Server端以更新GPU使用情况,其中Server端分为两种,Global server(全局服务端)和local server(本地服务端),二者的作用如下:
Global server负责收集整个服务器集群中每个服务器节点上的GPU使用情况并记录,当有新GPU占用和释放任务时进行更新;
Global server接收Client端发送的CUDA调用请求,并根据当前集群中GPU使用情况将CUDA调用请求转发到指定节点的local server上;
loccal server承担真正的CUDA函数调用,在指定的节点和GPU上执行训练任务,将训练结果进行回传到Global server和训练框架。
本发明实施例通过启动容器,依次将第一资源、GPU资源与客户端挂载于容器,并在容器建立训练框架;基于客户端从训练框架获取CUDA调用请求并将CUDA调用请求转发到全局服务端,并将训练框架置于停止状态;基于全局服务端获取服务器集群的GPU资源使用信息以将CUDA调用请求转发到对应的本地服务端,并基于客户端将训练框架置于运行状态;基于本地服务端调用对应的GPU资源执行训练任务,并在训练任务执行结束后将计算结果返回给全局服务端和训练框架,解决了在服务器对GPU独占使用过程中出现的长时间资源闲置问题,实现了在用户应用程序真正使用GPU计算资源时,才调用GPU资源,在其他情况下,不独占GPU资源,将集群所有的GPU资源放在统一的资源池中进行调度和使用,以此实现了GPU资源的池化和高效的利用率。
在一些实施方式中,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架包括:
将第一资源挂载于所述容器,并在所述容器建立训练框架,其中,所述第一资源包括CPU资源、内存资源、磁盘资源;
获取用户对GPU资源的使用方式,并基于所述用户对所述GPU资源的使用方式将所述GPU资源挂载于所述容器;
将客户端挂载于所述容器。
在一些实施方式中,基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端包括:
响应于所述训练框架的用户训练进程需使用GPU资源,基于所述客户端从所述用户训练进程获取所述CUDA调用请求并将所述CUDA调用请求转发到全局服务端。
在一些实施方式中,在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架包括:
在所述训练任务执行结束后将计算结果返回给所述全局服务端,并基于所述全局服务端将所述计算结果发送给所述训练框架。
在一些实施方式中,在将所述计算结果发送给所述训练框架之后,方法进一步包括:
响应于所述训练框架接收到所述计算结果,基于所述训练框架结束所述用户训练进程,并基于所述客户端向所述全局服务端发出GPU资源释放消息;
基于所述全局服务端接收所述GPU资源释放消息,并向所述本地服务端发出GPU资源使用结束消息,并更新所述GPU使用信息。
在一些实施方式中,基于所述用户对所述GPU资源的使用方式将所述GPU资源挂载于所述容器包括:
响应于所述用户需要使用物理GPU资源,则将对应的GPU资源直接挂载到所述容器;
响应于所述用户不需要使用物理GPU,则劫持对应的GPU资源对应的动态库文件,并将所述对应的GPU资源及其所对应的动态库文件一并挂载到所述容器。
在一些实施方式中,基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端包括:
基于所述全局服务端获取所述服务器集群中每个服务器节点的GPU使用信息,并基于所述GPU使用信息以及调度策略将所述CUDA调用请求转发到对应的本地服务端;
其中,所述调度策略包括:基于训练任务所需GPU资源以及每个服务器节点的剩余GPU资源的匹配情况将所述训练任务调度到对应的GPU;
所述训练框架包括:TensorFlow、PyTorch中的任意一种。
如图3所示,为本发明提供的调用GPU资源并执行训练任务的一实施例的示意图。如图4所示,为客户端、全局服务端和本地服务端进行信息传输的示意图。
下面结合图3和图4通过又一具体实施例对本发明的具体实施方式进行说明。
1)用户容器启动,随后进行CPU、内存、磁盘等资源挂载动作;
2)根据用户对GPU资源使用方式的不同,进行不同的GPU资源挂载动作:
a)如果使用物理GPU资源则直接挂载GPU资源到容器;
b)如果使用虚拟GPU则劫持对GPU资源使用查询的动态库文件,将动态库文件与GPU资源一并挂载到容器,以此实现不独占GPU资源使用的目的;
3)用户训练进程对GPU资源使用时,client将获取到的CUDA调用请求转发到Global Server,同时将框架训练状态置于停止,并等待后续启动指令而再次启动训练状态;
4)Global Server根据目前集群的GPU使用情况和调度策略进行CUDA调用请求转发到具体的Local server上;
5)Local Server根据接收的具体函数调用真正的GPU进行训练任务的计算,并将计算结果返回给Global server和训练框架;
6)当用户训练进程计算结束发出GPU释放消息后,Global server发出GPU资源使用结束的消息,将Globalserver中的GPU使用信息进行更新。
通过上述实施例,实现了在用户应用程序真正使用GPU计算资源时,才调用GPU资源,在其他情况下,不独占GPU资源;并且通过将集群所有的GPU资源放在统一的资源池中进行调度和使用,实现了GPU资源的池化和高效的利用率。
基于同一发明构思,根据本发明的另一个方面,如图5所示,本发明的实施例还提供了一种对GPU资源进行使用的系统,包括:
挂载模块110,所述挂载模块110配置为启动容器,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架;
第一转发模块120,所述第一转发模块120配置为基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端,并将所述训练框架置于停止状态;
第二转发模块130,所述第二转发模块130基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端,并基于所述客户端将所述训练框架置于运行状态;
调用模块140,所述调用模块140配置为基于所述本地服务端调用对应的GPU资源执行训练任务,并在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架。
基于同一发明构思,根据本发明的另一个方面,如图6所示,本发明的实施例还提供了一种计算机设备30,在该计算机设备30中包括处理器310以及存储器320,存储器320存储有可在处理器上运行的计算机程序321,处理器310执行程序时执行如上的方法的步骤。
其中,存储器作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的所述对GPU资源进行使用的方法对应的程序指令/模块。处理器通过运行存储在存储器中的非易失性软件程序、指令以及模块,从而执行装置的各种功能应用以及数据处理,即实现上述方法实施例的对GPU资源进行使用的方法。
存储器可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据装置的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至本地模块。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
基于同一发明构思,根据本发明的另一个方面,如图7所示,本发明的实施例还提供了一种计算机可读存储介质40,计算机可读存储介质40存储有被处理器执行时执行如上方法的计算机程序410。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,程序的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种对GPU资源进行使用的方法,其特征在于,包括:
启动容器,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架;
基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端,并将所述训练框架置于停止状态;
基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端,并基于所述客户端将所述训练框架置于运行状态;
基于所述本地服务端调用对应的GPU资源执行训练任务,并在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架。
2.根据权利要求1所述的方法,其特征在于,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架包括:
将第一资源挂载于所述容器,并在所述容器建立训练框架,其中,所述第一资源包括CPU资源、内存资源、磁盘资源;
获取用户对GPU资源的使用方式,并基于所述用户对所述GPU资源的使用方式将所述GPU资源挂载于所述容器;
将客户端挂载于所述容器。
3.根据权利要求1所述的方法,其特征在于,基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端包括:
响应于所述训练框架的用户训练进程需使用GPU资源,基于所述客户端从所述用户训练进程获取所述CUDA调用请求并将所述CUDA调用请求转发到全局服务端。
4.根据权利要求3所述的方法,其特征在于,在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架包括:
在所述训练任务执行结束后将计算结果返回给所述全局服务端,并基于所述全局服务端将所述计算结果发送给所述训练框架。
5.根据权利要求4所述的方法,其特征在于,在将所述计算结果发送给所述训练框架之后,方法进一步包括:
响应于所述训练框架接收到所述计算结果,基于所述训练框架结束所述用户训练进程,并基于所述客户端向所述全局服务端发出GPU资源释放消息;
基于所述全局服务端接收所述GPU资源释放消息,并向所述本地服务端发出GPU资源使用结束消息,并更新所述GPU使用信息。
6.根据权利要求2所述的方法,其特征在于,基于所述用户对所述GPU资源的使用方式将所述GPU资源挂载于所述容器包括:
响应于所述用户需要使用物理GPU资源,则将对应的GPU资源直接挂载到所述容器;
响应于所述用户不需要使用物理GPU,则劫持对应的GPU资源对应的动态库文件,并将所述对应的GPU资源及其所对应的动态库文件一并挂载到所述容器。
7.根据权利要求1所述的方法,其特征在于,基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端包括:
基于所述全局服务端获取所述服务器集群中每个服务器节点的GPU使用信息,并基于所述GPU使用信息以及调度策略将所述CUDA调用请求转发到对应的本地服务端;
其中,所述调度策略包括:基于训练任务所需GPU资源以及每个服务器节点的剩余GPU资源的匹配情况将所述训练任务调度到对应的GPU;
所述训练框架包括:TensorFlow、PyTorch中的任意一种。
8.一种对GPU资源进行使用的系统,其特征在于,包括:
挂载模块,所述挂载模块配置为启动容器,依次将第一资源、GPU资源与客户端挂载于所述容器,并在所述容器建立训练框架;
第一转发模块,所述第一转发模块配置为基于所述客户端从所述训练框架获取CUDA调用请求并将所述CUDA调用请求转发到全局服务端,并将所述训练框架置于停止状态;
第二转发模块,所述第二转发模块基于所述全局服务端获取服务器集群的GPU资源使用信息以将所述CUDA调用请求转发到对应的本地服务端,并基于所述客户端将所述训练框架置于运行状态;
调用模块,所述调用模块配置为基于所述本地服务端调用对应的GPU资源执行训练任务,并在所述训练任务执行结束后将计算结果返回给所述全局服务端和所述训练框架。
9.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1至7任意一项所述的方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1至7任意一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210722305.8A CN115114022A (zh) | 2022-06-24 | 2022-06-24 | 对gpu资源进行使用的方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210722305.8A CN115114022A (zh) | 2022-06-24 | 2022-06-24 | 对gpu资源进行使用的方法、系统、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115114022A true CN115114022A (zh) | 2022-09-27 |
Family
ID=83329222
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210722305.8A Pending CN115114022A (zh) | 2022-06-24 | 2022-06-24 | 对gpu资源进行使用的方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115114022A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117493022A (zh) * | 2023-12-28 | 2024-02-02 | 苏州元脑智能科技有限公司 | 处理器资源调度方法、装置及系统 |
-
2022
- 2022-06-24 CN CN202210722305.8A patent/CN115114022A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117493022A (zh) * | 2023-12-28 | 2024-02-02 | 苏州元脑智能科技有限公司 | 处理器资源调度方法、装置及系统 |
CN117493022B (zh) * | 2023-12-28 | 2024-03-29 | 苏州元脑智能科技有限公司 | 处理器资源调度方法、装置及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109445944B (zh) | 一种基于dpdk的网络数据采集处理系统及其方法 | |
CN110262901B (zh) | 一种数据处理方法及数据处理系统 | |
CN107479990A (zh) | 一种分布式软件服务系统 | |
CN111400000B (zh) | 网络请求处理方法、装置、设备和存储介质 | |
CN111026541B (zh) | 渲染资源调度方法、装置、设备及存储介质 | |
Lin et al. | Echo: An edge-centric code offloading system with quality of service guarantee | |
CN112395736A (zh) | 一种分布交互仿真系统的并行仿真作业调度方法 | |
CN115600676A (zh) | 深度学习模型推理方法、装置、设备及存储介质 | |
WO2019117767A1 (en) | Method, function manager and arrangement for handling function calls | |
CN115114022A (zh) | 对gpu资源进行使用的方法、系统、设备及介质 | |
Justino et al. | Outsourcing resource-intensive tasks from mobile apps to clouds: Android and aneka integration | |
CN115550354A (zh) | 一种数据处理方法、装置及计算机可读存储介质 | |
CN111597035B (zh) | 基于多线程的仿真引擎时间推进方法及系统 | |
CN112860396A (zh) | 一种基于分布式深度学习的gpu调度方法及系统 | |
WO2015058594A1 (zh) | 一种进程加载方法、装置及系统 | |
CN108647087B (zh) | 实现php内核可重入的方法、装置、服务器和存储介质 | |
JP6564839B2 (ja) | 組み込み型オペレーティングシステムに基づくmpi実現システムおよび方法 | |
CN112162840B (zh) | 一种基于中断重入机制的协程处理及管理方法 | |
CN114741166A (zh) | 一种分布式任务的处理方法、分布式系统及第一设备 | |
CN114385351A (zh) | 云管理平台负载均衡性能优化方法、装置、设备、介质 | |
CN111866159A (zh) | 人工智能服务的调用方法、系统、设备和存储介质 | |
CN113992941B (zh) | 基于无服务器函数计算的云边协同视频分析系统与方法 | |
CN116578404B (zh) | 线程管理方法、装置、存储介质及电子设备 | |
CN111968190B (zh) | 游戏贴图的压缩方法、装置和电子设备 | |
CN115168057B (zh) | 基于k8s集群的资源调度方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |