CN114675976B - 基于kubernetes的GPU共享方法、装置、设备及介质 - Google Patents
基于kubernetes的GPU共享方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN114675976B CN114675976B CN202210580679.0A CN202210580679A CN114675976B CN 114675976 B CN114675976 B CN 114675976B CN 202210580679 A CN202210580679 A CN 202210580679A CN 114675976 B CN114675976 B CN 114675976B
- Authority
- CN
- China
- Prior art keywords
- gpu
- target
- docker
- equipment
- priority
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/54—Interprogram communication
- G06F9/544—Buffers; Shared memory; Pipes
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Debugging And Monitoring (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及互联网领域,提供一种基于kubernetes的GPU共享方法、装置、设备及介质,在内核层,通过配置的第一插件监听每个GPU设备的资源占用信息并记录至预设文件,当根据预设文件检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将GPU设备确定为目标GPU设备,并利用kubernetes的device‑plugin插件将目标GPU设备作为扩展资源上报至kubelet,通过kubelet上报目标GPU设备至kubernetes,并将目标GPU设备映射至目标docker进行使用。利用本发明能够实现对GPU资源的共享,避免造成GPU资源的浪费,同时提高了GPU任务的执行效率。
Description
技术领域
本发明涉及互联网技术领域,尤其涉及一种基于kubernetes的GPU共享方法、装置、设备及介质。
背景技术
Kubernetes 是一个可移植、可扩展的平台,用于管理容器化的工作负载和服务,可促进声明式配置和自动化。现有的Kubernetes中,上报给Kubernetes的GPU(GraphicsProcessing Unit,图形处理器)资源,一旦分配给某个docker,就会被docker独占,即便该docker并未使用GPU资源,也无法再分配给其他docker使用,造成了资源的浪费。
并且,在利用GPU设备执行任务时,通常是由多个任务同时共享使用同一个GPU设备,存在任务相互干扰的情况,并导致任务的执行效率低。
另外,当有GPU设备被长期闲置时,也会造成GPU资源的浪费,导致GPU资源的利用率低。
发明内容
鉴于以上内容,有必要提供一种基于kubernetes的GPU共享方法、装置、设备及介质,旨在解决GPU资源浪费及GPU任务执行效率低的问题。
一种基于kubernetes的GPU共享方法,所述基于kubernetes的GPU共享方法包括:
在内核层,通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件;
根据所述预设文件检测是否有GPU设备处于空闲状态;
当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet;
通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用。
根据本发明优选实施例,所述GPU设备的资源占用信息包括该GPU设备的打开事件及关闭事件;
所述通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件包括:
通过所述第一插件的预设开关控制是否监听每个GPU设备的资源占用信息;
当通过所述预设开关控制监听每个GPU设备的资源占用信息时,通过所述第一插件监听每个GPU设备的打开事件及关闭事件;
获取所述打开事件的进程ID,及获取所述关闭事件的进程ID,并通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件;
通过所述第二插件将每个GPU设备的资源占用信息记录至所述预设文件,其中,每个GPU设备的资源占用信息包括所述打开事件的进程ID及所述关闭事件的进程ID。
根据本发明优选实施例,在通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件前,所述方法还包括:
向所述第一插件注册所述第二插件。
根据本发明优选实施例,所述根据所述预设文件检测是否有GPU设备处于空闲状态包括:
当根据所述预设文件中的记录检测到有GPU设备被任意docker占用,且在预设时长内未被使用时,确定检测到的GPU设备处于所述空闲状态。
根据本发明优选实施例,所述将所述目标GPU设备映射至所述目标docker进行使用包括:
当所述目标docker的数量为多个时,获取所述目标docker中每个目标docker的请求时间;
获取所述请求时间最早的目标docker作为当前目标docker;
将所述目标GPU设备映射至所述当前目标docker进行使用。
根据本发明优选实施例,在将所述目标GPU设备映射至所述目标docker进行使用后,所述方法还包括:
获取所述目标GPU设备处于所述空闲状态时所属的docker作为初始docker;
当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,解除所述目标docker对所述目标GPU设备的占用,并将所述目标GPU设备的GPU资源返还至所述初始docker。
根据本发明优选实施例,在解除所述目标docker对所述目标GPU设备的占用后,所述方法还包括:
记录所述目标docker的任务节点;
当检测到所述目标docker的任务被重启时,从所述目标docker的任务节点处开始执行所述目标docker的任务。
一种基于kubernetes的GPU共享装置,所述基于kubernetes的GPU共享装置包括:
监听单元,用于在内核层,通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件;
检测单元,用于根据所述预设文件检测是否有GPU设备处于空闲状态;
上报单元,用于当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet;
映射单元,用于通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用。
一种计算机设备,所述计算机设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现所述基于kubernetes的GPU共享方法。
一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被计算机设备中的处理器执行以实现所述基于kubernetes的GPU共享方法。
由以上技术方案可以看出,本发明利用配置的插件,并结合kubernetes实现对GPU资源的共享,避免造成GPU资源的浪费,同时提高了GPU任务的执行效率。
附图说明
图1是本发明基于kubernetes的GPU共享方法的较佳实施例的流程图。
图2是本发明基于kubernetes的GPU共享装置的较佳实施例的功能模块图。
图3是本发明实现基于kubernetes的GPU共享方法的较佳实施例的计算机设备的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
如图1所示,是本发明基于kubernetes的GPU共享方法的较佳实施例的流程图。根据不同的需求,该流程图中步骤的顺序可以改变,某些步骤可以省略。
所述基于kubernetes的GPU共享方法应用于一个或者多个计算机设备中,所述计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific IntegratedCircuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是任何一种可与用户进行人机交互的电子产品,例如,个人计算机、平板电脑、智能手机、个人数字助理(Personal Digital Assistant,PDA)、游戏机、交互式网络电视(Internet Protocol Television,IPTV)、智能式穿戴式设备等。
所述计算机设备还可以包括网络设备和/或用户设备。其中,所述网络设备包括,但不限于单个网络服务器、多个网络服务器组成的服务器组或基于云计算(CloudComputing)的由大量主机或网络服务器构成的云。
所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
所述计算机设备所处的网络包括但不限于互联网、广域网、城域网、局域网、虚拟专用网络(Virtual Private Network,VPN)等。
S10,在内核层,通过配置的第一插件监听每个GPU(Graphics Processing Unit,图形处理器)设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件。
其中,Kubernetes 是一个可移植、可扩展的平台,用于管理容器化的工作负载和服务,可促进声明式配置和自动化。
其中,所述第一插件部署于所述内核层,可以采用C语言实现。例如:所述第一插件可以表示为gpu-share-kernel。
其中,每个GPU设备的资源占用信息可以包括,但不限于以下一种或者多种信息的组合:
每个GPU设备的打开事件、关闭事件、工作时长、未工作时长作为每个GPU设备的资源占用信息。
其中,所述预设文件用于每个GPU设备的使用情况,即每个GPU设备的资源占用信息,例如:所述预设文件可以表示为gpu_manager.json。
在一个实施例中,所述通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件包括:
通过所述第一插件的预设开关控制是否监听每个GPU设备的资源占用信息;
当通过所述预设开关控制监听每个GPU设备的资源占用信息时,通过所述第一插件监听每个GPU设备的打开事件及关闭事件;
获取所述打开事件的进程ID,及获取所述关闭事件的进程ID,并通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件;
通过所述第二插件将每个GPU设备的资源占用信息记录至所述预设文件,其中,每个GPU设备的资源占用信息包括所述打开事件的进程ID及所述关闭事件的进程ID。
其中,所述预设开关用于控制是否开启监听。例如,所述预设开关可以表示为kernel.track_gpu。
其中,所述第二插件配置在用户层,所述第二插件可以采用go等语言实现,例如:所述第二插件可以表示为gpu manager。
结合内核层预先配置的第一插件监听每个GPU设备的资源占用信息,并利用用户层预先配置的第二插件记录每个GPU设备的资源占用信息至预设文件,以实现对每个GPU设备的资源占用信息的实时监听与记录,以便后续根据监听到的每个GPU设备的资源占用信息对GPU资源进行分配,以实现GPU资源的共享。
在一个实施例中,在通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件前,所述方法还包括:
向所述第一插件注册所述第二插件。
通过向所述第一插件注册所述第二插件,使所述第一插件与所述第二插件间能够实现通信。
其中,所述第二插件还可以用于处理来自内核层的事件,并回复内核层是否可以打开并使用GPU设备。
例如:当检测到所述目标GPU设备处于低优占用,但被高优占用的docker请求时,kill低优占用进程,通知上层异步回收容器,并回复内核层可以打开并使用GPU设备;当检测到所述目标GPU设备处于高优占用时,且被高优占用的docker请求时,记录所述目标GPU设备被高优占用,并回复内核层可以打开并使用GPU设备;当检测到所述目标GPU设备处于高优占用,但被低优占用的docker请求时,通知上层异步回收容器,并回复内核层拒绝打开并使用GPU设备;当检测到所述目标GPU设备处于低优占用时,且被低优占用的docker请求时,记录所述目标GPU设备被低优占用,并回复内核层可以打开并使用GPU设备。
其中,所述高优占用是指占用GPU设备的资源具有高优先级。
其中,所述低优占用是指占用GPU设备的资源具有低优先级。
例如:对于处于高优占用的docker X,以及处于低优占用的docker Y,当有GPU设备提供资源时,由于所述docker X的优先级高于所述docker Y,因此,将GPU设备的资源优先分配给所述docker X。
S11,根据所述预设文件检测是否有GPU设备处于空闲状态。
只有处于空闲状态的GPU设备才能被重新分配利用,因此,本实施例 先要根据所述预设文件检测是否有GPU设备处于空闲状态。
具体地,所述根据所述预设文件检测是否有GPU设备处于空闲状态包括:
当根据所述预设文件中的记录检测到有GPU设备被任意docker占用,且在预设时长内未被使用时,确定检测到的GPU设备处于所述空闲状态。
例如:当检测到有GPU设备被高优占用,且超过预设时长5分钟没有被使用时,说明检测到的GPU设备只是被docker占用,但并未执行任务,为了避免资源被占用导致浪费,可以被临时分配去执行其他任务,此时,确定检测到的GPU设备处于所述空闲状态(例如:可以将检测到的GPU设备标记为“超卖”,表示可以被临时调用去执行其他任务)。
S12,当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet。
其中,所述device-plugin插件是kubernetes提供的设备插件框架,设备厂商无需修改kubernetes核心代码就可以将生产的设备的资源上报给kubelet使用。
其中,所述扩展资源是指extended-resources,目标GPU设备通过kubernetes 的device-plugin插件将自己作为一种extended-resources上报给kubernetes的kubelet,kubernetes便可将GPU设备作为一种资源类型进行调度,然后由节点的kubelet将GPU设备映射到docker里使用。
S13,通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用。
通过device-plugin插件上报给kubernetes的调度资源,一旦分配给某个docker,就会被docker独占,即使是docker里并未使用GPU设备,也无法再分配给其他docker使用,造成了资源的浪费。本实施例通过记录每个GPU 设备打开或者关闭等资源占用情况来识别已经分配的GPU设备是否被使用,并在闲置时分配给有需要的其他docker的任务使用,有效解决了GPU资源利用率低的问题,同时,通过将闲置的GPU资源分配给其他任务,也提高了整体的任务执行效率。
在一个实施例中,所述将所述目标GPU设备映射至所述目标docker进行使用包括:
当所述目标docker的数量为多个时,获取所述目标docker中每个目标docker的请求时间;
获取所述请求时间最早的目标docker作为当前目标docker;
将所述目标GPU设备映射至所述当前目标docker进行使用。
通过对请求时间的比较,使先发出请求的docker优先占用GPU资源。
在一个实施例中,在将所述目标GPU设备映射至所述目标docker进行使用后,所述方法还包括:
获取所述目标GPU设备处于所述空闲状态时所属的docker作为初始docker;
当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,解除所述目标docker对所述目标GPU设备的占用,并将所述目标GPU设备的GPU资源返还至所述初始docker。
例如:当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,由于所述目标docker属于对所述目标GPU设备的低优占用,所述目标docker的优先级低于所述初始docker,因此,可以通过kill所述目标docker的进程解除所述目标docker对所述目标GPU设备的占用,并通知上层异步回收容器,并由所述初始docker打开所述目标GPU设备并使用。
通过返还GPU资源至目标GPU设备所属的初始docker,能够保证原来占用目标GPU设备的docker在需要的时候可以随时使用目标GPU设备,避免由于GPU资源的临时分配给初始docker的任务造成影响。
进一步地,在解除所述目标docker对所述目标GPU设备的占用后,所述方法还包括:
记录所述目标docker的任务节点;
当检测到所述目标docker的任务被重启时,从所述目标docker的任务节点处开始执行所述目标docker的任务。
通过记录目标docker的任务节点,能够在下次启动任务时实现断点执行,提高了任务的执行效率,避免任务被重复执行,浪费时间成本。
由以上技术方案可以看出,本发明能够在内核层,通过配置的第一插件监听每个GPU设备的资源占用信息并记录至预设文件,当根据预设文件检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将GPU设备确定为目标GPU设备,并利用kubernetes的device-plugin插件将目标GPU设备作为扩展资源上报至kubelet,通过kubelet上报目标GPU设备至kubernetes,并将目标GPU设备映射至目标docker进行使用。利用本发明能够实现对GPU资源的共享,避免造成GPU资源的浪费,同时提高了GPU任务的执行效率。
如图2所示,是本发明基于kubernetes的GPU共享装置的较佳实施例的功能模块图。所述基于kubernetes的GPU共享装置11包括监听单元110、检测单元111、上报单元112、映射单元113。本发明所称的模块/单元是指一种能够被处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在存储器中。在本实施例中,关于各模块/单元的功能将在后续的实施例中详述。
在内核层,监听单元110通过配置的第一插件监听每个GPU(Graphics ProcessingUnit,图形处理器)设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件。
其中,Kubernetes 是一个可移植、可扩展的平台,用于管理容器化的工作负载和服务,可促进声明式配置和自动化。
其中,所述第一插件部署于所述内核层,可以采用C语言实现。例如:所述第一插件可以表示为gpu-share-kernel。
其中,每个GPU设备的资源占用信息可以包括,但不限于以下一种或者多种信息的组合:
每个GPU设备的打开事件、关闭事件、工作时长、未工作时长作为每个GPU设备的资源占用信息。
其中,所述预设文件用于每个GPU设备的使用情况,即每个GPU设备的资源占用信息,例如:所述预设文件可以表示为gpu_manager.json。
在一个实施例中,所述监听单元110通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件包括:
通过所述第一插件的预设开关控制是否监听每个GPU设备的资源占用信息;
当通过所述预设开关控制监听每个GPU设备的资源占用信息时,通过所述第一插件监听每个GPU设备的打开事件及关闭事件;
获取所述打开事件的进程ID,及获取所述关闭事件的进程ID,并通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件;
通过所述第二插件将每个GPU设备的资源占用信息记录至所述预设文件,其中,每个GPU设备的资源占用信息包括所述打开事件的进程ID及所述关闭事件的进程ID。
其中,所述预设开关用于控制是否开启监听。例如,所述预设开关可以表示为kernel.track_gpu。
其中,所述第二插件配置在用户层,所述第二插件可以采用go等语言实现,例如:所述第二插件可以表示为gpu manager。
结合内核层预先配置的第一插件监听每个GPU设备的资源占用信息,并利用用户层预先配置的第二插件记录每个GPU设备的资源占用信息至预设文件,以实现对每个GPU设备的资源占用信息的实时监听与记录,以便后续根据监听到的每个GPU设备的资源占用信息对GPU资源进行分配,以实现GPU资源的共享。
在一个实施例中,在通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件前,向所述第一插件注册所述第二插件。
通过向所述第一插件注册所述第二插件,使所述第一插件与所述第二插件间能够实现通信。
其中,所述第二插件还可以用于处理来自内核层的事件,并回复内核层是否可以打开并使用GPU设备。
例如:当检测到所述目标GPU设备处于低优占用,但被高优占用的docker请求时,kill低优占用进程,通知上层异步回收容器,并回复内核层可以打开并使用GPU设备;当检测到所述目标GPU设备处于高优占用时,且被高优占用的docker请求时,记录所述目标GPU设备被高优占用,并回复内核层可以打开并使用GPU设备;当检测到所述目标GPU设备处于高优占用,但被低优占用的docker请求时,通知上层异步回收容器,并回复内核层拒绝打开并使用GPU设备;当检测到所述目标GPU设备处于低优占用时,且被低优占用的docker请求时,记录所述目标GPU设备被低优占用,并回复内核层可以打开并使用GPU设备。
其中,所述高优占用是指占用GPU设备的资源具有高优先级。
其中,所述低优占用是指占用GPU设备的资源具有低优先级。
例如:对于处于高优占用的docker X,以及处于低优占用的docker Y,当有GPU设备提供资源时,由于所述docker X的优先级高于所述docker Y,因此,将GPU设备的资源优先分配给所述docker X。
检测单元111根据所述预设文件检测是否有GPU设备处于空闲状态。
只有处于空闲状态的GPU设备才能被重新分配利用,因此,本实施例 先要根据所述预设文件检测是否有GPU设备处于空闲状态。
具体地,所述检测单元111根据所述预设文件检测是否有GPU设备处于空闲状态包括:
当根据所述预设文件中的记录检测到有GPU设备被任意docker占用,且在预设时长内未被使用时,确定检测到的GPU设备处于所述空闲状态。
例如:当检测到有GPU设备被高优占用,且超过预设时长5分钟没有被使用时,说明检测到的GPU设备只是被docker占用,但并未执行任务,为了避免资源被占用导致浪费,可以被临时分配去执行其他任务,此时,确定检测到的GPU设备处于所述空闲状态(例如:可以将检测到的GPU设备标记为“超卖”,表示可以被临时调用去执行其他任务)。
当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,上报单元112将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet。
其中,所述device-plugin插件是kubernetes提供的设备插件框架,设备厂商无需修改kubernetes核心代码就可以将生产的设备的资源上报给kubelet使用。
其中,所述扩展资源是指extended-resources,目标GPU设备通过kubernetes 的device-plugin插件将自己作为一种extended-resources上报给kubernetes的kubelet,kubernetes便可将GPU设备作为一种资源类型进行调度,然后由节点的kubelet将GPU设备映射到docker里使用。
映射单元113通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用。
通过device-plugin插件上报给kubernetes的调度资源,一旦分配给某个docker,就会被docker独占,即使是docker里并未使用GPU设备,也无法再分配给其他docker使用,造成了资源的浪费。本实施例通过记录每个GPU 设备打开或者关闭等资源占用情况来识别已经分配的GPU设备是否被使用,并在闲置时分配给有需要的其他docker的任务使用,有效解决了GPU资源利用率低的问题,同时,通过将闲置的GPU资源分配给其他任务,也提高了整体的任务执行效率。
在一个实施例中,所述将所述目标GPU设备映射至所述目标docker进行使用包括:
当所述目标docker的数量为多个时,获取所述目标docker中每个目标docker的请求时间;
获取所述请求时间最早的目标docker作为当前目标docker;
将所述目标GPU设备映射至所述当前目标docker进行使用。
通过对请求时间的比较,使先发出请求的docker优先占用GPU资源。
在一个实施例中,在将所述目标GPU设备映射至所述目标docker进行使用后,获取所述目标GPU设备处于所述空闲状态时所属的docker作为初始docker;
当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,解除所述目标docker对所述目标GPU设备的占用,并将所述目标GPU设备的GPU资源返还至所述初始docker。
例如:当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,由于所述目标docker属于对所述目标GPU设备的低优占用,所述目标docker的优先级低于所述初始docker,因此,可以通过kill所述目标docker的进程解除所述目标docker对所述目标GPU设备的占用,并通知上层异步回收容器,并由所述初始docker打开所述目标GPU设备并使用。
通过返还GPU资源至目标GPU设备所属的初始docker,能够保证原来占用目标GPU设备的docker在需要的时候可以随时使用目标GPU设备,避免由于GPU资源的临时分配给初始docker的任务造成影响。
进一步地,在解除所述目标docker对所述目标GPU设备的占用后,记录所述目标docker的任务节点;
当检测到所述目标docker的任务被重启时,从所述目标docker的任务节点处开始执行所述目标docker的任务。
通过记录目标docker的任务节点,能够在下次启动任务时实现断点执行,提高了任务的执行效率,避免任务被重复执行,浪费时间成本。
由以上技术方案可以看出,本发明能够在内核层,通过配置的第一插件监听每个GPU设备的资源占用信息并记录至预设文件,当根据预设文件检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将GPU设备确定为目标GPU设备,并利用kubernetes的device-plugin插件将目标GPU设备作为扩展资源上报至kubelet,通过kubelet上报目标GPU设备至kubernetes,并将目标GPU设备映射至目标docker进行使用。利用本发明能够实现对GPU资源的共享,避免造成GPU资源的浪费,同时提高了GPU任务的执行效率。
如图3所示,是本发明实现基于kubernetes的GPU共享方法的较佳实施例的计算机设备的结构示意图。
所述计算机设备1可以包括存储器12、处理器13和总线,还可以包括存储在所述存储器12中并可在所述处理器13上运行的计算机程序,例如基于kubernetes的GPU共享程序。
本领域技术人员可以理解,所述示意图仅仅是计算机设备1的示例,并不构成对计算机设备1的限定,所述计算机设备1既可以是总线型结构,也可以是星形结构,所述计算机设备1还可以包括比图示更多或更少的其他硬件或者软件,或者不同的部件布置,例如所述计算机设备1还可以包括输入输出设备、网络接入设备等。
需要说明的是,所述计算机设备1仅为举例,其他现有的或今后可能出现的电子产品如可适应于本发明,也应包含在本发明的保护范围以内,并以引用方式包含于此。
其中,存储器12至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。存储器12在一些实施例中可以是计算机设备1的内部存储单元,例如该计算机设备1的移动硬盘。存储器12在另一些实施例中也可以是计算机设备1的外部存储设备,例如计算机设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,存储器12还可以既包括计算机设备1的内部存储单元也包括外部存储设备。存储器12不仅可以用于存储安装于计算机设备1的应用软件及各类数据,例如基于kubernetes的GPU共享程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
处理器13在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。处理器13是所述计算机设备1的控制核心(Control Unit),利用各种接口和线路连接整个计算机设备1的各个部件,通过运行或执行存储在所述存储器12内的程序或者模块(例如执行基于kubernetes的GPU共享程序等),以及调用存储在所述存储器12内的数据,以执行计算机设备1的各种功能和处理数据。
所述处理器13执行所述计算机设备1的操作系统以及安装的各类应用程序。所述处理器13执行所述应用程序以实现上述各个基于kubernetes的GPU共享方法实施例中的步骤,例如图1所示的步骤。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器12中,并由所述处理器13执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机可读指令段,该指令段用于描述所述计算机程序在所述计算机设备1中的执行过程。例如,所述计算机程序可以被分割成监听单元110、检测单元111、上报单元112、映射单元113。
上述以软件功能模块的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能模块存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、计算机设备,或者网络设备等)或处理器(processor)执行本发明各个实施例所述基于kubernetes的GPU共享方法的部分。
所述计算机设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指示相关的硬件设备来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。
其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器等。
进一步地,计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。为便于表示,在图3中仅用一根直线表示,但并不表示仅有一根总线或一种类型的总线。所述总线被设置为实现所述存储器12以及至少一个处理器13等之间的连接通信。
尽管未示出,所述计算机设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器13逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述计算机设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述计算机设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该计算机设备1与其他计算机设备之间建立通信连接。
可选地,该计算机设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在计算机设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
图3仅示出了具有组件12-13的计算机设备1,本领域技术人员可以理解的是,图3示出的结构并不构成对所述计算机设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
结合图1,所述计算机设备1中的所述存储器12存储多个指令以实现一种基于kubernetes的GPU共享方法,所述处理器13可执行所述多个指令从而实现:
在内核层,通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件;
根据所述预设文件检测是否有GPU设备处于空闲状态;
当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet;
通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用。
具体地,所述处理器13对上述指令的具体实现方法可参考图1对应实施例中相关步骤的描述,在此不赘述。
需要说明的是,本案中所涉及到的数据均为合法取得。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
本发明可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本发明可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本发明,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。本发明中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第一、第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (9)
1.一种基于kubernetes的GPU共享方法,其特征在于,所述基于kubernetes的GPU共享方法包括:
通过在内核层配置的第一插件监听每个GPU设备的资源占用信息,并通过在用户层配置的第二插件将每个GPU设备的资源占用信息记录至预设文件;
根据所述预设文件检测是否有GPU设备处于空闲状态;
当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet;
通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用;在将所述目标GPU设备映射至所述目标docker进行使用后,还包括:获取所述目标GPU设备处于所述空闲状态时所属的docker作为初始docker;当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,解除所述目标docker对所述目标GPU设备的占用,并将所述目标GPU设备的GPU资源返还至所述初始docker;
其中,所述第二插件用于处理来自所述内核层的事件,并回复所述内核层是否可以打开并使用所述目标GPU设备,包括:当检测到所述目标GPU设备处于低优占用,但被高优占用的所述目标docker请求时,结束低优占用进程,通知上层异步回收容器,并回复所述内核层可以打开并使用所述目标GPU设备;当检测到所述目标GPU设备处于高优占用时,且被高优占用的所述目标docker请求时,记录所述目标GPU设备被高优占用,并回复所述内核层可以打开并使用所述目标GPU设备;当检测到所述目标GPU设备处于高优占用,但被低优占用的所述目标docker请求时,通知上层异步回收容器,并回复所述内核层拒绝打开并使用所述目标GPU设备;当检测到所述目标GPU设备处于低优占用时,且被低优占用的所述目标docker请求时,记录所述目标GPU设备被低优占用,并回复所述内核层可以打开并使用所述目标GPU设备;其中,所述高优占用是指占用所述目标GPU设备的资源时具有高优先级,所述低优占用是指占用所述目标GPU设备的资源时具有低优先级。
2.如权利要求1所述的基于kubernetes的GPU共享方法,其特征在于,所述GPU设备的资源占用信息包括该GPU设备的打开事件及关闭事件;
所述通过配置的第一插件监听每个GPU设备的资源占用信息,并将每个GPU设备的资源占用信息记录至预设文件包括:
通过所述第一插件的预设开关控制是否监听每个GPU设备的资源占用信息;
当通过所述预设开关控制监听每个GPU设备的资源占用信息时,通过所述第一插件监听每个GPU设备的打开事件及关闭事件;
获取所述打开事件的进程ID,及获取所述关闭事件的进程ID,并通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至所述第二插件;
通过所述第二插件将每个GPU设备的资源占用信息记录至所述预设文件,其中,每个GPU设备的资源占用信息包括所述打开事件的进程ID及所述关闭事件的进程ID。
3.如权利要求2所述的基于kubernetes的GPU共享方法,其特征在于,在通过所述第一插件将所述打开事件的进程ID及所述关闭事件的进程ID发送至配置的第二插件前,所述方法还包括:
向所述第一插件注册所述第二插件。
4.如权利要求1所述的基于kubernetes的GPU共享方法,其特征在于,所述根据所述预设文件检测是否有GPU设备处于空闲状态包括:
当根据所述预设文件中的记录检测到有GPU设备被任意docker占用,且在预设时长内未被使用时,确定检测到的GPU设备处于所述空闲状态。
5.如权利要求1所述的基于kubernetes的GPU共享方法,其特征在于,所述将所述目标GPU设备映射至所述目标docker进行使用包括:
当所述目标docker的数量为多个时,获取所述目标docker中每个目标docker的请求时间;
获取所述请求时间最早的目标docker作为当前目标docker;
将所述目标GPU设备映射至所述当前目标docker进行使用。
6.如权利要求1所述的基于kubernetes的GPU共享方法,其特征在于,在解除所述目标docker对所述目标GPU设备的占用后,所述方法还包括:
记录所述目标docker的任务节点;
当检测到所述目标docker的任务被重启时,从所述目标docker的任务节点处开始执行所述目标docker的任务。
7.一种基于kubernetes的GPU共享装置,其特征在于,所述基于kubernetes的GPU共享装置包括:
监听单元,用于通过在内核层配置的第一插件监听每个GPU设备的资源占用信息,并通过在用户层配置的第二插件将每个GPU设备的资源占用信息记录至预设文件;
检测单元,用于根据所述预设文件检测是否有GPU设备处于空闲状态;
上报单元,用于当检测到有GPU设备处于空闲状态,且有目标docker请求GPU资源时,将所述GPU设备确定为目标GPU设备,并利用所述kubernetes的device-plugin插件将所述目标GPU设备作为扩展资源上报至kubelet;
映射单元,用于通过所述kubelet上报所述目标GPU设备至所述kubernetes,并将所述目标GPU设备映射至所述目标docker进行使用;在将所述目标GPU设备映射至所述目标docker进行使用后,获取所述目标GPU设备处于所述空闲状态时所属的docker作为初始docker;当检测到所述初始docker请求使用所述目标GPU设备的GPU资源时,解除所述目标docker对所述目标GPU设备的占用,并将所述目标GPU设备的GPU资源返还至所述初始docker;
其中,所述第二插件用于处理来自所述内核层的事件,并回复所述内核层是否可以打开并使用所述目标GPU设备,包括:当检测到所述目标GPU设备处于低优占用,但被高优占用的所述目标docker请求时,结束低优占用进程,通知上层异步回收容器,并回复所述内核层可以打开并使用所述目标GPU设备;当检测到所述目标GPU设备处于高优占用时,且被高优占用的所述目标docker请求时,记录所述目标GPU设备被高优占用,并回复所述内核层可以打开并使用所述目标GPU设备;当检测到所述目标GPU设备处于高优占用,但被低优占用的所述目标docker请求时,通知上层异步回收容器,并回复所述内核层拒绝打开并使用所述目标GPU设备;当检测到所述目标GPU设备处于低优占用时,且被低优占用的所述目标docker请求时,记录所述目标GPU设备被低优占用,并回复所述内核层可以打开并使用所述目标GPU设备;其中,所述高优占用是指占用所述目标GPU设备的资源时具有高优先级,所述低优占用是指占用所述目标GPU设备的资源时具有低优先级。
8.一种计算机设备,其特征在于,所述计算机设备包括:
存储器,存储至少一个指令;及
处理器,执行所述存储器中存储的指令以实现如权利要求1至6中任意一项所述的基于kubernetes的GPU共享方法。
9.一种计算机可读存储介质,其特征在于:所述计算机可读存储介质中存储有至少一个指令,所述至少一个指令被计算机设备中的处理器执行以实现如权利要求1至6中任意一项所述的基于kubernetes的GPU共享方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210580679.0A CN114675976B (zh) | 2022-05-26 | 2022-05-26 | 基于kubernetes的GPU共享方法、装置、设备及介质 |
PCT/CN2022/112701 WO2023226205A1 (zh) | 2022-05-26 | 2022-08-16 | 基于kubernetes的GPU共享方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210580679.0A CN114675976B (zh) | 2022-05-26 | 2022-05-26 | 基于kubernetes的GPU共享方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114675976A CN114675976A (zh) | 2022-06-28 |
CN114675976B true CN114675976B (zh) | 2022-09-16 |
Family
ID=82079597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210580679.0A Active CN114675976B (zh) | 2022-05-26 | 2022-05-26 | 基于kubernetes的GPU共享方法、装置、设备及介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN114675976B (zh) |
WO (1) | WO2023226205A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114675976B (zh) * | 2022-05-26 | 2022-09-16 | 深圳前海环融联易信息科技服务有限公司 | 基于kubernetes的GPU共享方法、装置、设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766174A (zh) * | 2018-12-24 | 2019-05-17 | 杭州数梦工场科技有限公司 | 资源调度方法、资源调度装置和计算机可读存储介质 |
CN110515704A (zh) * | 2019-08-30 | 2019-11-29 | 广东浪潮大数据研究有限公司 | 基于Kubernetes系统的资源调度方法及装置 |
CN112380020A (zh) * | 2020-12-03 | 2021-02-19 | 腾讯科技(深圳)有限公司 | 一种算力资源分配方法、装置、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109936604B (zh) * | 2017-12-18 | 2022-07-26 | 北京图森智途科技有限公司 | 一种资源调度方法、装置和系统 |
CN110688218B (zh) * | 2019-09-05 | 2022-11-04 | 广东浪潮大数据研究有限公司 | 资源调度方法及装置 |
CN110597635B (zh) * | 2019-09-12 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 图形处理资源分配方法、装置、计算机设备及存储介质 |
CN111930525B (zh) * | 2020-10-10 | 2021-02-02 | 北京世纪好未来教育科技有限公司 | Gpu资源使用方法、电子设备及计算机可读介质 |
CN114443263A (zh) * | 2020-11-03 | 2022-05-06 | 阿里巴巴集团控股有限公司 | 显存管理方法、装置、设备及系统 |
CN112463375A (zh) * | 2020-11-26 | 2021-03-09 | 广州橙行智动汽车科技有限公司 | 一种数据处理的方法和装置 |
CN112988400B (zh) * | 2021-04-30 | 2021-08-06 | 腾讯科技(深圳)有限公司 | 显存优化方法、装置、电子设备以及可读存储介质 |
CN114675976B (zh) * | 2022-05-26 | 2022-09-16 | 深圳前海环融联易信息科技服务有限公司 | 基于kubernetes的GPU共享方法、装置、设备及介质 |
-
2022
- 2022-05-26 CN CN202210580679.0A patent/CN114675976B/zh active Active
- 2022-08-16 WO PCT/CN2022/112701 patent/WO2023226205A1/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109766174A (zh) * | 2018-12-24 | 2019-05-17 | 杭州数梦工场科技有限公司 | 资源调度方法、资源调度装置和计算机可读存储介质 |
CN110515704A (zh) * | 2019-08-30 | 2019-11-29 | 广东浪潮大数据研究有限公司 | 基于Kubernetes系统的资源调度方法及装置 |
CN112380020A (zh) * | 2020-12-03 | 2021-02-19 | 腾讯科技(深圳)有限公司 | 一种算力资源分配方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2023226205A1 (zh) | 2023-11-30 |
CN114675976A (zh) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112559535B (zh) | 基于多线程的异步任务处理方法、装置、设备及介质 | |
CN114124968B (zh) | 基于行情数据的负载均衡方法、装置、设备及介质 | |
CN113918361A (zh) | 基于物联网规则引擎的终端控制方法、装置、设备及介质 | |
CN115118738B (zh) | 基于rdma的灾备方法、装置、设备及介质 | |
CN112653760A (zh) | 跨服务器的文件传输方法、装置、电子设备及存储介质 | |
CN114691050B (zh) | 基于kubernetes的云原生存储方法、装置、设备及介质 | |
CN114675976B (zh) | 基于kubernetes的GPU共享方法、装置、设备及介质 | |
CN111858604B (zh) | 数据存储方法、装置、电子设备及存储介质 | |
CN114185776A (zh) | 应用程序的大数据埋点方法、装置、设备及介质 | |
CN115269709B (zh) | 基于行情数据的查询及回放方法、装置、设备及介质 | |
CN113031992B (zh) | Annoy热更新方法、装置、设备及介质 | |
CN114385453A (zh) | 数据库集群异常处理方法、装置、设备及介质 | |
CN115101152A (zh) | 样本优先级切换方法、装置、设备及介质 | |
CN114741422A (zh) | 查询请求方法、装置、设备及介质 | |
CN114626103A (zh) | 数据一致性比对方法、装置、设备及介质 | |
CN113918305A (zh) | 节点调度方法、装置、电子设备及可读存储介质 | |
CN114185502A (zh) | 基于产线环境的日志打印方法、装置、设备及介质 | |
CN113923218A (zh) | 编解码插件分布式部署方法、装置、设备及介质 | |
CN113360267B (zh) | 基于时间轴的任务执行方法、装置、设备及介质 | |
CN114860349B (zh) | 数据加载方法、装置、设备及介质 | |
CN113687834B (zh) | 分布式系统节点部署方法、装置、设备及介质 | |
CN115065642B (zh) | 带宽限制下的代码表请求方法、装置、设备及介质 | |
CN116483747B (zh) | 行情快照下发方法、装置、设备及介质 | |
CN114036502A (zh) | Kubernetes的Pod内容器状态保留方法、装置、设备及介质 | |
CN115277859A (zh) | 请求调度方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |