CN110413408A - 一种深度学习框架的显存控制方法、设备以及存储介质 - Google Patents

一种深度学习框架的显存控制方法、设备以及存储介质 Download PDF

Info

Publication number
CN110413408A
CN110413408A CN201910580892.XA CN201910580892A CN110413408A CN 110413408 A CN110413408 A CN 110413408A CN 201910580892 A CN201910580892 A CN 201910580892A CN 110413408 A CN110413408 A CN 110413408A
Authority
CN
China
Prior art keywords
video memory
memory
gpu
quota
distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910580892.XA
Other languages
English (en)
Inventor
赵仁明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Wave Intelligent Technology Co Ltd
Original Assignee
Suzhou Wave Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Wave Intelligent Technology Co Ltd filed Critical Suzhou Wave Intelligent Technology Co Ltd
Priority to CN201910580892.XA priority Critical patent/CN110413408A/zh
Publication of CN110413408A publication Critical patent/CN110413408A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5011Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
    • G06F9/5016Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals the resource being the memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Stored Programmes (AREA)

Abstract

本发明公开了一种深度学习框架的显存控制方法,包括步骤:接收显存分配指令;调用保存在预定路径的动态链接库,得到设置的显存配额;比较所述显存分配指令中所需实际显存与所述显存配额的大小;响应于所述所需实际显存大于所述显存配额,返回内存不足的提示。本发明还公开了一种计算机设备以及可读存储介质。本发明的方案保证了一块GPU内的显存可以按照配置的大小被隔离成若干份。多个应用复用一张GPU卡时,应用之间不会互相抢占各自使用的内存。从而为高效的使用GPU资源提供了基础。

Description

一种深度学习框架的显存控制方法、设备以及存储介质
技术领域
本发明涉及深度学习领域,具体涉及一种深度学习框架的显存控制方法、设备以及存储介质。
背景技术
随着用于深度学习训练业务的数据量的增加以及对于训练速度要求的提高,对于算力的需求也在显著增加。训练任务对于基础资源的需求从单服务器单GPU训练发展到单服务器多GPU训练以及多服务器多GPU训练。GPU服务器集群的整体规模也在显著提升。做为集群中使用率较高,且相对于CPU、内存更加稀缺的资源,GPU的利用率通常决定了深度学习任务训练的整体效率。那么如何更加有效的使用GPU资源,提升GPU资源利用率就变得非常重要。
目前大部分深度学习训练在使用GPU资源的时候,都是以单块GPU卡为最小的资源使用粒度。由于不同的深度学习模型对于资源使用的特点不同,并且同样的模型在不同的时间段对于资源的占用都不尽相同。所以当一个训练任务独占GPU时,容易出现GPU资源利用率不高的问题。为了提高GPU资源的使用率,使用一种比单块GPU卡更小的资源调度粒度,让多个深度学习训练任务共享一块GPU卡,就更加有意义。对于GPU资源,主要有GPU的计算能力和GPU的显存这两种资源。由于GPU的时分复用的调度特点,单块GPU的计算能力的对于多个深度学习任务的复用,并不会影响任务的提交和运行。而单块GPU显存的大小,则会影响到深度学习任务是否能够正常运行。当显存不够时,会直接报出OOM错误,导致任务运行失败。
因此,急需一种显存控制方法。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本发明实施例的提出一种深度学习框架的显存控制方法,包括步骤:
接收显存分配指令;
调用保存在预定路径的动态链接库,得到设置的显存配额;
比较所述显存分配指令中所需实际显存与所述显存配额的大小;
响应于所述所需实际显存大于所述显存配额,返回内存不足的提示。
在一些实施例中,还包括步骤:
响应于所述所需实际显存小于所述显存配额,调用后续相关的显存分配逻辑,进行实际显存分配。
在一些实施例中,还包括步骤:
生成所述动态链接库;
将所述动态链接库保存在预定路径;
将运行所述深度学习框架的系统的第一环境变量的值设置为所述预定路径。
在一些实施例中,生成所述动态链接库,进一步包括:
重写所述系统的关于显存的应用程序接口;
对所述重写的应用程序接口编译生成所述动态链接库。
在一些实施例中,重写所述系统的关于显存的应用程序接口,进一步包括:
重写所述应用程序接口的分配显存的函数、分配由Unified Memorysystem统一管理的显存的函数、分配经过对齐的显存的函数、创建1D或2D的CUDA数组的函数以及创建3D的CUDA数组的函数。
在一些实施例中,调用保存在预定路径的动态链接库,得到设置的显存配额进一步包括:
读取预先设定的一个GPU能够同时运行的任务的数量以及所述GPU的显存大小;
根据所述显存大小以及所述数量得到所述显存配额。
在一些实施例中,还包括:修改一个GPU能够同时运行的任务的数量以得到不同的所述显存配额。
在一些实施例中,进一步包括:
调用函数dlopen和dlsym,以进行实际显存分配。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种深度学习框架的显存控制方法的步骤。
基于同一发明构思,根据本发明的另一个方面,本发明的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种深度学习框架的显存控制方法的步骤。
本发明具有以下有益技术效果:本发明基于cuda driver和linux的动态连接注入技术,通过劫持cuda driver中与显存相关的API,实现对显存的控制。对于应用来说,保证了一块GPU内的显存可以按照配置的大小被隔离成若干份。多个应用复用一张GPU卡时,应用之间不会互相抢占各自使用的内存。从而为高效的使用GPU资源提供了基础。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本发明的实施例提供的一种深度学习框架的显存控制方法的流程示意图;
图2示出了一种深度学习任务的GPU显存控制方法过程;
图3为本发明的实施例提供的一种深度学习框架的显存控制方法的流程框图;
图4为本发明的实施例提供的计算机设备的结构示意图;
图5为本发明的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明实施例进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
根据本发明的一个方面,本发明的实施例提出一种深度学习框架的显存控制方法,如图1所示,其可以包括步骤:S1,接收显存分配指令;S2,调用保存在预定路径的动态链接库,得到设置的显存配额;S3,比较所述显存分配指令中所需实际显存与所述显存配额的大小;S4,响应于所述所需实际显存大于所述显存配额,返回内存不足的提示。
如图2所示,对于基于tensorflow、pytorch等深度学习框架的application,在使用GPU资源的时候,都是通过调用CUDA Libraries、CUDA Runtime以及应用程序接口(CUDADriver API)来进行资源的分配和管理。
这样,当用户在Application层尝试进行显存获取时,可以通过CUDADriver API进行显存分配。本发明基于cuda driver和linux的动态连接注入技术,通过劫持cuda driver中与显存相关的API,实现对显存的控制。对于应用来说,保证了一块GPU内的显存可以按照配置的大小被隔离成若干份。多个应用复用一张GPU卡时,应用之间不会互相抢占各自使用的内存。从而为高效的使用GPU资源提供了基础。使用这种方式的优点是不需要对Tensorflow、Pytorch等深度学习框架的代码进行修改和编译,也不需要对用户基于各种深度学习框架开发的application进行修改和编译。在用户基本不感知的情况下,做到显存的隔离。
下面结合图3示出的深度学习框架的显存控制方法的流程框图进行详细描述。
首先,当用户使用深度学习框架的application进行显存获取时,深度学习框架会调用cuda driver分配显存的API,这时会优先调用预先保存在预定路径的动态链接库,在动态链接库中具有额外控制显存的代码逻辑函数。
具体的,可以读取预先设定的一个GPU能够同时运行的任务的数量以及所述GPU的显存大小;根据所述显存大小以及所述数量得到所述显存配额。例如,一块GPU设备同时最多被N个应用复用。即当物理机上有2块nvidia P100GPU设备,对应的配置文件中N的值设置为4时。则该物理机最多同时可以运行8个GPU任务。然后读取要使用的GPU设备的显存大小。例如nvidia P100的显存大小为16G。接着根据之前步骤读取的N值,得到每个任务所能使用的最大显存的大小,即16GB/4=4GB。之后将计算后的4GB做为设备真实的显存大小,返回给调用CUDA API的Application层。Application层的应用就认为自己所使用的是一个只有4GB剩余空间的GPU设备。
需要说明的是,N的值根据用户的需要可以在配置文件中修改。这样,可以得到不同的所述显存配额。
接着,比较所述显存分配指令中所需实际显存与所述显存配额的大小,若所述所需实际显存大于所述显存配额,返回内存不足的提示。
以一块16GB的GPU设备同时最多被4个应用复用为例,此时显存配额为4GB,当用户提交的Application层的程序逻辑占用的显存大于4GB,此时会报出OOM(Out of Memory)内存不足的错误,而不会侵占到其他应用的显存空间。从而实现了显存的隔离。用户在看到OOM错误后,可以修改自己的Application层程序逻辑。减少GPU显存使用量后,重新提交任务。
若所需实际显存小于所述显存配额,也即空间足够,则正常进行显存分配,通过调用后续相关的显存分配逻辑,进行实际显存分配。
例如,可以通过dlopen()和dlsym()这两个系统调用,打开原生的cuda相关的动态链接库,并查找到对应的函数地址。触发真实的显存分配和管理逻辑。从而完成本次显存的操作。
为了能够调用预先保存在预定路径的动态链接库,需要在进行显存分配之前进行相关设置。即重写所述系统的关于显存的应用程序接口;对所述重写的应用程序接口编译生成所述动态链接库;将所述动态链接库保存在预定路径;将运行所述深度学习框架系统的第一环境变量的值设置为所述预定路径。
具体的,可以重写应用程序接口的分配显存的函数cuMemAlloc、分配由UnifiedMemory system统一管理的显存的函数cuMemAllocManaged、分配经过对齐的显存的函数cuMemAllocPitch、创建1D或2D的CUDA数组的函数cuArrayCreate以及创建3D的CUDA数组的函数cuArray3DCreate。并在重写的API中加入获取显存配额,以及显存控制的逻辑。通过gcc-I/usr/local/cuda-10.0/include-D_GNU_SOURCE-DRUNTIME-shared-fpic-o inject-cuda.soinject-cuda.c-ldl的方式编译并生成新的动态链接库文件(.so文件)。然后设置运行该框架的系统的LD_PRELOAD环境变量,将环境变量的值设置为上述步骤中编译产生的动态连接库的路径。系统会优先加载LD_PRELOAD路径的.so文件。这样在运行深度学习的application时,在深度学习框架调用cuda driver分配显存的API时,会优先调用到上述步骤设置路径的中.so的同名函数,而且这些函数中加入了额外的控制显存的代码逻辑。
本发明通过CUDA劫持方式,实现深度学习任务GPU显存控制的方法,很好的实现了GPU资源细粒度隔离的特性,不仅提高了GPU资源的利用率,而且为GPU资源的灵活调度提供了基础。不需要对Tensorflow、Pytorch等深度学习框架的代码进行修改和编译,也不需要对用户基于各种深度学习框架开发的application进行修改和编译。在用户基本不感知的情况下,做到显存的隔离。
基于同一发明构思,根据本发明的另一个方面,如图4所示,本发明的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行如上的任一种深度学习框架的显存控制方法的步骤。
基于同一发明构思,根据本发明的另一个方面,如图5所示,本发明的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序指令610,计算机程序指令610被处理器执行时执行如上的任一种深度学习框架的显存控制方法的步骤。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(ROM)或随机存储记忆体(RAM)等。上述计算机程序的实施例,可以达到与之对应的前述任意方法实施例相同或者相类似的效果。
此外,典型地,本发明实施例公开的装置、设备等可为各种电子终端设备,例如手机、个人数字助理(PDA)、平板电脑(PAD)、智能电视等,也可以是大型终端设备,如服务器等,因此本发明实施例公开的保护范围不应限定为某种特定类型的装置、设备。本发明实施例公开的客户端可以是以电子硬件、计算机软件或两者的组合形式应用于上述任意一种电子终端设备中。
此外,根据本发明实施例公开的方法还可以被实现为由CPU执行的计算机程序,该计算机程序可以存储在计算机可读存储介质中。在该计算机程序被CPU执行时,执行本发明实施例公开的方法中限定的上述功能。
此外,上述方法步骤以及系统单元也可以利用控制器以及用于存储使得控制器实现上述步骤或单元功能的计算机程序的计算机可读存储介质实现。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。作为例子而非限制性的,非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)或快闪存储器。易失性存储器可以包括随机存取存储器(RAM),该RAM可以充当外部高速缓存存储器。作为例子而非限制性的,RAM可以以多种形式获得,比如同步RAM(DRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据速率SDRAM(DDRSDRAM)、增强SDRAM(ESDRAM)、同步链路DRAM(SLDRAM)、以及直接Rambus RAM(DRRAM)。所公开的方面的存储设备意在包括但不限于这些和其它合适类型的存储器。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本发明实施例公开的范围。
结合这里的公开所描述的各种示例性逻辑块、模块和电路可以利用被设计成用于执行这里功能的下列部件来实现或执行:通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或其它可编程逻辑器件、分立门或晶体管逻辑、分立的硬件组件或者这些部件的任何组合。通用处理器可以是微处理器,但是可替换地,处理器可以是任何传统处理器、控制器、微控制器或状态机。处理器也可以被实现为计算设备的组合,例如,DSP和微处理器的组合、多个微处理器、一个或多个微处理器结合DSP和/或任何其它这种配置。
结合这里的公开所描述的方法或算法的步骤可以直接包含在硬件中、由处理器执行的软件模块中或这两者的组合中。软件模块可以驻留在RAM存储器、快闪存储器、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动盘、CD-ROM、或本领域已知的任何其它形式的存储介质中。示例性的存储介质被耦合到处理器,使得处理器能够从该存储介质中读取信息或向该存储介质写入信息。在一个替换方案中,存储介质可以与处理器集成在一起。处理器和存储介质可以驻留在ASIC中。ASIC可以驻留在用户终端中。在一个替换方案中,处理器和存储介质可以作为分立组件驻留在用户终端中。
在一个或多个示例性设计中,功能可以在硬件、软件、固件或其任意组合中实现。如果在软件中实现,则可以将功能作为一个或多个指令或代码存储在计算机可读介质上或通过计算机可读介质来传送。计算机可读介质包括计算机存储介质和通信介质,该通信介质包括有助于将计算机程序从一个位置传送到另一个位置的任何介质。存储介质可以是能够被通用或专用计算机访问的任何可用介质。作为例子而非限制性的,该计算机可读介质可以包括RAM、ROM、EEPROM、CD-ROM或其它光盘存储设备、磁盘存储设备或其它磁性存储设备,或者是可以用于携带或存储形式为指令或数据结构的所需程序代码并且能够被通用或专用计算机或者通用或专用处理器访问的任何其它介质。此外,任何连接都可以适当地称为计算机可读介质。例如,如果使用同轴线缆、光纤线缆、双绞线、数字用户线路(DSL)或诸如红外线、无线电和微波的无线技术来从网站、服务器或其它远程源发送软件,则上述同轴线缆、光纤线缆、双绞线、DSL或诸如红外线、无线电和微波的无线技术均包括在介质的定义。如这里所使用的,磁盘和光盘包括压缩盘(CD)、激光盘、光盘、数字多功能盘(DVD)、软盘、蓝光盘,其中磁盘通常磁性地再现数据,而光盘利用激光光学地再现数据。上述内容的组合也应当包括在计算机可读介质的范围内。
以上是本发明公开的示例性实施例,但是应当注意,在不背离权利要求限定的本发明实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本发明实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本发明实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本发明实施例公开的范围(包括权利要求)被限于这些例子;在本发明实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本发明实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本发明实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明实施例的保护范围之内。

Claims (10)

1.一种深度学习框架的显存控制方法,包括步骤:
接收显存分配指令;
调用保存在预定路径的动态链接库,得到设置的显存配额;
比较所述显存分配指令中所需实际显存与所述显存配额的大小;
响应于所述所需实际显存大于所述显存配额,返回内存不足的提示。
2.如权利要求1所述的方法,其特征在于,还包括步骤:
响应于所述所需实际显存小于所述显存配额,调用后续相关的显存分配逻辑,进行实际显存分配。
3.如权利要求1所述的方法,其特征在于,还包括步骤:
生成所述动态链接库;
将所述动态链接库保存在预定路径;
将运行所述深度学习框架的系统的第一环境变量的值设置为所述预定路径。
4.如权利要求3所述的方法,其特征在于,生成所述动态链接库,进一步包括:
重写所述系统的关于显存的应用程序接口;
对所述重写的应用程序接口编译生成所述动态链接库。
5.如权利要求4所述的方法,其特征在于,重写所述系统的关于显存的应用程序接口,进一步包括:
重写所述应用程序接口的分配显存的函数、分配由Unified Memory system统一管理的显存的函数、分配经过对齐的显存的函数、创建1D或2D的CUDA数组的函数以及创建3D的CUDA数组的函数。
6.如权利要求1所述的方法,其特征在于,调用保存在预定路径的动态链接库,得到设置的显存配额进一步包括:
读取预先设定的一个GPU能够同时运行的任务的数量以及所述GPU的显存大小;
根据所述显存大小以及所述数量得到所述显存配额。
7.如权利要求6所述的方法,其特征在于,还包括:修改一个GPU能够同时运行的任务的数量以得到不同的所述显存配额。
8.如权利要求2所述的方法,其特征在于,进一步包括:
调用函数dlopen和dlsym,以进行实际显存分配。
9.一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-8任意一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行权利要求1-8任意一项所述的方法。
CN201910580892.XA 2019-06-29 2019-06-29 一种深度学习框架的显存控制方法、设备以及存储介质 Pending CN110413408A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910580892.XA CN110413408A (zh) 2019-06-29 2019-06-29 一种深度学习框架的显存控制方法、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910580892.XA CN110413408A (zh) 2019-06-29 2019-06-29 一种深度学习框架的显存控制方法、设备以及存储介质

Publications (1)

Publication Number Publication Date
CN110413408A true CN110413408A (zh) 2019-11-05

Family

ID=68358538

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910580892.XA Pending CN110413408A (zh) 2019-06-29 2019-06-29 一种深度学习框架的显存控制方法、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN110413408A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110851187A (zh) * 2019-11-19 2020-02-28 北京百度网讯科技有限公司 显存处理方法、装置、设备和介质
CN111063432A (zh) * 2019-12-13 2020-04-24 深圳开立生物医疗科技股份有限公司 一种超声数据处理方法、装置及超声设备和存储介质
CN111400035A (zh) * 2020-03-04 2020-07-10 杭州海康威视系统技术有限公司 一种显存分配方法、装置、电子设备及存储介质
CN112052083A (zh) * 2020-09-15 2020-12-08 浙江智慧视频安防创新中心有限公司 云端gpu的显存调度方法、装置、电子设备及存储介质
CN113835887A (zh) * 2021-09-17 2021-12-24 北京百度网讯科技有限公司 显存的分配方法、装置、电子设备及可读存储介质
CN115601221A (zh) * 2022-11-28 2023-01-13 苏州浪潮智能科技有限公司(Cn) 一种资源的分配方法、装置和一种人工智能训练系统
CN116578416A (zh) * 2023-04-26 2023-08-11 中国人民解放军92942部队 一种基于gpu虚拟化的信号级仿真加速方法
WO2023174013A1 (zh) * 2022-03-15 2023-09-21 北京有竹居网络技术有限公司 显存分配方法、装置、介质及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708009A (zh) * 2012-04-19 2012-10-03 华为技术有限公司 一种基于cuda实现多任务共享gpu的方法
CN109144734A (zh) * 2018-09-12 2019-01-04 郑州云海信息技术有限公司 一种容器资源配额分配方法和装置
CN109447253A (zh) * 2018-10-26 2019-03-08 杭州比智科技有限公司 显存分配的方法、装置、计算设备及计算机存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102708009A (zh) * 2012-04-19 2012-10-03 华为技术有限公司 一种基于cuda实现多任务共享gpu的方法
CN109144734A (zh) * 2018-09-12 2019-01-04 郑州云海信息技术有限公司 一种容器资源配额分配方法和装置
CN109447253A (zh) * 2018-10-26 2019-03-08 杭州比智科技有限公司 显存分配的方法、装置、计算设备及计算机存储介质

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JING GU: "GaiaGPU: Sharing GPUs in Container Clouds", 《2018 IEEE INTL CONF ON PARALLEL & DISTRIBUTED PROCESSING WITH APPLICATIONS, UBIQUITOUS COMPUTING & COMMUNICATIONS, BIG DATA & CLOUD COMPUTING, SOCIAL COMPUTING & NETWORKING, SUSTAINABLE COMPUTING & COMMUNICATIONS》 *
吴田锋: "《黑客防线》", 31 March 2009 *
肖熠: "一种针对GPU资源的深度学习容器云研究", 《中国传媒大学学报(自然科学版)》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110851187A (zh) * 2019-11-19 2020-02-28 北京百度网讯科技有限公司 显存处理方法、装置、设备和介质
CN110851187B (zh) * 2019-11-19 2023-06-02 北京百度网讯科技有限公司 显存处理方法、装置、设备和介质
CN111063432A (zh) * 2019-12-13 2020-04-24 深圳开立生物医疗科技股份有限公司 一种超声数据处理方法、装置及超声设备和存储介质
CN111063432B (zh) * 2019-12-13 2024-04-16 深圳开立生物医疗科技股份有限公司 一种超声数据处理方法、装置及超声设备和存储介质
CN111400035A (zh) * 2020-03-04 2020-07-10 杭州海康威视系统技术有限公司 一种显存分配方法、装置、电子设备及存储介质
CN112052083A (zh) * 2020-09-15 2020-12-08 浙江智慧视频安防创新中心有限公司 云端gpu的显存调度方法、装置、电子设备及存储介质
CN113835887A (zh) * 2021-09-17 2021-12-24 北京百度网讯科技有限公司 显存的分配方法、装置、电子设备及可读存储介质
WO2023174013A1 (zh) * 2022-03-15 2023-09-21 北京有竹居网络技术有限公司 显存分配方法、装置、介质及电子设备
CN115601221A (zh) * 2022-11-28 2023-01-13 苏州浪潮智能科技有限公司(Cn) 一种资源的分配方法、装置和一种人工智能训练系统
CN116578416A (zh) * 2023-04-26 2023-08-11 中国人民解放军92942部队 一种基于gpu虚拟化的信号级仿真加速方法

Similar Documents

Publication Publication Date Title
CN110413408A (zh) 一种深度学习框架的显存控制方法、设备以及存储介质
CN110032599B (zh) 数据结构的读取及更新方法、装置、电子设备
US20200089872A1 (en) Enclave pool shared key
CN104978228B (zh) 一种分布式计算系统的调度方法和装置
CN106506703A (zh) 基于共享内存的服务发现方法、装置及系统、服务器
CN110597916B (zh) 基于区块链的数据处理方法、装置、存储介质及终端
CN104380256A (zh) 用于虚拟化与计算机系统关联的硬件资源的方法、系统和执行代码段
CN110704438B (zh) 一种区块链中布隆过滤器的生成方法及装置
CN110442307A (zh) 一种Linux系统中磁盘的绑定方法、设备以及存储介质
Mosser et al. Sensapp as a reference platform to support cloud experiments: From the internet of things to the internet of services
CN110502215A (zh) 一种微服务程序的构建方法、设备以及存储介质
CN110427295A (zh) 一种云平台资源的监控方法、设备及可读介质
CN113835822A (zh) 跨云平台虚拟机迁移方法、装置、存储介质及电子装置
KR20190028210A (ko) 컨테이너 기반 인공지능 어플리케이션을 배포하는 클라우드 서비스 방법과 시스템
CN109683950A (zh) 应用程序打包方法、装置、存储介质及终端
CN105701854A (zh) 一种3d渲染方法、装置及引擎
CN113722114A (zh) 一种数据服务的处理方法、装置、计算设备及存储介质
CN110598419A (zh) 一种区块链客户端漏洞挖掘方法、装置、设备及存储介质
Ali et al. Petri Net based modeling and analysis for improved resource utilization in cloud computing
US9253286B2 (en) Computer program composed from tabular storage structures that includes data and code
CN110134434B (zh) 一种应用生成处理方法及系统、应用生成系统
CN116208676A (zh) 数据回源方法、装置、计算机设备、存储介质和程序产品
CN116204307A (zh) 兼容不同计算框架的联邦学习方法和联邦学习系统
CN103188281B (zh) 一种网站更新回复的方法及系统
CN108594983A (zh) 一种节省移动终端电量的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191105