CN116662009A - Gpu资源分配方法、装置、电子设备和存储介质 - Google Patents
Gpu资源分配方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN116662009A CN116662009A CN202310686762.0A CN202310686762A CN116662009A CN 116662009 A CN116662009 A CN 116662009A CN 202310686762 A CN202310686762 A CN 202310686762A CN 116662009 A CN116662009 A CN 116662009A
- Authority
- CN
- China
- Prior art keywords
- gpu
- resource
- gpu resource
- target
- resource request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000013468 resource allocation Methods 0.000 title claims abstract description 39
- 238000003860 storage Methods 0.000 title claims abstract description 30
- 238000007726 management method Methods 0.000 claims description 45
- 230000004044 response Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 16
- 239000000523 sample Substances 0.000 claims 1
- 238000012545 processing Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 239000008186 active pharmaceutical agent Substances 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000009826 distribution Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000010365 information processing Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/455—Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
- G06F9/45533—Hypervisors; Virtual machine monitors
- G06F9/45558—Hypervisor-specific management and integration aspects
- G06F2009/45562—Creating, deleting, cloning virtual machine instances
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Stored Programmes (AREA)
- Debugging And Monitoring (AREA)
Abstract
本公开涉及一种GPU资源分配方法、装置、电子设备和存储介质。所述方法应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU,所述方法包括:响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量;根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
Description
技术领域
本公开涉及计算机技术领域,尤其涉及一种GPU资源分配方法、装置、电子设备和存储介质。
背景技术
GPU(Graphics Processing Unit,图形处理器)广泛地应用于人工智能、图形渲染、元宇宙等领域。不同的任务对GPU资源有不同的需求。例如,分布式训练要求多个物理GPU配合,而云渲染领域需要将单个物理GPU共享给多个渲染任务。基于这些差异化的GPU资源需求,如何提高GPU资源的利用率,是亟待解决的技术问题。
发明内容
本公开提供了一种GPU资源分配技术方案。
根据本公开的一方面,提供了一种GPU资源分配方法,应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU,所述方法包括:
响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量;
根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
在一种可能的实现方式中,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:
响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型包括物理GPU。
在一种可能的实现方式中,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:
响应于所述GPU的资源请求量小于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU。
在一种可能的实现方式中,所述方法还包括:
对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的指定参数的值,确定所述物理GPU的资源量;
以及,
对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的所述指定参数的值,确定所述共享GPU的资源量。
在一种可能的实现方式中,所述指定参数为显存大小。
在一种可能的实现方式中,所述方法还包括:
响应于所述目标GPU资源类型为物理GPU,在规约信息中添加物理GPU对应的注释信息。
在一种可能的实现方式中,所述GPU资源集群包括至少一个GPU节点,且任一GPU节点包括至少一个物理GPU;
所述根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源,包括:
根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点;
根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在一种可能的实现方式中,
所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:集群管理操作平台根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
所述根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点,包括:所述集群管理操作平台向资源对象管理服务器发送所述目标GPU资源类型和所述GPU资源请求量;所述资源对象管理服务器调用GPU调度器,以通过所述GPU调度器根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点。
在一种可能的实现方式中,所述根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源,包括:
GPU调度器向所述目标节点对应的节点代理模块发送所述目标GPU资源类型和所述GPU资源请求量;
所述节点代理模块根据所述目标GPU资源类型和所述GPU资源请求量,请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在一种可能的实现方式中,在所述请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源之后,所述方法还包括:
所述节点代理模块响应于所述通用GPU控制器返回容器的环境变量信息,调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
根据本公开的一方面,提供了一种GPU资源分配装置,应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU,所述装置包括:
第一确定模块,用于响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量;
第二确定模块,用于根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
分配模块,用于根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
在一种可能的实现方式中,所述第二确定模块用于:
响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型包括物理GPU。
在一种可能的实现方式中,所述第二确定模块用于:
响应于所述GPU的资源请求量小于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU。
在一种可能的实现方式中,所述装置还包括:
第三确定模块,用于对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的指定参数的值,确定所述物理GPU的资源量;
以及,
第四确定模块,用于对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的所述指定参数的值,确定所述共享GPU的资源量。
在一种可能的实现方式中,所述指定参数为显存大小。
在一种可能的实现方式中,所述装置还包括:
添加模块,用于响应于所述目标GPU资源类型为物理GPU,在规约信息中添加物理GPU对应的注释信息。
在一种可能的实现方式中,所述GPU资源集群包括至少一个GPU节点,且任一GPU节点包括至少一个物理GPU;
所述分配模块用于:
根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点;
根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在一种可能的实现方式中,
所述第二确定模块用于:集群管理操作平台根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
所述分配模块用于:所述集群管理操作平台向资源对象管理服务器发送所述目标GPU资源类型和所述GPU资源请求量;所述资源对象管理服务器调用GPU调度器,以通过所述GPU调度器根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点。
在一种可能的实现方式中,所述分配模块用于:
GPU调度器向所述目标节点对应的节点代理模块发送所述目标GPU资源类型和所述GPU资源请求量;
所述节点代理模块根据所述目标GPU资源类型和所述GPU资源请求量,请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在一种可能的实现方式中,所述装置还包括:
创建模块,用于所述节点代理模块响应于所述通用GPU控制器返回容器的环境变量信息,调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
根据本公开的一方面,提供了一种电子设备,包括:一个或多个处理器;用于存储可执行指令的存储器;其中,所述一个或多个处理器被配置为调用所述存储器存储的可执行指令,以执行上述方法。
根据本公开的一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的一方面,提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备中运行时,所述电子设备中的处理器执行上述方法。
本公开实施例提供了一种GPU资源分配方法,所述GPU资源分配方法应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU;通过响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量,根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,并根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源,由此能够对GPU资源集群中的两种类型的GPU资源(物理GPU和共享GPU)实现统一调度,能够根据GPU资源请求对应的GPU资源请求量自动选择物理GPU分配或者共享GPU分配,无需用户感知GPU资源的分配类型。另外,本公开实施例提供的GPU资源分配方法能够支持采用不同类型的GPU资源的不同任务在同一个GPU资源集群中同时运行,从而有助于提高GPU资源集群中的GPU资源的利用率,并能够使GPU资源集群适用于更广泛的应用场景。例如,本公开实施例提供的GPU资源分配方法能够在同一个GPU资源集群中同时运行AI(Artificial Intelligence,人工智能)任务(例如分布式训练任务)和图形渲染任务,其中,AI任务对应的目标GPU资源类型可以为物理GPU,图形渲染任务对应的目标GPU资源类型可以为共享GPU。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
根据下面参考附图对示例性实施例的详细说明,本公开的其它特征及方面将变得清楚。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1示出本公开实施例提供的GPU资源分配方法的流程图。
图2示出本公开实施例提供的GPU资源分配方法的应用场景的示意图。
图3示出本公开实施例提供的GPU资源分配装置的框图。
图4示出本公开实施例提供的电子设备1900的框图。
具体实施方式
以下将参考附图详细说明本公开的各种示例性实施例、特征和方面。附图中相同的附图标记表示功能相同或相似的元件。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
另外,为了更好地说明本公开,在下文的具体实施方式中给出了众多的具体细节。本领域技术人员应当理解,没有某些具体细节,本公开同样可以实施。在一些实例中,对于本领域技术人员熟知的方法、手段、元件和电路未作详细描述,以便于凸显本公开的主旨。
本公开实施例提供了一种GPU资源分配方法,所述GPU资源分配方法应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU;通过响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量,根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,并根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源,由此能够对GPU资源集群中的两种类型的GPU资源(物理GPU和共享GPU)实现统一调度,能够根据GPU资源请求对应的GPU资源请求量自动选择物理GPU分配或者共享GPU分配,无需用户感知GPU资源的分配类型。
另外,本公开实施例提供的GPU资源分配方法能够支持采用不同类型的GPU资源的不同任务在同一个GPU资源集群中同时运行,从而有助于提高GPU资源集群中的GPU资源的利用率,并能够使GPU资源集群适用于更广泛的应用场景。例如,本公开实施例提供的GPU资源分配方法能够在同一个GPU资源集群中同时运行AI(Artificial Intelligence,人工智能)任务(例如分布式训练任务)和图形渲染任务,其中,AI任务对应的目标GPU资源类型可以为物理GPU,图形渲染任务对应的目标GPU资源类型可以为共享GPU。
下面结合附图对本公开实施例提供的GPU资源分配方法进行详细的说明。
图1示出本公开实施例提供的GPU资源分配方法的流程图。所述GPU资源分配方法可以应用于服务端。在一种可能的实现方式中,所述GPU资源分配方法的执行主体可以是GPU资源分配装置,例如,所述GPU资源分配方法可以由服务器或其它电子设备执行。在一些可能的实现方式中,所述GPU资源分配方法可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。如图1所示,所述GPU资源分配方法包括步骤S11至步骤S13。
在步骤S11中,响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量。
在步骤S12中,根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型。
在步骤S13中,根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
本公开实施例提供的GPU资源分配方法应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU。
本公开实施例中的GPU资源集群可以为基于Kubernetes的GPU资源集群、基于Docker Swarm的GPU资源集群、基于OpenShift的GPU资源集群等等,在此不做限定。在下文中,以基于Kubernetes的GPU资源集群为例进行说明。
在本公开实施例中,GPU资源集群可以包括至少一个GPU节点(node)。例如,GPU资源集群可以包括多个GPU节点,其中,每个GPU节点可以分别包括至少一个物理GPU。即,GPU资源集群中的任一GPU节点可以包括一个或两个以上物理GPU。在一些应用场景中,物理GPU还可以称为GPU物理卡、物理GPU卡等等,在此不做限定。
基于任一物理GPU,可以创建多个共享GPU。共享GPU可以表示对物理GPU进行虚拟化得到的虚拟的GPU。共享GPU可以采用vGPU、qGPU、cGPU、sGPU等实现方式,在此不做限定。在一些应用场景中,共享GPU还可以称为逻辑GPU、虚拟GPU等。在本公开实施例中,GPU资源集群中的任一物理GPU既可以用作物理GPU,也可以用作共享GPU。即,GPU资源集群中的任一物理GPU的GPU资源类型可以为物理GPU和共享GPU。
在一种可能的实现方式中,GPU资源集群中的各个物理GPU的分配类型(物理GPU分配或共享GPU分配)可以分别在实际调度的时候动态确定。在该实现方式中,共享GPU可以根据GPU资源请求创建,而无需提前创建。
作为该实现方式的一个示例,若根据GPU资源请求对应的GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU,且当前GPU资源集群中可用的共享GPU的资源量小于所述GPU资源请求量,则可以基于任意一个可用的物理GPU创建新的共享GPU,以分配给所述GPU资源请求。
作为该实现方式的另一个示例,若根据GPU资源请求对应的GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU,则可以基于任意一个可用的物理GPU创建共享GPU,以分配给所述GPU资源请求。
在该实现方式中,无需提前确定GPU资源集群中的各个物理GPU的分配类型(物理GPU分配或共享GPU分配),即,无需预先将GPU资源集群划分为物理GPU资源池和共享GPU资源池。由此,能够避免后续使用过程中出现一个资源池中的GPU资源还有剩余,而另一个资源池中的GPU资源不足的情况。即,能够避免后续使用过程中出现物理GPU资源池中的物理GPU资源还有剩余,而共享GPU资源池中的共享GPU资源不足的情况,以及,能够避免后续使用过程中出现共享GPU资源池中的共享GPU资源还有剩余,而物理GPU资源池中的物理GPU资源不足的情况。
另外,由于无需预先将GPU资源集群按固定比例划分为物理GPU资源池和共享GPU资源池,还能避免预先划分两个资源池后因其中一种资源不足导致需要再分配资源池的情况,从而能够减少运维成本。
在另一种可能的实现方式中,可以根据经验,预先确定GPU资源集群中的至少部分物理GPU的分配类型。作为该实现方式的一个示例,GPU资源集群中的一部分物理GPU的分配类型可以预先确定,另一部分物理GPU的分配类型可以在实际调度的时候动态确定。作为该实现方式的另一个示例,GPU资源集群中的各个物理GPU的分配类型均可以预先确定。
在一种可能的实现方式中,在Kubernetes中,GPU节点可以通过通用GPU控制器,向所述GPU节点的Kubelet注册所述GPU节点中的物理GPU的设备信息。所述Kubelet可以向API服务器(Application Programming Interface Server,资源对象管理服务器)上报所述GPU节点中的GPU资源的信息。例如,所述Kubelet可以响应于所述GPU节点中的GPU资源发生更新,向API服务器上报所述GPU节点的更新后的GPU资源的信息。API服务器可以响应于所述Kubelet上报的所述GPU节点的更新后的GPU资源的信息,更新GPU资源集群中的GPU资源的信息。
在本公开实施例中,可以对GPU资源集群中的物理GPU和共享GPU的算力进行统一表示,将GPU资源集群中的物理GPU和共享GPU的算力抽象成统一的资源量(即算力值)。
在一种可能的实现方式中,所述方法还包括:对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的指定参数的值,确定所述物理GPU的资源量;以及,对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的所述指定参数的值,确定所述共享GPU的资源量。
在该实现方式中,对于GPU资源集群中的各个物理GPU,可以分别根据指定参数的值确定资源量;对于GPU资源集群中的各个共享GPU,可以根据同一指定参数的值确定资源量。其中,指定参数可以表示预先指定的参数。在该实现方式中,用于确定各个物理GPU的资源量的指定参数与用于确定各个共享GPU的资源量的指定参数是同一个参数。
其中,共享GPU可以响应于调度动态创建,相应地,共享GPU的资源量可以响应于创建而确定。即,可以响应于共享GPU被创建,确定共享GPU的资源量。
在该实现方式中,通过对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的指定参数的值,确定所述物理GPU的资源量,以及,对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的所述指定参数的值,确定所述共享GPU的资源量,由此对于GPU资源集群中的各个物理GPU和各个共享GPU,基于同一指定参数确定资源量,从而有利于统一调度物理GPU和共享GPU,且无需用户了解GPU资源分配的类型。
作为该实现方式的一个示例,所述指定参数为显存大小。
在该示例中,对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的显存大小,确定所述物理GPU的资源量;以及,对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的显存大小,确定所述共享GPU的资源量。
在该示例中,通过将物理GPU和共享GPU的算力根据显存大小抽象成统一的资源量,从而有利于统一调度物理GPU和共享GPU。
作为该实现方式的另一个示例,所述指定参数可以为GPU核心数。在该示例中,对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的GPU核心数,确定所述物理GPU的资源量;以及,对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的GPU核心数,确定所述共享GPU的资源量。
在本公开实施例中,用户端可以向服务端发送GPU资源请求。其中,GPU资源请求可以表示用于请求GPU资源的请求。
在一种可能的实现方式中,在Kubernetes中,用户端可以通过Pod向服务端发送GPU资源请求。例如,用户端可以通过Pod向服务端的集群管理操作平台发送GPU资源请求。其中,集群管理操作平台可以给用户开发、运维等提供web(网页)页面来管理和操作集群,用户可以通过集群管理操作平台创建工作负载(workload)。
在本公开实施例中,GPU资源请求可以携带GPU资源请求量。其中,所述GPU资源请求量可以表示所述GPU资源请求所请求的算力资源的量。所述GPU资源请求量可以包括显存量、GPU核心数等,在此不做限定。例如,GPU资源请求中的信息包括“sgpu-memory:8”以及“sgpu-core:1”,则可以确定所述GPU资源请求所请求的显存量为8GB,所请求的GPU核心数为1。
在本公开实施例中,可以根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型。其中,所述GPU资源请求对应的目标GPU资源类型可以表示用于分配给所述GPU资源请求的GPU资源的类型。目标GPU资源类型可以包括物理GPU和/或共享GPU。其中,在所述GPU资源请求对应的目标GPU资源类型为物理GPU的情况下,可以向所述GPU资源请求分配GPU资源集群中的物理GPU;在所述GPU资源请求对应的目标GPU资源类型为共享GPU的情况下,可以向所述GPU资源请求分配GPU资源集群中的共享GPU。其中,向所述GPU资源请求分配GPU资源集群中的物理GPU,指的是向所述GPU资源请求分配整个物理GPU,即,向所述GPU资源请求分配物理整卡GPU。
在本公开实施例中,GPU资源请求可以无需携带目标GPU资源类型,目标GPU资源类型可以根据GPU资源请求量确定。由此,用户无需指定目标GPU资源类型,从而能够降低用户的使用难度,使用户无需理解由于技术实现带来的新技术概念。
在一种可能的实现方式中,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型包括物理GPU。
作为该实现方式的一个示例,可以响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为物理GPU。在该示例中,在所述GPU资源请求量大于或等于单个物理GPU的资源量的情况下,可以仅向所述GPU资源请求分配物理GPU,不向所述GPU资源请求分配共享GPU。
作为该实现方式的另一个示例,可以响应于所述GPU的资源请求量为单个物理GPU的资源量的整数倍,确定所述GPU资源请求对应的目标GPU资源类型为物理GPU;或者,可以响应于所述GPU的资源请求量大于单个物理GPU的资源量,且所述GPU的资源请求量不为单个物理GPU的资源量的整数倍,确定所述GPU资源请求对应的目标GPU资源类型为物理GPU和共享GPU。在该示例中,在所述GPU的资源请求量为单个物理GPU的资源量的整数倍的情况下,可以仅向所述GPU资源请求分配物理GPU,不向所述GPU资源请求分配共享GPU;在所述GPU的资源请求量大于单个物理GPU的资源量,且所述GPU的资源请求量不为单个物理GPU的资源量的整数倍的情况下,可以既向所述GPU资源请求分配物理GPU,也向所述GPU资源请求分配共享GPU。
在该实现方式中,通过响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型包括物理GPU,由此在GPU资源请求对应的GPU资源请求量大于或等于单个物理GPU的资源量的情况下,向所述GPU资源请求分配物理GPU,从而在执行所述GPU资源请求对应的GPU计算任务时,能够减少通信开销,从而能够提高所述GPU计算任务的处理效率,进而有利于提高所述GPU资源集群中的GPU资源的利用率。
在一种可能的实现方式中,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:响应于所述GPU的资源请求量小于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU。
在该实现方式中,在所述GPU的资源请求量小于单个物理GPU的资源量,可以确定所述GPU资源请求对应的目标GPU资源类型为共享GPU,并向所述GPU资源请求分配GPU资源集群中的共享GPU。
在该实现方式中,通过响应于所述GPU的资源请求量小于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU,由此能够提高GPU资源集群中的GPU的利用率。
在一种可能的实现方式中,所述方法还包括:响应于所述目标GPU资源类型为物理GPU,在规约信息中添加物理GPU对应的注释信息。
作为该实现方式的一个示例,在Kubernetes中,在所述目标GPU资源类型为物理GPU的情况下,可以在Pod Spec(规约信息)中添加物理GPU对应的注释信息,以标识所述GPU资源请求对应的目标GPU资源类型为物理GPU。例如,添加的注释信息为“Annotations:request-gpu-num:1”。
在一个例子中,集群管理操作平台可以响应于来自于Pod的GPU资源请求,根据所述GPU资源请求对应的GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型。集群管理操作平台可以响应于所述目标GPU资源类型为物理GPU,在所述Pod的规约信息(PodSpec)中添加物理GPU对应的注释信息,并将修改后的规约信息发送给API服务器。其中,所述Pod的规约信息还可以包括所述GPU资源请求对应的GPU资源请求量。API服务器可以根据修改后的规约信息,调用GPU调度器向所述GPU资源请求分配物理GPU。
在该实现方式中,通过响应于所述目标GPU资源类型为物理GPU,在规约信息中添加物理GPU对应的注释信息,由此能够基于规约信息传递分配给所述GPU资源请求的GPU资源的类型信息。
当然,本领域技术人员可以根据实际应用场景需求确定在服务端的不同模块之间传递目标GPU资源类型的方式,在此不做限定。
在一种可能的实现方式中,所述GPU资源集群包括至少一个GPU节点,且任一GPU节点包括至少一个物理GPU;所述根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源,包括:根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点;根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在该实现方式中,所述GPU资源集群中的不同GPU节点中的GPU资源类型可以相同,也可以不同。任一GPU节点中的任一物理GPU可以在实际调度时确定用作物理GPU或者共享GPU。
作为该实现方式的一个示例,所述GPU资源集群中的各个GPU节点中的GPU资源类型均包括物理GPU和共享GPU。
作为该实现方式的另一个示例,所述GPU资源集群中的一部分GPU节点中的GPU资源类型包括物理GPU和共享GPU,另一部分GPU节点中的GPU资源类型仅包括物理GPU。
作为该实现方式的另一个示例,所述GPU资源集群中的一部分GPU节点中的GPU资源类型包括物理GPU和共享GPU,另一部分GPU节点中的GPU资源类型仅包括共享GPU。
作为该实现方式的另一个示例,所述GPU资源集群中的一部分GPU节点中的GPU资源类型包括物理GPU和共享GPU,一部分GPU节点中的GPU资源类型仅包括物理GPU,另一部分GPU节点中的GPU资源类型仅包括共享GPU。
作为该实现方式的另一个示例,所述GPU资源集群中的一部分GPU节点中的GPU资源类型仅包括物理GPU,另一部分GPU节点中的GPU资源类型仅包括共享GPU。
在该实现方式中,可以根据GPU资源请求对应的目标GPU资源类型和GPU资源请求量,以及GPU资源集群中的各个GPU节点中的可用GPU资源的类型和资源量,确定符合所述GPU资源请求的请求条件的GPU节点作为目标GPU节点。其中,若任一GPU节点符合所述GPU资源请求的请求条件,则所述GPU节点的可用GPU资源中,包括所述目标GPU资源类型的GPU资源。
其中,所述GPU资源请求对应的目标GPU节点的数量可以为一个或两个以上。即,可以仅向所述GPU资源请求分配一个GPU节点中的GPU资源,也可以向所述GPU资源请求分配两个以上GPU节点中的GPU资源。在目标GPU节点的数量为一个的情况下,任一GPU节点符合所述GPU资源请求的请求条件,可以表示所述GPU节点的可用GPU资源中,包括所述目标GPU资源类型的GPU资源,且所述GPU节点中的所述目标GPU资源类型的可用GPU资源的资源量大于或等于所述GPU资源请求量。
在该实现方式中,通过根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点,并根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源,由此能够向所述GPU资源请求分配合适的GPU节点中的GPU资源。
作为该实现方式的一个示例,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:集群管理操作平台根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;所述根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点,包括:所述集群管理操作平台向资源对象管理服务器发送所述目标GPU资源类型和所述GPU资源请求量;所述资源对象管理服务器调用GPU调度器(GPU Scheduler),以通过所述GPU调度器根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点。
在一个例子中,集群管理操作平台可以根据GPU资源请求量,确定GPU资源请求对应的目标GPU资源类型,并可以根据目标GPU资源类型修改规约信息;集群管理操作平台可以通过规约信息向API服务器发送所述目标GPU资源类型和所述GPU资源请求量。例如,在Kubernetes中,集群管理操作平台可以向API服务器发送Pod Spec,其中,Pod Spec可以包括所述目标GPU资源类型和所述GPU资源请求量。
在该示例中,API服务器可以调用GPU调度器,GPU调度器可以根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点。其中,GPU调度器可以负责从GPU资源集群中确定目标GPU节点。例如,在Kubernetes中,GPU调度器可以负责调度Pod到符合条件的GPU节点。GPU调度器在从GPU资源集群中确定目标GPU节点之后,可以绑定Pod和目标GPU节点。
在该示例中,通过集群管理操作平台根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,所述集群管理操作平台向资源对象管理服务器发送所述目标GPU资源类型和所述GPU资源请求量,所述资源对象管理服务器调用GPU调度器,以通过所述GPU调度器根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点,由此能够通过集群管理操作平台、资源对象管理服务器和GPU调度器完成目标GPU节点的筛选流程。
在其他示例中,还可以通过资源对象管理服务器或者GPU调度器等,根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型。即,“根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型”的执行主体还可以为资源对象管理服务器或者GPU调度器等,在此不做限定。
作为该实现方式的一个示例,所述根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源,包括:GPU调度器向所述目标节点对应的节点代理模块发送所述目标GPU资源类型和所述GPU资源请求量;所述节点代理模块根据所述目标GPU资源类型和所述GPU资源请求量,请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
例如,在Kubernetes中,GPU调度器可以向目标节点对应的Kubelet(节点代理模块)发送所述目标GPU资源类型和所述GPU资源请求量,Kubelet可以请求通用GPU控制器(Universal GPU Controller)根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在该示例中,通过GPU调度器向所述目标节点对应的节点代理模块发送所述目标GPU资源类型和所述GPU资源请求量,所述节点代理模块根据所述目标GPU资源类型和所述GPU资源请求量,请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源,由此能够通过GPU调度器、节点代理模块和GPU控制器完成目标GPU节点中的GPU资源的分配。
在一个示例中,在所述请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源之后,所述方法还包括:所述节点代理模块响应于所述通用GPU控制器返回容器的环境变量信息,调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
在该示例中,通用GPU控制器可以负责统一管理GPU节点上不同类型的GPU资源,以及生成容器的环境变量信息。
例如,在Kubernetes中,通用GPU控制器可以向Kubelet返回容器的环境变量信息,Kubelet可以根据容器的环境变量信息,调用运行时(Runtime)模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
在该示例中,通过所述节点代理模块响应于所述通用GPU控制器返回容器的环境变量信息,调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器,由此能够通过GPU控制器、节点代理模块和运行时模块完成容器的创建。
本公开实施例提供的GPU资源分配方法可以应用于集群管理、GPU资源分配等技术领域,在此不做限定。
下面通过一个具体的应用场景说明本公开实施例提供的GPU资源分配方法。图2示出本公开实施例提供的GPU资源分配方法的应用场景的示意图。该应用场景中的GPU资源集群为基于Kubernetes的GPU资源集群。在该应用场景中,可以根据显存大小,将GPU资源集群中的各个GPU节点的共享GPU和物理GPU的算力抽象成统一的资源量。
在图2中,集群管理操作平台可以给用户开发、运维等提供web(网页)页面来管理和操作集群。集群管理操作平台还可以用于根据来自于Pod的GPU资源请求对应的GPU资源请求量,确定GPU资源请求对应的目标GPU资源类型。GPU调度器可以负责调度Pod到符合条件的GPU节点。通用GPU控制器可以负责统一管理GPU节点上不同类型的GPU资源,以及生成容器的环境变量信息。
GPU资源的调度流程举例如下:
在步骤1中,GPU节点可以通过通用GPU控制器,向所述GPU节点的Kubelet注册所述GPU节点中的物理GPU的设备信息。
在步骤2中,Kubelet可以向API服务器上报所述GPU节点中的GPU资源的信息。
在步骤3中,用户端可以通过集群管理操作平台创建工作负载,且用户端可以通过Pod向集群管理操作平台发送GPU资源请求,其中,GPU资源请求包括GPU资源请求量。集群管理操作平台可以响应于来自于Pod的GPU资源请求,根据所述GPU资源请求对应的GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型。集群管理操作平台可以响应于所述目标GPU资源类型为物理GPU,在所述Pod的规约信息(Pod Spec)中添加物理GPU对应的注释信息,并将修改后的规约信息发送给API服务器。API服务器可以根据规约信息,调用GPU调度器,以通过GPU调度器根据目标GPU资源类型和所述GPU资源请求量,从GPU资源集群中确定目标GPU节点。
在步骤4中,GPU调度器可以绑定Pod和目标GPU节点,并可以向目标节点对应的Kubelet发送目标GPU资源类型和所述GPU资源请求量。
在步骤5中,Kubelet可以请求通用GPU控制器根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。通用GPU控制器可以向Kubelet返回容器的环境变量信息。
在步骤6中,Kubelet可以调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定。
此外,本公开还提供了GPU资源分配装置、电子设备、计算机可读存储介质、计算机程序产品,上述均可用来实现本公开提供的任一种GPU资源分配方法,相应技术方案和技术效果可参见方法部分的相应记载,不再赘述。
图3示出本公开实施例提供的GPU资源分配装置的框图。所述GPU资源分配装置应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU。如图3所示,所述GPU资源分配装置包括:
第一确定模块31,用于响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量;
第二确定模块32,用于根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
分配模块33,用于根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
在一种可能的实现方式中,所述第二确定模块32用于:
响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型包括物理GPU。
在一种可能的实现方式中,所述第二确定模块32用于:
响应于所述GPU的资源请求量小于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU。
在一种可能的实现方式中,所述装置还包括:
第三确定模块,用于对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的指定参数的值,确定所述物理GPU的资源量;
以及,
第四确定模块,用于对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的所述指定参数的值,确定所述共享GPU的资源量。
在一种可能的实现方式中,所述指定参数为显存大小。
在一种可能的实现方式中,所述装置还包括:
添加模块,用于响应于所述目标GPU资源类型为物理GPU,在规约信息中添加物理GPU对应的注释信息。
在一种可能的实现方式中,所述GPU资源集群包括至少一个GPU节点,且任一GPU节点包括至少一个物理GPU;
所述分配模块33用于:
根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点;
根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在一种可能的实现方式中,
所述第二确定模块32用于:集群管理操作平台根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
所述分配模块33用于:所述集群管理操作平台向资源对象管理服务器发送所述目标GPU资源类型和所述GPU资源请求量;所述资源对象管理服务器调用GPU调度器,以通过所述GPU调度器根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点。
在一种可能的实现方式中,所述分配模块33用于:
GPU调度器向所述目标节点对应的节点代理模块发送所述目标GPU资源类型和所述GPU资源请求量;
所述节点代理模块根据所述目标GPU资源类型和所述GPU资源请求量,请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
在一种可能的实现方式中,所述装置还包括:
创建模块,用于所述节点代理模块响应于所述通用GPU控制器返回容器的环境变量信息,调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现和技术效果可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
本公开实施例还提供一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。其中,所述计算机可读存储介质可以是非易失性计算机可读存储介质,或者可以是易失性计算机可读存储介质。
本公开实施例还提出一种计算机程序,包括计算机可读代码,当所述计算机可读代码在电子设备中运行时,所述电子设备中的处理器执行上述方法。
本公开实施例还提供了一种计算机程序产品,包括计算机可读代码,或者承载有计算机可读代码的非易失性计算机可读存储介质,当所述计算机可读代码在电子设备中运行时,所述电子设备中的处理器执行上述方法。
本公开实施例还提供一种电子设备,包括:一个或多个处理器;用于存储可执行指令的存储器;其中,所述一个或多个处理器被配置为调用所述存储器存储的可执行指令,以执行上述方法。
电子设备可以被提供为终端、服务器或其它形态的设备。
图4示出本公开实施例提供的电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图4,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入/输出接口1958(I/O接口)。电子设备1900可以操作基于存储在存储器1932的操作系统,例如微软服务器操作系统(Windows ServerTM),苹果公司推出的基于图形用户界面操作系统(MacOS XTM),多用户多进程的计算机操作系统(UnixTM),自由和开放原代码的类Unix操作系统(LinuxTM),开放原代码的类Unix操作系统(FreeBSDTM)或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述方法。
本公开可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述。
若本公开实施例的技术方案涉及个人信息,应用本公开实施例的技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本公开实施例的技术方案涉及敏感个人信息,应用本公开实施例的技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (13)
1.一种GPU资源分配方法,其特征在于,应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU,所述方法包括:
响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量;
根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
2.根据权利要求1所述的方法,其特征在于,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:
响应于所述GPU资源请求量大于或等于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型包括物理GPU。
3.根据权利要求1所述的方法,其特征在于,所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:
响应于所述GPU的资源请求量小于单个物理GPU的资源量,确定所述GPU资源请求对应的目标GPU资源类型为共享GPU。
4.根据权利要求1至3中任意一项所述的方法,其特征在于,所述方法还包括:
对于所述GPU资源集群中的任一物理GPU,根据所述物理GPU的指定参数的值,确定所述物理GPU的资源量;
以及,
对于所述GPU资源集群中的任一共享GPU,根据所述共享GPU的所述指定参数的值,确定所述共享GPU的资源量。
5.根据权利要求4所述的方法,其特征在于,所述指定参数为显存大小。
6.根据权利要求1至3中任意一项所述的方法,其特征在于,所述方法还包括:
响应于所述目标GPU资源类型为物理GPU,在规约信息中添加物理GPU对应的注释信息。
7.根据权利要求1至3中任意一项所述的方法,其特征在于,所述GPU资源集群包括至少一个GPU节点,且任一GPU节点包括至少一个物理GPU;
所述根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源,包括:
根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点;
根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
8.根据权利要求7所述的方法,其特征在于,
所述根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型,包括:集群管理操作平台根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
所述根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点,包括:所述集群管理操作平台向资源对象管理服务器发送所述目标GPU资源类型和所述GPU资源请求量;所述资源对象管理服务器调用GPU调度器,以通过所述GPU调度器根据所述目标GPU资源类型和所述GPU资源请求量,从所述GPU资源集群中确定目标GPU节点。
9.根据权利要求7所述的方法,其特征在于,所述根据所述目标GPU资源类型和所述GPU资源请求量,向所述GPU资源请求分配所述目标GPU节点中的GPU资源,包括:
GPU调度器向所述目标节点对应的节点代理模块发送所述目标GPU资源类型和所述GPU资源请求量;
所述节点代理模块根据所述目标GPU资源类型和所述GPU资源请求量,请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源。
10.根据权利要求9所述的方法,其特征在于,在所述请求通用GPU控制器向所述GPU资源请求分配所述目标GPU节点中的GPU资源之后,所述方法还包括:
所述节点代理模块响应于所述通用GPU控制器返回容器的环境变量信息,调用运行时模块,以通过所述运行时模块根据所述环境变量信息创建所述GPU资源请求对应的容器。
11.一种GPU资源分配装置,其特征在于,应用于GPU资源集群,所述GPU资源集群中的GPU资源类型包括物理GPU和共享GPU,所述装置包括:
第一确定模块,用于响应于GPU资源请求,确定所述GPU资源请求对应的GPU资源请求量;
第二确定模块,用于根据所述GPU资源请求量,确定所述GPU资源请求对应的目标GPU资源类型;
分配模块,用于根据所述目标GPU资源类型,向所述GPU资源请求分配所述GPU资源集群中的GPU资源。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
用于存储可执行指令的存储器;
其中,所述一个或多个处理器被配置为调用所述存储器存储的可执行指令,以执行权利要求1至10中任意一项所述的方法。
13.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至10中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310686762.0A CN116662009A (zh) | 2023-06-09 | 2023-06-09 | Gpu资源分配方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310686762.0A CN116662009A (zh) | 2023-06-09 | 2023-06-09 | Gpu资源分配方法、装置、电子设备和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116662009A true CN116662009A (zh) | 2023-08-29 |
Family
ID=87709471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310686762.0A Pending CN116662009A (zh) | 2023-06-09 | 2023-06-09 | Gpu资源分配方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116662009A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117421123A (zh) * | 2023-11-03 | 2024-01-19 | 摩尔线程智能科技(上海)有限责任公司 | 一种gpu资源调整方法及系统、电子设备和存储介质 |
-
2023
- 2023-06-09 CN CN202310686762.0A patent/CN116662009A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117421123A (zh) * | 2023-11-03 | 2024-01-19 | 摩尔线程智能科技(上海)有限责任公司 | 一种gpu资源调整方法及系统、电子设备和存储介质 |
CN117421123B (zh) * | 2023-11-03 | 2024-04-19 | 摩尔线程智能科技(上海)有限责任公司 | 一种gpu资源调整方法及系统、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107343045B (zh) | 云计算系统及用于控制服务器的云计算方法和装置 | |
US10601725B2 (en) | SLA-based agile resource provisioning in disaggregated computing systems | |
US8862933B2 (en) | Apparatus, systems and methods for deployment and management of distributed computing systems and applications | |
US20180373540A1 (en) | Cluster graphical processing unit (gpu) resource sharing efficiency by directed acyclic graph (dag) generation | |
CN110166507B (zh) | 多资源调度方法和装置 | |
CN108337314B (zh) | 分布式系统、用于主服务器的信息处理方法和装置 | |
CN111966504B (zh) | 图形处理器中的任务处理方法及相关设备 | |
CN109117252B (zh) | 基于容器的任务处理的方法、系统及容器集群管理系统 | |
CN109218356B (zh) | 管理服务器上有状态应用的方法和设备 | |
CN108282507B (zh) | 在CaaS环境中进行应用发布的方法、装置以及电子设备 | |
CN110162397B (zh) | 资源分配方法、装置及系统 | |
CN104735108A (zh) | 一种使用云桌面的方法、装置和云桌面系统 | |
CN113849312A (zh) | 数据处理任务的分配方法、装置、电子设备及存储介质 | |
KR20230024416A (ko) | 클라우드 플랫폼 간 가상 머신 마이그레이션 방법, 장치, 저장 매체 및 전자 장치 | |
CN112540841A (zh) | 任务调度的方法、装置、处理器与电子设备 | |
CN116320469B (zh) | 一种虚拟化视频编解码系统及方法、电子设备和存储介质 | |
CN113204412B (zh) | 用于任务调度的方法、电子设备和计算机存储介质 | |
CN111782385A (zh) | 用于处理任务的方法、电子设备和计算机程序产品 | |
CN116662009A (zh) | Gpu资源分配方法、装置、电子设备和存储介质 | |
CN117616395A (zh) | 迁移期间应用的连续活跃度和完整性 | |
CN112905338A (zh) | 计算资源自动分配方法及装置 | |
CN112104679B (zh) | 处理超文本传输协议请求的方法、装置、设备和介质 | |
CN113254825A (zh) | 页面生成的方法、装置、电子设备和存储介质 | |
CN115729715B (zh) | 用于gpu系统的负载分配方法、装置、设备和介质 | |
CN116188240B (zh) | 一种用于容器的gpu虚拟化方法及装置、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |