CN110389825B - 管理专用处理资源的方法、设备和计算机程序产品 - Google Patents

管理专用处理资源的方法、设备和计算机程序产品 Download PDF

Info

Publication number
CN110389825B
CN110389825B CN201810359545.XA CN201810359545A CN110389825B CN 110389825 B CN110389825 B CN 110389825B CN 201810359545 A CN201810359545 A CN 201810359545A CN 110389825 B CN110389825 B CN 110389825B
Authority
CN
China
Prior art keywords
dedicated processing
processing resources
logical
amount
logical dedicated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810359545.XA
Other languages
English (en)
Other versions
CN110389825A (zh
Inventor
彭麟
赵军平
崔嵬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EMC Corp
Original Assignee
EMC IP Holding Co LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EMC IP Holding Co LLC filed Critical EMC IP Holding Co LLC
Priority to CN201810359545.XA priority Critical patent/CN110389825B/zh
Priority to US16/384,209 priority patent/US11663050B2/en
Publication of CN110389825A publication Critical patent/CN110389825A/zh
Application granted granted Critical
Publication of CN110389825B publication Critical patent/CN110389825B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5044Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering hardware capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer And Data Communications (AREA)
  • Mobile Radio Communication Systems (AREA)

Abstract

本公开的实施例涉及用于管理专用处理资源的方法、设备和计算机程序产品。一种方法包括响应于从客户端上运行的应用接收到资源分配请求,获取由一组服务器提供的一组物理专用处理资源与该组物理专用处理资源被划分而成的一组逻辑专用处理资源之间的映射关系。该方法还包括确定该组逻辑专用处理资源的分配状态。该方法还包括至少基于映射关系和分配状态,从该组逻辑专用处理资源中确定要向应用分配的第一数量的逻辑专用处理资源。此外,该方法还包括向应用指示第一数量的逻辑专用处理资源,以允许应用使用由一组服务器中的至少一个服务器提供的物理专用处理资源。本公开的实施例能够对专用处理资源进行更细粒度的调度。

Description

管理专用处理资源的方法、设备和计算机程序产品
技术领域
本公开的实施例总体涉及云计算领域,具体涉及用于管理专用处理资源的方法、设备和计算机程序产品。
背景技术
客户端上的应用可以被设计用于利用诸如处理资源和/或存储资源的计算资源来完成各种处理或分析任务。随着诸如机器学习、深度学习、数据挖掘等任务的需求和复杂度不断增加,需要大量和/或可扩展的计算资源来满足相应应用的运行。这可以通过具有多个专用处理资源的机器或系统来实现,其中应用可以被调度到该机器或系统的一个或多个专用处理资源上运行。例如,已经开发了基于云的计算系统,该计算系统包括具有一个或多个专用处理资源的机器。不同客户端可以根据需要来租赁该系统的计算资源(例如,专用处理资源)用以运行各自的应用。
随着专用处理资源的计算能力不断得到提高,如何更加合理地利用专用处理资源是值得研究的课题。
发明内容
本公开的实施例提供了用于管理专用处理资源的方法、设备和计算机程序产品。
在本公开的第一方面,提供了一种用于管理专用处理资源的方法。该方法包括响应于从客户端上运行的应用接收到资源分配请求,获取由一组服务器提供的一组物理专用处理资源与该组物理专用处理资源被划分而成的一组逻辑专用处理资源之间的映射关系,资源分配请求指示该应用所要求的专用处理资源量。该方法还包括确定该组逻辑专用处理资源的分配状态。该方法还包括至少基于映射关系和分配状态,从该组逻辑专用处理资源中确定要向应用分配的第一数量的逻辑专用处理资源,第一数量的逻辑专用处理资源满足专用处理资源量。此外,该方法还包括向应用指示第一数量的逻辑专用处理资源,以允许应用使用由一组服务器中的至少一个服务器提供的物理专用处理资源,该物理专用处理资源与第一数量的逻辑专用处理资源相对应。
在本公开的第二方面,提供了一种用于管理专用处理资源的设备。该设备包括至少一个处理单元和至少一个存储器。至少一个存储器被耦合到至少一个处理单元并且存储用于由至少一个处理单元执行的指令。该指令当由至少一个处理单元执行时使得设备执行动作,该动作包括:响应于从客户端上运行的应用接收到资源分配请求,获取由一组服务器提供的一组物理专用处理资源与该组物理专用处理资源被划分而成的一组逻辑专用处理资源之间的映射关系,资源分配请求指示该应用所要求的专用处理资源量;确定该组逻辑专用处理资源的分配状态;至少基于映射关系和分配状态,从该组逻辑专用处理资源中确定要向应用分配的第一数量的逻辑专用处理资源,第一数量的逻辑专用处理资源满足专用处理资源量;以及向应用指示第一数量的逻辑专用处理资源,以允许应用使用由一组服务器中的至少一个服务器提供的物理专用处理资源,该物理专用处理资源与第一数量的逻辑专用处理资源相对应。
在本公开的第三方面,提供了一种计算机程序产品。该计算机程序产品被有形地存储在非瞬态计算机存储介质中并且包括机器可执行指令。该机器可执行指令在由设备执行时使该设备执行根据本公开的第一方面所描述的方法的任意步骤。
提供发明内容部分是为了以简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或必要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了可以在其中实现本公开的某些实施例的环境的示意框图;
图2示出了根据本公开的实施例的示例系统的框图;
图3示出了根据本公开的实施例的虚拟GPU的生命周期的示意图;
图4示出了根据本公开的实施例的用于管理专用处理资源的示例过程的流程图;
图5示出了根据本公开的实施例的用于管理专用处理资源的方法的流程图;以及
图6示出了可以用来实施本公开内容的实施例的示例设备的示意性框图。
在各个附图中,相同或对应的标号表示相同或对应的部分。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
如上所述,专用处理资源可以在客户端本地或者可以由远程机器或系统提供。在一些示例中,可以部署基于云的计算系统,其中包括具有一个或多个专用处理资源的多个机器。该计算系统的专用处理资源可以由不同客户端根据需要来使用,以将相应的应用调度到可用的专用处理资源上运行。
图1示出了本公开的实施例可以在其中被实现的示例环境100的示意图。应当理解,仅出于示例性的目的描述示例环境100的结构和功能,而不暗示对于本公开的范围的任何限制。本公开的实施例还可以被应用到具有不同的结构和/或功能的环境中。
如图1所示,在环境100中部署了用于向应用提供专用处理资源的多个服务器110-1、110-2……110-N(以下被单独地或共同地称为服务器110,其中N为自然数)。服务器110可以是物理的或虚拟的机器。例如,服务器110可以是部署于数据中心或者私有或公共云中的逻辑、容器或虚拟机,或者物理的服务器或计算设备等等。
多个专用处理资源160-1、160-2……160-M(以下被单独地或共同地称为专用处理资源160,其中M为自然数)可以被分布在多个服务器110上。例如,在图1所示的示例中,服务器110-1具有两个专用处理资源160(即专用处理资源160-1、专用处理资源160-2),服务器110-2具有三个专用处理资源160(即专用处理资源160-3、专用处理资源160-4和专用处理资源160-5),并且服务器110-N具有一个专用处理资源160(即专用处理资源160-M)。在此所述的“专用处理资源”指代用于某种特定用途的处理资源。例如,专用处理资源160的示例可以包括但不限于图形专用处理资源(GPU)、现场可编程门阵列(FPGA)等。
如图1所示,在环境100中还部署了多个客户端120-1、120-2……120-P(以下统称或单独称为客户端120,其中P为自然数),其分别具有运行的应用150-1、150-2……150-Q(以下被单独地或共同地称为应用150,其中Q为自然数)。应用150可以是机器上可运行的任何应用,其可以被设计为执行相应数据处理或分析等任务。作为示例,应用150可以执行与高性能计算(HPC)、机器学习(ML)或深度学习(DL)以及人工智能(AI)等相关的数据处理或分析任务。
为了能够快速高效运行这些应用和/或为了保留本地处理资源,客户端120可以请求利用服务器110中的专用处理资源160来运行这些应用150。如图1所示,客户端120、服务器110和控制器140可以经由互连网络130而被互连。控制器140可以被配置为向客户端120中的应用150分配服务器110中的专用处理资源160。尽管在图1中被单独示出,但是在实际应用中控制器140可以由独立于服务器110的其他设备实现,或者可以被部分或全部实现在一个或多个服务器110上。取决于客户端120、服务器110、控制器140和/或专用处理资源160所支持的接口,互连网络130可以支持基于诸如远程直接内存访问(RDMA)和传输控制协议(TCP)等各种网络传输技术的不同类型的有线或者无线连接。
在传统方案中,对于专用处理资源的分配通常是基于物理专用资源而进行的。以GPU为例,GPU作为一种专用处理器,其强大的计算能力源自其大量的内核和高带宽的内存。在GPU的硬件架构中,一个GPU通常可以具有大量的GPU内核,例如5120或者甚至高达10000个内核。GPU的存储器的容量通常较小,例如大小为8GB-16GB,但是带宽极高,例如达到900GB/s。然而,在传统方案中,GPU的调度通常是基于物理GPU而进行的。也即,单个GPU通常仅由单个应用独占,这显然是极为浪费的,因为单个GPU中的大量GPU内核和高带宽无法得到充分利用。因此,期望实现更细粒度的GPU调度,以允许在需要GPU加速的多个应用之间共享同一物理GPU。
本公开的示例实施例提出了一种用于管理专用处理资源的方案。该方案能够实现对专用处理资源的更细粒度的调度。通过将物理专用处理资源划分为逻辑专用处理资源并且针对逻辑专用处理资源进行调度,该方案能够实现对逻辑专用处理资源的灵活配置和管理。
出于说明的目的,在下文中将以GPU作为专用处理资源的示例。然而,应当理解,GPU仅仅是一种示例性的专用处理资源,其并不旨在限制本公开的范围。在此描述的精神和原理可以应用于已知或将来开发的任何其他专用处理器,例如现场可编程门阵列(FPGA)之类的加速器等。
图2示出了根据本公开的实施例的示例系统200的框图。系统200可以被视为如图1所示的环境100的一种示例实现。如图2所示,系统200包括如图1所示的客户端120、控制器140以及提供多个GPU160的多个服务器110。在本文中,提供多个GPU 160的多个服务器110也被称为“GPU集群”。应当理解,仅出于示例性的目的描述示例系统200的结构和功能,而不暗示对于本公开的范围的任何限制。
如图2所示,客户端120中运行有客户端驱动210,其由应用150内部加载并且与应用150运行在相同的客户端节点上。当应用150运行时,客户端驱动210可以从应用150收集资源需求。例如,资源需求可以通过自动估计(诸如,深度学习)或者用户输入来被收集。收集的资源需求例如可以指示应用150所需要的GPU资源量。该资源需求可以经由客户端120与控制器140之间的调度路径220被发送至控制器140,以向控制器140请求分配相应的专用处理资源。控制器140可以响应于接收到资源分配请求而为应用150分配所需要的GPU资源。一旦从控制器140接收到对所分配的GPU的指示,客户端驱动210可以经由客户端120与服务器110之间的数据路径230来与相应的一个或多个服务器110进行连接,以使用由该一个或多个服务器110提供的GPU来为应用150加速。
多个服务器110中可以运行有相应的服务器驱动240-1、240-2……240-N(以下被单独地或共同地称为服务器驱动240)。服务器驱动240可以处理来自客户端驱动210的GPU连接请求,以为应用150提供相应的GPU资源。特别地,在一些实施例中,服务器驱动240还可以被配置为针对应用150执行预定的GPU限制策略,以实现GPU在不同应用间的公平使用。此外,服务器驱动240还可以收集相应pGPU的硬件配置信息、系统运行状态信息等,以经由控制器140和服务器110之间的监测路径250提供给控制器140。
控制器140可以被配置为将由服务器110提供的多个pGPU 160划分为逻辑GPU(也称为“虚拟GPU”,vGPU),并且以vGPU为单位来为应用150分配GPU资源。在此所述的“vGPU”指代对pGPU进行更细粒度的划分的逻辑表现形式。在一些实施例中,vGPU可以以绝对的计算资源和存储资源的数量来表示,例如<每秒100G次浮点运算,2GB GPU存储器>。在另一些实施例中,vGPU可以以相对于一个pGPU的资源百分比的形式来表示,例如,<25%的GPU内核,25%的GPU存储器>。应当理解,一个vGPU可以仅来自一个pGPU或者也可以来自多个pGPU。在一些实施例中,vGPU的规格(例如,每个vGPU所包括的计算资源和存储资源的数量等)可以被预先定义。控制器140可以经由在控制器140和服务器110之间的监测路径250来获取不同pGPU的硬件配置信息,并且基于所获取的pGPU的硬件配置信息和预先定义的vGPU的规格来将多个pGPU划分成多个vGPU。
控制器140可以进一步将多个pGPU和多个vGPU之间的映射关系维护在映射表中。例如,该映射表可以被存储在控制器140本地,或者被存储在由控制器140可访问的另外的存储设备中。例如,该映射表可以包括多个条目,每个条目包括vGPU的索引、该vGPU所属的pGPU的索引以及该pGPU所在的服务器110的标识符。例如,表1示出了根据本公开的一些实施例的记录多个pGPU和多个vGPU之间的映射关系的映射表的示例。
表1记录多个pGPU和多个vGPU之间的映射关系的示例映射表
vGPU1,服务器110-1,pGPU 160-1
vGPU2,服务器110-1,pGPU 160-2
vGPU3,服务器110-2,pGPU 160-3
vGPU4,服务器110-2,pGPU 160-4
……
此外,控制器140可以对所划分的vGPU的生命周期进行管理。
图3示出了根据本公开的实施例的vGPU的生命周期的示意图。以下结合图2和图3来详细描述控制器140对vGPU的生命周期管理。
如图3所示,当新的GPU服务器和/或新的pGPU被加入到如图2所示的系统200中时,相应的服务器驱动将检测到该新的pGPU,并向控制器140报告该信息。新pGPU由此处于已检测状态310。控制器140可以基于所获取的pGPU的硬件规格和预先定义的vGPU的规格来将该新的pGPU划分成vGPU。vGPU由此处于已划分状态320。该pGPU和所划分的vGPU之间的映射关系可以被记录在如表1所示的映射表中,并且该vGPU的状态变为就绪状态330。当控制器140接收到来自客户端210的资源分配请求时,控制器140可以基于预定的分配策略来分配vGPU。例如,处于就绪状态的vGPU可以被分配,并且其状态因此变为已分配状态340。一旦应用150运行结束,分配给该应用150的vGPU可以被释放,因此vGPU的状态可以从已分配状态变回到就绪状态。当pGPU从系统200中被移除时,与该pGPU相对应的一个或多个vGPU的状态变为下线状态350。
图4示出了根据本公开的实施例的用于管理专用处理资源的示例过程400的流程图。出于说明的目的,在图4中关于如图2所示的客户端120、控制器140和服务器110来描述过程400。应当理解,过程400还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
当客户端120中的应用150被启动时,与应用150相对应的客户端驱动210可以被加载,以从应用150收集其资源需求。在一些实施例中,该资源需求可以经由两种方式被收集。一种方式是通过用户输入来被收集。例如,用户可能已经知道系统预定义的vGPU规格并且基于该vGPU规格估计出自己所需要的vGPU的数;或者,该用户可以直接输入所要求的GPU的计算资源和存储资源的数量(例如,绝对数量或者相对于pGPU的相对数量等)。另一种方式是通过自动估计(诸如,深度学习)来确定应用150的资源需求。所搜集的资源需求可以被转换成对应的资源分配请求,并且该资源分配请求可以被发送410至控制器140。
响应于接收到该资源分配请求,控制器140可以为应用150分配420相应的vGPU。在一些实施例中,响应于接收到该资源分配请求,控制器140可以获取如表1所示的记录pGPU和vGPU之间的映射关系的映射表。例如,控制器140可以从本地获取该映射表,或者从存储该映射表的另外的存储设备、数据库等来获取该映射表。此外,控制器140可以确定vGPU的当前分配状态。控制器140可以基于所获取的映射关系表和所确定的vGPU的分配状态,来确定要向应用150分配的vGPU的数量(本文中也被称为“第一数量”)。例如,控制器140可以确定系统中当前处于“可分配状态”的vGPU的数量(本文中也称为“第二数量”),并且从第二数量的vGPU中确定用于向应用150分配的第一数量的vGPU。
在一些实施例中,控制器140可以基于多种因素来为应用150分配vGPU,这些因素包括但不限于:vGPU的功率消耗、vGPU的邻近性(例如,是否属于同一服务器或者是否位于距离较近的服务器等)、网络拓扑结构等。
在一些实施例中,控制器140可以基于预定策略来为应用150分配vGPU。以下进一步描述这些预定策略的若干示例。应当理解,除了以下描述的这些示例之外,控制器140也可以基于其他策略来为应用150分配vGPU,并且本公开的范围在此方面不受限制。
在一些实施例中,例如,控制器140可以尽可能从相同pGPU或者相同服务器来为应用150分配vGPU,这可以使得所分配的vGPU满足邻近性原则,从而避免同一应用跨多个服务器来使用GPU资源。该策略也被称为“装包(bin-pack)策略”。为了遵循该策略,控制器140可以首先确定是否存在来自同一服务器的vGPU以满足应用150的需求。如果存在,则控制器140可以仅从该服务器为应用150分配所需要的vGPU。如果不存在,则控制器140尝试跨多个服务器为应用150分配所需要的vGPU。附加地或者备选地,如果存在来自同一服务器的vGPU能够满足应用150的需求,控制器140可以进一步确定在该服务器上是否存在来自同一pGPU的vGPU能够满足应用150的需求。如果存在,则控制器140可以仅从该pGPU为应用150分配所需要的vGPU。否则,控制器140可以从该服务器中的多个pGPU为应用150分配所需要的vGPU。
在另一些实施例中,例如为了避免特定pGPU变得过于繁忙而成为系统瓶颈,控制器140可以以平衡的方式从多个pGPU为应用150分配所需要的vGPU。该策略也被称为“平衡策略”。
附加地或者备选地,在一些实施例中,控制器140可以基于上述两种策略的结合进行vGPU的分配。例如,对于不同应用而言,所分配的vGPU总体上应当尽可能均匀地映射到多个pGPU中,以避免特定pGPU变得过于繁忙而成为系统瓶颈。同时,针对同一应用,所分配的vGPU可以尽可能集中在相同的pGPU或者较少的pGPU上,以便于vGPU的聚合并且避免跨多个服务器或者pGPU来使用GPU资源。例如,如果应用150请求4个vGPU,并且没有单个pGPU能够提供4个vGPU,则控制器140可以分别从两个pGPU来分配该4个vGPU。例如,控制器140可以从一个pGPU分配2个vGPU而从另一pGPU分配2个vGPU。在一些实施例中,来自同一pGPU的多个vGPU可以被聚合成一个更大的vGPU以分配给应用。例如,上述4个vGPU可以被聚合成2个较大的vGPU以用于向应用指示。
此外,在一些实施例中,控制器140可以估计应用150在不同pGPU上的执行效率,并且基于该估计的结果来向应用150分配vGPU。例如,控制器140可以基于机器学习算法来执行上述估计。为了保证服务质量,例如该机器学习算法可以被嵌入在控制器140内。
基于上述各种因素和/或预定分配策略,控制器140可以生成包括所分配的vGPU的资源列表。控制器140可以向客户端120返回430该资源列表。在一些实施例中,该资源列表可以以不同方式来指示。假设控制器140为应用150分配了4个vGPU,分别被表示为vGPU1、vGPU2、vGPU3和vGPU4。vGPU1和vGPU2例如来自如图2所示的服务器110-1中的pGPU 160-1,而vGPU3和vGPU4例如来自如图2所示的服务器110-2的pGPU 160-3。在一些实施例中,控制器140可以以如下表2所示的方式来指示4个vGPU,其中资源列表中的每个条目包括对应vGPU的索引、该vGPU所属的pGPU的索引以及该pGPU所在的服务器的标识符。这种方式符合用户的行为习惯,使得客户能够像使用pGPU一样来使用vGPU,并且这种方式与现有的应用完全兼容。此外,这种方式隐藏了vGPU和pGPU之间的映射关系的细节,不需要进行vGPU的聚合。
表2向客户端返回的示例资源列表
vGPU1,服务器110-1,pGPU 160-1
vGPU2,服务器110-1,pGPU 160-1
vGPU3,服务器110-2,pGPU 160-3
vGPU4,服务器110-2,pGPU 160-3
在另一些实施例中,控制器140可以将来自同一pGPU的多个vGPU聚合成一个更大的vGPU,并且利用该更大vGPU相对于pGPU的资源百分比来指示所分配的vGPU,例如如下表3所示。这种方式使得pGPU的性能被公开,因此更容易与来自第三方的控制器兼容。
表3向客户端返回的示例资源列表
服务器110-1,pGPU 160-1,50%
服务器110-2,pGPU 160-3,30%
响应于接收到关于所分配的vGPU的指示,客户端120可以请求连接440相应的服务器(例如,在以上示例中的服务器110-1和110-2),以访问由该服务器提供的相应GPU资源来为应用150加速。在一些实施例中,取决于互连客户端120和服务器110的网络,客户端120可以经由适合的通信协议(例如,TCP或者RDMA)来与服务器110进行连接。例如,GPU资源可以在服务器110的特定IP端口处被访问。附加地或者备选地,关于所分配的GPU资源的资源量的信息可以被包含在向服务器发送的连接请求中。
响应于接收到来自客户端的连接请求,服务器110可以处理450该连接请求,以向客户端120上的应用提供相应的GPU资源。相应地,服务器110可以处理来自应用的后续GPU操作命令。此外,基于连接请求中所包括的GPU资源量的信息,服务器110可以针对应用150实施预定的GPU资源(诸如,计算资源和存储资源两者)限制,以实现GPU在不同应用间的公平使用。
此外,相关的系统运行状态信息可以由服务器110收集并且被提供给控制器140。在一些实施例中,由服务器110收集并提供的状态信息可以例如但不限于:GPU负载和使用信息(诸如,GPU内核使用率、存储器使用率、功耗信息、总线收发速度等)、CPU负载信息(诸如,服务器驱动的负载信息等)、以及网络负载信息等等。这些信息可以被反馈给控制器140以用于进一步分析和展示。此外,这些信息中的至少部分信息可以影响下一轮vGPU分配。
当客户端120中的应用150运行完成时,相应的vGPU可以被释放,并且该事件可以被通知给控制器140以更新vGPU的状态。在一些实施例中,该事件可以由客户端120向服务器110通知,并且然后由服务器110向控制器140通知。备选地,在一些实施例中,客户端120可以直接向控制器140通知。
通过以上描述能够看出,本公开的示例实施例能够实现对专用处理资源的更细粒度的调度。通过将物理专用处理资源划分为逻辑专用处理资源并且针对逻辑专用处理资源进行调度,该方案能够实现对逻辑专用处理资源的灵活配置和管理。
图5示出了根据本公开的实施例的用于管理专用处理资源的方法500的流程图。例如,方法500可以由如图1、图2和/或图4所示的控制器140执行。应当理解,方法500还可以包括未示出的附加动作和/或可以省略所示出的动作,本公开的范围在此方面不受限制。
在框510,响应于从客户端上运行的应用接收到资源分配请求,控制器140获取由一组服务器提供的一组物理专用处理资源与一组物理专用处理资源被划分而成的一组逻辑专用处理资源之间的映射关系。该资源分配请求指示应用所要求的专用处理资源量。
在框520,控制器140确定该组逻辑专用处理资源的分配状态。
在框530,控制器140至少基于映射关系和分配状态,从该组逻辑专用处理资源中确定要向应用分配的第一数量的逻辑专用处理资源,第一数量的逻辑专用处理资源满足专用处理资源量。
在一些实施例中,该分配状态指示该组逻辑专用处理资源中可用于分配的第二数量的逻辑专用处理资源。控制器140可以从第二数量的逻辑专用处理资源中确定满足专用处理资源量的第一数量的逻辑专用处理资源。
在一些实施例中,控制器140可以确定第一数量的逻辑专用处理资源,使得第一数量的逻辑专用处理资源包括映射到一组物理专用处理资源中的相同物理专用处理资源的多个逻辑专用处理资源。
在一些实施例中,控制器140可以确定第一数量的逻辑专用处理资源,使得第一数量的逻辑专用处理资源包括由一组服务器中的相同服务器提供的多个逻辑专用处理资源。
在一些实施例中,控制器140可以确定第一数量的逻辑专用处理资源,使得第一数量的逻辑专用处理资源被均匀地映射到一组物理专用处理资源中。
在一些实施例中,控制器140可以确定对应用在不同物理专用处理资源上的执行效率的估计,并且基于该估计来确定要向该应用分配的第一数量的逻辑专用处理资源。
在框540,控制器140向应用指示第一数量的逻辑专用处理资源,以允许应用使用由一组服务器中的至少一个服务器提供的物理专用处理资源,该物理专用处理资源与第一数量的逻辑专用处理资源相对应。
在一些实施例中,控制器140可以确定第一数量的逻辑专用处理资源是否包括映射到相同物理专用处理资源的多个逻辑专用处理资源。响应于确定第一数量的逻辑专用处理资源包括映射到相同物理专用处理资源的多个逻辑专用处理资源,控制器140可以将该多个逻辑专用处理资源合并成单个逻辑专用处理资源。控制器140可以通过向应用指示该单个逻辑专用处理资源来指示第一数量的逻辑专用处理资源。
在一些实施例中,控制器140还可以响应于向应用指示第一数量的逻辑专用处理资源,更新第一数量的逻辑专用处理资源的相应分配状态。
在一些实施例中,物理专用处理资源包括图像处理单元(GPU)中的计算资源和存储资源中的至少一种。
图6示出了可以用来实施本公开内容的实施例的示例设备600的示意性框图。例如,如图1、图2和图4所示的控制器140可以由设备600实施。如图所示,设备600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的计算机程序指令或者从存储单元608加载到随机访问存储器(RAM)603中的计算机程序指令,来执行各种适当的动作和处理。在RAM 603中,还可存储设备600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储单元608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如方法500,可由处理单元601执行。例如,在一些实施例中,方法500可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到设备600上。当计算机程序被加载到RAM 603并由CPU 601执行时,可以执行上文描述的方法500的一个或多个动作。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是——但不限于——电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理单元,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理单元执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (20)

1.一种用于管理专用处理资源的方法,包括:
由控制器将驻留在一组服务器上的一组物理专用处理资源逻辑地划分成一组逻辑专用处理资源,其中至少一个物理专用处理资源被逻辑地划分成多个逻辑专用处理资源以使得所述至少一个物理专用处理资源能够由多个应用并行使用;
由所述控制器从在客户端设备上运行的客户端驱动接收资源分配请求,所述资源分配请求指示用于向在所述客户端设备上执行的应用分配的专用处理资源量;
响应于所述资源分配请求,所述控制器执行过程,所述过程包括:
获取所述一组物理专用处理资源与所述一组逻辑专用处理资源之间的映射关系,其中所述映射关系包括至少一个条目,所述至少一个条目将至少一个逻辑专用处理资源映射到至少一个物理专用处理资源,并且所述至少一个条目标识所述一组服务器中的、所述至少一个物理专用处理资源驻留在其上的服务器;
确定所述一组逻辑专用处理资源的分配状态;
至少基于所述映射关系和所述分配状态,从所述一组逻辑专用处理资源中确定要向所述应用分配的第一数量的逻辑专用处理资源,所述第一数量的逻辑专用处理资源满足所述专用处理资源量;以及
向所述客户端驱动指示所述第一数量的逻辑专用处理资源,以允许所述客户端驱动与所述一组服务器中的至少一个服务器通信,从而建立所述客户端设备与所述一组服务器中的所述至少一个服务器之间的至少一个数据路径,从而使用由所述一组服务器中的所述至少一个服务器提供的物理专用处理资源,所述物理专用处理资源与所述第一数量的逻辑专用处理资源相对应;以及
响应于由所述控制器接收到所述应用执行完成并且释放所述第一数量的逻辑专用处理资源的通知,所述控制器更新所述一组逻辑专用处理资源的所述分配状态以指示所述第一数量的逻辑专用处理资源的可用性;
其中所述控制器包括至少一个处理设备,所述至少一个处理设备包括被耦合到存储器的处理器。
2.根据权利要求1所述的方法,其中所述分配状态指示所述一组逻辑专用处理资源中可用于分配的第二数量的逻辑专用处理资源,并且确定所述第一数量的逻辑专用处理资源包括:
从所述第二数量的逻辑专用处理资源中确定满足所述专用处理资源量的所述第一数量的逻辑专用处理资源。
3.根据权利要求1所述的方法,其中确定所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源,使得所述第一数量的逻辑专用处理资源包括被映射到所述一组物理专用处理资源中的相同物理专用处理资源的多个逻辑专用处理资源。
4.根据权利要求1所述的方法,其中确定所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源,使得所述第一数量的逻辑专用处理资源包括由所述一组服务器中的相同服务器提供的多个逻辑专用处理资源。
5.根据权利要求1所述的方法,其中确定所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源,使得所述第一数量的逻辑专用处理资源被均匀地映射到所述一组物理专用处理资源中。
6.根据权利要求1所述的方法,其中确定所述第一数量的逻辑专用处理资源包括:
确定对所述应用在不同物理专用处理资源上的执行效率的估计;以及
基于所述估计来确定要向所述应用分配的所述第一数量的逻辑专用处理资源。
7.根据权利要求1所述的方法,其中向所述应用指示所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源是否包括映射到相同物理专用处理资源的多个逻辑专用处理资源;
响应于确定所述第一数量的逻辑专用处理资源包括映射到相同物理专用处理资源的多个逻辑专用处理资源,将所述多个逻辑专用处理资源合并成单个逻辑专用处理资源;以及
通过向所述应用指示所述单个逻辑专用处理资源来指示所述第一数量的逻辑专用处理资源。
8.根据权利要求1所述的方法,还包括:
响应于向所述应用指示所述第一数量的逻辑专用处理资源,更新所述第一数量的逻辑专用处理资源的相应分配状态。
9.根据权利要求1所述的方法,还包括:
所述控制器生成所述映射关系,并且将所述映射关系存储在由所述控制器可访问的存储设备中。
10.根据权利要求1所述的方法,其中所述一组物理专用处理资源中的至少一个物理专用处理资源包括图像处理单元GPU设备,所述GPU设备包括被逻辑地划分成多个逻辑GPU计算和存储资源的GPU计算和存储资源。
11.一种电子设备,包括:
至少一个处理单元;
至少一个存储器,所述至少一个存储器被耦合到所述至少一个处理单元并且存储用于由所述至少一个处理单元执行的指令,所述指令当由所述至少一个处理单元执行时,使得所述设备执行用于管理资源的动作,所述动作包括:
将驻留在一组服务器上的一组物理专用处理资源逻辑地划分成一组逻辑专用处理资源,其中至少一个物理专用处理资源逻辑地被划分成多个逻辑专用处理资源以使得所述至少一个物理专用处理资源能够由多个应用并行使用;
从在客户端设备上运行的客户端驱动接收资源分配请求,所述资源分配请求指示用于向在所述客户端设备上执行的应用分配的专用处理资源量;
响应于所述资源分配请求,执行过程,所述过程包括:
获取所述一组物理专用处理资源与所述一组逻辑专用处理资源之间的映射关系,其中所述映射关系包括至少一个条目,所述至少一个条目将至少一个逻辑专用处理资源映射到至少一个物理专用处理资源,并且所述至少一个条目标识所述一组服务器中的、所述至少一个物理专用处理资源驻留在其上的服务器;
确定所述一组逻辑专用处理资源的分配状态;
至少基于所述映射关系和所述分配状态,从所述一组逻辑专用处理资源中确定要向所述应用分配的第一数量的逻辑专用处理资源,所述第一数量的逻辑专用处理资源满足所请求的所述专用处理资源量;以及
向所述客户端驱动指示所述第一数量的逻辑专用处理资源,以允许所述客户端驱动与所述一组服务器中的至少一个服务器通信,从而建立所述客户端设备与所述一组服务器中的所述至少一个服务器之间的至少一个数据路径,从而使用由所述一组服务器中的所述至少一个服务器提供的物理专用处理资源,所述物理专用处理资源与所述第一数量的逻辑专用处理资源相对应;以及
响应于接收到所述应用执行完成并且释放所述第一数量的逻辑专用处理资源的通知,更新所述一组逻辑专用处理资源的所述分配状态以指示所述第一数量的逻辑专用处理资源的可用性。
12.根据权利要求11所述的设备,其中所述分配状态指示所述一组逻辑专用处理资源中可用于分配的第二数量的逻辑专用处理资源,并且确定所述第一数量的逻辑专用处理资源包括:
从所述第二数量的逻辑专用处理资源中确定满足所述专用处理资源量的所述第一数量的逻辑专用处理资源。
13.根据权利要求11所述的设备,其中确定所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源,使得所述第一数量的逻辑专用处理资源包括被映射到所述一组物理专用处理资源中的相同物理专用处理资源的多个逻辑专用处理资源。
14.根据权利要求11所述的设备,其中确定所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源,使得所述第一数量的逻辑专用处理资源包括由所述一组服务器中的相同服务器提供的多个逻辑专用处理资源。
15.根据权利要求11所述的设备,其中确定所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源,使得所述第一数量的逻辑专用处理资源被均匀地映射到所述一组物理专用处理资源中。
16.根据权利要求11所述的设备,其中确定所述第一数量的逻辑专用处理资源包括:
确定对所述应用在不同物理专用处理资源上的执行效率的估计;以及
基于所述估计来确定要向所述应用分配的所述第一数量的逻辑专用处理资源。
17.根据权利要求11所述的设备,其中向所述应用指示所述第一数量的逻辑专用处理资源包括:
确定所述第一数量的逻辑专用处理资源是否包括映射到相同物理专用处理资源的多个逻辑专用处理资源;
响应于确定所述第一数量的逻辑专用处理资源包括映射到相同物理专用处理资源的多个逻辑专用处理资源,将所述多个逻辑专用处理资源合并成单个逻辑专用处理资源;以及
通过向所述应用指示所述单个逻辑专用处理资源来指示所述第一数量的逻辑专用处理资源。
18.根据权利要求11所述的设备,其中所述动作还包括:
响应于向所述应用指示所述第一数量的逻辑专用处理资源,更新所述第一数量的逻辑专用处理资源的相应分配状态。
19.根据权利要求11所述的设备,其中所述一组物理专用处理资源中的至少一个物理专用处理资源包括图像处理单元GPU设备,所述GPU设备包括被逻辑地划分成多个逻辑GPU计算和存储资源的GPU计算和存储资源。
20.一种非瞬态计算机存储介质,所述非瞬态计算机存储介质存储机器可执行指令,所述机器可执行指令在由设备执行时使所述设备执行根据权利要求1-10中的任一项所述的方法。
CN201810359545.XA 2018-04-20 2018-04-20 管理专用处理资源的方法、设备和计算机程序产品 Active CN110389825B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810359545.XA CN110389825B (zh) 2018-04-20 2018-04-20 管理专用处理资源的方法、设备和计算机程序产品
US16/384,209 US11663050B2 (en) 2018-04-20 2019-04-15 Method, device and computer program product for managing dedicated processing resources

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810359545.XA CN110389825B (zh) 2018-04-20 2018-04-20 管理专用处理资源的方法、设备和计算机程序产品

Publications (2)

Publication Number Publication Date
CN110389825A CN110389825A (zh) 2019-10-29
CN110389825B true CN110389825B (zh) 2023-08-04

Family

ID=68235967

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810359545.XA Active CN110389825B (zh) 2018-04-20 2018-04-20 管理专用处理资源的方法、设备和计算机程序产品

Country Status (2)

Country Link
US (1) US11663050B2 (zh)
CN (1) CN110389825B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112825042A (zh) * 2019-11-20 2021-05-21 上海商汤智能科技有限公司 资源管理方法和装置、电子设备及存储介质
US11561842B2 (en) * 2020-01-31 2023-01-24 Hewlett Packard Enterprise Development Lp Determining and implementing a feasible resource optimization plan for public cloud consumption
CN113852589B (zh) * 2020-06-28 2023-10-24 华为技术有限公司 用于数据传输和数据接收的方法、设备和介质
CN111966485B (zh) * 2020-06-30 2024-03-15 北京百度网讯科技有限公司 计算资源的调度方法、装置、电子设备以及存储介质
US20230094384A1 (en) * 2021-09-28 2023-03-30 Advanced Micro Devices, Inc. Dynamic allocation of platform resources

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104954400A (zh) * 2014-03-27 2015-09-30 中国电信股份有限公司 云计算系统及其实现方法
CN105162716A (zh) * 2015-07-28 2015-12-16 上海华为技术有限公司 一种nfv架构下的流控方法及装置
US9229850B1 (en) * 2009-06-30 2016-01-05 Emc Corporation Mapping data storage and virtual machines
CN105843683A (zh) * 2015-02-03 2016-08-10 国际商业机器公司 用于动态优化平台资源分配的方法、系统和设备
CN105988874A (zh) * 2015-02-10 2016-10-05 阿里巴巴集团控股有限公司 资源处理方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8369356B2 (en) * 2007-03-21 2013-02-05 Qualcomm Incorporated Dynamic management of receiver resources
US9733963B2 (en) * 2010-09-17 2017-08-15 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Optimizing virtual graphics processing unit utilization
US8874457B2 (en) * 2010-11-17 2014-10-28 International Business Machines Corporation Concurrent scheduling of plan operations in a virtualized computing environment
JP5542700B2 (ja) * 2011-01-05 2014-07-09 株式会社日立製作所 Smtプロセッサにおけるプロセッサ使用率の算出方法
JP5370946B2 (ja) * 2011-04-15 2013-12-18 株式会社日立製作所 リソース管理方法及び計算機システム
US20130003559A1 (en) * 2011-06-30 2013-01-03 Broadcom Corporation Adaptive Power Savings for Aggregated Resources
US10310879B2 (en) * 2011-10-10 2019-06-04 Nvidia Corporation Paravirtualized virtual GPU
US9052932B2 (en) * 2012-12-17 2015-06-09 International Business Machines Corporation Hybrid virtual machine configuration management
US9432267B2 (en) * 2014-03-12 2016-08-30 International Business Machines Corporation Software defined infrastructures that encapsulate physical server resources into logical resource pools
US11145271B2 (en) * 2015-08-10 2021-10-12 Amazon Technologies, Inc. Virtualizing graphics processing in a provider network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9229850B1 (en) * 2009-06-30 2016-01-05 Emc Corporation Mapping data storage and virtual machines
CN104954400A (zh) * 2014-03-27 2015-09-30 中国电信股份有限公司 云计算系统及其实现方法
CN105843683A (zh) * 2015-02-03 2016-08-10 国际商业机器公司 用于动态优化平台资源分配的方法、系统和设备
CN105988874A (zh) * 2015-02-10 2016-10-05 阿里巴巴集团控股有限公司 资源处理方法及装置
CN105162716A (zh) * 2015-07-28 2015-12-16 上海华为技术有限公司 一种nfv架构下的流控方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高性能计算云环境下GPU并行计算技术及应用研究;吕相文;《中国博士学位论文全文数据库 信息科技辑》(第7期);I137-16 *

Also Published As

Publication number Publication date
CN110389825A (zh) 2019-10-29
US11663050B2 (en) 2023-05-30
US20190324821A1 (en) 2019-10-24

Similar Documents

Publication Publication Date Title
CN110389825B (zh) 管理专用处理资源的方法、设备和计算机程序产品
US11263719B2 (en) Graphical rendering using multiple graphics processors
US10389800B2 (en) Minimizing execution time of a compute workload based on adaptive complexity estimation
CN108431796B (zh) 分布式资源管理系统和方法
US10572290B2 (en) Method and apparatus for allocating a physical resource to a virtual machine
US9569244B2 (en) Implementing dynamic adjustment of I/O bandwidth for virtual machines using a single root I/O virtualization (SRIOV) adapter
CN108293041B (zh) 分布式系统、资源容器的分配方法、资源管理器及应用控制器
JP5370946B2 (ja) リソース管理方法及び計算機システム
KR20190056295A (ko) 분산된 가상 명칭 공간 관리를 사용한 온-디맨드 스토리지 프로비져닝
US20180253244A1 (en) Method and system for memory allocation in a disaggregated memory architecture
US20220263711A1 (en) Acceleration Resource Scheduling Method and Apparatus, and Acceleration System
US11307802B2 (en) NVMe queue management multi-tier storage systems
US10489177B2 (en) Resource reconciliation in a virtualized computer system
US11734172B2 (en) Data transmission method and apparatus using resources in a resource pool of a same NUMA node
CN109992373B (zh) 资源调度方法、信息管理方法和装置及任务部署系统
US20170310564A1 (en) Allocating physical nodes for processes in an execution plan
CN107528871B (zh) 存储系统中的数据分析
CN109729110B (zh) 管理专用处理资源的方法、设备以及计算机可读介质
WO2017113277A1 (zh) 数据处理方法、装置和系统
WO2019050845A1 (en) NETWORK STORAGE ARCHITECTURE
CN111459650B (zh) 管理专用处理资源的存储器的方法、设备和介质
US10228982B2 (en) Hyper-threaded processor allocation to nodes in multi-tenant distributed software systems
Thaha et al. Data location aware scheduling for virtual Hadoop cluster deployment on private cloud computing environment
CN112882820A (zh) 用于配置资源的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant