CN109729110A - 管理专用处理资源的方法、设备以及计算机可读介质 - Google Patents
管理专用处理资源的方法、设备以及计算机可读介质 Download PDFInfo
- Publication number
- CN109729110A CN109729110A CN201711025182.8A CN201711025182A CN109729110A CN 109729110 A CN109729110 A CN 109729110A CN 201711025182 A CN201711025182 A CN 201711025182A CN 109729110 A CN109729110 A CN 109729110A
- Authority
- CN
- China
- Prior art keywords
- resource
- subset
- dedicated processes
- resources
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/40—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using virtualisation of network functions or resources, e.g. SDN or NFV entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/604—Tools and structures for managing or administering access control systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6281—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database at program execution time, where the protection is within the operating system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/48—Program initiating; Program switching, e.g. by interrupt
- G06F9/4806—Task transfer initiation or dispatching
- G06F9/4843—Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
- G06F9/4881—Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5011—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resources being hardware resources other than CPUs, Servers and Terminals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5061—Partitioning or combining of resources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0803—Configuration setting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/50—Network service management, e.g. ensuring proper service fulfilment according to agreements
- H04L41/5029—Service quality level-based billing, e.g. dependent on measured service level customer is charged more or less
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/70—Admission control; Resource allocation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L63/00—Network architectures or network communication protocols for network security
- H04L63/10—Network architectures or network communication protocols for network security for controlling access to devices or network resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Bioethics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Databases & Information Systems (AREA)
- Quality & Reliability (AREA)
- Computing Systems (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Stored Programmes (AREA)
Abstract
本公开的实施例涉及管理专用处理资源的方法、设备以及计算机可读介质。根据本公开的实施例,服务器可以接收来自客户端的第一应用的请求并且基于该请求中包括的资源子集的索引,确定与该资源子集对应的专用处理资源以用于处理所述第一应用请求。根据本公开的实施例,专用处理资源可以被划分为多个资源子集,从而提高专用处理资源的利用率。
Description
技术领域
本公开的实施例总体涉及管理专用处理资源,并且更具体地,涉及管理专用处理资源的方法、设备以及计算机可读介质。
背景技术
客户端上的应用可以被设计用于利用处理和存储资源等计算资源来完成各种处理或分析任务。随着诸如机器学习、深度学习、数据挖掘等任务的需求和复杂度不断增加,需要大量和/或可变的计算资源来满足相应应用的运行。这可以通过具有多个专用处理资源的机器或系统来实现,其中应用可以被调度到该机器或系统的一个或多个专用处理资源上运行。例如,已经开发了基于云的计算系统,该计算系统包括具有一个或多个专用处理资源的机器。不同客户端可以根据需要来租赁该系统的计算资源(例如,专用处理资源)用以运行各自的应用。
随着专用处理资源的计算能力不断得到提高,如何更加合理地利用专用处理资源是值得研究的课题。
发明内容
本公开的实施例提供了存储管理方法、设备和相应的计算机程序产品。
根据本公开的第一方面,提供了一种用于管理专用处理资源的方法。该方法包括:接收来自客户端的第一应用的请求,第一应用的请求包括第一资源子集的索引,第一资源子集是对专用处理资源进行划分而生成的多个资源子集中的一个资源子集,多个资源子集具有对应的索引,专用处理资源包括计算资源和存储资源中的至少一种;获得专用处理资源与多个资源子集之间的映射关系;以及基于第一资源子集的索引,从映射关系确定与第一资源子集对应的专用处理资源以用于处理第一应用请求。
根据本公开的第二方面,提供了一种用于管理专用处理资源的设备。该设备包括:至少一个处理器;以及与至少一个处理器耦合的存储器,存储器具有存储于其中的指令,指令在被至少一个处理器执行时使得电子设备执行动作,动作包括:接收来自客户端的第一应用的请求,第一应用的请求包括第一资源子集的索引,第一资源子集是对专用处理资源进行划分而生成的多个资源子集中的一个资源子集,多个资源子集具有对应的索引,专用处理资源包括计算资源和存储资源中的至少一种;获得专用处理资源与多个资源子集之间的映射关系;以及基于第一资源子集的索引,从映射关系确定与第一资源子集对应的专用处理资源以用于处理第一应用请求。
根据本公开的第三方面,提供了一种计算机可读介质。该计算机可读介质上存储有指令,当指令在被机器的至少一个专用处理资源执行时,使得机器实现根据第一方面的方法。
提供发明内容部分是为了简化的形式来介绍对概念的选择,它们在下文的具体实施方式中将被进一步描述。发明内容部分无意标识本公开的关键特征或主要特征,也无意限制本公开的范围。
附图说明
通过结合附图对本公开示例性实施例进行更详细的描述,本公开的上述以及其它目的、特征和优势将变得更加明显,其中,在本公开示例性实施例中,相同的参考标号通常代表相同部件。
图1示出了可以在其中实现本公开的某些实施例的系统的示意框图;
图2示出了根据本公开的某些实施例的划分专用处理资源的示意框图;
图3示出了根据本公开的某些实施例的划分专用处理资源的过程或方法的流程图;
图4示出了根据本公开的某些实施例的处理应用的过程或方法的流程图;以及
图5示出了根据本公开的某些实施例的确定镜像相似度的示意框图。
具体实施方式
下面将参照附图更详细地描述本公开的优选实施例。虽然附图中显示了本公开的优选实施例,然而应该理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
在本文中使用的术语“包括”及其变形表示开放性包括,即“包括但不限于”。除非特别申明,术语“或”表示“和/或”。术语“基于”表示“至少部分地基于”。术语“一个示例实施例”和“一个实施例”表示“至少一个示例实施例”。术语“另一实施例”表示“至少一个另外的实施例”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其它明确的和隐含的定义。
如上所述,专用处理资源可以在客户端本地或者可以由远程机器或系统提供。在一些示例中,可以部署基于云的计算系统,其中包括具有一个或多个专用处理资源的多个机器。该计算系统的专用处理资源可以由不同客户端根据需要来使用,以将相应的应用调度到可用的专用处理资源上运行。
图1示出了本公开的实施例可以在其中被实现的示例计算系统100的示意图。在该计算系统100中部署了用于应用运行的多个服务器包括服务器110-1、服务器110-2、...、服务器110-N(以下统称称为服务器110,其中N为大于1的自然数)。服务器110可以是物理的或虚拟的机器。例如,服务器110可以是部署于数据中心或者私有或公共云中的逻辑、容器或虚拟机,或者物理的服务器或计算设备等等。计算系统100还包括专用处理资源160-1、专用处理资源160-2、专用处理资源160-3、专用处理资源160-4、专用处理资源160-5、...、专用处理资源160-M(以下统称为专用处理资源160,其中M为大于1的自然数)。每个服务器110上具有一个或多个专用处理资源160。
在图1的示例中,服务器110-1具有两个专用处理资源160(即专用处理资源160-1、专用处理资源160-2),服务器110-2具有三个专用处理资源160(即专用处理资源160-3、专用处理资源160-4和专用处理资源160-5),并且服务器110-N具有一个专用处理资源160(即专用处理资源160-M)。专用处理资源160可以是专用处理资源或通用专用处理资源。专用处理资源160的示例可以包括但不限于图形专用处理资源(GPU)、现场可编程门阵列(FPGA)等。为便于讨论,某些实施例将以GPU作为专用处理资源的示例进行描述。除了专用处理资源160之外,服务器110还可以包括诸如中央专用处理资源(CPU)的一个或多个通用专用处理资源(未示出)。
图1还示出了多个客户端120-1、120-2...120-P等(以下统称或单独称为客户端120,其中P为大于1的自然数),分别具有要运行的应用150-1、150-2、...、150-Q(以下统称为应用150,其中Q为大于1的自然数)。应用150可以是机器上可运行的任何应用,该应用可以被设计为执行相应数据处理或分析等任务。作为示例,应用150可以执行与高性能计算(HPC)、机器学习(ML)或深度学习(DL)以及人工智能(AI)等相关的数据处理或分析任务。为了能够快速高效运行这些应用和/或为了保留本地处理资源,客户端120可以请求服务器110的专用处理资源160来运行这些应用150。在这样的实现中,客户端120可以通过互连网络130连接到一个或多个服务器110,并且将应用150交由服务器110的一个或多个专用处理资源160运行。取决于客户端120、服务器110和/或专用处理资源160所支持的接口,互连网络130可以支持基于诸如远程直接内存访问(RDMA)和传输控制协议(TCP)等各种网络传输技术的不同类型的有线或者无线连接。
应当理解,图1示出的设备和/或布置仅是一个示例。在其他示例中,该计算系统100可以包括任意适当数目的服务器110和客户端120。每个服务器110可以安装有任意适当数目的专用处理资源160,并且每个客户端120可以具有待运行的多个应用150。此外,尽管被单独示出,调度器140在实际应用中可以由独立于服务器110的其他设备实现,或者可以被部分或全部实现在一个或多个服务器110上。
为了描述清楚和简洁,将主要以GPU内核为例来详细描述本公开的示例实施例。如已知的,GPU作为一种专用处理器,其强大的计算能力源自其大量的内核和高带宽的内存。在GPU硬件架构中,一个GPU通常具有大量的GPU内核,例如5120或者接近10000个内核。GPU内核作为一种专用处理资源,是最基本的处理单元,也被称为流处理器(SP)。指令和任务最终都在GPU内核上被处理。多个GPU内核同时执行指令,从而实现了GPU的并行计算。多个SP加上一些其他资源,例如寄存器、共享内存,可以组成一个流多处理器(SM)。
但是,应当理解,GPU仅仅是一种示例性的专用处理资源,并非用于限制本公开的范围。在此描述的精神和原理可以应用于其他专用处理资源,例如诸如现场可编程门阵列(FPGA)之类的加速器中的处理资源,不论是目前已知的还是将来开发的,而并不仅仅限于GPU内核。
如上所述,随着诸如GPU的专用处理资源的计算能力不断得到提高,专用处理资源的合理利用是值得研究的课题。在专用处理资源的传统应用中,例如用于游戏运行的专用处理资源,不存在针对专用处理资源的合理利用的研究。随着专用处理资源的计算能力的增强,由一个应用或容器独占一个物理的专用处理资源显得极为浪费。因此,需要一种可以将专用处理资源划分为多个在逻辑上彼此独立的资源子集以支持多个应用的同时运行。然而,与传统的CPU等资源划分相比,专用处理资源的划分面临一些挑战。例如,专用处理资源的硬件不支持硬件级别的资源划分(即,硬件级别的虚拟化)。因此,需要一种可以将专用处理资源划分为多个在逻辑上彼此独立的资源子集以支持多个应用的同时运行。
图2示出了根据本公开的实施例的划分专用处理资源的示意框图200。如图2所示,专用处理资源160在软件层被划分为逻辑上独立的资源子集1600-1、资源子集1600-2、...、资源子集1600-R(以下统称资源子集1600,其中R为大于1的自然数)。图3示出了根据本公开的某些实施例的划分专用处理资源的方法300的流程图。现结合图2和图3对根据本公开的某些实施例的划分专用处理资源进行说明。注意,仅为了说明方便的目的,以GPU为例进行说明。可以理解,本公开的实施例也可以实现诸如FPGA等专用处理资源的划分。本公开的实施例在此方面不受限制。
在框310,服务器110将专用处理资源160划分为多个资源子集1600。作为示例,在传统技术中,针对一个物理GPU通常创建一个虚拟GPU,也就是说,物理GPU和虚拟GPU的数目是相同的,因此会造成GPU资源的浪费。如上所述,一个GPU通常具有大量的GPU内核以及存储资源。服务器100可以将一个GPU的计算资源以及存储资源分为多个资源子集。每个资源子集包括一定数目的GPU内核和存储资源。换而言之,服务器110针对一个物理GPU创建多个虚拟的GPU,从而多个应用可以同时运行在同一个物理GPU上,有效地提高了GPU的资源利用率。
在某些实施例中,例如,如果应用所需的专用处理资源量很大,一个物理GPU已经无法满足处理要求,服务器110可以将多个物理GPU被看作为一个虚拟GPU,以用于处理该应用。作为另一示例,如果一个虚拟GPU所占用的资源可以满足多个应用的处理,则服务器110可以针对该虚拟GPU进一步创建多个虚拟GPU。
在示例实施例中,服务器110可以将专用处理资源160平均地分为多个资源子集1600。例如,服务器110可以将GPU的内核和存储资源平均地分配到多个虚拟GPU中。在另一示例实施例中,服务器110可以基于配置参数将专用处理资源160划分为具有不同资源量的多个资源子集。在一个实施例中,该配置参数可以被预先配置给服务器110。在另一实施例中,该配置参数也可以根据当前专用处理资源的情况由服务器110生成。例如,多个虚拟GPU中的一个虚拟GPU是用于处理需要计算量很大的应用,服务器110可以将GPU中较多的内核分配给该虚拟GPU。
在某些实施例中,服务器110可以将专用处理资源160所包括的所有资源分为多个资源子集1600。在某些实施例中,服务器110也可以将专用处理资源160中当前可用的资源分为多个资源子集1600,从而使得专用处理资源160中的资源被充分地利用。
在框320,服务器110为多个资源子集1600分别生成多个对应的索引。例如,服务器110可以为资源子集1600-1生成索引“000”、为资源子集1600-1生成索引“001”。服务器110可以以任意适合的方式为资源子集1600中的每个子集生成索引,从而便于查找该子集。
在框330,服务器110存储专用处理资源160与生成的多个资源子集的索引之间的映射关系。服务器110可以以表格的形式存储该映射关系。服务器110也可以以树状的形式存储该映射关系。本公开的实施例在此方面不受限制。仅作为示例,如果专用处理资源160-1的索引为“00”,专用处理资源160-1所对应的资源子集的索引为“000”、“011”以及“110”;专用处理资源160-2的索引为“01”专用处理资源160-2所对应的资源子集的索引为“100”、“101”以及“111”,则专用处理资源160-1和160-2与其分别的资源子集的映射关系可以以表1的方式存储。
表1
00 | 000 | 011 | 110 |
01 | 100 | 101 | 111 |
在某些实施例中,服务器110可以将专用处理资源160与生成的多个资源子集的索引之间的映射关系存储在本地存储器中。在另一实施例中,服务器110可以将该映射关系存储在远程可访问的存储设备中(例如,云存储设备)。
在示例实施例中,服务器110可以针对每个资源子集1600生成并且存储统一标识符(URI)。该统一标识符包括服务器110的互联网协议地址、服务器端口的编号以及资源子集的索引。在某些实施例中,服务器110可以针对多个资源子集1600确定访问权限。由于资源子集1600可以由多个客户端120访问,因此,服务器110可以设置访问权限,使得特定的客户端120不能访问某些资源子集1600。
图4示出了根据本公开的某些实施例的处理应用的方法400的流程图。在某些实施例中,服务器110可以预先创建针对专用处理资源160的上下文。例如,服务器110可以初始化硬件等。在示例实施例中,服务器110还可以创建包括多个流(Stream)的流池(Streampool)。
在框410,服务器110接收来自客户端120的第一应用150-1的请求,第一应用150-1的请求包括第一资源子集1600-1的索引“000”。在某些实施例中,服务器110接收来自客户端120的第一组应用150的请求。仅作为示例,服务器110可以将接收到的第一组应用150(例如,应用150-1、应用150-2)按照时间上的先后顺序进行排队。在某些实施例中,客户端120可以预先与服务器110建立连接,调度器140可以基于第一应用150-1请求的特性(例如,计算能力的需求和/多存储空间的需求等)以及资源子集1600的特性(例如,能够提供的计算量/存储空间)为第一应用150-1分配匹配的资源子集。
在框420,服务器110获得专用处理资源160与多个资源子集1600之间的映射关系。仅作为示例,服务器110可以获得如表1所示的专用处理资源160与多个资源子集1600之间的映射关系。在某些实施例中,服务器110可以从本地存储设备或者从远程存储设备获得该映射关系。在另一些实施例中,服务器110也可以被配置该映射关系。
在框430,服务器110基于第一资源子集的索引,从映射关系确定与第一资源子集对应的专用处理资源以用于处理所述第一应用请求。作为示例,如果服务器110接收来自客户端120的第一应用150-1的请求,第一应用150-1的请求包括第一资源子集1600-1的索引“000”,服务器110可以基于索引“000”,从表1所示的映射关系,确定第一专用资源子集1600-1对应的专用处理资源为160-1,而服务器110利用专用处理资源160-1的资源来处理第一应用150-1的请求。
仅作为示例,在某些实施例中,服务器110可以基于索引“000”直接地确定第一资源子集1600-1对应的专用处理资源为160-1。在某些实施例中,服务器110可以基于索引“000”,确定第一资源子集1600-1对应的专用处理资源的索引为“00”,服务器110可以基于索引“00”从多个专用处理资源(例如,专用处理资源160-1、专用处理资源160-2等)确定该索引“00”对应的专用处理资源为专用处理资源160-1。
在某些实施例中,服务器110可以确定第一应用150-1针对第一资源子集1600-1的访问权限。如果第一应用150-1具有第一资源子集1600-1的访问权限,服务器110可以确定第一资源子集1600-1对应的专用处理资源,以用于处理第一应用150-1。如果第一应用150-1不具备第一资源子集1600-1的访问权限,服务器110拒绝处理第一应用150-1。在示例性实施例中,调度器140可以再次为第一应用150-1分配其可以访问的资源子集。
在另一些实施例中,服务器110从客户端120接收到第一应用150-1的请求和第二应用150-2的请求,第一应用150-1的请求包括资源子集的索引“000”,第二应用150-2的请求包括资源子集1600-2的索引“011”,服务器110可以基于索引“000”和“011”,从表1所示的映射关系,确定第一资源子集1600-1和第二资源子集1600-2对应的专用处理资源为160-1。
在某些实施例中,服务器110可以基于第一组应用150的请求的优先级,为第一组应用150的请求中的至少一个请求调度多个资源子集中的至少一个资源子集,该优先级指示应用被处理的顺序。该优先级可以被预先配置该服务器110。该优先级也可以被存储在服务器110可访问的存储设备中。仅作为示例,服务器110确定第二应用150-2具有较高的优先级,即使在按时间排序的队列中第一应用150-1在第二应用150-2之前,服务器110优选为第二应用150-2调度资源子集1600-2所包含的资源。
在某些实施例中,服务器110可以将第一应用150-1和第二应用150-2分别映射到预先创建的流中。由于服务器110将不同的应用映射到不同的流中,因此不同的应用可以在相同的专用处理资源上被同时地处理,从而提高了请求处理的效率。在示例实施例中,如果第一应用150-1和第二应用150-2被处理完成,其所占用的流将被召回。可以理解,一个应用可以被映射到一个或多个流上。
在示例实施例中,服务器110可以监测第一应用150-1的请求使用专用处理资源的情况,以用于针对第一应用150-1进行计费。仅作为示例,服务器110可以监测与第一应用150-1有关的GPU的内核使用时间、存储空间的占用等等。作为示例,服务器110可以将上述监测结果保存在本地存储设备中,或者上传到云存储设备中。在某些实施例中,服务器110可以根据该监测结果对第一应用150-1进行计费。在另外的实施例中,服务器110也可以根据该监测结果对第一应用150-1进行分析。
图5示出了适合于用来实现本公开实施例的电子设备500的示意性框图。可以理解,电子设备500可以实现在图1所示的客户端110。如图所示,设备500包括中央专用处理资源(CPU)510,其可以根据存储在只读存储器(ROM)520中的计算机程序指令或者从存储单元580加载到随机访问存储器(RAM)530中的计算机程序指令,来执行各种适当的动作和处理。在RAM 530中,还可存储设备500操作所需的各种程序和数据。CPU 510、ROM 520以及RAM530通过总线510彼此相连。输入/输出(I/O)接口550也连接至总线540。
设备500中的多个部件连接至I/O接口550,包括:输入单元560,例如键盘、鼠标等;输出单元570,例如各种类型的显示器、扬声器等;存储单元580,例如磁盘、光盘等;以及通信单元590,例如网卡、调制解调器、无线通信收发机等。通信单元590允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
上文所描述的各个过程和处理,例如300、和400,可由专用处理资源510执行。例如,在一些实施例中,过程/方法300和400可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元580。在一些实施例中,计算机程序的部分或者全部可以经由ROM 520和/或通信单元590而被载入和/或安装到设备500上。当计算机程序被加载到RAM530并由CPU 510执行时,可以执行上文描述的方法300和400的一个或多个步骤。备选地,在其他实施例中,CPU 510也可以以其他任何适当的方式被配置以实现上述过程。
本公开可以是方法、装置、系统和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于执行本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的专用处理资源,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的专用处理资源执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (20)
1.一种用于管理专用处理资源的方法,包括:
接收来自客户端的第一应用的请求,所述第一应用的请求包括第一资源子集的索引,所述第一资源子集是对专用处理资源进行划分而生成的多个资源子集中的一个资源子集,所述多个资源子集具有对应的索引,所述专用处理资源包括计算资源和存储资源中的至少一种;
获得所述专用处理资源与所述多个资源子集之间的映射关系;以及
基于所述第一资源子集的索引,从所述映射关系确定与所述第一资源子集对应的所述专用处理资源以用于处理所述第一应用请求。
2.根据权利要求1所述的方法,其中所述方法由软件模块执行。
3.根据权利要求1所述的方法,其中获得所述专用处理资源与所述多个资源子集之间的映射关系包括:
从存储有所述映射关系的存储设备,获得所述映射关系。
4.根据权利要求1所述的方法,其中确定与所述第一资源子集对应的所述专用处理资源包括:
基于所述第一资源子集的索引,从所述映射关系确定与所述第一资源子集的索引对应的所述专用处理资源的索引;以及
基于所述专用处理资源的索引,从多个专用处理资源中确定所述专用处理资源。
5.根据权利要求1所述的方法,其中确定与所述第一资源子集对应的所述专用处理资源包括:
确定所述第一应用的请求针对所述第一资源子集的访问权限;以及
响应于所述第一应用的请求具有所述访问权限,确定与所述第一资源子集对应的所述专用处理资源。
6.根据权利要求1所述的方法,还包括:
监测所述第一应用的请求使用所述专用处理资源的情况以用于针对所述第一应用进行计费。
7.根据权利要求1所述的方法,其中所述多个资源子集是将所述专用处理资源平均地划分而生成的。
8.根据权利要求1所述的方法,其中所述多个资源子集是基于资源配置参数,将所述专用处理资源划分为具有不同的资源量的资源子集而生成的。
9.根据权利要求1所述的方法,还包括:
获得针对所述专用处理资源而创建的上下文和用于处理来自客户端的应用请求的至少一个流;以及
使用所述上下文和所述至少一个流来处理所述第一应用的请求。
10.根据权利要求1所述的方法,还包括:
响应于接收到第一组应用的请求,对所述第一组应用的请求进行排队;
基于所述第一组应用的请求的优先级,为所述第一组应用的请求中的至少一个请求调度所述多个资源子集中的至少一个资源子集所包括的资源,所述优先级指示应用被处理的顺序;以及
将所述至少一个应用请求映射到创建的多个流中的至少一个。
11.一种用于管理专用处理资源的设备,包括:
至少一个处理器;以及
与所述至少一个处理器耦合的存储器,所述存储器具有存储于其中的指令,所述指令在被所述至少一个处理器执行时使得所述第一设备执行动作,所述动作包括:
接收来自客户端的第一应用的请求,所述第一应用的请求包括第一资源子集的索引,所述第一资源子集是对专用处理资源进行划分而生成的多个资源子集中的一个资源子集,所述多个资源子集具有对应的索引,所述专用处理资源包括计算资源和存储资源中的至少一种;
获得所述专用处理资源与所述多个资源子集之间的映射关系;以及
基于所述索引,从所述映射关系确定与所述第一资源子集对应的所述专用处理资源以用于处理所述第一应用请求。
12.根据权利要求11所述的设备,其中获得所述专用处理资源与所述多个资源子集之间的映射关系包括:
从存储有所述映射关系的存储设备,获得所述映射关系。
13.根据权利要求11所述的设备,其中确定与所述第一资源子集对应的所述专用处理资源包括:
基于所述第一资源子集的索引,从所述映射关系确定与所述第一资源子集的索引对应的所述专用处理资源的索引;以及
基于所述专用处理资源的索引,从多个专用处理资源中确定所述专用处理资源。
14.根据权利要求11所述的设备,其中确定与所述第一资源子集对应的所述专用处理资源包括:
确定所述第一应用的请求针对所述第一资源子集的访问权限;以及
响应于所述第一应用的请求具有所述访问权限,确定与所述第一资源子集对应的所述专用处理资源。
15.根据权利要求11所述的设备,其中所述动作还包括:
监测所述第一应用的请求使用所述专用处理资源的情况以用于针对所述第一应用进行计费。
16.根据权利要求11所述的设备,其中所述多个资源子集是将所述专用处理资源平均地划分而生成的。
17.根据权利要求11所述的设备,其中所述多个资源子集是基于资源配置参数,将所述专用处理资源划分为具有不同的资源量的资源子集而生成的。
18.根据权利要求11所述的设备,其中所述动作还包括:
获得针对所述专用处理资源而创建的上下文和用于处理来自客户端的应用请求的至少一个流;以及
使用所述上下文和所述至少一个流来处理所述第一应用的请求。
19.根据权利要求11所述的设备,其中所述动作还包括:
响应于接收到第一组应用的请求,对所述第一组应用的请求进行排队;
基于所述第一组应用的请求的优先级,为所述第一组应用的请求中的至少一个请求调度所述多个资源子集中的至少一个资源子集所包括的资源,所述优先级指示应用被处理的顺序;以及
将所述至少一个应用请求映射到创建的多个流中的至少一个。
20.一种计算机可读介质,所述计算机可读介质上存储有指令,当所述指令在被机器的至少一个专用处理资源执行时,使得所述机器实现根据权利要求1-10任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711025182.8A CN109729110B (zh) | 2017-10-27 | 2017-10-27 | 管理专用处理资源的方法、设备以及计算机可读介质 |
US16/173,004 US10783003B2 (en) | 2017-10-27 | 2018-10-29 | Method, device, and computer readable medium for managing dedicated processing resources |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711025182.8A CN109729110B (zh) | 2017-10-27 | 2017-10-27 | 管理专用处理资源的方法、设备以及计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109729110A true CN109729110A (zh) | 2019-05-07 |
CN109729110B CN109729110B (zh) | 2022-02-11 |
Family
ID=66290926
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711025182.8A Active CN109729110B (zh) | 2017-10-27 | 2017-10-27 | 管理专用处理资源的方法、设备以及计算机可读介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10783003B2 (zh) |
CN (1) | CN109729110B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764901A (zh) * | 2019-09-17 | 2020-02-07 | 阿里巴巴集团控股有限公司 | 基于gpu资源的数据处理方法、电子设备及系统 |
CN113204412A (zh) * | 2020-01-31 | 2021-08-03 | 伊姆西Ip控股有限责任公司 | 用于任务调度的方法、电子设备和计算机存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113032113B (zh) * | 2019-12-25 | 2024-06-18 | 中科寒武纪科技股份有限公司 | 任务调度方法及相关产品 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070150699A1 (en) * | 2005-12-28 | 2007-06-28 | Schoinas Ioannis T | Firm partitioning in a system with a point-to-point interconnect |
CN102023932A (zh) * | 2009-09-18 | 2011-04-20 | 英特尔公司 | 为本地与远程物理存储器之间的共享虚拟存储器提供硬件支持 |
US20150100601A1 (en) * | 2013-10-03 | 2015-04-09 | Cleversafe, Inc. | Dispersed storage system with sub-vaults and methods for use therewith |
US20150134796A1 (en) * | 2013-11-11 | 2015-05-14 | Amazon Technologies, Inc. | Dynamic partitioning techniques for data streams |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9417899B2 (en) * | 2013-03-14 | 2016-08-16 | International Business Machines Corporation | Memory page de-duplication in a computer system that includes a plurality of virtual machines |
US9658782B2 (en) * | 2014-07-30 | 2017-05-23 | Excelero Storage Ltd. | Scalable data using RDMA and MMIO |
US10409648B1 (en) * | 2017-03-01 | 2019-09-10 | Amazon Technologies, Inc. | Splitting processing responsibility for separately stored data partitions |
-
2017
- 2017-10-27 CN CN201711025182.8A patent/CN109729110B/zh active Active
-
2018
- 2018-10-29 US US16/173,004 patent/US10783003B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070150699A1 (en) * | 2005-12-28 | 2007-06-28 | Schoinas Ioannis T | Firm partitioning in a system with a point-to-point interconnect |
CN102023932A (zh) * | 2009-09-18 | 2011-04-20 | 英特尔公司 | 为本地与远程物理存储器之间的共享虚拟存储器提供硬件支持 |
US20150100601A1 (en) * | 2013-10-03 | 2015-04-09 | Cleversafe, Inc. | Dispersed storage system with sub-vaults and methods for use therewith |
US20150134796A1 (en) * | 2013-11-11 | 2015-05-14 | Amazon Technologies, Inc. | Dynamic partitioning techniques for data streams |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110764901A (zh) * | 2019-09-17 | 2020-02-07 | 阿里巴巴集团控股有限公司 | 基于gpu资源的数据处理方法、电子设备及系统 |
CN113204412A (zh) * | 2020-01-31 | 2021-08-03 | 伊姆西Ip控股有限责任公司 | 用于任务调度的方法、电子设备和计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20190171487A1 (en) | 2019-06-06 |
US10783003B2 (en) | 2020-09-22 |
CN109729110B (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yahia et al. | Comprehensive survey for cloud computing based nature-inspired algorithms optimization scheduling | |
US10552161B2 (en) | Cluster graphical processing unit (GPU) resource sharing efficiency by directed acyclic graph (DAG) generation | |
US10310908B2 (en) | Dynamic usage balance of central processing units and accelerators | |
US9846589B2 (en) | Virtual machine placement optimization with generalized organizational scenarios | |
CN110389763A (zh) | 用于调度专用处理资源的方法、设备和计算机可读介质 | |
CN110389824A (zh) | 处理计算任务的方法、设备和计算机程序产品 | |
US9323580B2 (en) | Optimized resource management for map/reduce computing | |
EP3032442B1 (en) | Modeling and simulation of infrastructure architecture for big data | |
CN104937544B (zh) | 用于计算任务结果的方法、计算机可读介质和计算机系统 | |
Verma et al. | Big Data representation for grade analysis through Hadoop framework | |
US11055139B2 (en) | Smart accelerator allocation and reclamation for deep learning jobs in a computing cluster | |
US20160171047A1 (en) | Dynamic creation and configuration of partitioned index through analytics based on existing data population | |
US11568242B2 (en) | Optimization framework for real-time rendering of media using machine learning techniques | |
CN109729110A (zh) | 管理专用处理资源的方法、设备以及计算机可读介质 | |
Bala et al. | P-ETL: Parallel-ETL based on the MapReduce paradigm | |
CN110389825A (zh) | 管理专用处理资源的方法、设备和计算机程序产品 | |
US20230196182A1 (en) | Database resource management using predictive models | |
US20230222004A1 (en) | Data locality for big data on kubernetes | |
US11100123B2 (en) | Sharing intermediate data in map-reduce | |
US20170004163A1 (en) | Extending a map-reduce framework to improve efficiency of multi-cycle map-reduce jobs | |
US20220051116A1 (en) | Parallelized scoring for ensemble model | |
US11194805B2 (en) | Optimization of database execution planning | |
Singh et al. | Performance evaluation of genetic algorithm and flower pollination algorithm for scheduling tasks in cloud computing | |
García et al. | Data-intensive analysis for scientific experiments at the large scale data facility | |
US20180150332A1 (en) | Hyper-Threaded Processor Allocation to Nodes in Multi-Tenant Distributed Software Systems |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |