JP2022516486A - Resource management methods and equipment, electronic devices, and recording media - Google Patents

Resource management methods and equipment, electronic devices, and recording media Download PDF

Info

Publication number
JP2022516486A
JP2022516486A JP2021537951A JP2021537951A JP2022516486A JP 2022516486 A JP2022516486 A JP 2022516486A JP 2021537951 A JP2021537951 A JP 2021537951A JP 2021537951 A JP2021537951 A JP 2021537951A JP 2022516486 A JP2022516486 A JP 2022516486A
Authority
JP
Japan
Prior art keywords
gpu
physical
target virtual
virtual gpu
video memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021537951A
Other languages
Japanese (ja)
Inventor
保▲東▼ ▲呉▼
▲遜▼ ▲陳▼
▲鵬▼ ▲孫▼
深根 ▲顏▼
鼎基 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Sensetime Intelligent Technology Co Ltd
Original Assignee
Shanghai Sensetime Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Sensetime Intelligent Technology Co Ltd filed Critical Shanghai Sensetime Intelligent Technology Co Ltd
Publication of JP2022516486A publication Critical patent/JP2022516486A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5066Algorithms for mapping a plurality of inter-dependent sub-tasks onto a plurality of physical CPUs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/45562Creating, deleting, cloning virtual machine instances
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Stored Programmes (AREA)

Abstract

本発明の実施例は、リソース管理割当方法と装置、電子デバイス、及び記録媒体を開示し、当該方法は、ゲストデバイスの仮想GPUの構成パラメータを含む構成ファイルを読み取ることと、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることと、を含み、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。【選択図】図2An embodiment of the present invention discloses a resource management allocation method and a device, an electronic device, and a recording medium, which method is based on reading a configuration file containing configuration parameters of a virtual GPU of a guest device and said configuration file. In response to generating at least one usable virtual GPU of the guest device and receiving the task to be processed by the target user, the physical GPU is added to the target virtual GPU corresponding to the task to be processed. The at least one available virtual GPU includes the allocation and the target virtual GPU. [Selection diagram] Fig. 2

Description

本発明は、コンピュータ技術分野に関し、具体的には、リソース管理方法と装置、電子デバイス、及び記録媒体に関する。 The present invention relates to the field of computer technology, specifically, resource management methods and devices, electronic devices, and recording media.

科学計算、ビッグデータ、金融などの分野で画像処理ユニット(Graphics Processing Unit、GPU)が広く使われる。大量の小規模で軽負荷のコンピューティングタスクにより、GPUリソースは、コンピューティング負荷が低く、使用頻度が高いという課題に直面している。このように、単一の小規模なアプリケーションタスクは、GPUのコンピューティング性能を最大限に活用することは難しく、一方で、大量の小さなタスクは、GPUクラスターの消費電力を増加させ、全体的なリソース利用率を低下させた。 Image processing units (Graphics Processing Units, GPUs) are widely used in fields such as scientific computing, big data, and finance. Due to the large number of small and light computing tasks, GPU resources face the challenge of low computing load and high frequency of use. Thus, a single small application task is difficult to take full advantage of the GPU's computing performance, while a large number of small tasks increase the power consumption of the GPU cluster and are overall. Reduced resource utilization.

上記の問題を解決するために、業界ではGPU仮想化技術が提案されている。すなわち、各物理GPUリソースを細かく複数の仮想GPUコンピューティングリソースに分割することで、小さなタスクが仮想GPUで直接処理でき、アプリケーションの並列度およびGPUクラスターのリソース利用効率を向上させる。 In order to solve the above problems, GPU virtualization technology has been proposed in the industry. That is, by subdividing each physical GPU resource into a plurality of virtual GPU computing resources, small tasks can be directly processed by the virtual GPU, and the degree of parallelism of the application and the resource utilization efficiency of the GPU cluster are improved.

本発明の実施例は、リソース管理割当方法と装置、電子デバイス、及び記録媒体を提供する。 The embodiments of the present invention provide resource management allocation methods and devices, electronic devices, and recording media.

本発明の実施例の第1態様は、リソース管理割当方法を提供し、当該方法は、ゲストデバイスの仮想画像処理ユニット(GPU)の構成パラメータを含む構成ファイルを読み取ることと、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることと、を含み、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 A first aspect of an embodiment of the invention provides a resource management allocation method, which is based on reading a configuration file containing configuration parameters for a virtual image processing unit (GPU) of a guest device. In response to generating at least one usable virtual GPU of the guest device and receiving the task to be processed by the target user, the physical GPU is added to the target virtual GPU corresponding to the task to be processed. The at least one available virtual GPU includes the allocation and the target virtual GPU.

オプションの1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み、前記リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU corresponding to the task to be processed is performed on the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table. The resource state table includes allocating a physical GPU, and includes current state information of each physical GPU in a plurality of physical GPUs.

オプションの1実施形態において、前記物理GPUの現在状態情報は、前記物理GPUのビデオメモリ容量、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザ情報、および、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量を含む。 In one optional embodiment, the current state information of the physical GPU includes the video memory capacity of the physical GPU, the user information of each virtual GPU corresponding to the already occupied video memory of the physical GPU, and the physical GPU. Includes the video memory capacity of each virtual GPU corresponding to the already occupied video memory.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量と前記リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記複数の物理GPUのビデオメモリが最小限に使用されるようにすることを含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table is the video memory capacity required for the target virtual GPU and the said. By allocating a physical GPU to the target virtual GPU based on the resource state table, the video memory of the plurality of physical GPUs is minimized.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記リソース状態テーブルに基づいて、複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource state table required for the target virtual GPU is a plurality of physical GPUs based on the resource state table. According to the arrangement order of, the remaining video memory capacity of each physical GPU is sequentially determined until the determined remaining video memory capacity meets the video memory capacity required for the target virtual GPU, and the remaining video memory capacity is determined. It includes determining a physical GPU that satisfies the video memory capacity required for the target virtual GPU as a physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記方法は、前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定することをさらに含む。 In one optional embodiment, the method determines that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU. Further includes determining that the virtual GPU has no available physical resources.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記目標ユーザの少なくとも1つのタスクが前記複数の物理GPUにできるだけ均等に割り当てるようにすることを含み、前記少なくとも1つのタスクは、前記処理すべきタスクを含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource status table required for the target virtual GPU is the video memory capacity and resources required for the target virtual GPU. By assigning a physical GPU to the target virtual GPU based on the state table, the at least one task of the target user may be allocated to the plurality of physical GPUs as evenly as possible. Includes the task to be processed.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記リソース状態テーブルに基づいて、前記目標ユーザの、現在前記複数の物理GPUの中の各物理GPUに割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定することと、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource status table required for the target virtual GPU is based on the resource status table of the target user. To determine the number of tasks currently assigned to each physical GPU among the plurality of physical GPUs, and the remaining video memory capacity of each physical GPU, the number of tasks is the smallest, and the remaining video memory. It includes determining a physical GPU whose capacity satisfies the video memory capacity required for the target virtual GPU as a physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記方法は、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす複数の物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することをさらに含む。 In one optional embodiment, the method comprises the task when the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs satisfying the video memory capacity required for the target virtual GPU. The front-arranged physical GPU among the plurality of physical GPUs having the smallest number and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU is assigned to the target virtual GPU as the physical GPU. Further includes deciding.

オプションの1実施形態において、前記方法は、前記目標仮想GPUに割り当てた物理GPUに基づいて前記リソース状態テーブルを更新すること、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記リソース状態テーブルを更新することをさらに含む。 In one optional embodiment, the method updates the resource state table based on the physical GPU assigned to the target virtual GPU, or if the task processing state changes, it is based on the change in the task processing state. Further includes updating the resource status table.

第2態様において、本発明の実施例は、ゲストデバイスに適用されるリソース管理割当方法を提供し、当該方法は、前記ゲストデバイスの仮想GPUの構成パラメータを含む、ホストの構成ファイルを、読み取ることと、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、目標ユーザの処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信することと、を含み、前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 In a second aspect, embodiments of the invention provide a resource management allocation method that applies to guest devices, which method reads a host's configuration file, including configuration parameters for the virtual GPU of the guest device. And, when at least one usable virtual GPU of the guest device is generated based on the configuration file, and when a task to be processed by the target user is received, the target virtual GPU corresponding to the task to be processed is used. The resource allocation request is used to request the host to allocate a physical GPU to the target virtual GPU, including sending a resource allocation request to the host based on the at least one available. The virtual GPU includes the target virtual GPU.

オプションの1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する前に、前記方法は、第1リソース状態テーブルに基づいて、前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUの中のアイドル状態である仮想GPUを決定することと、前記アイドル状態である仮想GPUの中から前記目標仮想GPUを決定することと、をさらに含み、前記第1リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, the method is based on at least a first resource state table of the guest device before sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed. The first resource further includes determining an idle virtual GPU in one available virtual GPU and determining the target virtual GPU from among the idle virtual GPUs. The state table contains the current state information of each physical GPU among a plurality of physical GPUs.

オプションの1実施形態において、前記方法は、前記ホストから前記第1リソース状態テーブルに関する第1更新命令を受信することと、前記第1更新命令に基づいて前記第1リソース状態テーブルを更新することと、をさらに含み、前記第1更新命令は、物理GPUのタスク処理状態が変化したことを前記ホストが検出したときに送信されたものである。 In one optional embodiment, the method receives a first update instruction for the first resource status table from the host and updates the first resource status table based on the first update instruction. The first update instruction is transmitted when the host detects that the task processing state of the physical GPU has changed.

オプションの1実施形態において、前記少なくとも1つの物理GPUは、新しく追加されたタスクを持つ第1物理GPUを含み、前記第1更新命令には、前記第1物理GPUの新しく追加されたタスクに対応するユーザ情報、前記第1物理GPUの情報、および、前記新しく追加されたタスクに対応する仮想GPUのビデオメモリ容量の中の少なくとも1つが付加されており、および/または、前記少なくとも1つの物理GPUは、新しく完了されたタスクを持つ第2物理GPUを含み、前記第1更新命令には、前記新完成タスクに対応するユーザ情報、および、前記第2物理GPUの情報の中の少なくとも1つが付加されている。 In one optional embodiment, the at least one physical GPU comprises a first physical GPU with a newly added task, and the first update instruction corresponds to the newly added task of the first physical GPU. At least one of the user information, the information of the first physical GPU, and the video memory capacity of the virtual GPU corresponding to the newly added task is added and / or the at least one physical GPU. Includes a second physical GPU with a newly completed task, and the first update instruction is added with user information corresponding to the newly completed task and at least one of the information of the second physical GPU. Has been done.

オプションの1実施形態において、前記方法は、前記仮想GPUをスケジューリングして前記処理すべきタスクを実行するようにすることと、前記ホストからの前記処理すべきタスクの処理結果を受信することと、をさらに含む。 In one optional embodiment, the method schedules the virtual GPU to execute the task to be processed, and receives the processing result of the task to be processed from the host. Including further.

第3態様において、本発明の実施例は、ホストに適用されるリソース管理割当方法を提供し、当該方法は、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を、受信することと、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てることと、を含む。 In a third aspect, an embodiment of the invention provides a resource management allocation method applied to a host, the method from a guest device to which information about the task to be processed and information about the target virtual GPU are added. It includes receiving a resource allocation request and allocating a target physical GPU to the target virtual GPU based on the information of the target virtual GPU.

オプションの1実施形態において、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることを含む。 In one optional embodiment, assigning a target physical GPU to the target virtual GPU based on the information of the target virtual GPU causes the target virtual GPU to have a physical GPU based on the video memory capacity required for the target virtual GPU. Including assigning.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量と、リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み、前記第2リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU includes the video memory capacity required for the target virtual GPU, a resource allocation policy, and the first. The second resource state table includes allocating a physical GPU to the target virtual GPU based on the two resource state tables, and the second resource state table contains current state information of each physical GPU among the plurality of physical GPUs.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記第2リソース状態テーブルに基づいて、前記複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table is the second. Based on the resource state table, according to the arrangement order of the plurality of physical GPUs, the remaining video memory capacity of each physical GPU is set until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. It includes sequentially determining and determining a physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU as a physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定することをさらに含む。 In one optional embodiment, if it is determined that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU, the virtual GPU Further includes determining that no physical resources are available.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、前記第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記第2リソース状態テーブルに基づいて、目標ユーザの現在複数の物理GPUの中の各物理GPUに既に割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定することと、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含み、前記目標ユーザは、前記目標仮想GPUに対応するユーザである。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table is the first. 2 Based on the resource status table, determine the number of tasks already allocated to each physical GPU in the target user's currently multiple physical GPUs, and the remaining video memory capacity of each physical GPU, and the number of tasks. The target user includes determining a physical GPU as the physical GPU to be assigned to the target virtual GPU, which is the least and the remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU. It is a user corresponding to the target virtual GPU.

オプションの1実施形態において、前記方法は、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することをさらに含む。 In one optional embodiment, the method comprises the task when the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs satisfying the video memory capacity required for the target virtual GPU. The front-arranged physical GPU among the physical GPUs having the smallest number and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU. Including that further.

オプションの1実施形態において、前記方法は、前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新すること、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新することをさらに含む。 In one optional embodiment, the method updates the second resource state table based on the physical GPU assigned to the target virtual GPU, or changes the task processing state if the task processing state changes. Further includes updating the second resource status table based on.

オプションの1実施形態において、前記方法は、複数の物理GPUの中の各物理GPUのタスクキューに基づいてタスクスケジューリングを実行することをさらに含む。 In one optional embodiment, the method further comprises performing task scheduling based on the task queue of each physical GPU among the plurality of physical GPUs.

第4態様において、本発明の実施例は、リソース管理システムを提供し、ホストとゲストデバイスとを含み、前記ホストには、複数の物理GPUが設けられており、前記ゲストデバイスは、仮想マシンまたはコンテナを含み、前記ゲストデバイスは、前記ゲストデバイスの仮想画像処理ユニット(GPU)の構成パラメータを含む構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、目標ユーザの処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求を前記ホストに送信し、前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含み、前記ホストは、前記自ゲストデバイスからのリソース割当要求を受信し、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当て、前記リソース割当要求には、前記処理すべきタスクの情報および前記目標仮想GPUの情報が付加されている。 In a fourth aspect, an embodiment of the invention provides a resource management system, including a host and a guest device, the host being provided with a plurality of physical GPUs, where the guest device is a virtual machine or a guest device. The guest device includes a container, reads a configuration file containing configuration parameters for the guest device's virtual image processing unit (GPU), and generates at least one available virtual GPU for the guest device based on the configuration file. When a task to be processed by the target user is received, a resource allocation request is sent to the host based on the target virtual GPU corresponding to the task to be processed, and the resource allocation request is physically sent to the target virtual GPU. Used to request the host to allocate a GPU, the at least one available virtual GPU includes the target virtual GPU, and the host receives a resource allocation request from its own guest device. The target physical GPU is assigned to the target virtual GPU based on the information of the target virtual GPU, and the information of the task to be processed and the information of the target virtual GPU are added to the resource allocation request.

第5態様において、本発明の実施例は、リソース管理装置を提供し、当該装置は、通信ユニットと処理ユニットとを備え、前記処理ユニットは、前記通信ユニットを利用して構成ファイルを取得し、ゲストデバイスの仮想画像処理ユニット(GPU)の構成パラメータを含む前記構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 In a fifth aspect, an embodiment of the present invention provides a resource management device, which comprises a communication unit and a processing unit, wherein the processing unit uses the communication unit to acquire a configuration file. A task to read the configuration file containing the configuration parameters of the virtual image processing unit (GPU) of the guest device, generate at least one usable virtual GPU of the guest device based on the configuration file, and process the target user. In response to receiving the, the physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the at least one available virtual GPU includes the target virtual GPU.

第6態様において、本発明の実施例は、リソース管理装置を提供し、当該装置は、通信ユニットと処理ユニットとを備え、前記処理ユニットは、前記通信ユニットを利用してホストの構成ファイルを取得し、ゲストデバイスの仮想GPUの構成パラメータを含む、前記ホストの構成ファイルを、読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、目標ユーザの処理すべきタスクを受信した場合、前記通信ユニットを利用して前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求を前記ホストに送信し、前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 In a sixth aspect, an embodiment of the present invention provides a resource management device, the device includes a communication unit and a processing unit, and the processing unit acquires a host configuration file by using the communication unit. Then, the host's configuration file containing the configuration parameters of the guest device's virtual GPU should be read, and based on the configuration file, at least one usable virtual GPU of the guest device should be generated and processed by the target user. When a task is received, the communication unit is used to send a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed, and the resource allocation request is sent to the target virtual GPU as a physical GPU. Used to request the host to allocate the at least one available virtual GPU includes the target virtual GPU.

第7態様において、本発明の実施例は、リソース管理装置を提供し、当該装置は、通信ユニットと処理ユニットとを備え、前記処理ユニットは、前記通信ユニットを利用して、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を、受信し、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる。 In a seventh aspect, an embodiment of the present invention provides a resource management device, which comprises a communication unit and a processing unit, wherein the processing unit utilizes the communication unit to process a task. The resource allocation request from the guest device to which the information and the information of the target virtual GPU are added is received, and the target physical GPU is assigned to the target virtual GPU based on the information of the target virtual GPU.

第8態様において、本発明の実施例は、リソース管理システムを提供し、当該システムは、ゲストデバイスと、複数の物理GPUが設けられているホストとを含み、前記ゲストデバイスは、本発明の実施例の第6態様のいずれか1つの装置であり、前記ホストは、本発明の実施例の第7態様のいずれか1つの装置である。 In an eighth aspect, an embodiment of the present invention provides a resource management system, the system including a guest device and a host provided with a plurality of physical GPUs, wherein the guest device is an embodiment of the present invention. It is the device of any one of the sixth aspects of the example, and the host is the device of any one of the seventh aspects of the embodiments of the present invention.

第9態様において、本発明の実施例は、電子デバイスを提供し、当該電子デバイスは、プロセッサと、コンピュータプログラムを記憶するメモリとを備え、前記コンピュータプログラムは、上述したプロセッサが実行されることによって、前記プロセッサが、本発明の実施例の第1態様、第2態様、または、第3態様に記載のいずれか1つの方法を実行するようにする。 In a ninth aspect, an embodiment of the invention provides an electronic device, wherein the electronic device comprises a processor and a memory for storing a computer program, wherein the computer program is executed by the processor described above. , The processor is made to carry out any one of the methods described in the first aspect, the second aspect, or the third aspect of the embodiment of the present invention.

第10態様において、本発明の実施例は、コンピュータ可読記録媒体を提供し、上述したコンピュータ可読記録媒体は、コンピュータプログラムを記憶し、上述したコンピュータプログラムは、コンピュータが、本発明の実施例の第1態様、第2態様、または、第3態様に記載のいずれか1つの方法を実行するようにする。 In a tenth aspect, the embodiment of the present invention provides a computer-readable recording medium, the computer-readable recording medium described above stores a computer program, and the computer program described above is a computer of the embodiment of the present invention. Any one of the methods described in the first aspect, the second aspect, or the third aspect is to be performed.

第11態様において、本発明の実施例は、コンピュータプログラム製品を提供し、上述したコンピュータプログラム製品は、コンピュータプログラムが記憶された非一時的なコンピュータ可読記録媒体を含み、上述したコンピュータプログラムは、操作されることによって、コンピュータが本発明の実施例の第1態様、第2態様、または、第3態様に記載のいずれか1つの方法を実行するようにする。当該コンピュータプログラム製品は、ソフトウェアインストールパッケージであり得る。 In an eleventh aspect, an embodiment of the present invention provides a computer program product, wherein the computer program product described above includes a non-temporary computer-readable recording medium in which the computer program is stored, and the computer program described above operates. By doing so, the computer is made to carry out any one of the methods described in the first aspect, the second aspect, or the third aspect of the embodiment of the present invention. The computer program product can be a software installation package.

本発明の実施例は、まず、ゲストデバイスの仮想GPUの構成パラメータを含む構成ファイルを読み取り、次に、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、目標顧客からの処理すべきタスクを受信すると、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。本発明の実施例において、仮想GPUと物理GPUとの固定的なマッピング関係を予め構築しておらず、処理すべきタスクを仮想GPUが受信した後に、対応する物理GPUを仮想GPUに動的に割り当てるため、現在タスクの特性に基づいて物理GPUリソースに対して柔軟に管理割当を実行することができ、物理GPUのリソース利用率を向上させ、システムの全体的なパフォーマンスを向上させる。 An embodiment of the present invention first reads a configuration file containing the configuration parameters of the virtual GPU of the guest device, and then generates at least one usable virtual GPU of the guest device based on the configuration file. Upon receiving the task to be processed from the customer, the physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the at least one available virtual GPU includes the target virtual GPU. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and after the virtual GPU receives the task to be processed, the corresponding physical GPU is dynamically transferred to the virtual GPU. Because of the allocation, it is possible to flexibly execute management allocation to the physical GPU resource based on the characteristics of the current task, improve the resource utilization rate of the physical GPU, and improve the overall performance of the system.

ここでの図面は、明細書に組み込まれて、明細書の一部を構成し、これらの図面は、本発明に準拠する実施例を示し、明細書と一緒に本発明の技術的解決策を説明するために使用される。
本発明の実施例によって提供されるリソース管理システムの模式図である。 本発明の実施例によって開示されるリソース管理割当方法のフローの模式図である。 本発明の実施例によって提供されるリソース最小管理割当ポリシーのアーキテクチャ図である。 本発明の実施例によって提供される負荷分散割当ポリシーのアーキテクチャ図である。 本発明の別の1実施例によって開示されるリソース管理割当方法のフローの模式図である。 本発明のさらに別の1実施例によって開示されるリソース管理割当方法のフローの模式図である。 本発明の実施例によって提供される電子デバイスの構成の模式図である。 本発明の別の1実施例によって提供される電子デバイスの構成の模式図である。 本発明のさらに別の1実施例によって提供される電子デバイスの構成の模式図である。 本発明の実施例に関わるリソース管理装置の機能ユニットの構成のブロック図である。 本発明の別の1実施例に関わるリソース管理装置の機能ユニットの構成のブロック図である。 本発明のさらに別の1実施例に関わるリソース管理装置の機能ユニットの構成のブロック図である。
The drawings herein are incorporated into the specification and form part of the specification, the drawings illustrating embodiments in accordance with the invention, together with the specification the technical solutions of the invention. Used to explain.
It is a schematic diagram of the resource management system provided by the Example of this invention. It is a schematic diagram of the flow of the resource management allocation method disclosed by the Example of this invention. It is an architectural diagram of the resource minimum management allocation policy provided by the embodiment of this invention. FIG. 3 is an architectural diagram of a load balancing allocation policy provided by an embodiment of the present invention. It is a schematic diagram of the flow of the resource management allocation method disclosed by another Example of this invention. It is a schematic diagram of the flow of the resource management allocation method disclosed by still another embodiment of this invention. It is a schematic diagram of the structure of the electronic device provided by the Example of this invention. It is a schematic diagram of the configuration of the electronic device provided by another embodiment of the present invention. It is a schematic diagram of the structure of the electronic device provided by still another embodiment of the present invention. It is a block diagram of the structure of the functional unit of the resource management apparatus which concerns on embodiment of this invention. It is a block diagram of the structure of the functional unit of the resource management apparatus which concerns on another 1 Embodiment of this invention. It is a block diagram of the structure of the functional unit of the resource management apparatus which concerns on still another Embodiment of this invention.

以下、本発明の実施例における図面と併せて、本発明の実施例における技術的解決策を明確かつ完全に説明する。 Hereinafter, the technical solution according to the embodiment of the present invention will be clearly and completely described together with the drawings according to the embodiment of the present invention.

本発明における「および/または」という用語は、単に関連対象の関連関係を説明し、3つの関係が存在する可能性があることを示す。たとえば、Aおよび/またはBは、Aが単独で存在すること、AとBが同時に存在すること、および、Bが単独で存在ことのような、3つの場合を含む。また、本明細書における「少なくとも1つ」という用語は、複数種の中の任意の1種または複数種の中の少なくとも2種の任意の組み合わせを示す。たとえば、A、B、Cの中の少なくとも1つを含むことは、A、B、およびCから構成されたセットから選択した任意の1つまたは複数の要素を含むことを示すことができる。本発明の明細書、特許請求の範囲、および、上述した図面における「第1」、「第2」などの用語は、特定の順序を説明するのではなく、異なる対象を区別するために使用される。なお、「含む」と「備える」という用語、およびそれらの任意の変形は、非排他的な包含をカバーすることを意図している。たとえば、一連のステップまたはユニットを含む過程、方法、システム、製品、または、デバイスは、リストされたステップまたはユニットに限定されず、オプションでリストされていないステップまたはユニットを含み、またはオプションでこれらの過程、方法、製品、またはデバイスに固有の他のステップまたはユニットをさらに含む。 The term "and / or" in the present invention merely describes the relationships of related objects and indicates that three relationships may exist. For example, A and / or B includes three cases such that A exists alone, A and B exist at the same time, and B exists alone. Also, the term "at least one" as used herein refers to any one of a plurality of species or any combination of at least two of a plurality of species. For example, including at least one of A, B, C can indicate that it contains any one or more elements selected from a set composed of A, B, and C. The specification of the present invention, the scope of claims, and terms such as "first" and "second" in the above-mentioned drawings are used not to describe a specific order but to distinguish different objects. To. It should be noted that the terms "include" and "provide", and any variations thereof, are intended to cover non-exclusive inclusion. For example, a process, method, system, product, or device that includes a series of steps or units is not limited to the listed steps or units, but includes steps or units that are not optionally listed, or optionally these. Further includes other steps or units specific to the process, method, product, or device.

本明細書で「実施例」を言及することは、実施例と併せて説明した特定の特徴、構成、または、特性が、本発明の少なくとも1つの実施例に含まれ得ることを意味する。明細書の各位置での当該句の出現は、必ずしも同じ実施例を指すわけではなく、他の実施例と相互に排他的な独立したまたは代替の実施例でもない。当業者は、本明細書に説明された実施例が他の実施例と組み合わせることができることを明確かつ暗黙的に理解している。 Reference to "Examples" herein means that the particular features, configurations, or properties described in conjunction with the Examples may be included in at least one Example of the invention. The appearance of the phrase at each position in the specification does not necessarily refer to the same embodiment, nor is it an independent or alternative embodiment that is mutually exclusive to the other embodiments. One of ordinary skill in the art clearly and implicitly understands that the embodiments described herein can be combined with other embodiments.

本発明の実施例に係るリソース管理割当装置は、リソース管理割当を実行することができる装置であり、電子デバイスであり得る。上述した電子デバイスは、端末デバイスを含み、具体的な実装において、上述した端末デバイスは、タッチセンシティブ表面(たとえば、タッチスクリーンディスプレイおよび/またはタッチパッド)を有する携帯電話、ラップトップコンピュータ、またはタブレットコンピュータなどの他のポータブルデバイスを含むがこれらに限定されない。いくつかの実施例において、前記デバイスは、ポータブル通信デバイスではなく、タッチセンシティブ表面(たとえば、タッチスクリーンディスプレイ、および/または、タッチパッド)を有するデスクトップコンピュータ、サーバなどであり得ることをさらに理解すべきである。 The resource management allocation device according to the embodiment of the present invention is a device capable of executing resource management allocation and may be an electronic device. The electronic devices described above include terminal devices, and in a specific implementation, the terminal device described above may be a mobile phone, laptop computer, or tablet computer having a touch-sensitive surface (eg, a touch screen display and / or a touch pad). Including but not limited to other portable devices such as. It should be further understood that in some embodiments, the device may be a desktop computer, server, etc. having a touch-sensitive surface (eg, a touch screen display and / or a touch pad) rather than a portable communication device. Is.

図1は、本発明の実施例によって提供されるリソース管理システムの模式図である。GPU仮想化解決策は、ゲストデバイス(Guest)101およびホスト(Host)102に関わる。ホスト102は、物理GPU(pGPU)140を備えたデバイスの物理マシンノードを指し、ユーザは、ホスト上でGPUタスクを直接実行することができる。なお、ホストは、物理GPUの起動およびゲストデバイスとのデータ解析転送などの通信操作を担当するサービスデーモンをさらに含む。ゲストデバイス101は、仮想化GPUを使用できる仮想マシンまたはコンテナを指す。ゲストデバイス101は、いかなるGPUデバイスも持たず、GPUタスクを直接実行することができない。ゲストデバイス101は、GPU仮想化のためのプロセスを含み、当該プロセスは、カプセル化されたGPUダイナミックリンクライブラリおよびデータ転送を担当し、ゲストデバイス101上のタスクがホストの物理GPUを透明的に使用して操作を実行するようにする。 FIG. 1 is a schematic diagram of a resource management system provided by an embodiment of the present invention. The GPU virtualization solution involves a guest device (Guest) 101 and a host (Host) 102. Host 102 refers to the physical machine node of the device with the physical GPU (pGPU) 140, and the user can perform GPU tasks directly on the host. The host further includes a service daemon that is in charge of communication operations such as activation of the physical GPU and data analysis transfer with the guest device. Guest device 101 refers to a virtual machine or container that can use a virtualized GPU. Guest device 101 does not have any GPU device and cannot directly execute GPU tasks. Guest device 101 includes a process for GPU virtualization, which is responsible for the encapsulated GPU dynamic link library and data transfer, and tasks on guest device 101 transparently use the host's physical GPU. To execute the operation.

本発明の実施例によって提供されるリソース管理システムにおいて、Guestの仮想GPU(vGPU)リソース管理ポリシーは、以下のように選択することができる。すなわち、Guestの仮想GPUリソース管理ポリシーは、構成オプションによる仮想展示とタスクによる実際割当の起動とのような2つの段階に分けられ、ここで、Guestは、仮想マシンであり得る。図1に示すように、主な割当の過程は次のようになる。まず、ゲストデバイスの仮想マシン(Virtual Machine、VM)を起動し、ここで、110-1、110-nなどの複数の仮想マシンが存在してもよい。構成ファイルConfig 121を読み取ることによって、仮想GPUの数、各仮想GPUのビデオメモリ容量、各仮想GPUの使用持続時間、各仮想GPUタイムスライスの大きさなどを含む、現在VM上の仮想GPU関連パラメータを取得する。次に、VMの仮想GPUゲストデバイスで仮想の仮想GPUミラーリング122を生成し、このときの仮想GPUは物理GPUとマッピングをしておらず、ソフトウェアレベルで観察するためにユーザに仮想的に割り当てられた仮想GPU情報のみある。VM上のユーザが、GPUリソースを使用するタスク123を実行し始めると、仮想マシンはGPU情報初期化の要求を送信し、このときVMはHostと接続を構築し、仮想GPU-物理GPUリソース割当ポリシー130に従って、仮想GPU124と物理GPU140との実際の関連付けを構築する。ここで、1つの仮想GPU124は、1つの物理GPUと関連付けることもでき、複数の物理GPUと関連付けることもできる。Host102は、VMに物理GPU140の情報を返し、たとえば、GPUのアドレスID、物理GPUのデバイスモデル、物理GPUの残りのビデオメモリ容量、物理GPUの使用を要求した開始時間などのパラメータを返す。仮想GPUは、上述した情報を更新し、構成されたパラメータに従ってGPU仮想化のプロセスを呼び出して、Hostにタスク123のデータを転送する。Hostのサービスデーモンは、転送するデータに基づいて、関連づけられた物理GPUを起動してタスク123を処理し、タスク処理が終了した後に、タスク処理結果をVMに返す。VM上のユーザは、タスク123がVM上の仮想GPU124で完了されたように見えるが、実際には、タスク123はホストの物理GPU140で完了されたことに注意する必要がある。 In the resource management system provided by the embodiments of the present invention, Guest's virtual GPU (vGPU) resource management policy can be selected as follows. That is, Guest's virtual GPU resource management policy is divided into two stages, such as virtual exhibition by configuration option and activation of actual allocation by task, where Guest can be a virtual machine. As shown in FIG. 1, the main allocation process is as follows. First, a virtual machine (Virtual Machine, VM) of a guest device is started, and a plurality of virtual machines such as 110-1 and 110-n may exist here. By reading the configuration file Config 121, the virtual GPU-related parameters currently on the VM, including the number of virtual GPUs, the video memory capacity of each virtual GPU, the duration of use of each virtual GPU, the size of each virtual GPU time slice, etc. To get. Next, the virtual GPU mirroring 122 of the VM is generated by the virtual GPU guest device, and the virtual GPU at this time is not mapped to the physical GPU and is virtually assigned to the user for observation at the software level. There is only virtual GPU information. When the user on the VM starts executing task 123 that uses the GPU resource, the virtual machine sends a request to initialize the GPU information, at which time the VM establishes a connection with the Host and allocates the virtual GPU-physical GPU resource. According to policy 130, the actual association between the virtual GPU 124 and the physical GPU 140 is established. Here, one virtual GPU 124 can be associated with one physical GPU, or can be associated with a plurality of physical GPUs. Host 102 returns the information of the physical GPU 140 to the VM, and returns parameters such as the address ID of the GPU, the device model of the physical GPU, the remaining video memory capacity of the physical GPU, and the start time for requesting the use of the physical GPU. The virtual GPU updates the above information, calls the GPU virtualization process according to the configured parameters, and transfers the data of the task 123 to the Host. The Host service daemon activates the associated physical GPU based on the data to be transferred, processes the task 123, and returns the task processing result to the VM after the task processing is completed. The user on the VM should be aware that the task 123 appears to have been completed on the virtual GPU 124 on the VM, but in reality the task 123 was completed on the physical GPU 140 of the host.

上述したGuestとHostは同じデバイス上に設けられたものであり得、たとえば、ホスト上の物理GPUと当該ホストにインストールされたゲストデバイスである。異なるデバイスに設けられたものであってもよく、たとえば、ユーザデバイスにインストールされたゲストデバイスとネットワークに設けられた各物理GPUノードデバイスである。 The Guest and Host described above may be provided on the same device, for example, a physical GPU on the host and a guest device installed on the host. It may be installed on different devices, for example, a guest device installed on the user device and each physical GPU node device installed on the network.

図2は、本発明の実施例によって開示されるリソース管理割当方法のフローの模式図であり、図2に示すように、当該リソース管理割当方法は、以下のステップ201~203を含む。 FIG. 2 is a schematic diagram of the flow of the resource management allocation method disclosed by the embodiment of the present invention, and as shown in FIG. 2, the resource management allocation method includes the following steps 201 to 203.

201において、ゲストデバイスの仮想GPUの構成パラメータを含む構成ファイルを読み取る。 At 201, the configuration file containing the configuration parameters of the virtual GPU of the guest device is read.

前記構成ファイルは、現在ゲストデバイスの仮想GPUの関連パラメータを含み、仮想GPU関連パラメータは、仮想GPUの数、各仮想GPUのビデオメモリ容量、各仮想GPUの使用持続時間、各仮想GPUタイムスライスの大きさなどの中の1つまたは複数を含み得るが、これらに限定されない。 The configuration file currently contains the related parameters of the virtual GPU of the guest device, and the virtual GPU related parameters are the number of virtual GPUs, the video memory capacity of each virtual GPU, the usage duration of each virtual GPU, and each virtual GPU time slice. It may include, but is not limited to, one or more of sizes and the like.

オプションとして、前記構成ファイルは、システムのデフォルトであってもよいし、ユーザの要件に応じて生成されてもよい。 Optionally, the configuration file may be the system default or may be generated according to user requirements.

202において、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成する。 At 202, generate at least one available virtual GPU for the guest device based on the configuration file.

本発明の実施例において、上述した構成ファイルを読み取った後に、ゲストデバイスは、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することができ、上述した仮想GPUは、ユーザに提示して観察するためにソフトウェアレベルで使用される仮想GPUである。たとえば、上述した少なくとも1つの使用可能な仮想GPUを生成した後に、ユーザは、ユーザデバイスを介して、ゲストデバイス上の仮想GPUの数、各仮想GPUのビデオメモリ容量、各仮想GPUの使用持続時間、各仮想GPUタイムスライスの大きさなどのパラメータを観察することができる。このときの仮想GPUは、物理GPUとマッピングされていない。 In an embodiment of the invention, after reading the configuration file described above, the guest device can generate at least one usable virtual GPU of the guest device based on the configuration file, the virtual GPU described above. , A virtual GPU used at the software level to present and observe to the user. For example, after generating at least one available virtual GPU as described above, the user can, through the user device, the number of virtual GPUs on the guest device, the video memory capacity of each virtual GPU, the duration of use of each virtual GPU. , Parameters such as the size of each virtual GPU time slice can be observed. The virtual GPU at this time is not mapped to the physical GPU.

203において、目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 In 203, in response to receiving a task to be processed by the target user, a physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the at least one available virtual GPU is the target virtual GPU. Includes GPU.

本発明の実施例において、ゲストデバイスは、処理すべきタスクを受信した後に、上述した処理すべきタスクに目標仮想GPUを割り当てることによって、前記処理すべきタスクに対して処理を実行する。次に、上述した目標仮想GPUの具体的な情報に基づいて、上述した目標仮想GPUに物理GPUを割り当て、つまり、仮想GPUと物理GPUとのマッピング関係を構築する。上述した目標仮想GPUに物理GPUを割り当てた後に、上述した目標仮想GPUに割り当てた物理GPUで上述した処理すべきタスクを処理し、ゲストデバイスに処理結果をフィードバックする。つまり、ホストの割り当てられた物理GPUで上述した処理すべきタスクを処理し、ゲストデバイスに処理結果をフィードバックする。 In the embodiment of the present invention, after receiving the task to be processed, the guest device executes the process for the task to be processed by allocating the target virtual GPU to the task to be processed described above. Next, the physical GPU is assigned to the target virtual GPU described above based on the specific information of the target virtual GPU described above, that is, a mapping relationship between the virtual GPU and the physical GPU is constructed. After allocating the physical GPU to the target virtual GPU described above, the physical GPU assigned to the target virtual GPU described above processes the task to be processed described above, and feeds back the processing result to the guest device. That is, the task to be processed described above is processed by the physical GPU assigned to the host, and the processing result is fed back to the guest device.

本発明の実施例は、ゲストデバイスの仮想GPUのパラメータを含む構成ファイルを読み取り、処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記ゲストデバイスは、少なくとも1つの仮想GPUを含み、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。本発明の実施例において、タスクを受信する前に仮想GPUと物理GPUとはマッピング関係が構築されておらず、タスクを受信した後に、仮想GPUと物理図形仮想ユニットとに対してマッピング関係を構築することができる。さらに、異なるリソース割当ポリシーに従ってGPUリソースに対して柔軟に管理割当を実行することができ、物理GPUの使用効率を向上させることができる。 In the embodiment of the present invention, when the configuration file including the parameters of the virtual GPU of the guest device is read and the task to be processed is received, the physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the guest device is described. Includes at least one virtual GPU, and the at least one available virtual GPU comprises the target virtual GPU. In the embodiment of the present invention, the mapping relationship between the virtual GPU and the physical GPU is not established before the task is received, and the mapping relationship is established between the virtual GPU and the physical graphic virtual unit after the task is received. can do. Furthermore, management allocation can be flexibly executed for GPU resources according to different resource allocation policies, and the utilization efficiency of the physical GPU can be improved.

オプションとする1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み、前記リソース状態テーブルは、ホスト中の複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, allocating the physical GPU to the target virtual GPU corresponding to the task to be processed is the target virtual GPU based on the video memory capacity and the resource status table required for the target virtual GPU. The resource state table includes the current state information of each physical GPU among a plurality of physical GPUs in the host.

前記現在状態情報は、上述した複数の物理GPUの中の、各物理GPUのビデオメモリ容量、各物理GPUの中の当該物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザ情報、および、各物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量を含む。または、前記現在状態情報に基づいて、上述した複数の物理GPUの中の、各物理GPUのビデオメモリ容量、各物理GPUの中の当該物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザID、物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量などの情報を推測することができる。オプションとして、上述した現在状態情報は、各物理GPUの中の当該物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのタスク識別子をさらに含み得る。 The current state information includes the video memory capacity of each physical GPU in the plurality of physical GPUs described above, and the user information of each virtual GPU corresponding to the already occupied video memory of the physical GPU in each physical GPU. And include the video memory capacity of each virtual GPU corresponding to the already occupied video memory of each physical GPU. Alternatively, based on the current state information, the video memory capacity of each physical GPU in the plurality of physical GPUs described above, and each virtual GPU corresponding to the already occupied video memory of the physical GPU in each physical GPU. Information such as the user ID of the user ID and the video memory capacity of each virtual GPU corresponding to the already occupied video memory of the physical GPU can be inferred. Optionally, the current state information described above may further include a task identifier for each virtual GPU in each physical GPU that corresponds to the already occupied video memory of that physical GPU.

表1は、本発明の実施例によって提供されるリソース状態テーブルの具体的な実施形態である。ここで、pGPUは、物理GPUを示し、vGPUは、仮想GPUを示し、IDは、アドレスまたは識別子を示す。

Figure 2022516486000002
Table 1 is a specific embodiment of the resource state table provided by the embodiments of the present invention. Here, pGPU indicates a physical GPU, vGPU indicates a virtual GPU, and ID indicates an address or an identifier.
Figure 2022516486000002

具体的な実現において、上述した処理すべきタスクを受信し、目標仮想GPUを決定した後に、目標仮想GPUのビデオメモリ容量に基づいて、上述したリソース状態テーブルから、前記処理すべきタスクを実行する条件を満たす物理GPUを、目標仮想GPUに割り当てる物理GPUとして決定することができ、たとえば、残りのビデオメモリが上述した目標仮想GPUのビデオメモリよりも大きい物理GPUを目標仮想GPUに割り当てる物理GPUとして決定することができる。 In a specific implementation, after receiving the task to be processed described above and determining the target virtual GPU, the task to be processed is executed from the resource status table described above based on the video memory capacity of the target virtual GPU. A physical GPU that satisfies the conditions can be determined as the physical GPU to be assigned to the target virtual GPU, for example, as a physical GPU that allocates a physical GPU whose remaining video memory is larger than the video memory of the target virtual GPU described above to the target virtual GPU. Can be decided.

さらに、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて前記目標仮想GPUに物理GPUを割り当てることは、具体的に、前記目標仮想GPUのビデオメモリ容量と、リソース状態テーブルと、リソース割当ポリシーとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み得る。 Further, allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table specifically includes the video memory capacity of the target virtual GPU and the resource status table. , It may include allocating a physical GPU to the target virtual GPU based on the resource allocation policy.

上述したリソース割当ポリシーは、或る効果を達成するために定式化された、仮想GPUと物理GPUとの間のマッピング規則を指す。たとえば、物理GPUの使用の最小を達成するために定式化された最小リソース割当ポリシーであり得、またたとえば、同じユーザの複数のタスクを各物理GPUの中で均等に割り当てるために定式化された負荷分散割当ポリシーであり得る。1例として、リソース割当ポリシーは、ホストに配置され得、ゲストデバイスにリソース割当ポリシーの一部のマッピング関係が記憶され得る。 The resource allocation policy described above refers to a mapping rule between a virtual GPU and a physical GPU formulated to achieve a certain effect. For example, it could be a minimum resource allocation policy formulated to achieve a minimum of physical GPU usage, or, for example, to evenly allocate multiple tasks for the same user within each physical GPU. It can be a load balancing allocation policy. As an example, the resource allocation policy may be located on the host and the guest device may store some mapping relationships of the resource allocation policy.

オプションとする1実施形態において、前記目標仮想GPUのビデオメモリ容量と、リソース状態テーブルと、リソース割当ポリシーとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記リソース状態テーブルに基づいて、複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む。前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、すなわち、各物理GPUの残りのビデオメモリがいずれも前記目標仮想GPUに必要なビデオメモリよりも小さい場合、前記仮想GPUには使用可能な物理リソースがないと決定する。本発明の実施例において、このような仮想GPUと物理GPUの割り当て方法中のリソース割当ポリシーをリソース最小割当ポリシーと呼ぶ。 In one optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity of the target virtual GPU, the resource status table, and the resource allocation policy is based on the resource status table. , The remaining video memory capacity of each physical GPU is sequentially determined and the rest until the determined remaining video memory capacity meets the video memory capacity required for the target virtual GPU according to the arrangement order of the plurality of physical GPUs. A physical GPU whose video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as a physical GPU to be assigned to the target virtual GPU. When it is determined that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU, that is, the remaining video memory of each physical GPU. Is smaller than the video memory required for the target virtual GPU, it is determined that the virtual GPU has no available physical resources. In the embodiment of the present invention, the resource allocation policy in such a virtual GPU and physical GPU allocation method is referred to as a resource minimum allocation policy.

上述した複数の物理GPUの配列順序は、物理GPUのID番号の順序であり得、複数の物理GPUの上述したリソース状態テーブル内の配列順序でもあり得、たとえば表1中のpGPU1~pGPUnであり得る。表1中の物理GPUの配列順序は、物理GPUのID番号の順序に従って配列されてもよいし、物理GPUのホスト中の位置情報に従って配列されてもよいし、物理GPUがホストに追加われた時間の前後に従って配列されてもよく、本発明はこれに対して限定しない。 The above-mentioned arrangement order of the plurality of physical GPUs may be the order of the ID numbers of the physical GPUs, or may be the order of the arrangements of the plurality of physical GPUs in the above-mentioned resource state table, for example, pGPU1 to pGPUn in Table 1. obtain. The arrangement order of the physical GPUs in Table 1 may be arranged according to the order of the ID numbers of the physical GPUs, or may be arranged according to the position information in the host of the physical GPUs, or the physical GPUs have been added to the host. It may be arranged before and after the time, and the present invention is not limited to this.

具体的な実現において、上述した処理すべきタスクの目標仮想GPUのビデオメモリ容量を決定した後に、リソース状態テーブル中の物理GPUの配列順序に従って、まず1番目の物理GPUの残りのビデオメモリ容量を取得し、次に1番目の物理GPUの残りのビデオメモリ容量が目標仮想GPUに必要なビデオメモリ容量以上であるか否かを判断し、目標仮想GPUに必要なビデオメモリ容量以上であると、1番目の物理GPUを目標仮想GPUに割り当てる物理GPUとして決定し、そうではないと、2番目の物理GPUの残りのビデオメモリ容量を取得し、次に2番目の物理GPUの残りのビデオメモリ容量が目標仮想GPUに必要なビデオメモリ容量以上であるか否かを判断し、目標仮想GPUに必要なビデオメモリ容量以上であると、2番目の物理GPUを目標仮想GPUに割り当てる物理GPUとして決定し、そうではないと、継続して、次の1つの物理GPUの残りのビデオメモリ容量を取得して同様な判断操作を実行する。類推によって、すべての物理GPUの残りのビデオメモリ容量がすべて上述した目標仮想GPUのビデオメモリ容量よりも小さいと、仮想GPUに使用可能な物理リソースがないと決定する。 In a concrete implementation, after determining the target virtual GPU video memory capacity for the task to be processed above, first determine the remaining video memory capacity of the first physical GPU according to the order of the physical GPUs in the resource state table. Then, determine whether the remaining video memory capacity of the first physical GPU is greater than or equal to the video memory capacity required for the target virtual GPU, and if it is greater than or equal to the video memory capacity required for the target virtual GPU. Determine the first physical GPU as the physical GPU to allocate to the target virtual GPU, otherwise get the remaining video memory capacity of the second physical GPU, then the remaining video memory capacity of the second physical GPU Is more than the video memory capacity required for the target virtual GPU, and if it is more than the video memory capacity required for the target virtual GPU, the second physical GPU is determined as the physical GPU to be assigned to the target virtual GPU. If not, continue to get the remaining video memory capacity of the next one physical GPU and perform a similar decision operation. By analogy, if the remaining video memory capacity of all physical GPUs is all less than the video memory capacity of the target virtual GPU described above, it is determined that there are no physical resources available for the virtual GPU.

図3は、本発明の実施例によって提供されるリソース最小管理割当ポリシーのアーキテクチャ図である。符号の付いた影付きの長方形は、処理すべきタスクを示し、長方形内のラベルは、タスクが生成される前後順序を示し、VPTは、リソース状態テーブルを示し、pGPUは、物理GPUを示し、vGPUは、仮想GPUを示す。アーキテクチャ図から分かるように、タスクは、生成された前後順序に従って前面に配列された物理GPUに割り当てられる。 FIG. 3 is an architectural diagram of the resource minimum management allocation policy provided by the embodiment of the present invention. Signed shaded rectangles indicate the tasks to be processed, labels within the rectangles indicate the order before and after the tasks are generated, VPTs indicate resource state tables, pGPUs indicate physical GPUs, and so on. vGPU represents a virtual GPU. As can be seen from the architecture diagram, tasks are assigned to physical GPUs arranged in front according to the generated front-back order.

本発明の実施例において、目標仮想GPUに割り当てる物理GPUを決定するときに、優先として前面に配列された物理GPUを目標仮想GPUに割り当てることによって、各GPUの利用率を最大化して、GPUのリソースを節約する。 In the embodiment of the present invention, when deciding the physical GPU to be assigned to the target virtual GPU, the utilization rate of each GPU is maximized by allocating the physical GPU arranged in front to the target virtual GPU as a priority, and the GPU Save resources.

オプションとする別の1実施形態において、前記目標仮想GPUのビデオメモリ容量と、リソース状態テーブルと、リソース割当ポリシーとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、前記リソース状態テーブルに基づいて、前記目標ユーザの、現在複数の物理GPUの中の各物理GPUに割り当てられたタスク数、および各物理GPUの残りのビデオメモリを決定することと、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含み、前記ユーザIDは、前記目標仮想GPUの目標ユーザの識別子である。前記タスク数が最も少ないことは、目標ユーザの当該物理GPUで運行しているタスク数が最も少ないことを指し、当該物理GPUで運行しているすべてのタスクの数が最も少ないことではない。本発明の実施例において、このような仮想GPUと物理GPUの割り当て方法中のリソース割当ポリシーを、負荷分散割当ポリシーと呼ぶ。 In another optional embodiment, allocating a physical GPU to the target virtual GPU based on the video memory capacity of the target virtual GPU, the resource status table, and the resource allocation policy can result in the resource status table. Based on the determination of the number of tasks currently assigned to each physical GPU among the plurality of physical GPUs of the target user and the remaining video memory of each physical GPU, the number of tasks is the smallest and the number of tasks is the smallest. The user ID is a target of the target virtual GPU, including determining a physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU as a physical GPU to be assigned to the target virtual GPU. The user's identifier. The minimum number of tasks means that the target user has the smallest number of tasks running on the physical GPU, and does not mean that the number of all tasks running on the physical GPU is the smallest. In the embodiment of the present invention, the resource allocation policy in such a virtual GPU and physical GPU allocation method is referred to as a load balancing allocation policy.

具体的な実現において、前記リソース状態テーブル中の情報に基づいて、複数の物理GPUの中の各物理GPUの既に占用されたビデオメモリに対応する目標ユーザのタスクの数を決定して、上述した目標ユーザのタスクの上述した複数の物理GPU中の分布状況を統計し、次に、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することができる。このようにして、上述した目標ユーザのタスクを複数の物理GPUにできるだけ均等に割り当てられるようにすることで、同じユーザの複数のタスクが同じ物理GPUに積み上げられることによる単一ユーザの複数のタスクのキューイング現像を軽減し、ユーザのタスクの実行効率を向上させる。 In a specific implementation, based on the information in the resource state table, the number of tasks of the target user corresponding to the already occupied video memory of each physical GPU in the plurality of physical GPUs is determined and described above. The distribution of the target user's tasks in the above-mentioned multiple physical GPUs is statistic, and then the physical number of the tasks is the smallest and the remaining video memory capacity meets the video memory capacity required for the target virtual GPU. The GPU can be determined as the physical GPU to be assigned to the target virtual GPU. In this way, by allowing the tasks of the target user described above to be assigned to multiple physical GPUs as evenly as possible, multiple tasks of the same user can be stacked on the same physical GPU, so that multiple tasks of a single user can be performed. It reduces the queuing development of the user and improves the execution efficiency of the user's task.

さらに、在前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する。当該複数の物理GPUの配列順序は、物理GPUのID番号の順序であってもよいし、当該複数の物理GPUの上述したリソース状態テーブル中の配列順序であってもよい。 Further, when the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs that satisfy the video memory capacity required for the target virtual GPU, the number of tasks is the smallest and the remaining. The front-arranged physical GPU among the physical GPUs whose video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU. The arrangement order of the plurality of physical GPUs may be the order of the ID numbers of the physical GPUs, or may be the order of the arrangements of the plurality of physical GPUs in the above-mentioned resource state table.

図4は、本発明の別の1実施例によって提供される負荷分散割当ポリシーのアーキテクチャ図である。符号の付いた影付きの長方形は、処理すべきタスクを示し、長方形内のラベルは、タスクが生成される前後順序を示し、VPTは、リソース状態テーブルを示し、pGPUは、物理GPUを示し、vGPUは、仮想GPUを示す。アーキテクチャ図から分かるように、同じユーザIDのタスクは、各物理GPUに均等に割り当てている。 FIG. 4 is an architectural diagram of the load balancing allocation policy provided by another embodiment of the present invention. Signed shaded rectangles indicate the tasks to be processed, labels within the rectangles indicate the order before and after the tasks are generated, VPTs indicate resource state tables, pGPUs indicate physical GPUs, and so on. vGPU represents a virtual GPU. As can be seen from the architecture diagram, tasks with the same user ID are evenly assigned to each physical GPU.

オプションとする1実施形態において、上述した目標仮想GPUの物理GPUを決定した後に、上述した方法は、前記目標仮想GPUに割り当てた物理GPUに基づいて前記リソース状態テーブルを更新することをさらに含む。 In one optional embodiment, after determining the physical GPU of the target virtual GPU described above, the method described further comprises updating the resource state table based on the physical GPU assigned to the target virtual GPU.

具体的な実現形態において、上述した目標仮想GPUの物理GPUを決定した後に、上述した目標仮想GPUの物理GPU-ID、上述した目標仮想GPUのID、目標仮想GPUのユーザID、目標仮想GPUのビデオメモリ容量など情報を利用して、上述したリソース状態テーブルを更新する。 In a specific embodiment, after the physical GPU of the target virtual GPU described above is determined, the physical GPU-ID of the target virtual GPU described above, the ID of the target virtual GPU described above, the user ID of the target virtual GPU, and the target virtual GPU Update the above-mentioned resource status table using information such as video memory capacity.

オプションとする1実施形態において、上述した複数の物理GPUに存在するタスクの実行が完了された場合、実行が完了されたタスクに基づいて前記リソース状態テーブルを更新する。 In one optional embodiment, when the execution of the task existing in the plurality of physical GPUs described above is completed, the resource status table is updated based on the task whose execution is completed.

具体的に、タスクの実行を完了した物理GPU-ID、および、実行が完了されたタスクに対応する仮想GPUのIDを利用して、上述したリソース状態テーブル中の上述したタスクの実行を完了した物理GPUの情報を更新することができる。 Specifically, the execution of the above-mentioned task in the above-mentioned resource status table is completed by using the physical GPU-ID that has completed the execution of the task and the ID of the virtual GPU corresponding to the task for which the execution has been completed. Information on the physical GPU can be updated.

図5は、本発明の別の1実施例によって開示されるリソース管理割当方法のフローの模式図であり、当該方法はゲストデバイスに適用される。図5に示すように、当該リソース管理割当方法は、以下のステップ501~503を含む。 FIG. 5 is a schematic diagram of the flow of the resource management allocation method disclosed by another embodiment of the present invention, and the method is applied to a guest device. As shown in FIG. 5, the resource management allocation method includes the following steps 501 to 503.

501において、ゲストデバイスの仮想GPUの構成パラメータを含む、ホストの構成ファイルを読み取る。 At 501, read the host's configuration file, which contains the configuration parameters of the guest device's virtual GPU.

502において、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成する。 At 502, create at least one usable virtual GPU for the guest device based on the configuration file.

本発明の実施例において、501および502のステップは、図2中のステップ201および202を参考することができ、ここでは繰り返して説明しない。 In the examples of the present invention, the steps 501 and 502 can be referred to in steps 201 and 202 in FIG. 2, and are not described repeatedly here.

503において、目標ユーザの処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信し、前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 In 503, when the task to be processed by the target user is received, the resource allocation request is transmitted to the host based on the target virtual GPU corresponding to the task to be processed, and the resource allocation request is physically sent to the target virtual GPU. Used to request the host to allocate a GPU, the at least one available virtual GPU includes the target virtual GPU.

本発明の実施例において、上述したゲストデバイスは、図1中のGuestに対応され得、上述したホストは、図1中のHostに対応され得る。 In an embodiment of the invention, the guest device described above may correspond to the Guest in FIG. 1, and the host described above may correspond to the Host in FIG.

1つの例において、ゲストデバイスは、仮想マシンであり得、仮想マシンは、少なくとも1つの仮想GPUを含む。上述した仮想マシンの仮想GPUに処理すべきタスクがない場合、上述した仮想マシンの仮想GPUには、それに対応する物理GPUがない。 In one example, the guest device can be a virtual machine, which comprises at least one virtual GPU. If the virtual GPU of the virtual machine described above does not have a task to be processed, the virtual GPU of the virtual machine described above does not have a corresponding physical GPU.

上述した仮想マシンは、処理すべきタスクを受信した後に、上述した処理すべきタスクにそれに対応する目標仮想GPUを割り当ててから、目標仮想GPUのビデオメモリ容量などの割り当てた目標仮想GPUの情報に基づいて、上述したホストにリソース割当要求を送信することによって、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求する。 After receiving the task to be processed, the virtual machine described above allocates the target virtual GPU corresponding to the task to be processed, and then uses the information of the allocated target virtual GPU such as the video memory capacity of the target virtual GPU. Based on this, by sending a resource allocation request to the above-mentioned host, the host is requested to allocate a physical GPU to the target virtual GPU.

上述したリソース割当要求には、上述した目標仮想GPUのIDおよびビデオメモリ容量が付加され得、さらに、目標仮想GPUのユーザIDが付加され得る。 The above-mentioned resource allocation request may be added with the above-mentioned target virtual GPU ID and video memory capacity, and may be further added with the target virtual GPU user ID.

別の1例において、ゲストデバイスは、コンテナであり得、コンテナは、少なくとも1つの仮想GPUを含む。コンテナの仮想GPUに処理すべきタスクがない場合、当該コンテナの仮想GPUには、それに対応する物理GPUがない。当該コンテナは、処理すべきタスクを受信した後、上述した処理すべきタスクにそれに対応する目標仮想GPUを割り当ててから、目標仮想GPUのビデオメモリ容量などの割り当てた目標仮想GPUの情報に基づいて、上述したホストにリソース割当要求を送信することによって、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求する。上述したリソース割当要求には、上述した目標仮想GPUのIDおよびビデオメモリ容量が付加され得、さらに、目標仮想GPUのユーザIDが付加され得る。 In another example, the guest device can be a container, which comprises at least one virtual GPU. If the virtual GPU of the container has no tasks to process, the virtual GPU of the container does not have a corresponding physical GPU. After receiving the task to be processed, the container allocates the target virtual GPU corresponding to the task to be processed described above, and then based on the information of the allocated target virtual GPU such as the video memory capacity of the target virtual GPU. By sending a resource allocation request to the above-mentioned host, the host is requested to allocate a physical GPU to the target virtual GPU. The above-mentioned resource allocation request may be added with the above-mentioned target virtual GPU ID and video memory capacity, and may be further added with the target virtual GPU user ID.

本発明の実施例は、構成ファイルを読み取り、処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信し、前記構成ファイルは、ゲストデバイスの仮想GPUのパラメータを含み、前記ゲストデバイスは、少なくとも1つの仮想GPUを含む。本発明の実施例において、仮想GPUと物理GPUは、タスクを受信した前にはマッピング関係が構築されておらず、タスクを受信した後に、リソース割当ポリシーに従って仮想GPUと物理GPUに対して動的にマッピング関係を構築する。したがって、仮想GPUと物理GPUとの間のマッピング関係を柔軟に構築することができ、物理GPUの使用効率を向上させることができる。 In an embodiment of the present invention, when a configuration file is read and a task to be processed is received, a resource allocation request is sent to the host based on the target virtual GPU corresponding to the task to be processed, and the configuration file is a guest. The guest device includes at least one virtual GPU, including parameters for the virtual GPU of the device. In the embodiment of the present invention, the virtual GPU and the physical GPU do not have a mapping relationship established before the task is received, and after the task is received, the virtual GPU and the physical GPU are dynamically relative to the virtual GPU and the physical GPU according to the resource allocation policy. Build a mapping relationship with. Therefore, the mapping relationship between the virtual GPU and the physical GPU can be flexibly constructed, and the usage efficiency of the physical GPU can be improved.

オプションとする1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する前に、前記方法は、前記ゲストデバイスの仮想GPUの数および第1リソース状態テーブルに基づいて、前記ゲストデバイスの未使用の仮想GPUの数を決定することと、前記未使用の仮想GPUの数がゼロよりも大きいと、前記未使用の仮想GPUの中から前記目標仮想GPUを決定することと、をさらに含み、前記第1リソース状態テーブルは、各物理GPU現在の使用状態情報を含む。 In one optional embodiment, the method comprises the number of virtual GPUs in the guest device and the first resource state before sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed. Determining the number of unused virtual GPUs in the guest device based on the table, and if the number of unused virtual GPUs is greater than zero, the target virtual GPU among the unused virtual GPUs. The first resource status table further includes the current usage status information of each physical GPU.

上述した第1リソース状態テーブルに含まれた情報は、図2中のリソース状態テーブルに含まれた情報と一致しており、ここでは繰り返して説明しない。 The information contained in the first resource status table described above matches the information contained in the resource status table in FIG. 2, and will not be described repeatedly here.

オプションとして、前記方法は、前記第1リソース状態テーブルに関する第1更新命令を受信することと、前記第1更新命令に基づいて前記第1リソース状態テーブルを更新することと、をさらに含み、前記第1更新命令は、物理GPUのタスク処理状態が変化したことを前記ホストが検出したときに送信されたものである。タスク処理状態が変化したことは、物理GPUに新たなタスクが追加されたことまたはタスクが完了されたことであり得る。 Optionally, the method further comprises receiving a first update instruction for the first resource state table and updating the first resource state table based on the first update instruction. 1 The update command is transmitted when the host detects that the task processing state of the physical GPU has changed. The change in the task processing state may be due to the addition of a new task to the physical GPU or the completion of the task.

具体的に、前記ホストによって物理GPUに新しく追加されたタスクが存在することが検出された場合、前記第1更新命令には、第1物理GPUの新しく追加されたタスクに対応するユーザ情報、第1物理GPUの情報、前記新しく追加されたタスクの仮想GPUのビデオメモリ容量の中の少なくとも1つが付加されている。前記ホストによって物理GPUのビデオメモリに新しく完了されたタスクがあることが検出された場合、前記第1更新命令には、新しく完了されたタスクに対応するユーザ情報、および、新しく完了されたタスクに対応する第2物理GPUの情報の中の少なくとも1つが付加されている。前記第1物理GPUは、新しく追加されたタスクのGPUであり、前記第2物理GPUは、新しく完成されたタスクに対応するGPUである。前記ユーザ情報は、ユーザのIDであり得、前記物理GPUの情報は、物理GPUのIDであり得る。 Specifically, when it is detected by the host that a newly added task exists in the physical GPU, the first update instruction includes user information corresponding to the newly added task of the first physical GPU, the first. Information on one physical GPU, at least one of the video memory capacities of the virtual GPU of the newly added task is added. When the host detects that there is a newly completed task in the video memory of the physical GPU, the first update instruction includes the user information corresponding to the newly completed task and the newly completed task. At least one of the information of the corresponding second physical GPU is added. The first physical GPU is a GPU of a newly added task, and the second physical GPU is a GPU corresponding to a newly completed task. The user information may be the user's ID, and the physical GPU information may be the physical GPU's ID.

オプションとして、前記方法は、前記仮想GPUをスケジューリングして前記処理すべきタスクを実行するようにすることと、前記ホストからの前記処理すべきタスクの処理結果を受信することと、をさらに含む。 Optionally, the method further comprises scheduling the virtual GPU to perform the task to be processed and receiving the processing result of the task to be processed from the host.

図6は、本発明のさらに別の1実施例によって開示されるリソース管理割当方法のフローの模式図であり、当該方法は、ホストに適用される。図6に示すように、当該リソース管理割当方法は、以下のステップ601~602を含む。 FIG. 6 is a schematic diagram of the flow of the resource management allocation method disclosed by yet another embodiment of the present invention, and the method is applied to the host. As shown in FIG. 6, the resource management allocation method includes the following steps 601 to 602.

601において、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を受信し、前記目標仮想GPUは、ゲストデバイスに含まれている仮想GPUである。 In 601 a resource allocation request from a guest device to which information of a task to be processed and information of a target virtual GPU is added is received, and the target virtual GPU is a virtual GPU included in the guest device.

本発明の実施例において、上述したゲストデバイスは、図1中のGuestに対応し得、上述したホストは、図1中のHostに対応し得る。 In an embodiment of the invention, the guest device described above may correspond to the Guest in FIG. 1, and the host described above may correspond to the Host in FIG.

上述したゲストデバイスは、少なくとも1つの仮想GPUを含む。上述したゲストデバイスの仮想GPUに処理すべきタスクがないと、上述したゲストデバイスの仮想GPUにはそれに対応する物理GPUがない。 The guest device described above includes at least one virtual GPU. If the virtual GPU of the guest device described above has no task to be processed, the virtual GPU of the guest device described above does not have a corresponding physical GPU.

上述した目標仮想GPUの情報は、目標仮想GPUのビデオメモリ容量、および、目標仮想GPUのユーザIDを含み得るがこれらに限定されない。 The information of the target virtual GPU described above may include, but is not limited to, the video memory capacity of the target virtual GPU and the user ID of the target virtual GPU.

602において、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる。 In 602, the target physical GPU is assigned to the target virtual GPU based on the information of the target virtual GPU.

本発明の実施例において、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てることは、前記目標仮想GPUのビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることを含む。前記目標物理GPUは、処理すべきタスクの情報に基づいて処理すべきタスクを処理するために用いられる。 In the embodiment of the present invention, allocating the target physical GPU to the target virtual GPU based on the information of the target virtual GPU means allocating the physical GPU to the target virtual GPU based on the video memory capacity of the target virtual GPU. including. The target physical GPU is used to process a task to be processed based on the information of the task to be processed.

さらに、前記目標仮想GPUのビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることは、前記目標仮想GPUに必要なビデオメモリ容量と、リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み、前記第2リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 Further, allocating the physical GPU to the target virtual GPU based on the video memory capacity of the target virtual GPU is based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table. The second resource state table includes allocating a physical GPU to the target virtual GPU, and includes current state information of each physical GPU among a plurality of physical GPUs.

本発明の実施例において、上述した前記目標仮想GPUのビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる具体的な実現過程は、図2中の「前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて前記目標仮想GPUに物理GPUを割り当てる」に対応する操作を参考することができる。前記目標ユーザの、現在複数の物理GPUの中の各物理GPUに割り当てられたタスク数を決定する操作は、目標ユーザの、現在複数の物理GPUの中の各物理GPUに割り当てられたタスク数を決定することであり、当該目標ユーザは、目標仮想GPUに対応するユーザであることとして、理解することができることに注意する必要がある。本発明の実施例中の「第2リソース状態テーブル」は、上述した図2中の「前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて前記目標仮想GPUに物理GPUを割り当てる」中の「リソース状態テーブル」に対応される。1つの例において、第2リソース状態テーブルは、第1リソース状態テーブルと同じであり、たとえば、ゲストデバイスが、ホスト上のリソース状態テーブルをローカルにコピーし、ホストが、第2リソース状態テーブルを維持して、第2リソース状態テーブルが更新されると、第1リソース状態テーブルに対して同期化更新を実行するように当該ゲストデバイスに通知する。たとえば、第1更新命令を利用して、第1リソース状態テーブルを更新するようにゲストデバイスに通知することができる。 In the embodiment of the present invention, the specific realization process of allocating the physical GPU to the target virtual GPU based on the video memory capacity of the target virtual GPU described above, the resource allocation policy, and the second resource status table is , The operation corresponding to "allocating the physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table" in FIG. 2 can be referred to. The operation of determining the number of tasks assigned to each physical GPU currently among the plurality of physical GPUs of the target user is the number of tasks assigned to each physical GPU currently assigned to each of the plurality of physical GPUs of the target user. It should be noted that it is a decision and the target user can be understood as a user corresponding to the target virtual GPU. The "second resource state table" in the embodiment of the present invention allocates a physical GPU to the target virtual GPU based on the "video memory capacity required for the target virtual GPU and the resource state table" in FIG. 2 described above. Corresponds to the "resource status table" in. In one example, the second resource state table is the same as the first resource state table, for example, the guest device copies the resource state table on the host locally and the host maintains the second resource state table. Then, when the second resource status table is updated, the guest device is notified to execute the synchronous update for the first resource status table. For example, the first update instruction can be used to notify the guest device to update the first resource status table.

オプションとする1実施形態において、前記方法は、前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新すること、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新することをさらに含む。前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新することは、割り当てられた物理GPUの新しく追加されたタスクに対応するユーザ情報、割り当てられた物理GPUの情報、および、前記新しく追加されたタスクに対応する仮想GPUのビデオメモリ容量の中の少なくとも1つを更新することを含む。タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新することは、新しく完了されたタスクに対応するユーザ情報、および、タスクを完了した物理GPUの情報の中の少なくとも1つを更新することを含む。物理GPUの情報は、物理GPUのIDを含み、ユーザ情報は、ユーザIDを含む。 In one optional embodiment, the method updates the second resource state table based on the physical GPU assigned to the target virtual GPU, or when the task processing state changes, the task processing state. It further includes updating the second resource status table based on the change. Updating the second resource status table based on the physical GPU assigned to the target virtual GPU can be the user information corresponding to the newly added task of the assigned physical GPU, the assigned physical GPU information, and the assigned physical GPU information. Includes updating at least one of the video memory capacities of the virtual GPU corresponding to the newly added task. When the task processing status changes, updating the second resource status table based on the change in the task processing status is the user information corresponding to the newly completed task and the information of the physical GPU that completed the task. Includes updating at least one of. The information of the physical GPU includes the ID of the physical GPU, and the user information includes the user ID.

オプションとする1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てた後に、前記方法は、複数の物理GPUの中の各物理GPUのタスクキューに基づいてタスクスケジューリングを実行することをさらに含み得る。 In one optional embodiment, after allocating a physical GPU to the target virtual GPU corresponding to the task to be processed, the method performs task scheduling based on the task queue of each physical GPU in the plurality of physical GPUs. It may further include doing.

前記タスクキューとは、物理GPUが既に占用されたビデオメモリに含まれているタスクを意味する。 The task queue means a task whose physical GPU is already contained in the occupied video memory.

本発明の実施例は、まず、ゲストデバイスからのリソース割当要求を受信し、前記リソース割当要求には、処理すべきタスクおよび目標仮想GPUの情報が付加され、前記目標仮想GPUは、ゲストデバイス中のゲストデバイスに含まれている仮想GPUであり、次に、前記目標仮想GPUの情報およびリソース管理ポリシーに基づいて、前記目標仮想GPUに目標物理GPUを割り当てる。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、タスクを仮想GPUが受信した後に、対応する物理GPUを仮想GPUに動的に割り当てるため、異なるリソース割当ポリシーに従ってGPUリソースに対して柔軟に管理割当を実行することができ、物理GPUのリソース利用率を向上させ、システムの全体的なパフォーマンスを向上させる。 In the embodiment of the present invention, first, a resource allocation request from a guest device is received, information on a task to be processed and a target virtual GPU is added to the resource allocation request, and the target virtual GPU is in the guest device. It is a virtual GPU included in the guest device of the above, and then, based on the information of the target virtual GPU and the resource management policy, the target physical GPU is assigned to the target virtual GPU. In the embodiment of the present invention, a fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and after the task is received by the virtual GPU, the corresponding physical GPU is dynamically assigned to the virtual GPU, so that different resources are used. It is possible to flexibly execute management allocation to GPU resources according to the allocation policy, improve the resource utilization rate of the physical GPU, and improve the overall performance of the system.

上述した図2に示された実施例と同様に、図7は、本発明の実施例によって提供される電子デバイス700の構成の模式図であり、図7に示すように、前記電子デバイス700は、プロセッサ710と、メモリ720と、通信インターフェース730と、物理GPU740と、を備える。前記1つまたは複数のプログラム721は、上述したメモリ720に記憶されており、上述したプロセッサ710によって実行される。前記1つまたは複数のプログラム721は、以下のステップを実行するため命令を含む。 Similar to the embodiment shown in FIG. 2 above, FIG. 7 is a schematic diagram of the configuration of the electronic device 700 provided by the embodiment of the present invention, and as shown in FIG. 7, the electronic device 700 is , A processor 710, a memory 720, a communication interface 730, and a physical GPU 740. The one or more programs 721 are stored in the memory 720 described above and are executed by the processor 710 described above. The one or more programs 721 include instructions to perform the following steps.

ゲストデバイスのGPUの構成パラメータを含む構成ファイルを読み取ることと、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることと、を含み、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 Received a configuration file containing the GPU configuration parameters of the guest device, generated at least one usable virtual GPU for the guest device based on the configuration file, and a task to be processed by the target user. In response to, the target virtual GPU corresponding to the task to be processed is assigned a physical GPU, and the at least one available virtual GPU includes the target virtual GPU.

本発明の実施例は、ゲストデバイスの仮想GPUの構成パラメータを含む構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、処理すべきタスクが受信された場合、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、処理すべきタスクを仮想GPUが受信した後に、対応する物理GPUを仮想GPUに動的に割り当てるため、現在タスクの特性に基づいてGPUリソースを柔軟に割り当てることができ、物理GPUのリソース利用率を向上させ、GPUシステムの全体的なパフォーマンスを向上させた。 An embodiment of the present invention reads a configuration file containing the configuration parameters of the virtual GPU of the guest device, generates at least one usable virtual GPU of the guest device based on the configuration file, and receives a task to be processed. If so, a physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the at least one available virtual GPU includes the target virtual GPU. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and the corresponding physical GPU is dynamically assigned to the virtual GPU after the virtual GPU receives the task to be processed. The GPU resources can be flexibly allocated based on the characteristics of the current task, the resource utilization of the physical GPU has been improved, and the overall performance of the GPU system has been improved.

オプションの1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを実行し、前記リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, when a physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, the instructions in the program specifically include the video memory capacity and resource status table required for the target virtual GPU. Based on the above, the physical GPU is assigned to the target virtual GPU, and the resource state table includes the current state information of each physical GPU in the plurality of physical GPUs.

オプションの1実施形態において、前記物理GPUの現在状態情報は、前記物理GPUのビデオメモリ容量、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザ情報、および、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量を含む。 In one optional embodiment, the current state information of the physical GPU includes the video memory capacity of the physical GPU, the user information of each virtual GPU corresponding to the already occupied video memory of the physical GPU, and the physical GPU. Includes the video memory capacity of each virtual GPU corresponding to the already occupied video memory.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記複数の物理GPUのビデオメモリが最小限に使用されるようにすることを実行する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource status table required for the target virtual GPU, the instructions in the program specifically say the target. By allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the virtual GPU and the resource status table, the video memory of the plurality of physical GPUs is minimized. do.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記リソース状態テーブルに基づいて、複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を実行する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource status table required for the target virtual GPU, the instructions in the program specifically include the resource. Based on the state table, the remaining video memory capacity of each physical GPU is sequentially determined according to the arrangement order of the plurality of physical GPUs until the determined remaining video memory capacity meets the video memory capacity required for the target virtual GPU. And to determine a physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU as the physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定することを実行する。 In one optional embodiment, the instructions in the program further satisfy the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs to meet the video memory capacity required for the target virtual GPU. If it is determined that there is no physical resource available in the virtual GPU, it is determined that there is no available physical resource.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記目標ユーザの少なくとも1つのタスクが前記複数の物理GPUにできるだけ均等に割り当てるようにすることを実行し、前記少なくとも1つのタスクは、前記処理すべきタスクを含む。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource status table required for the target virtual GPU, the instructions in the program specifically indicate the target. By allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the virtual GPU and the resource status table, at least one task of the target user should be allocated to the plurality of physical GPUs as evenly as possible. The at least one task includes the task to be processed.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記リソース状態テーブルに基づいて、前記目標ユーザの、現在前記複数の物理GPUの中の各物理GPUに割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定することと、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を実行する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource status table required for the target virtual GPU, the instructions in the program specifically include the resource. Based on the state table, the target user determines the number of tasks currently allocated to each physical GPU among the plurality of physical GPUs, and the remaining video memory capacity of each physical GPU, and the number of tasks. Is executed, and the physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす複数の物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することを実行する。 In one optional embodiment, the instructions in the program further have a plurality of physical GPUs with the least number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU. If there is, the target virtual GPU is the first-arranged physical GPU among a plurality of physical GPUs having the smallest number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU. Performs to determine as the physical GPU to assign to.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記目標仮想GPUに割り当てた物理GPUに基づいて前記リソース状態テーブルを更新すること、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記リソース状態テーブルを更新することを実行する。 In one optional embodiment, the instructions in the program further update the resource state table based on the physical GPU assigned to the target virtual GPU, or if the task processing state changes, the task processing. Update the resource status table based on the change in status.

上述した図5に示された実施例と同様に、図8は、本発明の別の1実施例によって提供される電子デバイス800の構成の模式図であり、前記電子デバイス800は、ゲストデバイスであり得る。図8に示すように、前記電子デバイス800は、プロセッサ810と、メモリ820と、通信インターフェース830と、を備える。前記1つまたは複数のプログラム821は、上述したメモリ820に記憶されており、上述したプロセッサ810によって実行される。前記1つまたは複数のプログラム821は、以下のステップを実行するため命令を含む。 Similar to the embodiment shown in FIG. 5 above, FIG. 8 is a schematic diagram of the configuration of the electronic device 800 provided by another embodiment of the present invention, wherein the electronic device 800 is a guest device. possible. As shown in FIG. 8, the electronic device 800 includes a processor 810, a memory 820, and a communication interface 830. The one or more programs 821 are stored in the memory 820 described above and are executed by the processor 810 described above. The one or more programs 821 include instructions to perform the following steps.

前記ゲストデバイスの仮想GPUの構成パラメータを含む、ホストの構成ファイルを読み取ることと、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、および目標ユーザの処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信することと、を含み、前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 Reading the host's configuration file, including the configuration parameters of the guest device's virtual GPU, generating at least one available virtual GPU for the guest device based on the configuration file, and processing the target user. When a task to be processed is received, the resource allocation request includes sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed, and the resource allocation request causes the physical GPU to the target virtual GPU. The at least one available virtual GPU used to request the host to allocate includes the target virtual GPU.

本発明の実施例は、ゲストデバイスの仮想GPUのパラメータを含む構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、タスクを仮想GPUが受信した後に、動的に、リソース割当要求をホストに送信するため、物理GPUのリソース利用率を向上させ、GPUシステムの全体的なパフォーマンスを向上させた。 An embodiment of the present invention reads a configuration file containing the parameters of a virtual GPU of a guest device, generates at least one usable virtual GPU of the guest device based on the configuration file, and receives a task to be processed. If so, a resource allocation request is sent to the host based on the target virtual GPU corresponding to the task to be processed. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and the physical GPU dynamically sends the resource allocation request to the host after the virtual GPU receives the task. Improves the resource utilization of the GPU and improves the overall performance of the GPU system.

オプションの1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する前に、前記プログラム中の命令は、さらに、第1リソース状態テーブルに基づいて、前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUの中のアイドル状態である仮想GPUを決定することと、前記アイドル状態である仮想GPUの中から前記目標仮想GPUを決定することと、を実行し、前記第1リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, the instructions in the program are further based on the first resource state table before sending the resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed. Determining the idle virtual GPU in at least one available virtual GPU of the guest device and determining the target virtual GPU from the idle virtual GPUs are executed. , The first resource state table contains the current state information of each physical GPU among a plurality of physical GPUs.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記ホストからの前記第1リソース状態テーブルに関する第1更新命令を受信することと、前記第1更新命令に基づいて前記第1リソース状態テーブルを更新することと、を実行し、前記第1更新命令は、前記ホストによって、物理GPUのタスク処理状態が変化したことが検出されたときに送信されたものである。 In one optional embodiment, the instruction in the program further receives a first update instruction for the first resource status table from the host and the first resource state based on the first update instruction. The table is updated and executed, and the first update instruction is transmitted when it is detected by the host that the task processing state of the physical GPU has changed.

オプションの1実施形態において、少なくとも1つの物理GPUは、新しく追加されたタスクを持つ第1物理GPUを含み、前記第1更新命令には、第1物理GPUの新しく追加されたタスクに対応するユーザ情報、前記第1物理GPUの情報、および、前記新しく追加されたタスクに対応する仮想GPUのビデオメモリ容量の中の少なくとも1つが付加されており、および/または、少なくとも1つの物理GPUは、新しく完了されたタスクを持つ第2物理GPUを含み、前記第1更新命令には、新しく完了されたタスクに対応するユーザ情報、および、第2物理GPUの情報の中の少なくとも1つが付加されている。 In one optional embodiment, the at least one physical GPU includes a first physical GPU with a newly added task, and the first update instruction is a user corresponding to the newly added task of the first physical GPU. At least one of the information, the information of the first physical GPU, and the video memory capacity of the virtual GPU corresponding to the newly added task is added, and / or the at least one physical GPU is newly added. A second physical GPU having a completed task is included, and at least one of the user information corresponding to the newly completed task and the information of the second physical GPU is added to the first update instruction. ..

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記仮想GPUをスケジューリングして前記処理すべきタスクを実行するようにすることと、前記ホストからの前記処理すべきタスクの処理結果を受信することと、を実行する。 In one optional embodiment, the instructions in the program further schedule the virtual GPU to execute the task to be processed, and the processing result of the task to be processed from the host. To receive and to execute.

上述した図6に示された実施例と同様に、図9は、本発明のさらに別の1実施例によって提供される電子デバイス900の構成の模式図であり、前記電子デバイス900は、ホストであり得る。図9に示すように、前記電子デバイス900は、プロセッサ910と、メモリ920と、通信インターフェース930と、物理GPU940と、を備える。前記1つまたは複数のプログラム921は、上述したメモリ920に記憶されており、上述したプロセッサ910によって実行される。前記1つまたは複数のプログラム921は、以下のステップを実行するため命令を含む。 Similar to the embodiment shown in FIG. 6 described above, FIG. 9 is a schematic diagram of the configuration of the electronic device 900 provided by yet another embodiment of the present invention, wherein the electronic device 900 is a host. possible. As shown in FIG. 9, the electronic device 900 includes a processor 910, a memory 920, a communication interface 930, and a physical GPU 940. The one or more programs 921 are stored in the memory 920 described above and are executed by the processor 910 described above. The one or more programs 921 include instructions for performing the following steps.

処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を、受信することと、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てることと、を含む。 Receiving a resource allocation request from a guest device to which information on the task to be processed and information on the target virtual GPU are added, and allocating the target physical GPU to the target virtual GPU based on the information on the target virtual GPU. Including that.

本発明の実施例は、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を受信し、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、ゲストデバイスからのリソース割当要求を受信した後に、対応する物理GPUを仮想GPUに動的に割り当てるため、現在タスクの特性に基づいてGPUリソースを柔軟に割り当てることができ、GPUのリソース利用率を向上させ、GPUシステムの全体的なパフォーマンスを向上させた。 An embodiment of the present invention receives a resource allocation request from a guest device to which information on a task to be processed and information on a target virtual GPU are added, and targets the target virtual GPU based on the information on the target virtual GPU. Allocate a physical GPU. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and the corresponding physical GPU is dynamically allocated to the virtual GPU after receiving the resource allocation request from the guest device. The GPU resources can be flexibly allocated based on the characteristics of the current task, the resource utilization of the GPU has been improved, and the overall performance of the GPU system has been improved.

オプションの1実施形態において、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることを実行する。 In one optional embodiment, when the target physical GPU is assigned to the target virtual GPU based on the information of the target virtual GPU, the instruction in the program specifically determines the video memory capacity required for the target virtual GPU. Based on this, the physical GPU is assigned to the target virtual GPU.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを実行し、前記第2リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the instructions in the program specifically indicate the video required for the target virtual GPU. Executes allocation of a physical GPU to the target virtual GPU based on the memory capacity, the resource allocation policy, and the second resource status table, and the second resource status table is each of the plurality of physical GPUs. Contains current state information for the physical GPU.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記プログラム中の命令は、具体的に、前記第2リソース状態テーブルに基づいて、前記複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を実行する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table, in the program. The instruction specifically, based on the second resource state table, according to the arrangement order of the plurality of physical GPUs, until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. The remaining video memory capacity of each physical GPU is sequentially determined, and the physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be allocated to the target virtual GPU. And execute.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定することを実行する。 In one optional embodiment, the instructions in the program further satisfy the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs to meet the video memory capacity required for the target virtual GPU. If it is determined that there is no physical resource available in the virtual GPU, it is determined that there is no available physical resource.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる方面場合、前記プログラム中の命令は、具体的に、前記第2リソース状態テーブルに基づいて、目標ユーザの現在複数の物理GPUの中の各物理GPUに既に割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定することと、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を実行し、前記目標ユーザは、前記目標仮想GPUに対応するユーザである。 In one optional embodiment, in the case of allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table, in the program. Specifically, based on the second resource state table, the number of tasks already allocated to each physical GPU in the current plurality of physical GPUs of the target user, and the remaining video memory of each physical GPU. Determining the capacity and determining the physical GPU with the smallest number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU as the physical GPU to be allocated to the target virtual GPU. And, the target user is a user corresponding to the target virtual GPU.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することを実行する。 In one optional embodiment, the instructions in the program further have a plurality of physical GPUs with the least number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU. If there is, the front-arranged physical GPU among the physical GPUs having the smallest number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU is assigned to the target virtual GPU. Performs the determination as a physical GPU.

オプションの1実施形態において、前記プログラム中の命令は、さらに、前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新すること、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新することを実行する。 In one optional embodiment, the instructions in the program further update the second resource state table based on the physical GPU assigned to the target virtual GPU, or if the task processing state changes. The second resource status table is updated based on the change in the task processing status.

オプションの1実施形態において、前記プログラム中の命令は、さらに、複数の物理GPUの中の各物理GPUのタスクキューに基づいてタスクスケジューリングを実行することを実行する。 In one optional embodiment, the instructions in the program further execute task scheduling based on the task queue of each physical GPU in the plurality of physical GPUs.

図10は、本発明の実施例に係るリソース管理装置1000の機能ユニットの構成のブロック図である。当該リソース管理装置1000は、電子デバイスに適用される。前記電子デバイスは、処理ユニット1010と通信ユニット1020とを備える。 FIG. 10 is a block diagram of the configuration of the functional unit of the resource management device 1000 according to the embodiment of the present invention. The resource management device 1000 is applied to electronic devices. The electronic device includes a processing unit 1010 and a communication unit 1020.

前記処理ユニット1010は、前記通信ユニット1020を利用して構成ファイルを取得し、ゲストデバイスのGPUの構成パラメータを含む構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 The processing unit 1010 uses the communication unit 1020 to acquire a configuration file, reads a configuration file containing configuration parameters of the GPU of the guest device, and can use at least one of the guest devices based on the configuration file. In response to receiving a task to be processed by the target user by creating a virtual GPU, a physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the at least one available virtual GPU is Includes the target virtual GPU.

本発明の実施例は、ゲストデバイスの仮想GPUのパラメータを含む構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、処理すべきタスクが受信された場合、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、処理すべきタスクを仮想GPUが受信した後に、対応する物理GPUを仮想GPUに動的に割り当てるため、現在タスクの特性に基づいてGPUリソースを柔軟に割り当てることができ、GPUのリソース利用率を向上させ、GPUシステムの全体的なパフォーマンスを向上させた。 An embodiment of the present invention reads a configuration file containing the parameters of a virtual GPU of a guest device, generates at least one usable virtual GPU of the guest device based on the configuration file, and receives a task to be processed. If so, a physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, and the at least one usable virtual GPU includes the target virtual GPU. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and the corresponding physical GPU is dynamically assigned to the virtual GPU after the virtual GPU receives the task to be processed. The GPU resources can be flexibly allocated based on the characteristics of the current task, the resource utilization of the GPU has been improved, and the overall performance of the GPU system has been improved.

オプションの1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1010は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当て、前記リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, when a physical GPU is assigned to the target virtual GPU corresponding to the task to be processed, the processing unit 1010 specifically includes a video memory capacity and a resource status table required for the target virtual GPU. The physical GPU is assigned to the target virtual GPU based on the above, and the resource state table includes the current state information of each physical GPU in the plurality of physical GPUs.

オプションの1実施形態において、前記各物理GPUの現在状態情報は、当該物理GPUのビデオメモリ容量、当該物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザ情報、および、当該物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量を含む。 In one optional embodiment, the current state information of each physical GPU includes the video memory capacity of the physical GPU, the user information of each virtual GPU corresponding to the already occupied video memory of the physical GPU, and the physical GPU. Includes the video memory capacity of each virtual GPU corresponding to the already occupied video memory of.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1010は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記複数の物理GPUのビデオメモリが最小限に使用されるようにする。 In one optional embodiment, when a physical GPU is assigned to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, the processing unit 1010 specifically indicates the target virtual GPU. By allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the GPU and the resource status table, the video memory of the plurality of physical GPUs is minimized.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1010は、具体的に、前記リソース状態テーブルに基づいて、複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定し、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource state table, the processing unit 1010 specifically has the resource state. Based on the table, according to the arrangement order of the plurality of physical GPUs, the remaining video memory capacity of each physical GPU is sequentially determined until the determined remaining video memory capacity meets the video memory capacity required for the target virtual GPU. The physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記処理ユニット1010は、さらに、前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定する。 In one optional embodiment, the processing unit 1010 further does not meet the video memory capacity required for the target virtual GPU in the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs. If it is determined that the virtual GPU has no available physical resources.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1010は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記目標ユーザの少なくとも1つのタスクが前記複数の物理GPUにできるだけ均等に割り当てるようにし、前記少なくとも1つのタスクは、前記処理すべきタスクを含む。 In one optional embodiment, when a physical GPU is assigned to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, the processing unit 1010 specifically indicates the target virtual GPU. By allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the GPU and the resource status table, at least one task of the target user can be allocated to the plurality of physical GPUs as evenly as possible. The at least one task includes the task to be processed.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1010は、具体的に、前記リソース状態テーブルに基づいて、前記目標ユーザの、現在前記複数の物理GPUの中の各物理GPUに割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定し、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource state table, the processing unit 1010 specifically has the resource state. Based on the table, the target user's number of tasks currently allocated to each physical GPU among the plurality of physical GPUs, and the remaining video memory capacity of each physical GPU are determined, and the number of tasks is the smallest. And, the physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記処理ユニット1010は、さらに、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす複数の物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する。 In one optional embodiment, the processing unit 1010 further has a plurality of physical GPUs with the least number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU. In this case, the front-arranged physical GPU among the plurality of physical GPUs having the smallest number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU is used as the target virtual GPU. Determined as the physical GPU to allocate.

オプションの1実施形態において、前記処理ユニット1010は、さらに、前記目標仮想GPUに割り当てた物理GPUに基づいて前記リソース状態テーブルを更新し、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記リソース状態テーブルを更新する。 In one optional embodiment, the processing unit 1010 further updates the resource status table based on the physical GPU assigned to the target virtual GPU, or when the task processing status changes, the task processing status is changed. The resource status table is updated based on the change.

図11は、本発明の別の1実施例に係るリソース管理装置1100の機能ユニットの構成のブロック図である。当該リソース管理装置1100電子デバイスに適用され、前記電子デバイスは、処理ユニット1110と通信ユニット1120とを備える。 FIG. 11 is a block diagram of the configuration of the functional unit of the resource management device 1100 according to another embodiment of the present invention. Applied to the resource management device 1100 electronic device, the electronic device includes a processing unit 1110 and a communication unit 1120.

前記処理ユニット1110は、前記通信ユニット1120を利用してホストの構成ファイルを取得し、前記ゲストデバイスの仮想GPUの構成パラメータを含む、前記ホストの構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、目標ユーザの処理すべきタスクを受信した場合、前記通信ユニット1120を利用して前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求を前記ホストに送信し、前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む。 The processing unit 1110 uses the communication unit 1120 to acquire a host configuration file, reads the host configuration file including the configuration parameters of the virtual GPU of the guest device, and the guest is based on the configuration file. When at least one usable virtual GPU of the device is generated and a task to be processed by the target user is received, the communication unit 1120 is used to allocate resources based on the target virtual GPU corresponding to the task to be processed. The request is sent to the host, the resource allocation request is used to request the host to allocate a physical GPU to the target virtual GPU, and the at least one available virtual GPU is the target virtual GPU. including.

本発明の実施例は、ゲストデバイスの仮想GPUのパラメータを含む構成ファイルを読み取り、前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、処理すべきタスクを受信した場合、前記通信ユニットを利用して前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求を前記ホストに送信する。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、タスクを仮想GPUが受信した後に、リソース割当要求をホストに送信するため、物理GPUのリソース利用率を向上させ、GPUシステムの全体的なパフォーマンスを向上させた。 An embodiment of the present invention reads a configuration file containing the parameters of a virtual GPU of a guest device, generates at least one usable virtual GPU of the guest device based on the configuration file, and receives a task to be processed. In this case, the communication unit is used to send a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and the resource allocation request is sent to the host after the virtual GPU receives the task. Therefore, the resource utilization rate of the physical GPU. And improved the overall performance of the GPU system.

オプションの1実施形態において、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する前に、前記処理ユニット1110は、さらに、第1リソース状態テーブルに基づいて、前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUの中のアイドル状態である仮想GPUを決定し、前記アイドル状態である仮想GPUの中から前記目標仮想GPUを決定し、前記第1リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, the processing unit 1110 further bases on the first resource state table before sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed. The virtual GPU that is idle in at least one available virtual GPU of the guest device is determined, the target virtual GPU is determined from the virtual GPU that is idle, and the first resource state table is Contains the current state information of each physical GPU in a plurality of physical GPUs.

オプションの1実施形態において、前記処理ユニット1110は、さらに、前記ホストからの前記第1リソース状態テーブルに対する第1更新命令を受信し、前記第1更新命令に基づいて前記第1リソース状態テーブルを更新し、前記第1更新命令は、少なくとも1つの物理GPUのタスク処理状態が変化したことを前記ホストが検出したときに送信されたものである。 In one optional embodiment, the processing unit 1110 further receives a first update instruction for the first resource status table from the host and updates the first resource status table based on the first update instruction. However, the first update command is transmitted when the host detects that the task processing state of at least one physical GPU has changed.

オプションの1実施形態において、前記第1更新命令には、第1物理GPUの新しく追加されたタスクに対応するユーザ情報、前記第1物理GPUの情報、前記新しく追加されたタスクに対応する仮想GPUのビデオメモリ容量、完了されたタスクに対応するユーザ情報、および、前記完了されたタスクに対応する第2物理GPUの情報の中の少なくとも1つが付加されており、前記第1物理GPUは、新しく追加されたタスクのGPUであり、前記第2物理GPUは、タスクを完了したGPUである。 In one optional embodiment, the first update instruction includes user information corresponding to the newly added task of the first physical GPU, information of the first physical GPU, and virtual GPU corresponding to the newly added task. At least one of the video memory capacity, the user information corresponding to the completed task, and the information of the second physical GPU corresponding to the completed task is added, and the first physical GPU is newly added. It is the GPU of the added task, and the second physical GPU is the GPU that has completed the task.

オプションの1実施形態において、前記処理ユニット1110は、さらに、前記仮想GPUをスケジューリングして前記処理すべきタスクを実行するようにし、前記ホストからの前記処理すべきタスクの処理結果を受信する。 In one optional embodiment, the processing unit 1110 further schedules the virtual GPU to execute the task to be processed, and receives the processing result of the task to be processed from the host.

図12は、本発明のさらに別の1実施例に係るリソース管理装置1200の機能ユニットの構成のブロック図である。当該リソース管理装置1200は、電子デバイスに適用される。前記電子デバイスは、処理ユニット1210と通信ユニット1220とを備え、前記処理ユニット1210は、前記通信ユニット1220を利用して、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を受信し、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる。 FIG. 12 is a block diagram of the configuration of the functional unit of the resource management device 1200 according to still another embodiment of the present invention. The resource management device 1200 is applied to electronic devices. The electronic device includes a processing unit 1210 and a communication unit 1220, and the processing unit 1210 is a guest device to which information on a task to be processed and information on a target virtual GPU are added by using the communication unit 1220. Receives the resource allocation request from the target virtual GPU and allocates the target physical GPU to the target virtual GPU based on the information of the target virtual GPU.

本発明の実施例は、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を受信し、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる。本発明の実施例において、仮想GPUと物理GPUとの固定マッピング関係を予め構築しておらず、ゲストデバイスからのリソース割当要求を受信した後に、対応する物理GPUを仮想GPUに動的に割り当てるため、現在タスクの特性に基づいてGPUリソースを柔軟に割り当てることができ、物理GPUのリソース利用率を向上させ、GPUシステムの全体的なパフォーマンスを向上させた。 An embodiment of the present invention receives a resource allocation request from a guest device to which information on a task to be processed and information on a target virtual GPU are added, and targets the target virtual GPU based on the information on the target virtual GPU. Allocate a physical GPU. In the embodiment of the present invention, the fixed mapping relationship between the virtual GPU and the physical GPU is not built in advance, and the corresponding physical GPU is dynamically allocated to the virtual GPU after receiving the resource allocation request from the guest device. The GPU resources can be flexibly allocated based on the characteristics of the current task, the resource utilization of the physical GPU has been improved, and the overall performance of the GPU system has been improved.

オプションの1実施形態において、前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる場合、前記処理ユニット1210は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てる。 In one optional embodiment, when the target physical GPU is assigned to the target virtual GPU based on the information of the target virtual GPU, the processing unit 1210 is specifically based on the video memory capacity required for the target virtual GPU. And assign a physical GPU to the target virtual GPU.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1210は、具体的に、前記目標仮想GPUに必要なビデオメモリ容量と、リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当て、前記第2リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the processing unit 1210 specifically has the video memory required for the target virtual GPU. A physical GPU is allocated to the target virtual GPU based on the capacity, the resource allocation policy, and the second resource state table, and the second resource state table is the current state information of each physical GPU in the plurality of physical GPUs. including.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1210は、具体的に、前記第2リソース状態テーブルに基づいて、前記複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定し、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table, the processing unit 1210 Specifically, based on the second resource state table, according to the arrangement order of the plurality of physical GPUs, until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. The remaining video memory capacity of the physical GPU is sequentially determined, and the physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU.

オプションの1実施形態において、前記処理ユニット1210は、さらに、前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定する。 In one optional embodiment, the processing unit 1210 further does not meet the video memory capacity required for the target virtual GPU in the remaining video memory capacity of the last physical GPU arranged among the plurality of physical GPUs. If it is determined that the virtual GPU has no available physical resources.

オプションの1実施形態において、前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニット1210は、具体的に、前記第2リソース状態テーブルに基づいて、目標ユーザの現在複数の物理GPUの中の各物理GPUに既に割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定し、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定し、前記目標ユーザは、前記目標仮想GPUに対応するユーザである。 In one optional embodiment, when allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table, the processing unit 1210 Specifically, based on the second resource state table, the number of tasks already allocated to each physical GPU among the currently multiple physical GPUs of the target user, and the remaining video memory capacity of each physical GPU. The physical GPU having the smallest number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU, and the target user determines. , The user corresponding to the target virtual GPU.

オプションの1実施形態において、前記処理ユニット1210は、さらに、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する。 In one optional embodiment, the processing unit 1210 further has a plurality of physical GPUs with the least number of tasks and the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU. When the number of tasks is the smallest, and the remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU, the front-arranged physical GPU among the physical GPUs is allocated to the target virtual GPU. Determined as GPU.

オプションの1実施形態において、前記処理ユニット1210は、さらに、前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新し、または、タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新する。 In one optional embodiment, the processing unit 1210 further updates the second resource state table based on the physical GPU assigned to the target virtual GPU, or if the task processing state changes, the task processing. The second resource status table is updated based on the change in status.

オプションの1実施形態において、前記処理ユニット1210は、さらに、複数の物理GPUの中の各物理GPUのタスクキューに基づいてタスクスケジューリングを実行する。 In one optional embodiment, the processing unit 1210 further performs task scheduling based on the task queue of each physical GPU in the plurality of physical GPUs.

本発明の実施例は、コンピュータ記録媒体をさらに提供し、当該コンピュータ記録媒体は、コンピュータプログラムを記憶し、当該コンピュータプログラムは、コンピュータが、上述した方法の実施例に記載のいずれか1つの方法の一部のまたは全部のステップを実行するようにする。上述したコンピュータは、電子デバイスを含む。 The embodiments of the present invention further provide a computer recording medium, the computer recording medium storing a computer program, wherein the computer is the computer of any one of the methods described in the embodiments of the above-mentioned methods. Try to perform some or all steps. The computers described above include electronic devices.

本発明の実施例は、コンピュータプログラム製品をさらに提供し、上述したコンピュータプログラム製品は、コンピュータプログラムが記憶された非一時的なコンピュータ可読記録媒体を含む。上述したコンピュータプログラムは、操作されることによって、コンピュータが、上述した方法の実施例に記載のいずれか1つの方法の一部のまたは全部のステップを実行するようにする。当該コンピュータプログラム製品は、1つのソフトウェアインストールパッケージであり得、上述したコンピュータは、電子デバイスを含む。 The embodiments of the present invention further provide a computer program product, the computer program product described above comprising a non-temporary computer-readable recording medium in which the computer program is stored. The computer program described above, by being manipulated, causes the computer to perform some or all steps of any one of the methods described in the embodiments of the method described above. The computer program product may be one software installation package, the computer described above comprising an electronic device.

前述した各方法の実施例について、簡単に説明するために、それらを一連の動作の組み合わせとして表されるが、当業者は、本発明は説明された動作の順序に限定されず、本発明によればいくつかのステップは他の順序でまたは同時に実行できることを了解するべきであることを説明する必要がある。次に、当業者は、明細書で説明された実施例はいずれも好ましい実施例に属し、関連する動作およびモジュールは本発明によって必ずとして必要とされないことを了解するべきである。 Examples of each of the above-mentioned methods are represented as a combination of a series of actions for the sake of brevity, but those skilled in the art are not limited to the order of the described actions and are described in the present invention. It should be explained that some steps should be understood that they can be performed in other order or at the same time. Next, one of ordinary skill in the art should understand that all of the embodiments described herein belong to the preferred embodiments and that the associated operation and module are not necessarily required by the present invention.

上述した実施例において、各実施例の説明は、それ自体に焦点を合わせている。ある実施例で城塞に説明されていない部分については、他の実施例の関連する説明を参照することができる。 In the embodiments described above, the description of each embodiment is focused on itself. For parts not described in the citadel in one embodiment, the relevant description in another embodiment can be referred to.

本発明によって提供されるいくつかの実施例において、開示された装置は他の方法で実装され得ることを理解すべきである。たとえば、上記に説明された装置の実施例は、例示的なものに過ぎない。たとえば、上述したユニットの分割は、論理機能の分割に過ぎず、実際の実装では他の分割があり得、たとえば、複数のユニットまたはコンポーネントを組み合わせるかまたはもう1つのシステムに統合することができ、または、いくつかの特徴を無視するか、実行しないことができる。さらに、表示または説明されている相互結合または直接結合または通信接続は、いくつかのインターフェースを介した装置またはユニットの間接結合または通信接続であり得、電気的または他の形態であり得る。 It should be understood that in some of the embodiments provided by the present invention, the disclosed devices may be implemented in other ways. For example, the embodiments of the device described above are only exemplary. For example, the unit division described above is only a logical function division, and in a real implementation there may be other divisions, for example, multiple units or components can be combined or integrated into another system. Alternatively, some features can be ignored or not implemented. Further, the interconnect or direct coupling or communication connection displayed or described can be an indirect coupling or communication connection of devices or units via some interface, and can be electrical or other form.

上述した分離部件として説明されたユニット物理的に分離されていてもされなくてもよく、ユニットとして表示された部件は、物理的ユニットであってもなくてもよい。すなわち、同じ場所に位置するか、または、複数のネットワークユニットに分布されることができる。実際の必要に従って、その中の一部または全部のユニットを選択して本実施例の解決策の目的を達成することができる。 The unit described as the above-mentioned separated part may or may not be physically separated, and the part displayed as a unit may or may not be a physical unit. That is, they can be located in the same location or distributed to multiple network units. Depending on the actual need, some or all of the units may be selected to achieve the objectives of the solution of this embodiment.

また、本発明の各実施例における各機能ユニットは、1つの処理ユニットに統合され得るか、または各ユニットが物理的に単独で存在し得るか、または2つ以上のユニットが1つのユニットに統合され得る。上述した統合されたユニットは、ハードウェアの形態またはソフトウェア機能ユニットの形態を採用して実装することができる。 Also, each functional unit in each embodiment of the invention may be integrated into one processing unit, each unit may be physically independent, or two or more units may be integrated into one unit. Can be done. The integrated units described above can be implemented in the form of hardware or software functional units.

上述した統合されたユニットがソフトウェア機能ユニットの形態で実装され、独立した製品として販売または使用される場合、1つのコンピュータ可読取メモリに格納されることができる。このような理解に基づいて、本発明の技術的解決策、または従来技術に寄与する一部、または当該技術的解決策の全部または一部を、ソフトウェア製品の形態で具体化することができる。当該コンピュータソフトウェア製品は、1つのメモリに格納され、いくつかの命令を含むことによって、コンピュータデバイス(パーソナルコンピュータ、サーバまたはネットワークデバイスなどであってもよい)が本発明の各実施例に記載の方法の全部または一部のステップを実行するようにする。前述したメモリには、Uディスク、読み取り専用メモリ(ROM、Read~Only Memory)、ランダムアクセスメモリ(RAM、Random Access Memory)、モバイルハードディスク、磁気ディスク、または光ディスクなどの、プログラムコードを格納できるいろんな媒体が含まれる。 When the integrated unit described above is implemented in the form of a software functional unit and sold or used as an independent product, it can be stored in one computer-readable memory. Based on this understanding, the technical solution of the present invention, a part that contributes to the prior art, or all or part of the technical solution can be embodied in the form of a software product. The computer software product is stored in one memory, and by including several instructions, a computer device (which may be a personal computer, a server, a network device, or the like) is described in each embodiment of the present invention. Try to perform all or part of the steps in. The above-mentioned memory includes various media such as U disk, read-only memory (ROM, Read-Only Memory), random access memory (RAM, Random Access Memory), mobile hard disk, magnetic disk, or optical disk, which can store program code. Is included.

当業者は、上述した実施例の様々な方法中の全部または一部のステップが、関連するハードウェアに指示するプログラムによって完了されることができ、当該プログラムはコンピュータ可読メモリに格納され得、メモリはフラッシュディスク、読み取り専用メモリ、ランダムアクセスメモリ、磁気ディスク、または光ディスクなどを含み得ることを理解できる。 Those skilled in the art may complete all or part of the steps in the various methods of the embodiments described above by a program that directs the relevant hardware, which program may be stored in computer-readable memory and memory. Can be understood to include flash disks, read-only memory, random access memory, magnetic disks, or optical disks.

上記のように本発明の実施例を詳細に説明し、本明細書では具体的な例を適用して本発明の原理及び実施形態を説明した。以上の実施例の説明は、本発明の方法およびその本旨を理解するのを助けるためにのみ使用される。同時に、当業者は、本発明の思想に従って、具体的な実施形態および適用範囲を変更することができ、上記のように、本明細書の内容を本発明に対する限定として理解してはいけない。 Examples of the present invention have been described in detail as described above, and in the present specification, the principles and embodiments of the present invention have been described by applying specific examples. The above description of the examples is used only to aid in understanding the method of the invention and its gist. At the same time, one of ordinary skill in the art may change the specific embodiments and scope of application in accordance with the ideas of the present invention, and as described above, the contents of the present specification should not be understood as a limitation to the present invention.

Claims (51)

リソース管理方法であって、
ゲストデバイスの仮想画像処理ユニット(GPU)の構成パラメータを含む構成ファイルを読み取ることと、
前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、
目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることと、を含み、
前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む
ことを特徴とするリソース管理方法。
It ’s a resource management method.
Reading the configuration file containing the configuration parameters of the virtual image processing unit (GPU) of the guest device,
Generating at least one available virtual GPU for the guest device based on the configuration file.
Including assigning a physical GPU to a target virtual GPU corresponding to the task to be processed in response to receiving a task to be processed by the target user.
The resource management method, wherein the at least one usable virtual GPU includes the target virtual GPU.
前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てることは、
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み、
前記リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む
ことを特徴とする請求項1に記載のリソース管理方法。
Assigning a physical GPU to the target virtual GPU corresponding to the task to be processed is
Includes allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource state table required for the target virtual GPU.
The resource management method according to claim 1, wherein the resource status table includes current status information of each physical GPU among a plurality of physical GPUs.
前記物理GPUの現在状態情報は、
前記物理GPUのビデオメモリ容量、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザ情報、および、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量を含む
ことを特徴とする請求項2に記載のリソース管理方法。
The current state information of the physical GPU is
The video memory capacity of the physical GPU, the user information of each virtual GPU corresponding to the already occupied video memory of the physical GPU, and the video memory capacity of each virtual GPU corresponding to the already occupied video memory of the physical GPU. The resource management method according to claim 2, further comprising.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、
前記目標仮想GPUに必要なビデオメモリ容量と前記リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記複数の物理GPUのビデオメモリが最小限に使用されるようにすることを含む
ことを特徴とする請求項2または3に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU is based on the video memory capacity required for the target virtual GPU and the resource status table.
By allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource state table, the video memory of the plurality of physical GPUs is minimized. The resource management method according to claim 2 or 3, wherein the resource management method includes the above.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、
前記リソース状態テーブルに基づいて、複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、
残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む
ことを特徴とする請求項2~4のいずれか1項に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU is based on the video memory capacity required for the target virtual GPU and the resource status table.
Based on the resource state table, according to the arrangement order of the plurality of physical GPUs, the remaining video memory capacity of each physical GPU is set until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. To decide sequentially and
Any of claims 2 to 4, wherein a physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as a physical GPU to be assigned to the target virtual GPU, and the like. The resource management method described in Section 1.
前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定することをさらに含む
ことを特徴とする請求項5に記載のリソース管理方法。
If it is determined that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU, the physical resources available for the virtual GPU. The resource management method according to claim 5, further comprising determining that there is no such thing.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記目標ユーザの少なくとも1つのタスクが前記複数の物理GPUにできるだけ均等に割り当てるようにすることを含む
前記少なくとも1つのタスクは、前記処理すべきタスクを含む
ことを特徴とする請求項2または3に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU is based on the video memory capacity required for the target virtual GPU and the resource status table.
By allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource state table required for the target virtual GPU, at least one task of the target user allocates to the plurality of physical GPUs as evenly as possible. The resource management method according to claim 2 or 3, wherein the at least one task including the above-mentioned task includes the task to be processed.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、
前記リソース状態テーブルに基づいて、前記目標ユーザの、現在前記複数の物理GPUの中の各物理GPUに割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定することと、
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む
ことを特徴とする請求項2、3、または、7に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU is based on the video memory capacity required for the target virtual GPU and the resource status table.
Based on the resource state table, the number of tasks currently assigned to each physical GPU among the plurality of physical GPUs of the target user, and the remaining video memory capacity of each physical GPU are determined.
It is characterized by including determining a physical GPU having the smallest number of tasks and having a remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU as a physical GPU to be assigned to the target virtual GPU. The resource management method according to claim 2, 3, or 7.
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす複数の物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することをさらに含む
ことを特徴とする請求項8に記載のリソース管理方法。
When the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs that satisfy the video memory capacity required for the target virtual GPU, the number of tasks is the smallest and the remaining video memory. It further comprises determining the front-arranged physical GPU among a plurality of physical GPUs whose capacity meets the video memory capacity required for the target virtual GPU as the physical GPU to be assigned to the target virtual GPU. The resource management method according to claim 8.
前記目標仮想GPUに割り当てた物理GPUに基づいて前記リソース状態テーブルを更新すること、または、
タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記リソース状態テーブルを更新することをさらに含む
ことを特徴とする請求項2~9のいずれか1項に記載のリソース管理方法。
Updating the resource status table based on the physical GPU assigned to the target virtual GPU, or
The resource management method according to any one of claims 2 to 9, further comprising updating the resource status table based on the change in the task processing status when the task processing status changes.
ゲストデバイスに適用されるリソース管理方法であって、
前記ゲストデバイスの仮想GPUの構成パラメータを含む、ホストの構成ファイルを読み取ることと、
前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成することと、
目標ユーザの処理すべきタスクを受信した場合、前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信することと、を含み、
前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む
ことを特徴とするリソース管理方法。
A resource management method that applies to guest devices
Reading the host's configuration file, which contains the virtual GPU configuration parameters for the guest device,
Generating at least one available virtual GPU for the guest device based on the configuration file.
When a task to be processed by the target user is received, it includes sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed.
The resource allocation request is used to request the host to allocate a physical GPU to the target virtual GPU, and the at least one available virtual GPU includes the target virtual GPU. Management method.
前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する前に、
前記リソース管理方法は、
第1リソース状態テーブルに基づいて、前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUの中のアイドル状態である仮想GPUを決定することと、
前記アイドル状態である仮想GPUの中から前記目標仮想GPUを決定することと、をさらに含み、
前記第1リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む
ことを特徴とする請求項11に記載のリソース管理方法。
Before sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed.
The resource management method is
Determining which virtual GPU is idle in at least one available virtual GPU of the guest device based on the first resource state table.
Further including determining the target virtual GPU from the virtual GPU in the idle state.
The resource management method according to claim 11, wherein the first resource status table includes current status information of each physical GPU among a plurality of physical GPUs.
前記ホストから前記第1リソース状態テーブルに対する第1更新命令を受信することと、
前記第1更新命令に基づいて前記第1リソース状態テーブルを更新することと、をさらに含み、
前記第1更新命令は、少なくとも1つの物理GPUのタスク処理状態が変化したことを前記ホストが検出したときに送信されたものである
ことを特徴とする請求項12に記載のリソース管理方法。
Receiving the first update instruction to the first resource status table from the host and
Further including updating the first resource status table based on the first update instruction.
The resource management method according to claim 12, wherein the first update instruction is transmitted when the host detects that the task processing state of at least one physical GPU has changed.
前記少なくとも1つの物理GPUは、新しく追加されたタスクを持つ第1物理GPUを含み、前記第1更新命令には、前記第1物理GPUの新しく追加されたタスクに対応するユーザ情報、前記第1物理GPUの情報、および、前記新しく追加されたタスクに対応する仮想GPUのビデオメモリ容量の中の少なくとも1つが付加されており、および/または、
前記少なくとも1つの物理GPUは、新しく完了されたタスクを持つ第2物理GPUを含み、前記第1更新命令には、前記新しく完了されたタスクに対応するユーザ情報、および、前記第2物理GPUの情報の中の少なくとも1つが付加されている
ことを特徴とする請求項13に記載のリソース管理方法。
The at least one physical GPU includes a first physical GPU having a newly added task, and the first update instruction includes user information corresponding to the newly added task of the first physical GPU, said first. At least one of the physical GPU information and the video memory capacity of the virtual GPU corresponding to the newly added task has been added and / or
The at least one physical GPU includes a second physical GPU having a newly completed task, and the first update instruction includes user information corresponding to the newly completed task and the second physical GPU. The resource management method according to claim 13, wherein at least one of the information is added.
前記仮想GPUをスケジューリングして前記処理すべきタスクを実行するようにすることと、
前記ホストからの前記処理すべきタスクの処理結果を受信することと、をさらに含む
ことを特徴とする請求項11~14のいずれか1項に記載のリソース管理方法。
Scheduling the virtual GPU to execute the task to be processed,
The resource management method according to any one of claims 11 to 14, further comprising receiving a processing result of the task to be processed from the host.
ホストに適用されるリソース管理方法であって、
処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を、受信することと、
前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てることと、を含む
ことを特徴とするリソース管理方法。
A resource management method that applies to the host
Receiving a resource allocation request from a guest device with information on the task to be processed and information on the target virtual GPU.
A resource management method comprising allocating a target physical GPU to the target virtual GPU based on the information of the target virtual GPU.
前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てることは、
前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることを含む
ことを特徴とする請求項16に記載のリソース管理方法。
Assigning a target physical GPU to the target virtual GPU based on the information of the target virtual GPU is possible.
The resource management method according to claim 16, further comprising allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU.
前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てることは、
前記目標仮想GPUに必要なビデオメモリ容量と、リソース割当ポリシーと、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることを含み、
前記第2リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む
ことを特徴とする請求項17に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU
Includes allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, a resource allocation policy, and a second resource status table.
The resource management method according to claim 17, wherein the second resource status table includes current status information of each physical GPU among a plurality of physical GPUs.
前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、前記第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、
前記第2リソース状態テーブルに基づいて、前記複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定することと、
残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含む
ことを特徴とする請求項18に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU is based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table.
Based on the second resource state table, according to the arrangement order of the plurality of physical GPUs, the remaining video of each physical GPU until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. Determining the memory capacity sequentially and
18. The resource according to claim 18, wherein the remaining video memory capacity determines a physical GPU to be assigned to the target virtual GPU as a physical GPU that satisfies the video memory capacity required for the target virtual GPU. Management method.
前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定することをさらに含む
ことを特徴とする請求項19に記載のリソース管理方法。
If it is determined that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU, the physical resources available for the virtual GPU. 19. The resource management method according to claim 19, further comprising determining that there is no such thing.
前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、前記第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることは、
前記第2リソース状態テーブルに基づいて、目標ユーザの、現在複数の物理GPUの中の各物理GPUに既に割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定することと、
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することと、を含み、
前記目標ユーザは、前記目標仮想GPUに対応するユーザである
ことを特徴とする請求項18に記載のリソース管理方法。
Allocating a physical GPU to the target virtual GPU is based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table.
Based on the second resource status table, the target user's number of tasks already allocated to each physical GPU among the currently multiple physical GPUs, and the remaining video memory capacity of each physical GPU are determined.
Including determining a physical GPU with the least number of tasks and having the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU as the physical GPU to be assigned to the target virtual GPU.
The resource management method according to claim 18, wherein the target user is a user corresponding to the target virtual GPU.
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定することをさらに含む
ことを特徴とする請求項21に記載のリソース管理方法。
When the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs that satisfy the video memory capacity required for the target virtual GPU, the number of tasks is the smallest and the remaining video memory. A claim further comprising determining the front-arranged physical GPU among the physical GPUs whose capacity meets the video memory capacity required for the target virtual GPU as the physical GPU to be assigned to the target virtual GPU. 21. The resource management method.
前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新すること、または、
タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新することをさらに含む
ことを特徴とする請求項16~22のいずれか1項に記載のリソース管理方法。
Updating the second resource status table based on the physical GPU assigned to the target virtual GPU, or
The resource management according to any one of claims 16 to 22, further comprising updating the second resource status table based on the change in the task processing status when the task processing status changes. Method.
複数の物理GPUの中の各物理GPUのタスクキューに基づいてタスクスケジューリングを実行することをさらに含む
ことを特徴とする請求項16~23のいずれか1項に記載のリソース管理方法。
The resource management method according to any one of claims 16 to 23, further comprising performing task scheduling based on the task queue of each physical GPU among a plurality of physical GPUs.
リソース管理装置であって、
通信ユニットと処理ユニットとを備え、
前記処理ユニットは、
前記通信ユニットを利用して構成ファイルを取得し、
ゲストデバイスの仮想画像処理ユニット(GPU)の構成パラメータを含む前記構成ファイルを読み取り、
前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、
目標ユーザの処理すべきタスクを受信したことに応答して、前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当て、
前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む
ことを特徴とするリソース管理装置。
It is a resource management device
Equipped with a communication unit and a processing unit
The processing unit is
Obtain the configuration file using the communication unit and
Read the configuration file containing the configuration parameters of the virtual image processing unit (GPU) of the guest device.
Generate at least one available virtual GPU for the guest device based on the configuration file.
In response to receiving the task to be processed by the target user, the physical GPU is assigned to the target virtual GPU corresponding to the task to be processed.
The resource management device, wherein the at least one usable virtual GPU includes the target virtual GPU.
前記処理すべきタスクに対応する目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当て、前記リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む
ことを特徴とする請求項25に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU corresponding to the task to be processed, the processing unit specifically
A physical GPU is assigned to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, and the resource status table displays the current status information of each physical GPU in the plurality of physical GPUs. 25. The resource management apparatus according to claim 25.
前記物理GPUの現在状態情報は、
前記物理GPUのビデオメモリ容量、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのユーザ情報、および、前記物理GPUの既に占用されたビデオメモリに対応する各仮想GPUのビデオメモリ容量を含む
ことを特徴とする請求項26に記載のリソース管理装置。
The current state information of the physical GPU is
The video memory capacity of the physical GPU, the user information of each virtual GPU corresponding to the already occupied video memory of the physical GPU, and the video memory capacity of each virtual GPU corresponding to the already occupied video memory of the physical GPU. 26. The resource management device according to claim 26.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記目標仮想GPUに必要なビデオメモリ容量と前記リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記複数の物理GPUのビデオメモリが最小限に使用されるようにする
ことを特徴とする請求項26または27に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, the processing unit specifically
By allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource state table, the video memory of the plurality of physical GPUs is minimized. The resource management device according to claim 26 or 27.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記リソース状態テーブルに基づいて、複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定し、
残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する
ことを特徴とする請求項26~28のいずれか1項に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, the processing unit specifically
Based on the resource state table, according to the arrangement order of the plurality of physical GPUs, the remaining video memory capacity of each physical GPU is set until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. Determined sequentially,
The invention according to any one of claims 26 to 28, wherein the physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU. Resource management unit.
前記処理ユニットは、さらに、
前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定する
ことを特徴とする請求項29に記載のリソース管理装置。
The processing unit further
If it is determined that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU, the physical resources available to the virtual GPU. 29. The resource management device according to claim 29, wherein it is determined that there is no such thing.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てることによって、前記目標ユーザの少なくとも1つのタスクが前記複数の物理GPUにできるだけ均等に割り当てるようにし、前記少なくとも1つのタスクは、前記処理すべきタスクを含む
ことを特徴とする請求項26または27に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, the processing unit specifically
By allocating a physical GPU to the target virtual GPU based on the video memory capacity and resource state table required for the target virtual GPU, at least one task of the target user allocates to the plurality of physical GPUs as evenly as possible. The resource management device according to claim 26 or 27, wherein the at least one task includes the task to be processed.
前記目標仮想GPUに必要なビデオメモリ容量とリソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記リソース状態テーブルに基づいて、前記目標ユーザの、現在前記複数の物理GPUの中の各物理GPUに割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定し、
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する
ことを特徴とする請求項26、27、または、31に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU and the resource status table, the processing unit specifically
Based on the resource status table, the number of tasks currently assigned to each physical GPU among the plurality of physical GPUs of the target user and the remaining video memory capacity of each physical GPU are determined.
26. , 27, or 31.
前記処理ユニットは、さらに、
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす複数の物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する
ことを特徴とする請求項32に記載のリソース管理装置。
The processing unit further
When the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs that satisfy the video memory capacity required for the target virtual GPU, the number of tasks is the smallest and the remaining video memory. 32. Described resource management unit.
前記処理ユニットは、さらに、
前記目標仮想GPUに割り当てた物理GPUに基づいて前記リソース状態テーブルを更新し、または、
タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記リソース状態テーブルを更新する
ことを特徴とする請求項26~33のいずれか1項に記載のリソース管理装置。
The processing unit further
Update or update the resource status table based on the physical GPU assigned to the target virtual GPU.
The resource management device according to any one of claims 26 to 33, wherein when the task processing state changes, the resource status table is updated based on the change in the task processing state.
リソース管理装置であって、
通信ユニットと処理ユニットとを備え、
前記処理ユニットは、
前記通信ユニットを利用してホストの構成ファイルを取得し、
ゲストデバイスの仮想GPUの構成パラメータを含む、前記ホストの構成ファイルを読み取り、
前記構成ファイルに基づいて前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUを生成し、
目標ユーザの処理すべきタスクを受信した場合、前記通信ユニットを利用して前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求を前記ホストに送信し、
前記リソース割当要求は、前記目標仮想GPUに物理GPUを割り当てるように前記ホストに要求するために使用され、前記少なくとも1つの使用可能な仮想GPUは、前記目標仮想GPUを含む
ことを特徴とするリソース管理装置。
It is a resource management device
Equipped with a communication unit and a processing unit
The processing unit is
Obtain the host configuration file using the communication unit and
Read the host's configuration file, including the guest device's virtual GPU configuration parameters.
Generate at least one available virtual GPU for the guest device based on the configuration file.
When a task to be processed by the target user is received, the communication unit is used to send a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed.
The resource allocation request is used to request the host to allocate a physical GPU to the target virtual GPU, and the at least one available virtual GPU includes the target virtual GPU. Management device.
前記処理すべきタスクに対応する目標仮想GPUに基づいてリソース割当要求をホストに送信する前に、前記処理ユニットは、さらに、
第1リソース状態テーブルに基づいて、前記ゲストデバイスの少なくとも1つの使用可能な仮想GPUの中のアイドル状態である仮想GPUを決定し、
前記アイドル状態である仮想GPUの中から前記目標仮想GPUを決定し、
前記第1リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む
ことを特徴とする請求項35に記載のリソース管理装置。
Before sending a resource allocation request to the host based on the target virtual GPU corresponding to the task to be processed, the processing unit further
Based on the first resource state table, the virtual GPU that is idle in at least one available virtual GPU of the guest device is determined.
The target virtual GPU is determined from the virtual GPUs in the idle state, and the target virtual GPU is determined.
The resource management device according to claim 35, wherein the first resource status table includes current status information of each physical GPU among a plurality of physical GPUs.
前記処理ユニットは、さらに、
前記ホストから前記第1リソース状態テーブルに対する第1更新命令を受信し、
前記第1更新命令に基づいて前記第1リソース状態テーブルを更新し、
前記第1更新命令は、少なくとも1つの物理GPUのタスク処理状態が変化したことを前記ホストが検出したときに送信されたものである
ことを特徴とする請求項36に記載のリソース管理装置。
The processing unit further
Upon receiving the first update instruction for the first resource status table from the host,
The first resource status table is updated based on the first update instruction, and the first resource status table is updated.
The resource management device according to claim 36, wherein the first update instruction is transmitted when the host detects that the task processing state of at least one physical GPU has changed.
前記少なくとも1つの物理GPUは、新しく追加されたタスクを持つ第1物理GPUを含み、前記第1更新命令には、前記第1物理GPUの新しく追加されたタスクに対応するユーザ情報、前記第1物理GPUの情報、および、前記新しく追加されたタスクに対応する仮想GPUのビデオメモリ容量の中の少なくとも1つが付加されており、および/または、
前記少なくとも1つの物理GPUは、新しく完了されたタスクを持つ第2物理GPUを含み、前記第1更新命令には、前記新しく完了されたタスクに対応するユーザ情報、および、前記第2物理GPUの情報の中の少なくとも1つが付加されている
ことを特徴とする請求項37に記載のリソース管理装置。
The at least one physical GPU includes a first physical GPU having a newly added task, and the first update instruction includes user information corresponding to the newly added task of the first physical GPU, said first. At least one of the physical GPU information and the video memory capacity of the virtual GPU corresponding to the newly added task has been added and / or
The at least one physical GPU includes a second physical GPU having a newly completed task, and the first update instruction includes user information corresponding to the newly completed task and the second physical GPU. The resource management device according to claim 37, wherein at least one of the information is added.
前記処理ユニットは、さらに、
前記仮想GPUをスケジューリングして前記処理すべきタスクを実行するようにし、
前記ホストからの前記処理すべきタスクの処理結果を受信する
ことを特徴とする請求項35~38のいずれか1項に記載のリソース管理装置。
The processing unit further
Schedule the virtual GPU to execute the task to be processed.
The resource management device according to any one of claims 35 to 38, wherein the processing result of the task to be processed is received from the host.
リソース管理装置であって、
通信ユニットと処理ユニットとを備え、
前記処理ユニットは、
前記通信ユニットを利用して、処理すべきタスクの情報および目標仮想GPUの情報が付加された、ゲストデバイスからのリソース割当要求を受信し、
前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる
ことを特徴とするリソース管理装置。
It is a resource management device
Equipped with a communication unit and a processing unit
The processing unit is
The communication unit is used to receive a resource allocation request from a guest device to which information on a task to be processed and information on a target virtual GPU are added.
A resource management device characterized by allocating a target physical GPU to the target virtual GPU based on the information of the target virtual GPU.
前記目標仮想GPUの情報に基づいて前記目標仮想GPUに目標物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てる
ことを特徴とする請求項40に記載のリソース管理装置。
When assigning a target physical GPU to the target virtual GPU based on the information of the target virtual GPU, the processing unit specifically
The resource management device according to claim 40, wherein a physical GPU is assigned to the target virtual GPU based on the video memory capacity required for the target virtual GPU.
前記目標仮想GPUに必要なビデオメモリ容量に基づいて前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記目標仮想GPUに必要なビデオメモリ容量と、リソース割当ポリシート、第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当て、
前記第2リソース状態テーブルは、複数の物理GPUの中の各物理GPUの現在状態情報を含む
ことを特徴とする請求項41に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the processing unit specifically
A physical GPU is allocated to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation polysheet, and the second resource status table.
The resource management device according to claim 41, wherein the second resource status table includes current status information of each physical GPU among a plurality of physical GPUs.
前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、前記第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記第2リソース状態テーブルに基づいて、前記複数の物理GPUの配列順序に従って、決定された残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たすまで、各物理GPUの残りのビデオメモリ容量を順次決定し、
残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する
ことを特徴とする請求項42に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table, the processing unit specifically
Based on the second resource state table, according to the arrangement order of the plurality of physical GPUs, the remaining video of each physical GPU until the remaining video memory capacity determined meets the video memory capacity required for the target virtual GPU. Determine the memory capacity sequentially,
The resource management device according to claim 42, wherein the physical GPU whose remaining video memory capacity satisfies the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU.
前記処理ユニットは、さらに、
前記複数の物理GPUの中で最後に配列された物理GPUの残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たさないと決定した場合、前記仮想GPUには使用可能な物理リソースがないと決定する
ことを特徴とする請求項43に記載のリソース管理装置。
The processing unit further
If it is determined that the remaining video memory capacity of the last arranged physical GPU among the plurality of physical GPUs does not meet the video memory capacity required for the target virtual GPU, the physical resources available for the virtual GPU. The resource management device according to claim 43, wherein it is determined that there is no such thing.
前記目標仮想GPUに必要なビデオメモリ容量と、前記リソース割当ポリシーと、前記第2リソース状態テーブルとに基づいて、前記目標仮想GPUに物理GPUを割り当てる場合、前記処理ユニットは、具体的に、
前記第2リソース状態テーブルに基づいて、目標ユーザの現在複数の物理GPUの中の各物理GPUに既に割り当てられたタスク数、および、各物理GPUの残りのビデオメモリ容量を決定し、
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定し、
前記目標ユーザは、前記目標仮想GPUに対応するユーザである
ことを特徴とする請求項42に記載のリソース管理装置。
When allocating a physical GPU to the target virtual GPU based on the video memory capacity required for the target virtual GPU, the resource allocation policy, and the second resource status table, the processing unit specifically
Based on the second resource status table, the number of tasks already allocated to each physical GPU among the current plurality of physical GPUs of the target user and the remaining video memory capacity of each physical GPU are determined.
A physical GPU having the smallest number of tasks and having the remaining video memory capacity satisfying the video memory capacity required for the target virtual GPU is determined as the physical GPU to be assigned to the target virtual GPU.
The resource management device according to claim 42, wherein the target user is a user corresponding to the target virtual GPU.
前記処理ユニットは、さらに、
前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの数が複数である場合、前記タスク数が最も少なく、かつ、残りのビデオメモリ容量が前記目標仮想GPUに必要なビデオメモリ容量を満たす物理GPUの中の最前に配列された物理GPUを、前記目標仮想GPUに割り当てる物理GPUとして決定する
ことを特徴とする請求項45に記載のリソース管理装置。
The processing unit further
When the number of tasks is the smallest and the remaining video memory capacity is a plurality of physical GPUs that satisfy the video memory capacity required for the target virtual GPU, the number of tasks is the smallest and the remaining video memory. 45. The 45. Resource management unit.
前記処理ユニットは、さらに、
前記目標仮想GPUに割り当てた物理GPUに基づいて前記第2リソース状態テーブルを更新し、または、
タスク処理状態が変化した場合、前記タスク処理状態の変化に基づいて前記第2リソース状態テーブルを更新する
ことを特徴とする請求項40~46のいずれか1項に記載のリソース管理装置。
The processing unit further
Update or update the second resource status table based on the physical GPU assigned to the target virtual GPU.
The resource management device according to any one of claims 40 to 46, wherein when the task processing state changes, the second resource status table is updated based on the change in the task processing state.
前記処理ユニットは、さらに、
複数の物理GPUの中の各物理GPUのタスクキューに基づいてタスクスケジューリングを実行する
ことを特徴とする請求項40~47のいずれか1項に記載のリソース管理装置。
The processing unit further
The resource management device according to any one of claims 40 to 47, wherein task scheduling is executed based on the task queue of each physical GPU among a plurality of physical GPUs.
リソース管理システムであって、
ゲストデバイスと、複数の物理GPUが設けられているホストとを備え、
前記ゲストデバイスは、請求項35~39のいずれか1項に記載の装置であり、
前記ホストは、請求項40~48のいずれか1項に記載の装置である
ことを特徴とするリソース管理システム。
It ’s a resource management system.
It has a guest device and a host with multiple physical GPUs.
The guest device is the device according to any one of claims 35 to 39.
The resource management system, wherein the host is the apparatus according to any one of claims 40 to 48.
電子デバイスであって、
プロセッサと、コンピュータプログラムを記憶するメモリとを備え、
前記コンピュータプログラムは、前記プロセッサによって実行されるとき、前記プロセッサが、請求項1~10のいずれか1項または11~15のいずれか1項または16~24のいずれか1項に記載の方法を実行する
ことを特徴とする電子デバイス。
It ’s an electronic device,
It has a processor and a memory to store computer programs.
The method according to any one of claims 1 to 10 or 11 to 15 or any one of 16 to 24 when the computer program is executed by the processor. An electronic device characterized by running.
コンピュータ可読記録媒体であって、
前記コンピュータ可読記録媒体は、コンピュータプログラムを記憶し、
前記コンピュータプログラムは、コンピュータが、請求項1~10のいずれか1項または11~15のいずれか1項または16~24のいずれか1項に記載の方法を実行するようにする
ことを特徴とするコンピュータ可読記録媒体。
A computer-readable recording medium
The computer-readable recording medium stores a computer program and stores the computer program.
The computer program is characterized in that the computer performs the method according to any one of claims 1 to 10 or any one of claims 11 to 15 or any one of 16 to 24. Computer-readable recording medium.
JP2021537951A 2019-11-20 2020-05-29 Resource management methods and equipment, electronic devices, and recording media Pending JP2022516486A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911153197.1A CN112825042A (en) 2019-11-20 2019-11-20 Resource management method and device, electronic equipment and storage medium
CN201911153197.1 2019-11-20
PCT/CN2020/093491 WO2021098182A1 (en) 2019-11-20 2020-05-29 Resource management method and apparatus, electronic device and storage medium

Publications (1)

Publication Number Publication Date
JP2022516486A true JP2022516486A (en) 2022-02-28

Family

ID=75906499

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021537951A Pending JP2022516486A (en) 2019-11-20 2020-05-29 Resource management methods and equipment, electronic devices, and recording media

Country Status (5)

Country Link
JP (1) JP2022516486A (en)
KR (1) KR20210095690A (en)
CN (1) CN112825042A (en)
TW (1) TWI748530B (en)
WO (1) WO2021098182A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114595065A (en) * 2022-03-15 2022-06-07 北京有竹居网络技术有限公司 Data acquisition method and device, storage medium and electronic equipment
CN114579319B (en) * 2022-05-07 2022-07-19 北京象帝先计算技术有限公司 Video memory management method, video memory management module, SOC and electronic equipment
CN115220911A (en) * 2022-06-17 2022-10-21 中科驭数(北京)科技有限公司 Resource management method, device, equipment and medium
CN115437781B (en) * 2022-06-30 2023-10-31 北京九章云极科技有限公司 GPU resource management method and system
CN115499388B (en) * 2022-08-30 2024-04-12 阿里巴巴(中国)有限公司 Virtual host resource allocation method, device, equipment and storage medium
CN115373860B (en) * 2022-10-26 2023-01-10 小米汽车科技有限公司 Scheduling method, device and equipment of GPU (graphics processing Unit) tasks and storage medium
CN116188240B (en) * 2022-12-28 2024-04-05 摩尔线程智能科技(北京)有限责任公司 GPU virtualization method and device for container and electronic equipment
CN116755843B (en) * 2023-08-17 2023-12-19 摩尔线程智能科技(北京)有限责任公司 Virtual resource creation method and device, electronic equipment, chip and storage medium
CN117687804A (en) * 2024-02-02 2024-03-12 北京趋动智能科技有限公司 Resource management method, device, system and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533463A (en) * 2015-03-18 2018-01-02 英特尔公司 Apparatus and method for the unknowable more GPU processing of software

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9727385B2 (en) * 2011-07-18 2017-08-08 Apple Inc. Graphical processing unit (GPU) implementing a plurality of virtual GPUs
WO2013097208A1 (en) * 2011-12-31 2013-07-04 华为技术有限公司 Graphics display method and system based on virtualization technology
WO2013168293A1 (en) * 2012-05-11 2013-11-14 富士通株式会社 Information processing device, remaining battery capacity notification method, and remaining battery capacity notification program
CN102819460B (en) * 2012-08-07 2015-05-20 清华大学 Budget power guidance-based high-energy-efficiency GPU (Graphics Processing Unit) cluster system scheduling algorithm
WO2014085714A1 (en) * 2012-11-28 2014-06-05 Nvidia Corporation Handheld gaming console
US9142004B2 (en) * 2012-12-20 2015-09-22 Vmware, Inc. Dynamic allocation of physical graphics processing units to virtual machines
CN107807840B (en) * 2016-09-09 2022-01-25 阿里巴巴集团控股有限公司 Equipment direct connection method and device applied to virtual machine network
US10176550B1 (en) * 2017-03-20 2019-01-08 Nutanix, Inc. GPU resource usage display and dynamic GPU resource allocation in a networked virtualization system
US10891773B2 (en) * 2017-04-07 2021-01-12 Intel Corporation Apparatus and method for efficient graphics virtualization
US10304421B2 (en) * 2017-04-07 2019-05-28 Intel Corporation Apparatus and method for remote display and content protection in a virtualized graphics processing environment
CN108984264B (en) * 2017-06-02 2022-11-15 阿里巴巴集团控股有限公司 Virtual GPU (graphics processing Unit) implementation method, device and system
CN109766179B (en) * 2017-11-09 2023-03-14 阿里巴巴集团控股有限公司 Video memory allocation method and device
CN110389825B (en) * 2018-04-20 2023-08-04 伊姆西Ip控股有限责任公司 Method, apparatus and computer program product for managing dedicated processing resources
US11720408B2 (en) * 2018-05-08 2023-08-08 Vmware, Inc. Method and system for assigning a virtual machine in virtual GPU enabled systems
CN109766183A (en) * 2018-12-28 2019-05-17 郑州云海信息技术有限公司 A kind of method and system of cluster GPU multiplexing and intelligent load
CN110196753A (en) * 2019-01-21 2019-09-03 腾讯科技(北京)有限公司 Graphics processor GPU vitualization method, apparatus and readable medium based on container

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107533463A (en) * 2015-03-18 2018-01-02 英特尔公司 Apparatus and method for the unknowable more GPU processing of software
US20180033116A1 (en) * 2015-03-18 2018-02-01 Intel Corporation Apparatus and method for software-agnostic multi-gpu processing

Also Published As

Publication number Publication date
WO2021098182A1 (en) 2021-05-27
TW202121407A (en) 2021-06-01
KR20210095690A (en) 2021-08-02
TWI748530B (en) 2021-12-01
CN112825042A (en) 2021-05-21

Similar Documents

Publication Publication Date Title
JP2022516486A (en) Resource management methods and equipment, electronic devices, and recording media
CN107690622B9 (en) Method, equipment and system for realizing hardware acceleration processing
US10191759B2 (en) Apparatus and method for scheduling graphics processing unit workloads from virtual machines
TWI417790B (en) Logical partitioning and virtualization in a heterogeneous architecture
TWI479422B (en) Computer system and graphics processing method therefore
JP5510556B2 (en) Method and system for managing virtual machine storage space and physical hosts
US11093297B2 (en) Workload optimization system
TWI696952B (en) Resource processing method and device
WO2018223075A1 (en) Method and apparatus for implementing virtual gpu and system
US20100115510A1 (en) Virtual graphics device and methods thereof
US20090089780A1 (en) Method and apparatus to convey physical resource relationships
US8135899B1 (en) Expansion of virtualized physical memory of virtual machine
JP2009110518A (en) Dynamic allocation of virtual machine device
KR20070100367A (en) Method, apparatus and system for dynamically reassigning memory from one virtual machine to another
US11068315B2 (en) Hypervisor attached volume group load balancing
JP2012164337A (en) Method and system for performing computer task in reduced power consumption state
WO2022041507A1 (en) 3d rendering method and system
CN110162397B (en) Resource allocation method, device and system
JP2008107966A (en) Computer system
KR102001641B1 (en) Method and apparatus for managing gpu resource in virtualization environment
US20150220442A1 (en) Prioritizing shared memory based on quality of service
CN112506646A (en) Video memory allocation method and device
CN116578416A (en) Signal-level simulation acceleration method based on GPU virtualization
CN113268356B (en) LINUX system-based multi-GPU board card bounding system, method and medium
US11868805B2 (en) Scheduling workloads on partitioned resources of a host system in a container-orchestration system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210628

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220818

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230315