JP2020135167A - リソース管理装置およびリソース管理方法 - Google Patents

リソース管理装置およびリソース管理方法 Download PDF

Info

Publication number
JP2020135167A
JP2020135167A JP2019025136A JP2019025136A JP2020135167A JP 2020135167 A JP2020135167 A JP 2020135167A JP 2019025136 A JP2019025136 A JP 2019025136A JP 2019025136 A JP2019025136 A JP 2019025136A JP 2020135167 A JP2020135167 A JP 2020135167A
Authority
JP
Japan
Prior art keywords
guest
host
resource management
processing
priority
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019025136A
Other languages
English (en)
Other versions
JP7331374B2 (ja
Inventor
藤本 圭
Kei Fujimoto
圭 藤本
光平 的場
Kohei Matoba
光平 的場
荒岡 誠
Makoto Araoka
誠 荒岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019025136A priority Critical patent/JP7331374B2/ja
Priority to US17/428,242 priority patent/US20220138017A1/en
Priority to PCT/JP2020/004034 priority patent/WO2020166423A1/ja
Publication of JP2020135167A publication Critical patent/JP2020135167A/ja
Application granted granted Critical
Publication of JP7331374B2 publication Critical patent/JP7331374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

【課題】複数のゲストが共有するCPUリソースを効率的に利用し、システム全体の処理性能を向上させる。【解決手段】サーバ10は、ホストOS104と、ホストOS104上に仮想的に構築された複数の仮想マシン108A,108B上でそれぞれ動作する複数のゲストOS110A,110Bとを有する。複数の仮想マシン108A,108Bは、ハードウェア102により実現されるCPUリソースを共有している。リソース管理装置(リソース管理部20)のゲスト優先度算出部202は、ホストOS104からゲストOS110へのパケット転送レート、ホストOS104のカーネルバッファの空き状況の少なくともいずれかに基づいて、少なくとも1つのゲストOS110の処理優先度を算出する。また、リソース利用制御部204は、算出された処理優先度に基づいて、複数のゲストOS110によるCPUリソースの利用時間配分を制御する。【選択図】図1

Description

本発明は、仮想化システムのリソース管理装置およびリソース管理方法に関する。
従来、システム内のリソース利用状態を適切に管理することによって、システムの処理効率を向上させる技術が提案されている。
例えば、下記特許文献1には、仮想環境下において帯域保証を実現するために、パケットの優先度に応じてホスト−ゲスト区間の帯域保証を行う技術が開示されている。
また、下記特許文献2には、リアルタイムOS(Operating System)のタスクスケジューリングにおいて、優先度の高いタスクと優先度の低いタスクが合あった場合に、優先度の低いタスクにもCPUリソースが割り当たるように、レディ状態にあるタスクからディスパッチする技術が開示されている。
また、下記特許文献3には、パケットの優先度に応じて、タスクスケジューリングの処理タスク割当ての優先度を設定し、優先度に応じてタスクの横取りを行う技術が開示されている。
特開2017−41858号公報 特開平8−249194号公報 特開平9−46373号公報
サーバ仮想化環境下において、複数の仮想マシンがCPUリソースを共有して動作するために、CFS(Completely Fare Scheduler)等のタスクスケジューラにより、複数のゲスト(例えば第1のゲストと第2のゲスト)がCPUを使用できる時間を交互に切り替えて、CPUタイムを割り当てる技術が提案されている(例えば、Linux(登録商標) kernel 2.6.23以降にはCFSが搭載されている)。
このような構成では、一方のゲストがCPUを使用している時間は、他方のゲストがCPUを使用した処理を行えないため、CPUタイム待ちによるネットワーク遅延が発生する可能性がある。例えば、ホストが処理したパケットを第1のゲストが更に処理する場合、パケットの転送レートが高速(例えば1Gbps以上等)であると、ホストが処理したパケットを第1のゲストに割り当てられたCPUタイム内に処理しきれず、第1のゲストが保有するキューに処理待ちパケットが蓄積し、数百ms程度の大きな遅延が発生する場合がある。
図4は、CPUタイムとパケット処理の関係を模式的に示す説明図である。
図4では、縦軸方向に時間を取り、ホストが処理したパケットを第1のゲスト(Guest1)が更に処理する場合について、左側にホストにおけるパケット処理状況を、右側に第1のゲストにおけるパケット処理状況を、それぞれ模式的に示している。
ホストはCPUを占有しているためパケット処理を継続的に行えるのに対して、ゲスト側では第1のゲストと第2のゲスト(Guest2)とによりCPUを共有しているためパケット処理が断続的となる。
よって、第1のゲストは、ホストから到着するパケットの処理をCPUタイム内に完了することができず、キューに貯め込んでいく。処理が進んでいくと、ホストから第1のゲストにパケットが到着してから処理を実行するまで複数CPUサイクル待つ必要があり、遅延が生じる。例えば、時刻T2の時点において第1のゲストで完了している処理は、ホストが時刻T1までに引き渡した処理までであり、時刻T2−T1間の処理は、第1のゲストのキューに蓄積されている。更に、パケットが第1のゲストの最大キューサイズまで貯まると、以降パケットロスが発生することになる。
このような課題に対応するため、例えば、パケット処理を行う第1のゲストのCPU使用優先度を高く設定し、第1のゲストに割り当てるCPUタイムを拡大することで、パケット処理のネットワーク遅延を小さくする方法が考えられる。しかし、この方法では、第2のゲストのCPUタイムが定常的に減少し、CPUの利用効率が低下するという課題がある。例えば、第1のゲストのqemu−kvmプロセスのnice値=−10と設定すると、第2のゲストのCPUタイムが減少することにより、第2のゲストへのSSH(Secure Shell)ログインすらできなくなる。
本発明は、このような事情に鑑みなされたものであり、複数のゲストが共有するCPUリソースを効率的に利用し、システム全体の処理性能を向上させることを目的とする。
上述の目的を達成するため、請求項1に記載の発明は、ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置であって、複数の前記仮想マシンが、前記ハードウェアにより実現されるCPUリソースを共有しており、前記ホストOSから前記ゲストOSへのパケット転送レート、前記ホストOSのカーネルバッファの空き状況の少なくともいずれかに基づいて、少なくとも1つの前記ゲストOSの処理優先度を算出するゲスト優先度算出部と、前記ゲスト優先度算出部により算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御部と、を備えることを特徴とするリソース管理装置とした。
また、請求項4に記載の発明は、ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置のリソース管理方法であって、複数の前記仮想マシンが、前記ハードウェアにより実現されるCPUリソースを共有しており、前記リソース管理装置が、前記ホストOSから前記ゲストOSへのパケット転送レート、前記ホストOSのカーネルバッファの空き状況の少なくともいずれかに基づいて、少なくとも1つの前記ゲストOSの処理優先度を算出するゲスト優先度算出工程と、算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御工程と、を実行することを特徴とするリソース管理方法とした。
このようにすることで、リソース管理装置(リソース管理部)は、複数のゲストOSによるCPUリソースの利用時間を動的に変更することができ、CPUの利用効率を向上させるとともに、ゲストOSにおける処理遅延に起因するサーバ内ネットワークの遅延を低減することができる。
また、請求項2に記載の発明は、前記ゲスト優先度算出部が、前記パケット転送レートが高いほど、または、前記カーネルバッファの空きが少ないほど、前記ゲストOSの処理優先度を高くする、ことを特徴とする請求項1に記載のリソース管理装置とした。
また、請求項5に記載の発明は、前記ゲスト優先度算出工程では、前記パケット転送レートが高いほど、または、前記カーネルバッファの空きが少ないほど、前記ゲストOSの処理優先度を高くする、ことを特徴とする請求項4に記載のリソース管理方法とした。
このようにすることで、ゲストOSにおけるパケット処理負荷を精度よく反映することができる。
また、請求項3に記載の発明は、前記ゲスト優先度算出部が、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、ことを特徴とする請求項1または請求項2に記載のリソース管理装置とした。
また、請求項6に記載の発明は、前記ゲスト優先度算出工程では、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、ことを特徴とする請求項4または請求項5に記載のリソース管理方法とした。
このようにすることで、処理負荷が変動しやすいゲストOSの状態に合わせてCPUリソースを配分することができ、CPUの利用効率を向上させることができる。
本発明によれば、複数のゲストが共有するCPUリソースを効率的に利用し、システム全体の処理性能を向上させることができる。
実施の形態にかかるサーバの構成を示す図である。 リソース利用制御部によるCPUリソースの利用時間配分を模式的に示す説明図である。 リソース管理部による処理の手順を示すフローチャートである。 CPUタイムとパケット処理の関係を模式的に示す説明図である。
以下に添付図面を参照して、本発明にかかるリソース管理装置およびリソース管理方法の好適な実施の形態を詳細に説明する。本実施の形態では、複数の仮想マシン(ゲスト)が構成されたサーバに本発明にかかるリソース管理装置およびリソース管理方法を適用した場合について説明する。
図1は、実施の形態にかかるサーバ10の構成を示す図である。
サーバ10は、ハードウェア(HW)102、ホスト(Host)OS104、ハイパーバイザ(Hypervisor)106、第1の仮想マシン(VM1)108A、第1のゲストOS(Guest1)110A、第2の仮想マシン(VM2)108B、第2のゲストOS(Guest2)110B、アプリケーション112A,112Bを備える。
ハードウェア102は、例えばIA(Intel Architecture)サーバ(「Intel」は登録商標)であり、CPU1022やネットワークインターフェースカード(NIC)1024等を備え、サーバ10を物理的に構成する。
ホストOS104は、ハードウェア102の機能を上位レイヤに提供する。
ハイパーバイザ106は、ホストOS104の上で仮想化環境を提供し、本実施の形態では、例として、第1の仮想マシン108Aおよび第2の仮想マシン108Bを構築する。
第1の仮想マシン108A、第2の仮想マシン108Bは、それぞれ仮想CPU(vCPU)1082A,1082Bや仮想ネットワークインターフェースカード(vNIC)1084A,1084Bを有するが、実際には物理的なハードウェア102であるCPU1022やネットワークインターフェースカード1024がその機能を実現する。
第1のゲストOS110A、第2のゲストOS110Bは、それぞれ第1の仮想マシン108A、第2の仮想マシン108B上で動作する。以下、第1のゲストOS110Aと第2のゲストOS110Bとの両方を指す場合には、ゲストOS110と称する。
アプリケーション112A、112Bは、それぞれ第1のゲストOS110A、第2のゲストOS110B上で動作する。
すなわち、サーバ10は、ハードウェア102上で動作するホストOS104と、ホストOS104上に仮想的に構築された複数の仮想マシン108A,108B上でそれぞれ動作する複数のゲストOS110A,110Bとを有する仮想化システムである。
本実施の形態では、第1のゲストOS110Aはリアルタイム性の高い(リアルタイム性が求められる)ネットワーク処理を要するアプリケーション112Aを実行し、第2のゲストOS110BはCPU処理を要する非リアルタイム処理を行うアプリケーション112Bを実行するものとする。
より詳細には、第1のゲストOS110Aは、サーバ10の外部にあるパケット送信装置30から送信されたパケットをゲストパケット処理部1102Aで処理する。パケット送信装置30から送信されたパケットは、まずネットワークインターフェースカード1024で受信され、ホストOS104のホストパケット処理部1042を介してゲストパケット処理部1102Aへと引き渡される。
ゲストパケット処理部1102Aは、仮想的には仮想CPU1082Aによりパケット処理を行うが、実体的にはCPU1022により処理が行われる。同様に、仮想CPU1082Bについても、実体的にはCPU1022が処理を行う。すなわち、複数の仮想マシン108A,108Bは、ハードウェア102により実現されるCPU1022のリソースを共有している。
例えば、第1のゲストOS110A(仮想CPU1082A)がCPU1022を使用する時間と、第2のゲストOS110B(仮想CPU1082B)がCPU1022を使用する時間とが固定されていると、例えば一方のゲストOS110の処理負荷が増大した場合(一時的にパケット送信装置30から送信されるパケットが増大した場合など)に処理に遅延が生じる。
そこで、ホストOS104にCPU1022のリソースを管理するリソース管理部20(リソース管理装置)を設け、CPU1022の利用効率を向上させ、各ゲストOS110における処理の遅延を抑制している。
リソース管理部20は、ゲスト優先度算出部202とリソース利用制御部204とを備える。
ゲスト優先度算出部202は、ホストOS104からゲストOS110へのパケット転送レートと、ホストOS104のカーネルバッファの空き状況の少なくともいずれかに基づいて、複数のゲストOS110A,110Bのうち少なくとも1つのゲストOS110(以下「監視対象ゲストOS」という)の処理優先度を算出する。
本実施の形態では、リソース管理部20は、パケット転送レート計測部206およびバッファ空き状況監視部208を備えており、パケット転送レートおよびカーネルバッファの空き状況の両方を測定し、これに基づいてゲスト優先度算出部202は監視対象ゲストOSの処理優先度を算出する。なお、パケット転送レートと、カーネルバッファの空き状況のいずれか一方のみを用いて処理優先度を算出してもよい。
パケット転送レート計測部206は、例えば各ゲストOS110A,110Bへのフローごとにパケット転送レートを識別できる場合には、各ゲストOS110A,110B単位でパケット転送レートを監視する。例えば、仮想デバイスであるvhost−netは、仮想マシン108(108A,108B)単位で生成されるので、このvhost−netにおけるパケット転送レートを監視すれば、各ゲストOS110A,110B単位でパケット転送レートを監視することができる。
一方で、環境に依っては、各ゲストOS110A,110B単位でパケット転送レートを取得できない可能性がある。この場合は、例えば/proc/net/devといった、ホストOS104が持つネットワークデバイスのパケット転送レートを取得する等の対応が考えられる。なお、このように各ゲストOS110A,110Bへのフロー単位にパケット転送量を分計できない場合には、後述するように2つのゲストOS110A,110Bの両方を監視対象ゲストOSにしても効果が低い場合もあると考えられる。
バッファ空き状況監視部208としては、例えばホストOS104のカーネルに備えられたカーネルバッファの空き状況を監視する機能を利用することができる。このような機能を利用すれば、リアルタイムにバッファ空き状況を検知することができ、例えばバッファの空きサイズが枯渇してきた際に迅速に対応することができる。
バッファ空き状況監視部208の監視対象として、例えば前述したvhost−netのカーネルバッファを監視する場合は、各ゲストOS110A,110B単位のフローでバッファ空き状況を識別可能となる。一方、ホストOS104配下のネットワークドライバが管理するリングバッファを監視する場合は、各ゲストOS110A,110B単位でのフローのバッファ空き状況を分計することはできない。
ゲスト優先度算出部202は、ゲストOS110(特に監視対象ゲストOS)へのパケット転送レートが高いほど、またはカーネルバッファの空きが少ないほど、監視対象ゲストOSの処理優先度を高くする。
すなわち、監視対象ゲストOSへのパケット転送レートが高い場合には、ホストOS104から監視対象ゲストOSに引き渡されるパケット量が増大しており、監視対象ゲストOSでの処理負荷が増加していると考えられる。また、カーネルバッファの空きが少ない場合にも、ホストOS104から監視対象ゲストOSに引き渡されるパケット量が増大し、監視対象ゲストOSでの処理負荷が増加すると予想される。
このため、ゲスト優先度算出部202は、パケット転送レートの上昇やカーネルバッファの空きの減少があった場合には、監視対象ゲストOSの処理優先度を相対的に高くする。また、反対にパケット転送レートの低下やカーネルバッファの空きの増加があった場合には、監視対象ゲストOSの処理優先度を相対的に低くする。
なお、パケット転送レートやカーネルバッファの空き容量の値と、処理優先度との関係を、機械学習を用いて動的に算出してもよい。
リソース利用制御部204は、ゲスト優先度算出部202により算出された処理優先度に基づいて、複数のゲストOS110A,110BによるCPUリソースの利用時間配分を制御する。
図2は、リソース利用制御部204によるCPUリソースの利用時間配分を模式的に示す説明図である。
図2の中央は、所定の基準状態(例えば第1のゲストOS110Aの処理優先度が所定の閾値1を超え、かつ所定の閾値2(>閾値1)未満である場合)における利用時間配分を示す。基準状態では、例えば第1のゲストOS110A(Guest1)と第2のゲストOS110B(Guest2)が同時間(t1)ずつ交互にCPU1022を利用する。
図2の右側は、第1のゲストOS110Aの処理優先度が高くなった場合(例えば上記閾値2以上である場合)における利用時間配分を示す。この場合には、第1のゲストOS110AのCPU1022の利用時間を、第2のゲストOS110Bと比較して長くする。具体的には、例えば基準状態よりも第1のゲストOS110AのCPU1022の利用時間を長く(図示の例ではt2(>t1))、第2のゲストOS110BのCPU1022の利用時間を短くする(図示の例ではt3(<t1))。時間t2は、第1のゲストOS110Aの処理優先度の大きさに比例して長く(または時間t3を短く)してもよい。
図2の左側は、第1のゲストOS110Aの処理優先度が低くなった場合(例えば上記閾値1以下である場合)における利用時間配分を示す。この場合には、第1のゲストOS110AのCPU1022の利用時間を、第2のゲストOS110Bと比較して短くする。具体的には、例えば基準状態よりも第1のゲストOS110AのCPU1022の利用時間を短く(図示の例ではt4(<t1))、第2のゲストOS110BのCPU1022の利用時間を長くする(図示の例ではt5(>t1))。時間t4は、第1のゲストOS110Aの処理優先度の大きさに比例して短く(または時間t5を長く)してもよい。
このように、第1のゲストOS110Aの処理優先度、すなわちパケットの緩急に応じて、各ゲストOS110のCPU1022の利用時間を動的に設定することにより、一方のゲストOS110の優先度を固定する場合と比較してCPU1022の利用効率を向上させることができる。
なお、本実施の形態では、ゲスト優先度算出部202は、複数のゲストOS110のうち、リアルタイム性の高いネットワーク処理を要するアプリケーションを実行するゲストOS、すなわち第1のゲストOS110Aを処理優先度の算出対象(監視対象ゲストOS)とし、リソース利用制御部204は、第1のゲストOS110Aを処理優先度に基づいて、CPUリソースの利用時間配分を制御する。
これにより、処理遅延の影響が大きいリアルタイム性の高い処理を行うのに最適化した形でCPU1022の利用時間を配分することができる。
なお、第1のゲストOS110Aと第2のゲストOS110Bの両方を監視対象ゲストOSとすることも可能である。しかしながら、上述のようにパケット転送レートや、カーネルバッファの空き状況について、ゲストOS110A,110B別に測定できない場合には、本実施の形態で例示すケースと異なり、例えば、第1のゲストOS110Aと第2のゲストOS110Bがともにリアル性の高いネットワーク処理を要するアプリケーション112A,112Bを実行しているとすると、CPUリソースの利用効率を向上させる効果が低くなると考えられる。
また、第2のゲストOS110Bのみを監視対象ゲストOSとしてもよい。
図3は、リソース管理部20による処理の手順を示すフローチャートである。
パケット転送レート計測部206は、ホストOS104からゲストOS110へのパケットの転送レートを計測(例:xxMbps等)し、その値をメモリ等に一時記録する(ステップS300)。
バッファ空き状況監視部208は、ホストOS104のカーネルバッファの空き状況を取得し、その値をメモリ等に一時記録する(ステップS302)。
ゲスト優先度算出部202は、ステップS300で測定したパケットの転送レートに基づく第1のゲストOS110Aの処理優先度と(ステップS304)、ステップS302で取得したカーネルバッファの空き状況に基づく第1のゲストOS110Aの処理優先度とを算出する(ステップS306)。
ゲスト優先度算出部202は、ステップS304およびステップS306で算出した処理優先度から、採用する処理優先度を決定する(ステップS308)。具体的には、例えば2つの処理優先度のうち高い方を採用する。
そして、リソース利用制御部204は、採用した処理優先度に基づいて、各仮想マシン108A,108Bの仮想CPU(vCPU)1082A,1082Bに対して、CPU1022の利用時間を設定する(ステップS310)。
リソース管理部20は、上記の処理の手順を、所定の時間間隔で繰り返すことにより、複数のゲストOS110によるCPUリソースの利用時間を動的に変更することができる。
以上説明したように、実施の形態にかかるサーバ10によれば、複数のゲストOSによるCPUリソースの利用時間を動的に変更することができ、CPUの利用効率を向上させるとともに、ゲストOSにおける処理遅延に起因するサーバ内ネットワークの遅延を低減することができる。
10 サーバ
102 ハードウェア
1022 CPU
104 ホストOS
1042 ホストパケット処理部
106 ハイパーバイザ
108(108A,108B) 仮想マシン
1082(1082A,1082B) 仮想CPU
110(110A,110B) ゲストOS
1102A ゲストパケット処理部
112(112A,112B) アプリケーション
20 リソース管理部(リソース管理装置)
202 ゲスト優先度算出部
204 リソース利用制御部
206 パケット転送レート計測部
208 バッファ空き状況監視部
30 パケット送信装置

Claims (6)

  1. ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置であって、
    複数の前記仮想マシンは、前記ハードウェアにより実現されるCPUリソースを共有しており、
    前記ホストOSから前記ゲストOSへのパケット転送レート、前記ホストOSのカーネルバッファの空き状況の少なくともいずれかに基づいて、少なくとも1つの前記ゲストOSの処理優先度を算出するゲスト優先度算出部と、
    前記ゲスト優先度算出部により算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御部と、
    を備えることを特徴とするリソース管理装置。
  2. 前記ゲスト優先度算出部は、前記パケット転送レートが高いほど、または、前記カーネルバッファの空きが少ないほど、前記ゲストOSの処理優先度を高くする、
    ことを特徴とする請求項1に記載のリソース管理装置。
  3. 前記ゲスト優先度算出部は、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、
    ことを特徴とする請求項1または請求項2に記載のリソース管理装置。
  4. ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置のリソース管理方法であって、
    複数の前記仮想マシンは、前記ハードウェアにより実現されるCPUリソースを共有しており、
    前記リソース管理装置は、
    前記ホストOSから前記ゲストOSへのパケット転送レート、前記ホストOSのカーネルバッファの空き状況の少なくともいずれかに基づいて、少なくとも1つの前記ゲストOSの処理優先度を算出するゲスト優先度算出工程と、
    算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御工程と、
    を実行することを特徴とするリソース管理方法。
  5. 前記ゲスト優先度算出工程では、前記パケット転送レートが高いほど、または、前記カーネルバッファの空きが少ないほど、前記ゲストOSの処理優先度を高くする、
    ことを特徴とする請求項4に記載のリソース管理方法。
  6. 前記ゲスト優先度算出工程では、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、
    ことを特徴とする請求項4または請求項5に記載のリソース管理方法。
JP2019025136A 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法 Active JP7331374B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019025136A JP7331374B2 (ja) 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法
US17/428,242 US20220138017A1 (en) 2019-02-15 2020-02-04 Resource management device and resource management method
PCT/JP2020/004034 WO2020166423A1 (ja) 2019-02-15 2020-02-04 リソース管理装置およびリソース管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025136A JP7331374B2 (ja) 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法

Publications (2)

Publication Number Publication Date
JP2020135167A true JP2020135167A (ja) 2020-08-31
JP7331374B2 JP7331374B2 (ja) 2023-08-23

Family

ID=72045509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025136A Active JP7331374B2 (ja) 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法

Country Status (3)

Country Link
US (1) US20220138017A1 (ja)
JP (1) JP7331374B2 (ja)
WO (1) WO2020166423A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025199A1 (ko) * 2022-07-28 2024-02-01 삼성전자 주식회사 컴퓨팅 장치 및 그 동작 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115145730B (zh) * 2022-07-05 2023-03-24 小米汽车科技有限公司 运行监测方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133669A1 (ja) * 2008-04-28 2009-11-05 パナソニック株式会社 仮想計算機制御装置、仮想計算機制御方法及び仮想計算機制御プログラム
WO2016006228A1 (ja) * 2014-07-11 2016-01-14 日本電気株式会社 仮想化システムおよび仮想化方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112858A (ja) 1998-10-06 2000-04-21 Nec Corp データダウンロード方法および装置
JP2004021555A (ja) 2002-06-14 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> ネットワーク型オークションシステムの運用方法、オークション管理サーバ、クライアントコンピュータ及び代替サーバ用プログラム
US20080028399A1 (en) * 2006-07-26 2008-01-31 Diwaker Gupta System and method for attributing to a corresponding virtual machine CPU utilization of a network driver domain based on observed communication through a virtualized interface
JP4358224B2 (ja) * 2006-12-27 2009-11-04 株式会社東芝 ゲストosスケジューリング方法及び仮想計算機モニタ
JP2009110404A (ja) * 2007-10-31 2009-05-21 Toshiba Corp 仮想計算機システム及び同システムにおけるゲストosスケジューリング方法
US9740517B2 (en) * 2008-12-29 2017-08-22 Microsoft Technology Licensing, Llc Dynamic virtual machine memory management
JP5553356B2 (ja) 2011-01-11 2014-07-16 独立行政法人情報通信研究機構 管理装置、無線装置、周波数および送信電力の決定方法
EP3106984B1 (en) * 2011-11-28 2018-11-07 Huawei Technologies Co., Ltd. Method and device for adjusting memory of virtual machine
US9207976B2 (en) * 2013-08-13 2015-12-08 International Business Machines Corporation Management of prioritizing virtual machines in an operating environment
US9535738B2 (en) * 2015-04-03 2017-01-03 International Business Machines Corporation Migrating virtual machines based on relative priority of virtual machine in the context of a target hypervisor environment
JP2019087033A (ja) * 2017-11-07 2019-06-06 富士通株式会社 情報処理装置、情報処理システム及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009133669A1 (ja) * 2008-04-28 2009-11-05 パナソニック株式会社 仮想計算機制御装置、仮想計算機制御方法及び仮想計算機制御プログラム
WO2016006228A1 (ja) * 2014-07-11 2016-01-14 日本電気株式会社 仮想化システムおよび仮想化方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024025199A1 (ko) * 2022-07-28 2024-02-01 삼성전자 주식회사 컴퓨팅 장치 및 그 동작 방법

Also Published As

Publication number Publication date
US20220138017A1 (en) 2022-05-05
WO2020166423A1 (ja) 2020-08-20
JP7331374B2 (ja) 2023-08-23

Similar Documents

Publication Publication Date Title
US10445850B2 (en) Technologies for offloading network packet processing to a GPU
US11221880B2 (en) Adaptive computing resource allocation approach for virtual network functions
Xu et al. {vTurbo}: Accelerating Virtual Machine {I/O} Processing Using Designated {Turbo-Sliced} Core
RU2703188C1 (ru) Способ распределения нагрузки в многоядерной системе
JP5871233B2 (ja) 計算機及び帯域制御方法
CN109697122B (zh) 任务处理方法、设备及计算机存储介质
US9354952B2 (en) Application-driven shared device queue polling
CN109726005B (zh) 用于管理资源的方法、服务器系统和计算机可读介质
US10733022B2 (en) Method of managing dedicated processing resources, server system and computer program product
CN104598298A (zh) 基于虚拟机当前工作性质以及任务负载的虚拟机调度算法
Musleh et al. Bridging the virtualization performance gap for HPC using SR-IOV for InfiniBand
Hu et al. Towards efficient server architecture for virtualized network function deployment: Implications and implementations
WO2020166423A1 (ja) リソース管理装置およびリソース管理方法
Zeng et al. XCollOpts: A novel improvement of network virtualizations in Xen for I/O-latency sensitive applications on multicores
Guan et al. Performance enhancement for network I/O virtualization with efficient interrupt coalescing and virtual receive-side scaling
Lin et al. {RingLeader}: Efficiently Offloading {Intra-Server} Orchestration to {NICs}
US10700978B2 (en) Offloading at a virtual switch in a load-balanced group
US11886901B2 (en) VM performance guaranteeing system and VM performance guaranteeing method
US20140245300A1 (en) Dynamically Balanced Credit for Virtual Functions in Single Root Input/Output Virtualization
Dehsangi et al. cCluster: a core clustering mechanism for workload-aware virtual machine scheduling
US11068294B2 (en) Balancing processing loads of virtual machines
US11714670B2 (en) VM priority level control system and VM priority level control method
Liu et al. Improving resource utilization of a cloud-based testing platform for android applications
Xu et al. MemNet: Enhancing throughput and energy efficiency for hybrid workloads via para-virtualized memory sharing
Aragiorgis et al. Coexisting scheduling policies boosting I/O virtual machines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R150 Certificate of patent or registration of utility model

Ref document number: 7331374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150