JP7331374B2 - リソース管理装置およびリソース管理方法 - Google Patents

リソース管理装置およびリソース管理方法 Download PDF

Info

Publication number
JP7331374B2
JP7331374B2 JP2019025136A JP2019025136A JP7331374B2 JP 7331374 B2 JP7331374 B2 JP 7331374B2 JP 2019025136 A JP2019025136 A JP 2019025136A JP 2019025136 A JP2019025136 A JP 2019025136A JP 7331374 B2 JP7331374 B2 JP 7331374B2
Authority
JP
Japan
Prior art keywords
guest
processing
priority
resource management
host
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019025136A
Other languages
English (en)
Other versions
JP2020135167A (ja
Inventor
圭 藤本
光平 的場
誠 荒岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019025136A priority Critical patent/JP7331374B2/ja
Priority to PCT/JP2020/004034 priority patent/WO2020166423A1/ja
Priority to US17/428,242 priority patent/US20220138017A1/en
Publication of JP2020135167A publication Critical patent/JP2020135167A/ja
Application granted granted Critical
Publication of JP7331374B2 publication Critical patent/JP7331374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/455Emulation; Interpretation; Software simulation, e.g. virtualisation or emulation of application or operating system execution engines
    • G06F9/45533Hypervisors; Virtual machine monitors
    • G06F9/45558Hypervisor-specific management and integration aspects
    • G06F2009/4557Distribution of virtual machine instances; Migration and load balancing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、仮想化システムのリソース管理装置およびリソース管理方法に関する。
従来、システム内のリソース利用状態を適切に管理することによって、システムの処理効率を向上させる技術が提案されている。
例えば、下記特許文献1には、仮想環境下において帯域保証を実現するために、パケットの優先度に応じてホスト-ゲスト区間の帯域保証を行う技術が開示されている。
また、下記特許文献2には、リアルタイムOS(Operating System)のタスクスケジューリングにおいて、優先度の高いタスクと優先度の低いタスクがあった場合に、優先度の低いタスクにもCPUリソースが割り当たるように、レディ状態にあるタスクからディスパッチする技術が開示されている。
また、下記特許文献3には、パケットの優先度に応じて、タスクスケジューリングの処理タスク割当ての優先度を設定し、優先度に応じてタスクの横取りを行う技術が開示されている。
特開2017-41858号公報 特開平8-249194号公報 特開平9-46373号公報
サーバ仮想化環境下において、複数の仮想マシンがCPUリソースを共有して動作するために、CFS(Completely Fare Scheduler)等のタスクスケジューラにより、複数のゲスト(例えば第1のゲストと第2のゲスト)がCPUを使用できる時間を交互に切り替えて、CPUタイムを割り当てる技術が提案されている(例えば、Linux(登録商標) kernel 2.6.23以降にはCFSが搭載されている)。
このような構成では、一方のゲストがCPUを使用している時間は、他方のゲストがCPUを使用した処理を行えないため、CPUタイム待ちによるネットワーク遅延が発生する可能性がある。例えば、ホストが処理したパケットを第1のゲストが更に処理する場合、パケットの転送レートが高速(例えば1Gbps以上等)であると、ホストが処理したパケットを第1のゲストに割り当てられたCPUタイム内に処理しきれず、第1のゲストが保有するキューに処理待ちパケットが蓄積し、数百ms程度の大きな遅延が発生する場合がある。
図4は、CPUタイムとパケット処理の関係を模式的に示す説明図である。
図4では、縦軸方向に時間を取り、ホストが処理したパケットを第1のゲスト(Guest1)が更に処理する場合について、左側にホストにおけるパケット処理状況を、右側に第1のゲストにおけるパケット処理状況を、それぞれ模式的に示している。
ホストはCPUを占有しているためパケット処理を継続的に行えるのに対して、ゲスト側では第1のゲストと第2のゲスト(Guest2)とによりCPUを共有しているためパケット処理が断続的となる。
よって、第1のゲストは、ホストから到着するパケットの処理をCPUタイム内に完了することができず、キューに貯め込んでいく。処理が進んでいくと、ホストから第1のゲストにパケットが到着してから処理を実行するまで複数CPUサイクル待つ必要があり、遅延が生じる。例えば、時刻T2の時点において第1のゲストで完了している処理は、ホストが時刻T1までに引き渡した処理までであり、時刻T2-T1間の処理は、第1のゲストのキューに蓄積されている。更に、パケットが第1のゲストの最大キューサイズまで貯まると、以降パケットロスが発生することになる。
このような課題に対応するため、例えば、パケット処理を行う第1のゲストのCPU使用優先度を高く設定し、第1のゲストに割り当てるCPUタイムを拡大することで、パケット処理のネットワーク遅延を小さくする方法が考えられる。しかし、この方法では、第2のゲストのCPUタイムが定常的に減少し、CPUの利用効率が低下するという課題がある。例えば、第1のゲストのqemu-kvmプロセスのnice値=-10と設定すると、第2のゲストのCPUタイムが減少することにより、第2のゲストへのSSH(Secure Shell)ログインすらできなくなる。
本発明は、このような事情に鑑みなされたものであり、複数のゲストが共有するCPUリソースを効率的に利用し、システム全体の処理性能を向上させることを目的とする。
上述の目的を達成するため、請求項1に記載の発明は、ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置であって、複数の前記仮想マシンが、前記ハードウェアにより実現されるCPUリソースを共有しており、前記ホストOSから前記ゲストOSへのフローを監視することにより得られたパケット転送レートに基づいて、少なくとも1つの前記ゲストOSの処理優先度について、前記パケット転送レートが高いほど、前記処理優先度を高く算出するゲスト優先度算出部と、前記ゲスト優先度算出部により算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御部と、を備えることを特徴とするリソース管理装置とした。
また、請求項に記載の発明は、ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置のリソース管理方法であって、複数の前記仮想マシンが、前記ハードウェアにより実現されるCPUリソースを共有しており、前記リソース管理装置が、前記ホストOSから前記ゲストOSへのフローを監視することにより得られたパケット転送レートに基づいて、少なくとも1つの前記ゲストOSの処理優先度について、前記パケット転送レートが高いほど、前記処理優先度を高く算出するゲスト優先度算出工程と、算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御工程と、を実行することを特徴とするリソース管理方法とした。
このようにすることで、リソース管理装置(リソース管理部)は、複数のゲストOSによるCPUリソースの利用時間を動的に変更することができ、CPUの利用効率を向上させるとともに、ゲストOSにおける処理遅延に起因するサーバ内ネットワークの遅延を低減することができる。
また、このようにすることで、ゲストOSにおけるパケット処理負荷を精度よく反映することができる。
また、請求項に記載の発明は、前記ゲスト優先度算出部が、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、ことを特徴とする請求項1に記載のリソース管理装置とした。
また、請求項に記載の発明は、前記ゲスト優先度算出工程では、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、ことを特徴とする請求項に記載のリソース管理方法とした。
このようにすることで、処理負荷が変動しやすいゲストOSの状態に合わせてCPUリソースを配分することができ、CPUの利用効率を向上させることができる。
本発明によれば、複数のゲストが共有するCPUリソースを効率的に利用し、システム全体の処理性能を向上させることができる。
実施の形態にかかるサーバの構成を示す図である。 リソース利用制御部によるCPUリソースの利用時間配分を模式的に示す説明図である。 リソース管理部による処理の手順を示すフローチャートである。 CPUタイムとパケット処理の関係を模式的に示す説明図である。
以下に添付図面を参照して、本発明にかかるリソース管理装置およびリソース管理方法の好適な実施の形態を詳細に説明する。本実施の形態では、複数の仮想マシン(ゲスト)が構成されたサーバに本発明にかかるリソース管理装置およびリソース管理方法を適用した場合について説明する。
図1は、実施の形態にかかるサーバ10の構成を示す図である。
サーバ10は、ハードウェア(HW)102、ホスト(Host)OS104、ハイパーバイザ(Hypervisor)106、第1の仮想マシン(VM1)108A、第1のゲストOS(Guest1)110A、第2の仮想マシン(VM2)108B、第2のゲストOS(Guest2)110B、アプリケーション112A,112Bを備える。
ハードウェア102は、例えばIA(Intel Architecture)サーバ(「Intel」は登録商標)であり、CPU1022やネットワークインターフェースカード(NIC)1024等を備え、サーバ10を物理的に構成する。
ホストOS104は、ハードウェア102の機能を上位レイヤに提供する。
ハイパーバイザ106は、ホストOS104の上で仮想化環境を提供し、本実施の形態では、例として、第1の仮想マシン108Aおよび第2の仮想マシン108Bを構築する。
第1の仮想マシン108A、第2の仮想マシン108Bは、それぞれ仮想CPU(vCPU)1082A,1082Bや仮想ネットワークインターフェースカード(vNIC)1084A,1084Bを有するが、実際には物理的なハードウェア102であるCPU1022やネットワークインターフェースカード1024がその機能を実現する。
第1のゲストOS110A、第2のゲストOS110Bは、それぞれ第1の仮想マシン108A、第2の仮想マシン108B上で動作する。以下、第1のゲストOS110Aと第2のゲストOS110Bとの両方を指す場合には、ゲストOS110と称する。
アプリケーション112A、112Bは、それぞれ第1のゲストOS110A、第2のゲストOS110B上で動作する。
すなわち、サーバ10は、ハードウェア102上で動作するホストOS104と、ホストOS104上に仮想的に構築された複数の仮想マシン108A,108B上でそれぞれ動作する複数のゲストOS110A,110Bとを有する仮想化システムである。
本実施の形態では、第1のゲストOS110Aはリアルタイム性の高い(リアルタイム性が求められる)ネットワーク処理を要するアプリケーション112Aを実行し、第2のゲストOS110BはCPU処理を要する非リアルタイム処理を行うアプリケーション112Bを実行するものとする。
より詳細には、第1のゲストOS110Aは、サーバ10の外部にあるパケット送信装置30から送信されたパケットをゲストパケット処理部1102Aで処理する。パケット送信装置30から送信されたパケットは、まずネットワークインターフェースカード1024で受信され、ホストOS104のホストパケット処理部1042を介してゲストパケット処理部1102Aへと引き渡される。
ゲストパケット処理部1102Aは、仮想的には仮想CPU1082Aによりパケット処理を行うが、実体的にはCPU1022により処理が行われる。同様に、仮想CPU1082Bについても、実体的にはCPU1022が処理を行う。すなわち、複数の仮想マシン108A,108Bは、ハードウェア102により実現されるCPU1022のリソースを共有している。
例えば、第1のゲストOS110A(仮想CPU1082A)がCPU1022を使用する時間と、第2のゲストOS110B(仮想CPU1082B)がCPU1022を使用する時間とが固定されていると、例えば一方のゲストOS110の処理負荷が増大した場合(一時的にパケット送信装置30から送信されるパケットが増大した場合など)に処理に遅延が生じる。
そこで、ホストOS104にCPU1022のリソースを管理するリソース管理部20(リソース管理装置)を設け、CPU1022の利用効率を向上させ、各ゲストOS110における処理の遅延を抑制している。
リソース管理部20は、ゲスト優先度算出部202とリソース利用制御部204とを備える。
ゲスト優先度算出部202は、ホストOS104からゲストOS110へのパケット転送レートと、ホストOS104のカーネルバッファの空き状況の少なくともいずれかに基づいて、複数のゲストOS110A,110Bのうち少なくとも1つのゲストOS110(以下「監視対象ゲストOS」という)の処理優先度を算出する。
本実施の形態では、リソース管理部20は、パケット転送レート計測部206およびバッファ空き状況監視部208を備えており、パケット転送レートおよびカーネルバッファの空き状況の両方を測定し、これに基づいてゲスト優先度算出部202は監視対象ゲストOSの処理優先度を算出する。なお、パケット転送レートと、カーネルバッファの空き状況のいずれか一方のみを用いて処理優先度を算出してもよい。
パケット転送レート計測部206は、例えば各ゲストOS110A,110Bへのフローごとにパケット転送レートを識別できる場合には、各ゲストOS110A,110B単位でパケット転送レートを監視する。例えば、仮想デバイスであるvhost-netは、仮想マシン108(108A,108B)単位で生成されるので、このvhost-netにおけるパケット転送レートを監視すれば、各ゲストOS110A,110B単位でパケット転送レートを監視することができる。
一方で、環境に依っては、各ゲストOS110A,110B単位でパケット転送レートを取得できない可能性がある。この場合は、例えば/proc/net/devといった、ホストOS104が持つネットワークデバイスのパケット転送レートを取得する等の対応が考えられる。なお、このように各ゲストOS110A,110Bへのフロー単位にパケット転送量を分計できない場合には、後述するように2つのゲストOS110A,110Bの両方を監視対象ゲストOSにしても効果が低い場合もあると考えられる。
バッファ空き状況監視部208としては、例えばホストOS104のカーネルに備えられたカーネルバッファの空き状況を監視する機能を利用することができる。このような機能を利用すれば、リアルタイムにバッファ空き状況を検知することができ、例えばバッファの空きサイズが枯渇してきた際に迅速に対応することができる。
バッファ空き状況監視部208の監視対象として、例えば前述したvhost-netのカーネルバッファを監視する場合は、各ゲストOS110A,110B単位のフローでバッファ空き状況を識別可能となる。一方、ホストOS104配下のネットワークドライバが管理するリングバッファを監視する場合は、各ゲストOS110A,110B単位でのフローのバッファ空き状況を分計することはできない。
ゲスト優先度算出部202は、ゲストOS110(特に監視対象ゲストOS)へのパケット転送レートが高いほど、またはカーネルバッファの空きが少ないほど、監視対象ゲストOSの処理優先度を高くする。
すなわち、監視対象ゲストOSへのパケット転送レートが高い場合には、ホストOS104から監視対象ゲストOSに引き渡されるパケット量が増大しており、監視対象ゲストOSでの処理負荷が増加していると考えられる。また、カーネルバッファの空きが少ない場合にも、ホストOS104から監視対象ゲストOSに引き渡されるパケット量が増大し、監視対象ゲストOSでの処理負荷が増加すると予想される。
このため、ゲスト優先度算出部202は、パケット転送レートの上昇やカーネルバッファの空きの減少があった場合には、監視対象ゲストOSの処理優先度を相対的に高くする。また、反対にパケット転送レートの低下やカーネルバッファの空きの増加があった場合には、監視対象ゲストOSの処理優先度を相対的に低くする。
なお、パケット転送レートやカーネルバッファの空き容量の値と、処理優先度との関係を、機械学習を用いて動的に算出してもよい。
リソース利用制御部204は、ゲスト優先度算出部202により算出された処理優先度に基づいて、複数のゲストOS110A,110BによるCPUリソースの利用時間配分を制御する。
図2は、リソース利用制御部204によるCPUリソースの利用時間配分を模式的に示す説明図である。
図2の中央は、所定の基準状態(例えば第1のゲストOS110Aの処理優先度が所定の閾値1を超え、かつ所定の閾値2(>閾値1)未満である場合)における利用時間配分を示す。基準状態では、例えば第1のゲストOS110A(Guest1)と第2のゲストOS110B(Guest2)が同時間(t1)ずつ交互にCPU1022を利用する。
図2の右側は、第1のゲストOS110Aの処理優先度が高くなった場合(例えば上記閾値2以上である場合)における利用時間配分を示す。この場合には、第1のゲストOS110AのCPU1022の利用時間を、第2のゲストOS110Bと比較して長くする。具体的には、例えば基準状態よりも第1のゲストOS110AのCPU1022の利用時間を長く(図示の例ではt2(>t1))、第2のゲストOS110BのCPU1022の利用時間を短くする(図示の例ではt3(<t1))。時間t2は、第1のゲストOS110Aの処理優先度の大きさに比例して長く(または時間t3を短く)してもよい。
図2の左側は、第1のゲストOS110Aの処理優先度が低くなった場合(例えば上記閾値1以下である場合)における利用時間配分を示す。この場合には、第1のゲストOS110AのCPU1022の利用時間を、第2のゲストOS110Bと比較して短くする。具体的には、例えば基準状態よりも第1のゲストOS110AのCPU1022の利用時間を短く(図示の例ではt4(<t1))、第2のゲストOS110BのCPU1022の利用時間を長くする(図示の例ではt5(>t1))。時間t4は、第1のゲストOS110Aの処理優先度の大きさに比例して短く(または時間t5を長く)してもよい。
このように、第1のゲストOS110Aの処理優先度、すなわちパケットの緩急に応じて、各ゲストOS110のCPU1022の利用時間を動的に設定することにより、一方のゲストOS110の優先度を固定する場合と比較してCPU1022の利用効率を向上させることができる。
なお、本実施の形態では、ゲスト優先度算出部202は、複数のゲストOS110のうち、リアルタイム性の高いネットワーク処理を要するアプリケーションを実行するゲストOS、すなわち第1のゲストOS110Aを処理優先度の算出対象(監視対象ゲストOS)とし、リソース利用制御部204は、第1のゲストOS110Aを処理優先度に基づいて、CPUリソースの利用時間配分を制御する。
これにより、処理遅延の影響が大きいリアルタイム性の高い処理を行うのに最適化した形でCPU1022の利用時間を配分することができる。
なお、第1のゲストOS110Aと第2のゲストOS110Bの両方を監視対象ゲストOSとすることも可能である。しかしながら、上述のようにパケット転送レートや、カーネルバッファの空き状況について、ゲストOS110A,110B別に測定できない場合には、本実施の形態で例示すケースと異なり、例えば、第1のゲストOS110Aと第2のゲストOS110Bがともにリアル性の高いネットワーク処理を要するアプリケーション112A,112Bを実行しているとすると、CPUリソースの利用効率を向上させる効果が低くなると考えられる。
また、第2のゲストOS110Bのみを監視対象ゲストOSとしてもよい。
図3は、リソース管理部20による処理の手順を示すフローチャートである。
パケット転送レート計測部206は、ホストOS104からゲストOS110へのパケットの転送レートを計測(例:xxMbps等)し、その値をメモリ等に一時記録する(ステップS300)。
バッファ空き状況監視部208は、ホストOS104のカーネルバッファの空き状況を取得し、その値をメモリ等に一時記録する(ステップS302)。
ゲスト優先度算出部202は、ステップS300で測定したパケットの転送レートに基づく第1のゲストOS110Aの処理優先度と(ステップS304)、ステップS302で取得したカーネルバッファの空き状況に基づく第1のゲストOS110Aの処理優先度とを算出する(ステップS306)。
ゲスト優先度算出部202は、ステップS304およびステップS306で算出した処理優先度から、採用する処理優先度を決定する(ステップS308)。具体的には、例えば2つの処理優先度のうち高い方を採用する。
そして、リソース利用制御部204は、採用した処理優先度に基づいて、各仮想マシン108A,108Bの仮想CPU(vCPU)1082A,1082Bに対して、CPU1022の利用時間を設定する(ステップS310)。
リソース管理部20は、上記の処理の手順を、所定の時間間隔で繰り返すことにより、複数のゲストOS110によるCPUリソースの利用時間を動的に変更することができる。
以上説明したように、実施の形態にかかるサーバ10によれば、複数のゲストOSによるCPUリソースの利用時間を動的に変更することができ、CPUの利用効率を向上させるとともに、ゲストOSにおける処理遅延に起因するサーバ内ネットワークの遅延を低減することができる。
10 サーバ
102 ハードウェア
1022 CPU
104 ホストOS
1042 ホストパケット処理部
106 ハイパーバイザ
108(108A,108B) 仮想マシン
1082(1082A,1082B) 仮想CPU
110(110A,110B) ゲストOS
1102A ゲストパケット処理部
112(112A,112B) アプリケーション
20 リソース管理部(リソース管理装置)
202 ゲスト優先度算出部
204 リソース利用制御部
206 パケット転送レート計測部
208 バッファ空き状況監視部
30 パケット送信装置

Claims (4)

  1. ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置であって、
    複数の前記仮想マシンは、前記ハードウェアにより実現されるCPUリソースを共有しており、
    前記ホストOSから前記ゲストOSへのフローを監視することにより得られたパケット転送レートに基づいて、少なくとも1つの前記ゲストOSの処理優先度について、前記パケット転送レートが高いほど、前記処理優先度を高く算出するゲスト優先度算出部と、
    前記ゲスト優先度算出部により算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御部と、
    を備えることを特徴とするリソース管理装置。
  2. 前記ゲスト優先度算出部は、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、
    ことを特徴とする請求項1に記載のリソース管理装置。
  3. ハードウェア上で動作するホストOSと、前記ホストOS上に仮想的に構築された複数の仮想マシン上でそれぞれ動作する複数のゲストOSとを有する仮想化システムのリソースを管理するリソース管理装置のリソース管理方法であって、
    複数の前記仮想マシンは、前記ハードウェアにより実現されるCPUリソースを共有しており、
    前記リソース管理装置は、
    前記ホストOSから前記ゲストOSへのフローを監視することにより得られたパケット転送レートに基づいて、少なくとも1つの前記ゲストOSの処理優先度について、前記パケット転送レートが高いほど、前記処理優先度を高く算出するゲスト優先度算出工程と、
    算出された前記処理優先度に基づいて、複数の前記ゲストOSによる前記CPUリソースの利用時間配分を制御するリソース利用制御工程と、
    を実行することを特徴とするリソース管理方法。
  4. 前記ゲスト優先度算出工程では、複数の前記ゲストOSのうち、リアルタイム性が求められるネットワーク処理を要するアプリケーションを実行するゲストOSを前記処理優先度の算出対象とする、
    ことを特徴とする請求項に記載のリソース管理方法。
JP2019025136A 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法 Active JP7331374B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019025136A JP7331374B2 (ja) 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法
PCT/JP2020/004034 WO2020166423A1 (ja) 2019-02-15 2020-02-04 リソース管理装置およびリソース管理方法
US17/428,242 US20220138017A1 (en) 2019-02-15 2020-02-04 Resource management device and resource management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019025136A JP7331374B2 (ja) 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法

Publications (2)

Publication Number Publication Date
JP2020135167A JP2020135167A (ja) 2020-08-31
JP7331374B2 true JP7331374B2 (ja) 2023-08-23

Family

ID=72045509

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019025136A Active JP7331374B2 (ja) 2019-02-15 2019-02-15 リソース管理装置およびリソース管理方法

Country Status (3)

Country Link
US (1) US20220138017A1 (ja)
JP (1) JP7331374B2 (ja)
WO (1) WO2020166423A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115145730B (zh) * 2022-07-05 2023-03-24 小米汽车科技有限公司 运行监测方法、装置、电子设备和存储介质
KR20240015952A (ko) * 2022-07-28 2024-02-06 삼성전자주식회사 컴퓨팅 장치 및 그 동작 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112858A (ja) 1998-10-06 2000-04-21 Nec Corp データダウンロード方法および装置
JP2004021555A (ja) 2002-06-14 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> ネットワーク型オークションシステムの運用方法、オークション管理サーバ、クライアントコンピュータ及び代替サーバ用プログラム
WO2009133669A1 (ja) 2008-04-28 2009-11-05 パナソニック株式会社 仮想計算機制御装置、仮想計算機制御方法及び仮想計算機制御プログラム
JP2012147206A (ja) 2011-01-11 2012-08-02 National Institute Of Information & Communication Technology 管理装置、無線装置、周波数および送信電力の決定方法
WO2016006228A1 (ja) 2014-07-11 2016-01-14 日本電気株式会社 仮想化システムおよび仮想化方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080028399A1 (en) * 2006-07-26 2008-01-31 Diwaker Gupta System and method for attributing to a corresponding virtual machine CPU utilization of a network driver domain based on observed communication through a virtualized interface
JP4358224B2 (ja) * 2006-12-27 2009-11-04 株式会社東芝 ゲストosスケジューリング方法及び仮想計算機モニタ
JP2009110404A (ja) * 2007-10-31 2009-05-21 Toshiba Corp 仮想計算機システム及び同システムにおけるゲストosスケジューリング方法
US9740517B2 (en) * 2008-12-29 2017-08-22 Microsoft Technology Licensing, Llc Dynamic virtual machine memory management
CN103502944B (zh) * 2011-11-28 2018-07-03 华为技术有限公司 虚拟机内存调整方法和设备
US9207976B2 (en) * 2013-08-13 2015-12-08 International Business Machines Corporation Management of prioritizing virtual machines in an operating environment
US9535738B2 (en) * 2015-04-03 2017-01-03 International Business Machines Corporation Migrating virtual machines based on relative priority of virtual machine in the context of a target hypervisor environment
JP2019087033A (ja) * 2017-11-07 2019-06-06 富士通株式会社 情報処理装置、情報処理システム及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112858A (ja) 1998-10-06 2000-04-21 Nec Corp データダウンロード方法および装置
JP2004021555A (ja) 2002-06-14 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> ネットワーク型オークションシステムの運用方法、オークション管理サーバ、クライアントコンピュータ及び代替サーバ用プログラム
WO2009133669A1 (ja) 2008-04-28 2009-11-05 パナソニック株式会社 仮想計算機制御装置、仮想計算機制御方法及び仮想計算機制御プログラム
JP2012147206A (ja) 2011-01-11 2012-08-02 National Institute Of Information & Communication Technology 管理装置、無線装置、周波数および送信電力の決定方法
WO2016006228A1 (ja) 2014-07-11 2016-01-14 日本電気株式会社 仮想化システムおよび仮想化方法

Also Published As

Publication number Publication date
JP2020135167A (ja) 2020-08-31
WO2020166423A1 (ja) 2020-08-20
US20220138017A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
Xu et al. {vTurbo}: Accelerating Virtual Machine {I/O} Processing Using Designated {Turbo-Sliced} Core
US10445850B2 (en) Technologies for offloading network packet processing to a GPU
US9378032B2 (en) Information processing method, information processing apparatus, recording medium, and system
US11221880B2 (en) Adaptive computing resource allocation approach for virtual network functions
Samal et al. Analysis of variants in round robin algorithms for load balancing in cloud computing
CN109697122B (zh) 任务处理方法、设备及计算机存储介质
KR102450528B1 (ko) 애플리케이션을 인식하는 효율적인 io 스케줄러 시스템 및 방법
US10768960B2 (en) Method for affinity binding of interrupt of virtual network interface card, and computer device
EP2701074B1 (en) Method, device, and system for performing scheduling in multi-processor core system
Khalid et al. Iron: Isolating network-based {CPU} in container environments
US10725823B2 (en) Coordinated scheduling between real-time processes
AU2013206117A1 (en) Hierarchical allocation of network bandwidth for quality of service
JP7331374B2 (ja) リソース管理装置およびリソース管理方法
US10733022B2 (en) Method of managing dedicated processing resources, server system and computer program product
Shojafar et al. Minimizing computing-plus-communication energy consumptions in virtualized networked data centers
Li et al. Prioritizing soft real-time network traffic in virtualized hosts based on xen
Lin et al. {RingLeader}: Efficiently Offloading {Intra-Server} Orchestration to {NICs}
CN112671832A (zh) 虚拟交换机中保障层次化时延的转发任务调度方法及系统
Asyabi et al. Kani: a QoS-aware hypervisor-level scheduler for cloud computing environments
Dehsangi et al. cCluster: a core clustering mechanism for workload-aware virtual machine scheduling
US11068294B2 (en) Balancing processing loads of virtual machines
Aragiorgis et al. Coexisting scheduling policies boosting I/O virtual machines
Bourguiba et al. A container-based fast bridge for virtual routers on commodity hardware
CN115378885B (zh) 超融合架构下的虚拟机业务网络带宽管理方法及装置
JP5646560B2 (ja) 仮想os制御装置、システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230724

R150 Certificate of patent or registration of utility model

Ref document number: 7331374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150