JP2014132419A - Performance prediction device of virtualization system, performance prediction method and computer program - Google Patents

Performance prediction device of virtualization system, performance prediction method and computer program Download PDF

Info

Publication number
JP2014132419A
JP2014132419A JP2013000669A JP2013000669A JP2014132419A JP 2014132419 A JP2014132419 A JP 2014132419A JP 2013000669 A JP2013000669 A JP 2013000669A JP 2013000669 A JP2013000669 A JP 2013000669A JP 2014132419 A JP2014132419 A JP 2014132419A
Authority
JP
Japan
Prior art keywords
performance prediction
prediction model
layer
performance
virtualization system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013000669A
Other languages
Japanese (ja)
Inventor
Eriko Numata
絵梨子 沼田
Daichi Kimura
大地 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013000669A priority Critical patent/JP2014132419A/en
Publication of JP2014132419A publication Critical patent/JP2014132419A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)
  • Stored Programmes (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a performance prediction device or the like for easily predicting the performance of a virtualization system even if a virtual machine operating in one physical machine is a single machine or a plurality of machines.SOLUTION: A performance prediction device 1 of a virtualization system (VS) has a first PPM generation part 101 for generating a performance prediction model (PPM) of an AP layer on the basis of information about an AP, operating in a virtual machine executed by a VS comprising an application (AP) layer and a hardware (HW) layer, a second PPM generation part 102 for generating a PPM of the HW layer on the basis of a result obtained by measuring the VS, and a performance prediction model synthesis part 103 for generating a PPM of the VS with a dependence relation between the AP layer and the HW layer reflected thereon by synthesis processing using an output value in the PPM of one layer as an input value in the PPM of the other layer with the PPM of the AP layer and the PPM of the HW layer as objects.

Description

本発明は、コンピュータを利用することによって仮想化システム(仮想化環境)の性能を予測する技術分野に関する。   The present invention relates to a technical field for predicting the performance of a virtualized system (virtualized environment) by using a computer.

コンピュータの仮想化技術は、1台の物理マシンにおいて複数の仮想的なマシンが稼働することを可能にする。   Computer virtualization technology allows multiple virtual machines to run on a single physical machine.

しかし、仮想化技術を用いる場合、物理マシンが有するハードウェアリソースにおいてオーバヘッドや、リソース競合が発生する。ここで、ハードウェアリソースとは、例えば、当該物理マシンが有するCPU(Central Processing Unit)、記憶装置、メモリ等である。そして、リソース競合とは、例えば、複数トランザクションの同時実行によって発生するハードウェアリソースの競合や、仮想マシンモニタが同時に複数の仮想マシンの仮想ハードウェアをエミュレーションすることによって生じるソフトウェアの競合である。   However, when using the virtualization technology, overhead and resource contention occur in the hardware resources of the physical machine. Here, the hardware resources are, for example, a CPU (Central Processing Unit), a storage device, a memory, and the like that the physical machine has. The resource contention is, for example, hardware resource contention caused by simultaneous execution of a plurality of transactions, or software contention caused when the virtual machine monitor simultaneously emulates virtual hardware of a plurality of virtual machines.

係るオーバヘッドやリソース競合に関して、非特許文献1では、物理マシンにおいて動作する仮想マシンが1台増える毎に、CPU性能が劣化すること指摘すると共に、その劣化が当該仮想マシンにおいて実行されるシステムの性能に影響を及ぼすと述べている。   Regarding such overhead and resource contention, Non-Patent Document 1 points out that the CPU performance deteriorates every time one virtual machine operating on a physical machine increases, and the performance of the system in which the deterioration is executed in the virtual machine. It has an influence on.

一般に、物理マシンにおいて動作する仮想マシンの台数が増加すれば、その物理マシンを構成するハードウェアの動作をエミュレーションする仮想マシンモニタの動作は複雑になると想定される。そして、仮想マシンモニタの動作が複雑になれば、その仮想マシンモニタの性能も低下すると想定される。   In general, if the number of virtual machines operating in a physical machine increases, it is assumed that the operation of a virtual machine monitor that emulates the operation of the hardware constituting the physical machine becomes complicated. If the operation of the virtual machine monitor becomes complicated, it is assumed that the performance of the virtual machine monitor also deteriorates.

これらの性能低下が生じる可能性を考えると、仮想化されたシステムの性能予測には、オーバヘッドやリソース競合が考慮されており、且つ複数の仮想マシンが動作する状況においても容易に性能を予測できることが必要である。ここで、係る仮想化されたシステムとは、仮想化技術により、1台の物理マシンにおいて、単体または複数の仮想マシンが動作できる環境を有するシステムである。   Considering the possibility of these performance degradations, overhead and resource contention are taken into account in the performance prediction of a virtualized system, and the performance can be easily predicted even when multiple virtual machines are operating. is necessary. Here, the virtualized system is a system having an environment in which a single physical machine or a plurality of virtual machines can operate on one physical machine by a virtualization technique.

このようなシステムの性能予測方法として、性能予測モデルを用いる方法がある。ここで、性能予測モデルとは、システムへの入力に応じて、対象システム(性能予測の対象である仮想化システム)の性能を予測するモデル(例えば、典型的な例として、待ち行列や回帰分析)が挙げられる。係る性能予測モデルを用いた性能予測方法には、以下に述べる主に2種類の方法が挙げられる。   As a system performance prediction method, there is a method using a performance prediction model. Here, the performance prediction model is a model that predicts the performance of the target system (virtualized system that is the target of performance prediction) according to the input to the system (for example, as a typical example, a queue or regression analysis). ). The performance prediction method using such a performance prediction model includes mainly two types of methods described below.

まず、システムの動作を模倣した性能予測モデルを生成する方法について述べる。以降、本願では、このモデル生成方法を「ホワイトボックス的アプローチ」と称する。ホワイトボックス的アプローチでは、対象システムの動作を模倣可能なモデルを生成するためには、性能予測モデルの生成に際して、その対象システムの動作の詳細(例えば、設計情報等)が明確である必要がある。つまり、ホワイトボックス的アプローチによれば、係る対象システムの動作が明確であれば、他のシステムに置き換えた場合においても、性能予測モデルを容易に生成できる。   First, a method for generating a performance prediction model that imitates the operation of the system will be described. Hereinafter, this model generation method is referred to as a “white box approach” in the present application. In the white box approach, in order to generate a model that can mimic the behavior of the target system, details of the behavior of the target system (for example, design information, etc.) must be clear when generating the performance prediction model. . That is, according to the white box approach, if the operation of the target system is clear, the performance prediction model can be easily generated even when the target system is replaced with another system.

このような特徴を有するホワイトボックス的アプローチによって生成した性能予測モデルを用いて、対象システムの性能予測を行う例としては、非特許文献2と、特許文献2乃至5とが挙げられる。   Examples of performing performance prediction of a target system using a performance prediction model generated by a white-box approach having such characteristics include Non-Patent Document 2 and Patent Documents 2 to 5.

非特許文献2では、待ち行列理論に基づいて、性能予測モデルを生成している。より具体的に、非特許文献2では、動作内容が複雑である仮想マシンモニタの性能予測モデルの作成に際して、仮想化システムと、非仮想化システムとにおける物理マシンの動作の比較によって算出したオーバヘッド値を用いる。これにより、非特許文献2では、オーバヘッドをも考慮した性能予測モデルが作成できる。   In Non-Patent Document 2, a performance prediction model is generated based on queuing theory. More specifically, in Non-Patent Document 2, when creating a performance prediction model for a virtual machine monitor whose operation content is complicated, an overhead value calculated by comparing the operation of a physical machine between the virtualized system and the non-virtualized system Is used. Thereby, in Non-Patent Document 2, it is possible to create a performance prediction model that also considers overhead.

特許文献2は、コンピュータシステムの待ち行列モデルを生成する方法について開示する。より具体的に、特許文献2では、待ち行列モデルの生成を実施するに際して、ワークロード毎の応答時間の測定し、測定した応答時間と待ち行列モデルとに基づいて、クラス毎の平均サービスの重要度を推定する。更に、特許文献2では、係る推定した平均サービス需要とワークロードの特徴とを利用することにより、システム全体の待ち行列を生成する。   Patent Document 2 discloses a method for generating a queue model of a computer system. More specifically, in Patent Document 2, when generating a queuing model, the response time for each workload is measured, and the average service for each class is important based on the measured response time and the queuing model. Estimate the degree. Furthermore, in Patent Document 2, a queue for the entire system is generated by using the estimated average service demand and workload characteristics.

特許文献3では、ストレージの性能予測モデルを、ストレージ仮想化装置の各構成要素に対するモデル情報を用いて、ホワイトボックス的アプローチを利用することによって生成している。   In Patent Document 3, a storage performance prediction model is generated by using a white box approach using model information for each component of a storage virtualization apparatus.

特許文献4では、仮想化システムの性能予測モデルを、各構成要素の設計情報を用いて、ホワイトボックス的アプローチを利用することによって生成している。また、特許文献4では、データベースに記憶された仮想マシンモニタの種類毎にオーバヘッドを計測し、計測したオーバヘッドを性能計算式に反映することで、係るオーバヘッドが考慮された性能予測モデルを求めている。   In Patent Document 4, a performance prediction model of a virtualization system is generated by using a white box approach using design information of each component. In Patent Document 4, an overhead is measured for each type of virtual machine monitor stored in a database, and the measured overhead is reflected in a performance calculation formula to obtain a performance prediction model in consideration of the overhead. .

そして、特許文献5では、階層的な競合資源を持つシステムを、上位層(ソフトウェア部分)と下位層(ハードウェア部分)とに分け、それら階層毎に生成した性能予測モデルを、システム全体の性能予測結果として扱う。その際、特許文献5では、性能予測モデルの生成方法として、当該上位層及び下位層共に、ホワイトボックス的アプローチを用いている。   In Patent Document 5, a system having hierarchical competitive resources is divided into an upper layer (software part) and a lower layer (hardware part), and a performance prediction model generated for each layer is used as the performance of the entire system. Treat as a prediction result. At that time, in Patent Document 5, a white box approach is used as a method for generating a performance prediction model for both the upper layer and the lower layer.

次に、システムへの入力値と、その入力値に対応する出力値を基に、統計処理や機械学習を利用することにより、性能予測モデルを生成方法について述べる。以降、本願では、このようなモデル生成方法を「ブラックボックス的アプローチ」と称する。ブラックボックス的アプローチでは、実測値を基にしたモデルを生成するので、オペレータ等は、対象システムの動作を明確に認識することは不要である。つまり、ブラックボックス的アプローチによれば、対象システムの動作が複雑であっても、その対象システムの性能予測モデルを生成することが可能である。   Next, a method for generating a performance prediction model by using statistical processing and machine learning based on an input value to the system and an output value corresponding to the input value will be described. Hereinafter, in the present application, such a model generation method is referred to as a “black box approach”. In the black box approach, a model based on actual measurement values is generated, so that it is not necessary for an operator or the like to clearly recognize the operation of the target system. That is, according to the black box approach, it is possible to generate a performance prediction model of the target system even if the operation of the target system is complicated.

ブラックボックス的アプローチによって生成した性能予測モデルを用いて、性能予測を行っている例としては、非特許文献3及び特許文献6が挙げられる。   Non-Patent Document 3 and Patent Document 6 are examples of performing performance prediction using a performance prediction model generated by a black box approach.

非特許文献3では、単体の仮想マシンが、仮想マシンモニタにおいて動作している状態における実測値と、線形モデルとを用いて、性能予測モデルを生成する。即ち、非特許文献3では、複数の仮想マシンが仮想マシンモニタにおいて動作する場合は、単体の仮想マシンが動作している状態における線形モデルの線形和を、性能予測モデルとしている。   In Non-Patent Document 3, a performance prediction model is generated by using a measured value in a state where a single virtual machine is operating in a virtual machine monitor and a linear model. That is, in Non-Patent Document 3, when a plurality of virtual machines operate on a virtual machine monitor, the performance prediction model is a linear sum of linear models in a state where a single virtual machine is operating.

特許文献6では、負荷データと実測値とを基にしたオーバヘッドを表すデータを、ホストOS(Operating System)の負荷再生機能によって再生することにより、複数の仮想マシンが動作する仮想化システムを再現する。そして、特許文献6では、係る再現した複数の仮想マシンが動作する状況において、ゲストOSの評価対象アプリケーションの再生によって得られる実測値を利用することにより、当該仮想化システムの性能評価を行う。   In Patent Document 6, data representing overhead based on load data and measured values is reproduced by a load reproduction function of a host OS (Operating System) to reproduce a virtualization system in which a plurality of virtual machines operate. . And in patent document 6, the performance evaluation of the said virtualization system is performed by utilizing the measured value obtained by reproduction | regeneration of the evaluation object application of guest OS in the condition where the reproduced some said virtual machine operate | moves.

そして、上述した2種類の性能予測モデルの生成方法をどちらも用いたアプローチとして、特許文献7が挙げられる。特許文献7では、複数のソフトウェア・コンポーネントによって構成される対象システムの性能を予測する方法について開示する。具体的に、特許文献7は、当該各ソフトウェア・コンポーネントの動作に際して実測によって得られたシステム資源使用量を、性能データとしてデータベースに蓄積する。次に、特許文献7は、蓄積した性能データの中から、対象システムを構成している当該各ソフトウェア・コンポーネントのシステム資源使用量を抽出し、抽出した結果の和に基づいて、トランザクション処理に必要なシステム資源使用を予測する。そして、特許文献7は、予測したトランザクション処理の資源使用量と待ち行列理論とによって、当該対象システム全体の性能予測を行う。   Patent Document 7 is an approach that uses both of the two types of performance prediction model generation methods described above. Patent Document 7 discloses a method for predicting the performance of a target system composed of a plurality of software components. Specifically, in Patent Document 7, the system resource usage obtained by actual measurement during the operation of each software component is stored in a database as performance data. Next, Patent Document 7 extracts the system resource usage of each software component constituting the target system from the accumulated performance data, and is necessary for transaction processing based on the sum of the extracted results. Predict system resource usage. Patent Document 7 predicts the performance of the entire target system based on the predicted resource usage of transaction processing and queuing theory.

特開2010−009160号公報JP 2010-009160 A 特開2011−086295号公報JP 2011-086295 A 特開2006−146354号公報JP 2006-146354 A 特開2012−146015号公報JP 2012-146015 A 特開2000−029753号公報JP 2000-029753 A 特開2010−128866号公報JP 2010-128866 A 特開2004−220453号公報JP 2004-220453 A

網代育大,田中淳裕,仮想計算機環境における資源管理オーバヘッドの評価,情報処理学会研究報告(EVA),17−22,2006Ajishiro Ikudai, Tanaka Yasuhiro, Evaluation of resource management overhead in virtual machine environment, Information Processing Society of Japan (EVA), 17-22, 2006 Performance Models For Virtualized Applications,Febricio Benevenuto,Cesar Fernandes,Matheus Santos,Virgilio Almeida,Jussara Almeida,G.(John)Janakiraman,and Jose Renato Santos, ISPA ,2006International Society for the Performing Arts 2006 Workshops,Lecture Notes in Computer Science,2006,Volume4331/2006,pp427−439Performance Models For Virtualized Applications, Febricio Benevento, Cesar Fernandez, Matheus Santos, Virgilio Almeida, Jussara Almeida. (John) Janakiraman, and Jose Renato Santos, ISPA, 2006 International Society for the Performing Arts 2006 Workshops, Lecture Notes in Computer 39, 43/39 Untangling Mixed Informantion To Calibrate Resource Utilization In Virtual Machines,Lei Lu,Hui Zhang,Guofei Jiang,Haifeng Chen,Kenji Yoshihira,Evgenia Smirni,International Conference on Autonomic Computing 2011,Proceeding of the 8th ACM International Conference on Autonomic computing,pp151−160ICAC ,2011Untangling Mixed Informantion To Calibrate Resource Utilization In Virtual Machines, Lei Lu, Hui Zhang, Guofei Jiang, Haifeng Chen, Kenji Yoshihira, Evgenia Smirni, International Conference on Autonomic Computing 2011, Proceeding of the 8th ACM International Conference on Autonomic computing, pp151-160ICAC , 2011

仮想化システムの性能予測方法である特許文献4に開示された手法は、仮想マシンモニタの種類毎に計測したオーバヘッドをデータベースに記憶しておき、これらのオーバヘッドを性能計算式に反映する。これにより、特許文献4に開示された手法は、係るオーバヘッドを考慮した性能予測方法を実現している。   The technique disclosed in Patent Document 4 which is a performance prediction method for a virtualized system stores overhead measured for each type of virtual machine monitor in a database, and reflects these overheads in a performance calculation formula. Thereby, the method disclosed in Patent Document 4 realizes a performance prediction method considering such overhead.

特許文献1は、仮想化システムの性能予測値算出装置に、オーバヘッドを含んだ性能予測関数や性能予測モデルを用いる技術を開示する。   Patent Document 1 discloses a technique that uses a performance prediction function and a performance prediction model including overhead in a performance prediction value calculation device of a virtualization system.

しかしながら、係る特許文献1及び4は、仮想マシンが単体動作する性能予測方法について開示するに留まり、複数台の仮想マシンが動作することによるリソース競合の発生については考慮されていない。   However, Patent Documents 1 and 4 only disclose a performance prediction method in which a virtual machine operates alone, and does not consider the occurrence of resource contention due to the operation of a plurality of virtual machines.

一方、特許文献5では、ホストOSにおいて複数の仮想マシンが動作する状況を作り出し、その状況において、ゲストOSにおいて動作する評価対象アプリケーションの実測による性能予測を行う。また、特許文献5では、係る複数の仮想マシンが動作する状況におけるオーバヘッドを考慮している。しかし、特許文献5では、実測値による性能予測を行っているため、仮想マシンのスペックが変更された場合は、変更の毎に当該評価対象アプリケーションを実測しなければならないので、工数(コスト)を要することが問題である。   On the other hand, in Patent Document 5, a situation in which a plurality of virtual machines operate in the host OS is created, and performance prediction is performed by actually measuring an evaluation target application operating in the guest OS in the situation. In Patent Document 5, overhead in a situation where a plurality of virtual machines operate is considered. However, in Patent Document 5, since performance prediction is performed based on actual measurement values, when the specification of the virtual machine is changed, the application to be evaluated must be actually measured every time the change is made. It's a problem.

また、仮想化環境の性能を、モデルを用いて予測する方法では、非特許文献1と、特許文献3及び4に関して上述したように、対象システムの構成要素に関する詳細に基づいて、ホワイトボックス的アプローチによる性能予測モデルの生成を行う。係るホワイトボックス的アプローチでのモデル生成は、当該対象システムの動作の詳細が明確である必要がある。特に、ホワイトボックス的アプローチでは、仮想化環境における仮想マシンモニタの動作は複雑であるため、仮想マシンを含んだホワイトボックス的アプローチによるモデル生成には、煩雑な作業が必要となる。   Further, in the method of predicting the performance of the virtual environment using a model, as described above with respect to Non-Patent Document 1 and Patent Documents 3 and 4, a white-box approach is performed based on details regarding the components of the target system. Generates a performance prediction model using The details of the operation of the target system need to be clear for model generation by such a white box approach. In particular, in the white box approach, the operation of the virtual machine monitor in a virtual environment is complicated, and therefore, the model generation by the white box approach including a virtual machine requires complicated work.

そこで、本発明は、1台の物理マシンにおいて動作する仮想マシンが単体もしくは複数台の場合であっても、仮想化システムの性能を容易に予測することができる性能予測装置等の提供を主たる目的とする。   Accordingly, the present invention mainly provides a performance prediction apparatus and the like that can easily predict the performance of a virtualization system even when the number of virtual machines operating on one physical machine is single or multiple. And

上記の目的を達成すべく、本発明に係る仮想化システムの性能予測装置は、以下の構成を備えることを特徴とする。   In order to achieve the above object, a performance prediction apparatus for a virtualization system according to the present invention comprises the following configuration.

即ち、本発明に係る仮想化システムの性能予測装置は、
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成する第1の性能予測モデル生成部と、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成する第2の性能予測モデル生成部と、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する合成処理により、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する性能予測モデル合成部と、
を備えることを特徴とする。
That is, the performance prediction device of the virtualization system according to the present invention is
A first performance prediction model generation unit that generates a performance prediction model of the application layer based on information related to the application that operates in a virtual machine executed in a virtualization system including an application layer and a hardware layer When,
A second performance prediction model generation unit that generates a performance prediction model of the hardware layer based on the measurement result of the virtualization system;
By combining the performance prediction model of the application layer and the performance prediction model of the hardware layer, the output value in the performance prediction model of one layer is used as the input value in the performance prediction model of the other layer. , A performance prediction model synthesis unit that generates a performance prediction model of the virtualization system in which the dependency relationship between the two layers is reflected;
It is characterized by providing.

尚、同目的を達成すべく、本発明に係る仮想化システムの性能予測方法は、以下の構成を備えることを特徴とする。   In order to achieve the object, the virtualization system performance prediction method according to the present invention is characterized by having the following configuration.

即ち、本発明に係る仮想化システムの性能予測方法は、
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成し、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成し、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用することにより、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する
ことを特徴とする。
That is, the performance prediction method of the virtualization system according to the present invention is:
Generate a performance prediction model of the application layer based on information about the application that operates in a virtual machine executed in a virtualization system composed of an application layer and a hardware layer,
Based on the measurement result of the virtualization system, generate a performance prediction model of the hardware layer,
Targeting the performance prediction model of the application layer and the performance prediction model of the hardware layer, by using the output value in the performance prediction model of one layer as an input value in the performance prediction model of the other layer, A performance prediction model of the virtual system reflecting the dependency relationship between the two layers is generated.

また、同目的は、上記構成を有する仮想化システムの性能予測装置、並びに対応する方法を、コンピュータによって実現するコンピュータ・プログラム、及びそのコンピュータ・プログラムが格納されている、コンピュータ読み取り可能な記憶媒体によっても達成される。   Further, the same object is achieved by a computer program for realizing a performance prediction apparatus for a virtualization system having the above-described configuration and a corresponding method by a computer, and a computer-readable storage medium storing the computer program. Is also achieved.

上記の本発明によれば、1台の物理マシンにおいて動作する仮想マシンが単体もしくは複数台の場合であっても、仮想化システムの性能を容易に予測することができる。   According to the present invention described above, the performance of the virtualization system can be easily predicted even when the number of virtual machines operating on one physical machine is single or multiple.

本発明の第1の実施形態に係る、仮想化システムの性能予測装置の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the performance prediction apparatus of the virtualization system based on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る、仮想化システムの性能予測装置の前提条件を概念的に説明する図である。It is a figure which illustrates notionally the precondition of the performance prediction apparatus of the virtualization system based on the 1st Embodiment of this invention. 図1に示す仮想化環境の性能予測モデル合成部303による合成処理方法を説明するブロック図である。It is a block diagram explaining the synthetic | combination processing method by the performance prediction model synthetic | combination part 303 of the virtual environment shown in FIG. 第1の実施形態において、仮想化環境の性能予測モデル合成部103が行う性能予測処理(合成処理)を概念的に説明する図である。FIG. 3 is a diagram conceptually illustrating a performance prediction process (synthesis process) performed by a performance prediction model synthesis unit 103 in a virtual environment in the first embodiment. 第1の実施形態においてハードウェア層の性能予測モデル302が出力する性能指標を例示する図である。It is a figure which illustrates the performance parameter | index which the performance prediction model 302 of a hardware layer outputs in 1st Embodiment. 図6は、本発明の第2の実施形態に係る性能予測装置の機能構成を示すブロック図である。FIG. 6 is a block diagram showing a functional configuration of the performance prediction apparatus according to the second embodiment of the present invention. 本発明の第2の実施形態に係る性能予測装置10による性能予測処理の概要を示すフローチャートである。It is a flowchart which shows the outline | summary of the performance prediction process by the performance prediction apparatus 10 which concerns on the 2nd Embodiment of this invention. 第2の実施形態において、ハードウェア層の性能予測モデル生成部102が性能予測モデル302を生成する処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure for generating a performance prediction model 302 by a hardware layer performance prediction model generation unit 102 according to the second embodiment. 図6に示す仮想化環境の性能予測モデル合成部103における、仮想化環境の性能予測モデル303の合成方法を概念的に表した説明図である。It is explanatory drawing which represented notionally the synthesis | combining method of the performance prediction model 303 of a virtual environment in the performance prediction model synthetic | combination part 103 of the virtual environment shown in FIG. 第2の実施形態において、仮想化環境の性能予測モデル合成部103が行う合成処理(性能予測)の手順を示すフローチャートである。10 is a flowchart illustrating a procedure of a synthesis process (performance prediction) performed by a performance prediction model synthesis unit 103 in a virtual environment in the second embodiment. 本発明の第1及び第2の実施形態の変形例に係る、仮想化システムの性能予測装置の前提条件を概念的に説明する図である。It is a figure which illustrates notionally the precondition of the performance prediction apparatus of the virtualization system which concerns on the modification of the 1st and 2nd embodiment of this invention. 本発明の各実施形態及びその変形例を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。It is a figure which illustrates illustratively the hardware constitutions of the computer (information processing apparatus) which can implement | achieve each embodiment and its modification of this invention.

次に、本発明を実施する形態について図面を参照して詳細に説明する。   Next, embodiments of the present invention will be described in detail with reference to the drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態に係る、仮想化システムの性能予測装置の機能構成を示すブロック図である。
<First Embodiment>
FIG. 1 is a block diagram showing a functional configuration of a performance prediction apparatus for a virtualization system according to the first embodiment of the present invention.

図1において、性能予測装置1は、仮想化システム2と通信可能に接続されている。仮想化システム2は、性能予測装置1が性能を予測すべき対象(以下、「対象システム」または「仮想化環境」とも称する場合がある)である。性能予測装置1と、仮想化システム2との接続方法は、例えば、インターネットやLAN(Local Area Network)等の一般的な通信手段を採用することができる。よって、本実施形態では、係る通信手段に関する詳細な説明は省略する。   In FIG. 1, the performance prediction device 1 is connected to a virtualization system 2 so as to be communicable. The virtualization system 2 is a target (hereinafter also referred to as “target system” or “virtualized environment”) for which the performance prediction apparatus 1 should predict performance. As a connection method between the performance prediction apparatus 1 and the virtualization system 2, for example, general communication means such as the Internet or a LAN (Local Area Network) can be employed. Therefore, in this embodiment, detailed description regarding the communication means is omitted.

本実施形態において、仮想化システム2の性能予測装置1は、アプリケーション層の性能予測モデル生成部(第1の性能予測モデル生成部)101と、ハードウェア層の性能予測モデル生成部(第2の性能予測モデル生成部)102と、仮想化環境の性能予測モデル合成部103とを有する。   In the present embodiment, the performance prediction device 1 of the virtualization system 2 includes an application layer performance prediction model generation unit (first performance prediction model generation unit) 101 and a hardware layer performance prediction model generation unit (second A performance prediction model generation unit) 102 and a performance prediction model synthesis unit 103 of a virtual environment.

即ち、アプリケーション層の性能予測モデル生成部101は、アプリケーション層とハードウェア層とからなる仮想化システム2にて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、当該アプリケーション層の性能予測モデル(301)を生成する。   That is, the performance prediction model generation unit 101 of the application layer is based on information about the application that operates in the virtual machine executed by the virtualization system 2 including the application layer and the hardware layer. A performance prediction model (301) is generated.

ハードウェア層の性能予測モデル生成部102は、仮想化システム2を計測した結果に基づいて、当該ハードウェア層の性能予測モデル(302)を生成する。   The performance prediction model generation unit 102 of the hardware layer generates a performance prediction model (302) of the hardware layer based on the measurement result of the virtualization system 2.

仮想化環境の性能予測モデル合成部103は、当該アプリケーション層の性能予測モデル(301)と、当該ハードウェア層の性能予測モデル(302)とを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する合成処理により、それら2層間の依存関係が反映された、仮想化システム2の性能予測モデルを生成する。   The performance prediction model synthesis unit 103 of the virtual environment outputs the output value in the performance prediction model of one layer for the performance prediction model (301) of the application layer and the performance prediction model (302) of the hardware layer. Is used as an input value in the performance prediction model of the other layer to generate a performance prediction model of the virtualization system 2 in which the dependency relationship between the two layers is reflected.

以下、上述した構成を有する性能予測装置1のより具体的な構成例について詳細に説明する。   Hereinafter, a more specific configuration example of the performance prediction apparatus 1 having the above-described configuration will be described in detail.

性能予測装置1は、アプリケーション層及びハードウェア層なる2つの層の動作の特徴を反映したモデルを生成することにより、当該各層の性能を予測することができる。本実施形態におけるモデルの生成には、少なくとも、性能予測対象のシステムの実測値によりモデルを構築する第2の方法と、システムの動作の詳細を模倣するモデルを作成する第1の方法とを用いることとする。具体的には、本実施形態において、モデルの生成には、例えば、待ち行列理論や回帰分析手法などを採用することができる。これらモデル生成の方法自体には、現在では一般的な手法を採用することができるので、本実施形態における詳細な説明は省略する。性能予測装置1によって生成された最終成果物としてのモデルは、「性能予測モデル」と称することとする(以下の実施形態においても同様)。   The performance prediction apparatus 1 can predict the performance of each layer by generating a model reflecting the operation characteristics of the two layers, that is, the application layer and the hardware layer. For generation of the model in the present embodiment, at least a second method for constructing a model based on an actual measurement value of a performance prediction target system and a first method for creating a model that imitates the details of the operation of the system are used. I will do it. Specifically, in the present embodiment, for example, queuing theory or regression analysis method can be employed for generating the model. As these model generation methods themselves, a general method can be adopted at present, and a detailed description in this embodiment will be omitted. The model as the final product generated by the performance prediction apparatus 1 is referred to as a “performance prediction model” (the same applies to the following embodiments).

尚、性能予測装置1を実現可能なハードウェア構成(ハードウェア資源)については、図12を参照して後述する。   A hardware configuration (hardware resource) capable of realizing the performance prediction apparatus 1 will be described later with reference to FIG.

次に、本実施形態における前提条件について、図2を参照して説明する。図2は、本発明の第1の実施形態に係る、仮想化システムの性能予測装置の前提条件を概念的に説明する図である。本実施形態では、性能予測装置1によって仮想化システム(対象システム)2の性能を予測するに際して、その仮想化システムの構成が階層的な構成をなす、と定義する。   Next, preconditions in the present embodiment will be described with reference to FIG. FIG. 2 is a diagram conceptually illustrating the preconditions of the performance prediction apparatus for the virtualization system according to the first embodiment of the present invention. In this embodiment, when the performance prediction device 1 predicts the performance of the virtualization system (target system) 2, it is defined that the configuration of the virtualization system has a hierarchical configuration.

図2では、仮想化システム2を、一例として、モノリシック・ハイパーバイザ型で構築している。但し、仮想化システム2の構成方法は、仮想マシンモニタがホストOS(Operating System)において動作するホストOS型や、仮想マシンモニタが仮想化環境を提供するための最低限の機能しか持たないマイクロカーネル・ハイパーバイザ型でもよい。即ち、仮想化システム2の構成方法は、一つの物理マシンにおいて、仮想マシンが動作できる環境が実現できる方法であれば、何れの方法でも採用することができる。   In FIG. 2, the virtualization system 2 is constructed as a monolithic hypervisor type as an example. However, the configuration method of the virtualization system 2 includes a host OS type in which the virtual machine monitor operates in a host OS (Operating System), and a microkernel having a minimum function for the virtual machine monitor to provide a virtual environment. -A hypervisor type may be used. That is, the configuration method of the virtualization system 2 can be adopted by any method as long as it can realize an environment in which a virtual machine can operate in one physical machine.

第1の実施形態における仮想化システム2は、一般的な仮想化システムと同様に、仮想マシン201、仮想マシンモニタ(ハイパーバイザ)202、および物理マシンのハードウェア203という3層をなす。仮想マシン201は、図2に示すように、n台(但し、nは0を含む自然数)であり、単体である複数であるかは限定されない。   The virtualization system 2 in the first embodiment has three layers: a virtual machine 201, a virtual machine monitor (hypervisor) 202, and hardware of a physical machine 203, as in a general virtualization system. As shown in FIG. 2, there are n virtual machines 201 (where n is a natural number including 0), and it is not limited whether there are a plurality of virtual machines.

個々の仮想マシン201は、図2に例示するように、ゲストOS環境を提供すると共に、1つ以上の任意のアプリケーション(AP)を実行することができる。そして、本実施形態では、係る3層構造をなす仮想化システム(対象システム)2を、以下の通り2層(2階層)と定義する。即ち、
・仮想マシン201によって構成されるアプリケーション層204、
・仮想マシンモニタ202と、物理マシンのハードウェア203とによって構成されるハードウェア層205。
Each virtual machine 201 can provide a guest OS environment and execute one or more arbitrary applications (AP) as illustrated in FIG. In this embodiment, the virtualization system (target system) 2 having the three-layer structure is defined as two layers (two layers) as follows. That is,
An application layer 204 configured by the virtual machine 201,
A hardware layer 205 composed of a virtual machine monitor 202 and physical machine hardware 203.

換言すると、係る3層構造をなす仮想化システム2の性能を予測するに際して、性能予測装置1は、上記2層として取り扱う。そして、性能予測装置1は、係る定義を前提として、仮想化システム2の性能を予測する。ここで、性能予測装置1への定義の仕方としては、例えば、仮想マシン201をアプリケーション層204と関連付けて(紐付けて)登録し、仮想マシンモニタ202と物理マシンのハードウェア203とをハードウェア層205と関連付けて登録すればよい。   In other words, when predicting the performance of the virtualization system 2 having such a three-layer structure, the performance prediction apparatus 1 handles the two layers. Then, the performance prediction apparatus 1 predicts the performance of the virtualization system 2 on the assumption of the definition. Here, as a method of definition in the performance prediction apparatus 1, for example, the virtual machine 201 is registered in association with (associated with) the application layer 204, and the virtual machine monitor 202 and the physical machine hardware 203 are connected to the hardware. Registration may be performed in association with the layer 205.

図3は、図1に示す仮想化環境の性能予測モデル合成部303による合成処理方法を説明するブロック図である。本実施形態において、性能予測モデル合成部103は、図3に示すように、アプリケーション層(204)の性能予測モデル301と、ハードウェア層(205)の性能予測モデル302を用いて、仮想化環境の性能予測モデル303とを合成する。   FIG. 3 is a block diagram illustrating a synthesis processing method performed by the performance prediction model synthesis unit 303 in the virtual environment illustrated in FIG. In this embodiment, the performance prediction model synthesis unit 103 uses a performance prediction model 301 of the application layer (204) and a performance prediction model 302 of the hardware layer (205) as shown in FIG. The performance prediction model 303 is synthesized.

より具体的に、アプリケーション層の性能予測モデル生成部101は、オペレータ等の操作に応じて、仮想化システム2にて実行される仮想マシン201において動作するところの、アプリケーションに関する情報に基づいて、アプリケーション層の性能予測モデル301を生成する。本実施形態において、性能予測モデル生成部101は、「背景技術」欄において上述したホワイトボックス的アプローチ(第1の方法)によって、性能予測モデル301を生成する。   More specifically, the performance prediction model generation unit 101 of the application layer is based on the information about the application that operates in the virtual machine 201 executed in the virtualization system 2 in accordance with an operation of an operator or the like. A layer performance prediction model 301 is generated. In the present embodiment, the performance prediction model generation unit 101 generates the performance prediction model 301 by the white box approach (first method) described above in the “background art” column.

即ち、ホワイトボックス的アプローチによるモデル生成とは、任意のシステムの設計情報を基に当該任意のシステムの動作を模倣したモデル生成手法である。具体的には、係るホワイトボックス的アプローチによるモデル生成手法としては、例えば、待ち行列理論やペトリネットを用いることができる。但し、同様のアプローチ方法が実現できる手法であれば、本実施形態における、アプリケーション層の性能予測モデルの生成方法は限定されない。例えば、対象システムの各構成要素の設計情報を用いた待ち行列を生成する特許文献4に開示された手法と同様の手法を採用してもよい。   That is, the model generation by the white box approach is a model generation method that imitates the operation of an arbitrary system based on design information of the arbitrary system. Specifically, for example, queuing theory or Petri net can be used as a model generation method based on the white box approach. However, as long as the same approach method can be realized, the method for generating the performance prediction model of the application layer in the present embodiment is not limited. For example, a method similar to the method disclosed in Patent Document 4 that generates a queue using design information of each component of the target system may be adopted.

一方、ハードウェア層の性能予測モデル生成部102は、仮想化システム2の計測によって得られた実測値を基に、「背景技術」欄において上述したブラックボックス的アプローチ(第2の方法)によって、ハードウェア層の性能予測モデル302を生成する。即ち、本実施形態において、ブラックボックス的アプローチによるモデル生成とは、任意のシステムへの入力値と、その入力値に対応する出力値を基に、統計処理や機械学習によってモデルを生成する手法である。具体的には、係るブラックボックス的アプローチによるモデル生成手法としては、例えば、回帰分析やニューラルネットワーク、遺伝的アルゴリズムを用いることができる。但し、同様のアプローチ方法が実現できる手法であれば、本実施形態における、ハードウェア層の性能予測モデルの生成方法は限定されない。例えば、仮想マシンモニタにて単体の仮想マシンが動作している状態における実測値と、線形モデルとを利用する非特許文献3に開示されたモデル生成手法を採用してもよい。   On the other hand, the performance prediction model generation unit 102 of the hardware layer uses the black box approach (second method) described above in the “Background Technology” column based on the actual measurement value obtained by the measurement of the virtualization system 2. A hardware layer performance prediction model 302 is generated. In other words, in this embodiment, model generation by a black box approach is a method of generating a model by statistical processing or machine learning based on an input value to an arbitrary system and an output value corresponding to the input value. is there. Specifically, for example, a regression analysis, a neural network, or a genetic algorithm can be used as a model generation method based on such a black box approach. However, the method for generating the performance prediction model of the hardware layer in the present embodiment is not limited as long as the same approach method can be realized. For example, a model generation method disclosed in Non-Patent Document 3 using an actual measurement value in a state where a single virtual machine is operating in a virtual machine monitor and a linear model may be employed.

次に、仮想化環境の性能予測モデル合成部103について説明する。   Next, the performance prediction model synthesis unit 103 of the virtual environment will be described.

一般に、仮想化システム(仮想化環境)において、アプリケーション層にて実行される仮想マシンは、ハードウェア層を構成するハードウェアリソースを使用することによって所望のアプリケーション(処理)を実行する。そのため、アプリケーション層とハードウェア層との間には依存関係がある。つまり、アプリケーション層とハードウェア層とを別々に分けた状態では、性能を予測すべき対象である当該仮想化システムの性能を正確に予測することはできない。   Generally, in a virtualized system (virtualized environment), a virtual machine executed in an application layer executes a desired application (processing) by using hardware resources constituting the hardware layer. Therefore, there is a dependency between the application layer and the hardware layer. In other words, in a state where the application layer and the hardware layer are separately provided, it is impossible to accurately predict the performance of the virtualization system, which is a target for which the performance is to be predicted.

これに対して、本実施形態に係る仮想化環境の性能予測モデル合成部103は、アプリケーション層204とハードウェア層205との間に存在する依存関係が考慮された性能予測が可能である。即ち、性能予測モデル合成部103は、アプリケーション層の性能予測モデル生成部101によって生成されたところの、アプリケーション層の性能予測モデル301と、ハードウェア層の性能予測モデル102によって生成されたところの、ハードウェア層の性能予測モデル302とを用いて、仮想化システム2の性能予測モデル303を生成することにより、当該仮想化システム全体の性能予測を可能とする。この性能予測の手順について、図4を参照して、以下に具体的に説明する。   On the other hand, the performance prediction model composition unit 103 of the virtual environment according to the present embodiment can perform performance prediction in consideration of the dependency relationship existing between the application layer 204 and the hardware layer 205. That is, the performance prediction model synthesis unit 103 is generated by the performance prediction model 301 of the application layer and the performance prediction model 102 of the hardware layer, which is generated by the performance prediction model generation unit 101 of the application layer. By generating the performance prediction model 303 of the virtualization system 2 using the performance prediction model 302 of the hardware layer, it is possible to predict the performance of the entire virtualization system. The procedure of this performance prediction will be specifically described below with reference to FIG.

図4は、第1の実施形態において、仮想化環境の性能予測モデル合成部103が行う性能予測処理(合成処理)を概念的に説明する図である。   FIG. 4 is a diagram conceptually illustrating the performance prediction process (synthesis process) performed by the performance prediction model synthesis unit 103 in the virtual environment in the first embodiment.

仮想化環境の性能予測モデル合成部103は、アプリケーション層の性能予測モデル301によって算出したハードウェアリソース(物理マシン)へのリソース要求808を、ハードウェア層の性能予測モデル302に入力する。ここで、ハードウェアリソースへのリソース要求808は、係るハードウェアリソースを、アプリケーション層の性能予測モデル301がどのように使用するかに関する情報を含む。   The performance prediction model composition unit 103 of the virtual environment inputs the resource request 808 for the hardware resource (physical machine) calculated by the performance prediction model 301 of the application layer to the performance prediction model 302 of the hardware layer. Here, the resource request 808 for the hardware resource includes information regarding how the performance prediction model 301 of the application layer uses the hardware resource.

そして、係るリソース要求808が入力されるのに応じて、ハードウェア層の性能予測モデル302は、対象システム2全体の性能を予測することが可能な性能指標(後述する性能指標809(図9)に相当)を、オペレータ等に提供することができる。ここで、性能指標とは、例えば、ハードウェアリソースの使用率、TAT(Turn Around Time)、スループット等)である。係る性能指標は、例えば図5に例示する如くオペレータ等に提供される。仮想化環境の性能予測モデル合成部103は、入力されたリソース要求808に応じた処理が完了すると、当該リソース要求に関する処理完了通知810を、アプリケーション層の性能予測モデル301に入力する。   In response to the input of the resource request 808, the hardware layer performance prediction model 302 can predict the performance of the entire target system 2 (a performance index 809 (FIG. 9) described later). Can be provided to an operator or the like. Here, the performance index is, for example, a usage rate of hardware resources, TAT (Turn Around Time), throughput, and the like. Such a performance index is provided to an operator or the like as exemplified in FIG. When the processing according to the input resource request 808 is completed, the performance prediction model composition unit 103 of the virtual environment inputs a processing completion notification 810 regarding the resource request to the performance prediction model 301 of the application layer.

図5は、第1の実施形態においてハードウェア層の性能予測モデル302が出力する性能指標を例示する図である。より具体的に、図5に示す例では、同一のシステムに対して、最大スレッド数を増やした場合(100、300、・・・、1900)の、最大スレッド数に対する「CPU使用率(%)」、「スループット(tps:トランザクション数毎秒)」、及び「TAT(ms:ミリ秒)」を表す。   FIG. 5 is a diagram illustrating a performance index output by the hardware layer performance prediction model 302 in the first embodiment. More specifically, in the example illustrated in FIG. 5, “CPU usage rate (%) with respect to the maximum number of threads when the maximum number of threads is increased (100, 300,..., 1900) for the same system. ”,“ Throughput (tps: number of transactions per second) ”, and“ TAT (ms: milliseconds) ”.

更に、仮想化環境の性能予測モデル合成部103は、図4に示すように、ハードウェア層の性能予測モデル302における、リソース要求に関する処理の完了通知810を、アプリケーション層の性能予測モデル301に入力する。   Further, as shown in FIG. 4, the performance prediction model synthesis unit 103 of the virtual environment inputs a process completion notification 810 regarding the resource request in the hardware layer performance prediction model 302 to the performance prediction model 301 of the application layer. To do.

即ち、本実施形態に係る仮想化環境の性能予測モデル合成部103によれば、アプリケーション層の性能予測モデルと、ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する。このような処理構成によって生成される対象システムの性能予測モデル303によれば、当該2層間の依存関係を考慮した性能予測が実現する。本実施形態では、係る2層間の依存関係を用いた性能予測処理を、合成(合成処理)とも称することとする。   That is, according to the performance prediction model synthesis unit 103 of the virtual environment according to the present embodiment, the output in the performance prediction model of one layer is targeted for the performance prediction model of the application layer and the performance prediction model of the hardware layer. The value is used as an input value in the performance prediction model of the other layer. According to the performance prediction model 303 of the target system generated by such a processing configuration, performance prediction considering the dependency relationship between the two layers is realized. In the present embodiment, the performance prediction process using the dependency relationship between the two layers is also referred to as synthesis (synthesis process).

本実施形態の効果について、以下に述べる。本実施形態では、仮想マシン201の動作の詳細が明確なアプリケーション層204の性能予測モデルの生成に、ホワイトボックス的アプローチ(第1の方法)を用いた。即ち、ホワイトボックス的アプローチを用いて生成した性能予測モデルは、一般に、仮想マシン毎にシステム構成が明確である。これにより、本実施形態において、アプリケーション層の性能予測モデル生成部101は、アプリケーション層204において複数台の仮想マシン201が動作する必要がある場合においても、追加すべき仮想マシンを単に追加するだけで、アプリケーション層の性能予測モデル301を容易に生成できる。よって本実施形態によれば、ブラックボックス的アプローチ(第2の方法)を採用した場合のように、仮想マシンの台数に応じて計測し直すような手間(コスト)を要することなく、アプリケーション層204に仮想マシン201を容易に追加することができる。   The effect of this embodiment will be described below. In the present embodiment, the white box approach (first method) is used to generate the performance prediction model of the application layer 204 in which the details of the operation of the virtual machine 201 are clear. In other words, the performance prediction model generated using the white box approach generally has a clear system configuration for each virtual machine. Thus, in the present embodiment, the performance prediction model generation unit 101 of the application layer simply adds a virtual machine to be added even when a plurality of virtual machines 201 need to operate in the application layer 204. The performance prediction model 301 of the application layer can be easily generated. Therefore, according to the present embodiment, the application layer 204 does not require the trouble (cost) of re-measurement according to the number of virtual machines as in the case where the black box approach (second method) is adopted. The virtual machine 201 can be added easily.

一方で、本実施形態では、ハードウェア層の性能予測モデル302の生成に、ブラックボックス的アプローチ(第2の方法)を用いた。即ち、ホワイトボックス的アプローチによってハードウェア層205に関する性能予測モデルを生成仕様とした場合、動作が複雑な各構成要素(仮想マシンモニタ202、物理マシン203等)の仕様を、モデルの生成に先だって明確に設定する必要がある。これに対して、ブラックボックス的アプローチを用いて生成した性能予測モデルは、実測値を用いてモデルを生成するので、動作が複雑な当該各構成要素について動作が不明確なままでも、ハードウェア層の性能予測モデル302を生成することができる。即ち、ブラックボックス的アプローチは、ホワイトボックス的アプローチのように、システムの動作を明確に把握する必要が無いので、係る性能予測モデル302を容易に生成することができる。従って、ハードウェア層の性能予測モデル生成部102によれば、仮想マシンモニタ202におけるエミュレーションや、物理マシンのハードウェア203におけるリソース競合等の詳細を明示的に記述することなく、これらが及ぼす性能への影響が正しく考慮された性能予測モデル302が生成できる。   On the other hand, in this embodiment, a black box approach (second method) is used to generate the performance prediction model 302 of the hardware layer. In other words, when the performance prediction model related to the hardware layer 205 is set as the generation specification by the white box approach, the specifications of each component (virtual machine monitor 202, physical machine 203, etc.) having complicated operations are clarified prior to generation of the model. Must be set to On the other hand, the performance prediction model generated using the black box approach generates the model using the actual measurement value, so even if the operation is unclear for each component that has a complex operation, the hardware layer The performance prediction model 302 can be generated. That is, unlike the white box approach, the black box approach does not require a clear understanding of the system operation, and thus the performance prediction model 302 can be easily generated. Therefore, according to the performance prediction model generation unit 102 of the hardware layer, the performance exerted by the virtual machine monitor 202 can be achieved without explicitly describing details such as emulation in the virtual machine monitor 202 and resource competition in the hardware 203 of the physical machine. Thus, the performance prediction model 302 in which the influence of the above is correctly considered can be generated.

そして、本実施形態に係る仮想化環境の性能予測モデル合成部103によれば、上述したアプリケーション層の性能予測モデル301と、ハードウェア層の性能予測モデル302とを利用する合成処理により、これら各層間の依存性が考慮された、仮想化環境の性能予測モデル303を生成することができる。即ち、係る性能予測モデル303によれば、仮想化システム(対象システム)2全体の性能を、正確に予測することができる。   Then, according to the performance prediction model synthesis unit 103 of the virtual environment according to the present embodiment, each of these is performed by the synthesis process using the performance prediction model 301 of the application layer and the performance prediction model 302 of the hardware layer. It is possible to generate a performance prediction model 303 of a virtual environment in which inter-layer dependencies are taken into consideration. That is, according to the performance prediction model 303, the performance of the entire virtualization system (target system) 2 can be accurately predicted.

このように、本実施形態によれば、アプリケーション層204とハードウェア層205とにおける仮想化システム2の動作の特徴を考慮した性能予測方法が採用される。従って、本実施形態に係る性能予測装置1によれば、オーバヘッドや、リソース競合の詳細についてオペレータ等が明確に把握していない場合であっても、係る仮想化システム2の性能を容易且つ正確に予測することが可能である。尚、実施形態におけるオーバヘッドとは、例えば、物理マシンのハードウェア203によって発生するオーバヘッドや、仮想マシンモニタ202におけるエミュレーションによって発生するオーバヘッドが想定される。また、リソース競合とは、例えば、複数トランザクションの同時実行により発生するハードウェアリソースの競合や、仮想マシンモニタ202が同時に複数の仮想マシンの仮想ハードウェアをエミュレーションすることによるソフトウェアの競合が想定される。   Thus, according to the present embodiment, a performance prediction method that takes into consideration the characteristics of the operation of the virtualization system 2 in the application layer 204 and the hardware layer 205 is employed. Therefore, according to the performance prediction apparatus 1 according to the present embodiment, the performance of the virtualization system 2 can be easily and accurately obtained even when the operator or the like does not clearly understand the details of overhead and resource competition. It is possible to predict. The overhead in the embodiment is assumed to be, for example, an overhead caused by the hardware 203 of the physical machine or an overhead caused by emulation in the virtual machine monitor 202. The resource conflict is assumed to be, for example, a hardware resource conflict caused by simultaneous execution of a plurality of transactions, or a software conflict caused by the virtual machine monitor 202 emulating virtual hardware of a plurality of virtual machines at the same time. .

<第2の実施形態>
次に、上述した第1の実施形態に係る性能予測装置1を基本とする第2の実施形態について説明する。以下の説明においては、本実施形態に係る特徴的な部分を中心に説明する。その際、上述した第1の実施形態と同様な構成については、同一の参照番号を付すことにより、重複する説明は省略する。また、本実施形態においても、性能予測装置10は、第1の実施形態において図2を参照して説明した2層(即ち、アプリケーション層204及びハードウェア層205)を構成することを前提条件とする。
<Second Embodiment>
Next, a second embodiment based on the performance prediction device 1 according to the first embodiment described above will be described. In the following description, the characteristic part according to the present embodiment will be mainly described. At this time, the same reference numerals are assigned to the same configurations as those in the first embodiment described above, and the duplicate description is omitted. Also in this embodiment, the performance prediction apparatus 10 is assumed to configure the two layers (that is, the application layer 204 and the hardware layer 205) described with reference to FIG. 2 in the first embodiment. To do.

第2の実施形態としての性能予測装置10を、図6を参照して説明をする。図6は、本発明の第2の実施形態に係る性能予測装置の機能構成を示すブロック図である。   A performance prediction apparatus 10 as a second embodiment will be described with reference to FIG. FIG. 6 is a block diagram showing a functional configuration of the performance prediction apparatus according to the second embodiment of the present invention.

本実施形態における性能予測装置10は、アプリケーション層の性能予測モデル特定部104と、ハードウェア層の性能予測モデル生成部102と、仮想化環境の性能予測モデル合成部103と、入力内容指定部401と、情報収集部402と、記憶部3とを有する。   The performance prediction apparatus 10 according to the present embodiment includes an application layer performance prediction model identification unit 104, a hardware layer performance prediction model generation unit 102, a virtual environment performance prediction model synthesis unit 103, and an input content specification unit 401. And an information collecting unit 402 and a storage unit 3.

尚、記憶部3は、性能予測装置1外部のデータベース等に設けてもよい。この場合、アプリケーション層の性能予測モデル特定部104は、係るデータベースを参照すればよい。また、本実施形態においても、性能予測装置10は、アプリケーション層の性能予測モデル特定部104と共に、第1の実施形態において上述した、アプリケーション層の性能予測モデル生成部101をも有していてもよい。   Note that the storage unit 3 may be provided in a database or the like outside the performance prediction apparatus 1. In this case, the performance prediction model specifying unit 104 of the application layer may refer to such a database. Also in the present embodiment, the performance prediction apparatus 10 may include the application layer performance prediction model generation unit 101 described above in the first embodiment together with the application layer performance prediction model specifying unit 104. Good.

以下、このような装置構成を有する性能予測装置10の各部について詳細に説明する。尚、性能予測装置10を実現可能なハードウェア構成(ハードウェア資源)については、図12を参照して後述する。   Hereinafter, each part of the performance prediction apparatus 10 which has such an apparatus structure is demonstrated in detail. A hardware configuration (hardware resource) capable of realizing the performance prediction apparatus 10 will be described later with reference to FIG.

アプリケーション層の性能予測モデル特定部104は、第1の実施形態とは異なり、記憶部3から、特定の性能予測モデル(301)を入手する。即ち、記憶部3は、ホワイトボックス的なアプローチ(第1の方法)を用いて生成されたアプリケーション層204の性能予測モデル群110を蓄積している。性能予測モデル特定部104は、オペレータ等の操作に応じて、仮想化システム2の仮想マシン201にて動作するアプリケーションに関する情報に基づいて記憶部3を参照する。これにより、性能予測モデル特定部104は、係る性能予測モデル群110の中から、係るアプリケーションに関する情報に関連付けされた、特定の性能予測モデル301を特定することができる。   Unlike the first embodiment, the performance prediction model specifying unit 104 in the application layer obtains a specific performance prediction model (301) from the storage unit 3. That is, the storage unit 3 stores the performance prediction model group 110 of the application layer 204 generated using a white box approach (first method). The performance prediction model specifying unit 104 refers to the storage unit 3 based on information related to an application operating on the virtual machine 201 of the virtualization system 2 in accordance with an operation of an operator or the like. Thereby, the performance prediction model specification part 104 can specify the specific performance prediction model 301 linked | related with the information regarding the said application from the performance prediction model group 110 which concerns.

尚、本実施形態では、一例として、記憶部3を性能予測装置10の内部に有する装置構成としている。しかしながら、本実施形態を例として説明する本発明は、係る装置構成には限定されず、第1の実施形態と同様に、自装置の外部に設けられた記憶部(データベース)を参照可能な装置構成であってもよい。   In the present embodiment, as an example, the device configuration includes the storage unit 3 inside the performance prediction device 10. However, the present invention described by taking this embodiment as an example is not limited to such a device configuration, and as in the first embodiment, a device that can refer to a storage unit (database) provided outside the own device. It may be a configuration.

ハードウェア層205の性能予測モデル生成部302は、第1の実施形態と同様に、ブラックボックス的なアプローチ(第2の方法)を用いて、ハードウェア層205の性能予測モデル302を生成する。   Similar to the first embodiment, the performance prediction model generation unit 302 of the hardware layer 205 generates the performance prediction model 302 of the hardware layer 205 using a black box approach (second method).

入力内容指定部401は、ハードウェア層の性能予測モデル生成部102による性能予測モデル302の生成に利用すべく、仮想化システム(対象システム)2に関する実測値を計測する際に、オペレータ(ユーザ)等20が入力内容を指定可能なユーザインタフェース(UI、マンマシンインタフェース)としての機能を有する。   The input content specifying unit 401 is used by an operator (user) when measuring an actual measurement value related to the virtualization system (target system) 2 to be used for generation of the performance prediction model 302 by the performance prediction model generation unit 102 of the hardware layer. 20 has a function as a user interface (UI, man-machine interface) capable of designating input contents.

本実施形態において、アプリケーション層の性能予測モデル群110をなす個々の性能予測モデルは、第1の実施形態に係るアプリケーション層の性能予測モデル301と同様に、「背景技術」欄において上述したホワイトボックス的アプローチ(第1の方法)によって生成される。即ち、係る性能予測モデル群110を構成する1つ以上の性能予測モデル301は、仮想化環境の性能予測モデル合成部103による合成処理に先だって、例えば、性能予測装置10が、ホワイトボックス的なアプローチを用いた一般的な手順により求めておけばよい。   In the present embodiment, the individual performance prediction models that form the application layer performance prediction model group 110 are the white boxes described above in the “Background Technology” column, as with the application layer performance prediction model 301 according to the first embodiment. Generated by a dynamic approach (first method). That is, the one or more performance prediction models 301 constituting the performance prediction model group 110 are, for example, the performance prediction apparatus 10 having a white-box approach prior to the synthesis processing by the performance prediction model synthesis unit 103 in the virtual environment. What is necessary is just to obtain | require by the general procedure using.

記憶部3は、例えば、コンピュータ読み取り可能な記憶媒体であるハードディスク装置(Hard Disk Drive:HDD)等であって、仮想化システム2の仮想マシン201にて動作するアプリケーションの設計情報等を用いて生成した性能予測モデル群110を蓄積することができる。係る性能予測モデル110群は、アプリケーション層の性能予測モデル301として特定可能な候補群であって、仮想マシン201において動作するアプリケーションの振舞いを模倣した構成であることが必要である。本実施形態において、係る性能予測モデル群110には、仮想マシン201において動作するアプリケーションの設計情報に従って、待ち行列やペトリネットなどを利用して生成した性能予測モデルを採用することができる。但し、係る性能予測モデルの生成に際しては、入力に対する解析計算やシミュレーションによって、予め決められた手順で出力が決定される性能予測モデルであれば、生成手法は何ら限定されない。   The storage unit 3 is, for example, a hard disk drive (HDD) that is a computer-readable storage medium, and is generated using design information of an application that operates on the virtual machine 201 of the virtualization system 2 The performance prediction model group 110 thus obtained can be accumulated. The performance prediction model 110 group is a candidate group that can be identified as the performance prediction model 301 of the application layer, and needs to have a configuration imitating the behavior of an application operating in the virtual machine 201. In the present embodiment, the performance prediction model group 110 may employ a performance prediction model generated using a queue, a Petri net, or the like according to design information of an application running on the virtual machine 201. However, when the performance prediction model is generated, the generation method is not limited as long as it is a performance prediction model in which the output is determined by a predetermined procedure by analysis calculation or simulation for the input.

アプリケーション層の性能予測モデル特定部104は、特定の性能予測モデル301を、記憶部3に格納されたアプリケーション層の性能予測モデル群110から獲得する。具体的に、性能予測モデル特定部104は、仮想マシン201において動作する所望のアプリケーションの情報等の入力内容をオペレータ等20が指定するのに応じて、その入力内容に対応する特定の性能予測モデル301を、アプリケーション層の性能予測モデル群110の中から入手する。性能予測モデル特定部104に対する入力の方法としては、オペレータ自身の他に、LANやインターネットを介したサーバ等の外部装置からの命令でもよい。このため、本実施形態では、図6に示す如くオペレータ等20と表現している。   The application layer performance prediction model specifying unit 104 acquires the specific performance prediction model 301 from the application layer performance prediction model group 110 stored in the storage unit 3. Specifically, the performance prediction model specifying unit 104 specifies a specific performance prediction model corresponding to the input content in response to the operator 20 specifying the input content such as information on a desired application operating in the virtual machine 201. 301 is obtained from the performance prediction model group 110 of the application layer. As an input method to the performance prediction model specifying unit 104, an instruction from an external device such as a server via a LAN or the Internet may be used in addition to the operator himself. For this reason, in this embodiment, it is expressed as an operator 20 as shown in FIG.

また、アプリケーション層の性能予測モデル特定部104は、オペレータ20等から指示された入力内容に対応する、アプリケーション層204についての当該特定の性能予測モデル301を、仮想化環境の性能予測モデル合成部103に入力(提供)する機能も有する。ここで、係る入力内容とは、アプリケーション層204にて実行される各仮想マシン201におけるアプリケーション情報である。そして、係る入力内容に対応する特定の性能予測モデル301とは、性能を予測すべき対象となる仮想マシン201毎のシステム内容を表す。このシステム内容は、当該仮想マシン201毎に異なるので、対応する性能予測モデル301もシステム毎(仮想マシン201毎)に異なる。例えば、仮想マシン201がアプリケーション層204において3台稼働するのであれば、それら3台分それぞれの仮想マシン201に関するアプリケーション情報にマッチする性能予測モデル301を、アプリケーション層の性能予測モデル群110(記憶部3)から取り出す必要がある。   Further, the performance prediction model specifying unit 104 of the application layer converts the specific performance prediction model 301 for the application layer 204 corresponding to the input content instructed by the operator 20 or the like into the performance prediction model combining unit 103 of the virtual environment. It also has a function of inputting (providing) to. Here, the input content is application information in each virtual machine 201 executed in the application layer 204. The specific performance prediction model 301 corresponding to the input content represents the system content of each virtual machine 201 that is a target for which performance is to be predicted. Since this system content is different for each virtual machine 201, the corresponding performance prediction model 301 is also different for each system (for each virtual machine 201). For example, if three virtual machines 201 operate in the application layer 204, the performance prediction model 301 that matches the application information related to the virtual machines 201 corresponding to the three virtual machines 201 is stored in the performance prediction model group 110 (storage unit) of the application layer. It is necessary to take out from 3).

入力内容指定部401では、オペレータ等20による入力操作により、仮想化システム2の実測値(例えば、各リソースの使用率、スループット、TAT等)の計測に関わる設定値や、計測の実行命令に関わる入力内容が指定される。入力内容指定部401に対する入力操作の方法は、上述した性能予測モデル特定部104に対する入力の方法と同様に、オペレータ自身による入力には限定されず、外部装置からの命令でもよい。また、入力内容指定部401は、上記の如く指定された入力内容を、仮想化システム2に入力(提供)する機能を有する。   In the input content designation unit 401, an input operation by the operator 20 or the like is related to a setting value related to measurement of the actual measurement value (for example, usage rate, throughput, TAT, etc. of each resource) of the virtualization system 2 or a measurement execution command. Input content is specified. The input operation method for the input content specifying unit 401 is not limited to the input by the operator itself, as in the input method for the performance prediction model specifying unit 104 described above, and may be an instruction from an external device. The input content specifying unit 401 has a function of inputting (providing) the input content specified as described above to the virtualization system 2.

仮想化システム2に関する実測値の計測は、仮想化環境の性能予測モデル合成部103による合成処理に先だって、例えば、性能予測装置10が行えばよい。計測の内容は、仮想マシン201におけるベンチマークソフトを用いた、ベンチマークテストが挙げられる。例えば、ベンチマークソフトとは、例えば、CPU、記憶装置、通信ネットワーク等のように、対象システム2に関係する各種のハードウェアリソースに負荷を与えることか可能なソフトウェア(コンピュータ・プログラム)がある。本実施形態において、係るベンチマークソフトとしては、特定のハードウェアリソースの負荷状況を再現できるプログラムであれば、何れのプログラムでも採用することができる。   For example, the performance prediction apparatus 10 may measure the actual measurement values related to the virtualization system 2 prior to the synthesis processing by the performance prediction model synthesis unit 103 in the virtual environment. The content of the measurement includes a benchmark test using benchmark software in the virtual machine 201. For example, the benchmark software includes software (computer program) that can load various hardware resources related to the target system 2, such as a CPU, a storage device, and a communication network. In the present embodiment, any program can be adopted as the benchmark software as long as the program can reproduce the load status of a specific hardware resource.

尚、仮想化システム2に関する実測値の計測手順自体は、一般的な手順を採用することができるので、本実施形態における詳細な説明は省略する。   In addition, since the measurement procedure itself of the actual measurement value regarding the virtualization system 2 can employ | adopt a general procedure, detailed description in this embodiment is abbreviate | omitted.

情報収集部402は、対象システム2に関して計測された実測値を収集することができる。ここで、係る実測値とは、入力内容指定部401からの入力内容に応じて実行される対象システム2に関するベンチマークテストにおける入力値と、その入力値に対応する出力値との対(ペア)をなす情報である。更に、情報収集部402は、収集した実測値を、ハードウェア層205の性能予測モデル302に入力(提供)することができる。   The information collection unit 402 can collect actual measurement values measured for the target system 2. Here, the actual measurement value is a pair of an input value in a benchmark test related to the target system 2 executed in accordance with the input content from the input content specifying unit 401 and an output value corresponding to the input value. Information. Furthermore, the information collection unit 402 can input (provide) the collected actual measurement values to the performance prediction model 302 of the hardware layer 205.

より具体的に、情報収集部402は、上述した実測値として、対象システム2への入力値と、その入力値に対応する出力値とを収集する。係る入力値とは、各ハードウェアリソースへのリソース要求(ハードウェア資源の使用方法に関する情報を含んだ情報)であり、上述した第1の実施形態において説明したリソース要求808(図3)に相当する。情報収集部402は、係る入力値を、対象システム2から入手しても、或いは、入力内容指定部401から入手してもよい。そして、係る入力値に対応する出力値とは、当該各ハードウェアリソースの使用率やTAT等である。   More specifically, the information collection unit 402 collects an input value to the target system 2 and an output value corresponding to the input value as the actual measurement values described above. The input value is a resource request to each hardware resource (information including information on how to use the hardware resource), and corresponds to the resource request 808 (FIG. 3) described in the first embodiment. To do. The information collection unit 402 may obtain the input value from the target system 2 or the input content designation unit 401. The output value corresponding to the input value is the usage rate or TAT of each hardware resource.

そして、情報収集部402は、HDD等のコンピュータ読み取り可能な記憶媒体(例えば、記憶部3)に、収集した実測値(即ち、対象システム2への入力値と、その入力値に対応する出力値)を記憶する機能を有する。また、情報収集部402は、係る実測値を、オペレータ等20の操作に応じて、ハードウェア層の性能予測モデル生成部102に出力する機能を有する。   Then, the information collection unit 402 stores the collected measured values (that is, the input values to the target system 2 and the output values corresponding to the input values) in a computer-readable storage medium such as an HDD (for example, the storage unit 3). ) Is stored. In addition, the information collection unit 402 has a function of outputting the actual measurement value to the performance prediction model generation unit 102 of the hardware layer in accordance with the operation of the operator 20 or the like.

ハードウェア層の性能予測モデル生成部102は、例えばオペレータ等20の操作を契機に、情報収集部402から入力された情報(上述した実測値)に基づいて、ブラックボックス的アプローチにより、ハードウェア層205の性能予測モデル302を生成する。   The hardware layer performance prediction model generation unit 102 uses a black box approach based on information input from the information collection unit 402 (the above-described actual measurement value) triggered by an operation of an operator 20 or the like, for example. 205 performance prediction models 302 are generated.

そして、性能予測モデル生成部102は、生成した性能予測モデル302を、例えばオペレータ等20の操作を契機に、仮想化環境の性能予測モデル合成部103に入力する機能も有する。   And the performance prediction model production | generation part 102 also has a function which inputs the produced | generated performance prediction model 302 to the performance prediction model synthetic | combination part 103 of a virtual environment triggered by operation of operators 20 etc., for example.

仮想化環境の性能予測モデル合成部103は、アプリケーション層の性能予測モデル特定部104にて特定された性能予測モデル301と、ハードウェア層の性能予測モデル生成部102にて生成された性能予測モデル302とを合成することにより、対象システム2の性能予測モデル303を作成する。本実施形態においても、対象システム2の性能予測モデル303の生成(合成)方法は第1の実施形態と同様である。仮想化環境の性能予測モデル合成部103は、例えばオペレータ等の操作を契機に、係る合成処理を実行すればよい。   The performance prediction model synthesis unit 103 of the virtual environment includes a performance prediction model 301 specified by the performance prediction model specification unit 104 of the application layer and a performance prediction model generated by the performance prediction model generation unit 102 of the hardware layer. The performance prediction model 303 of the target system 2 is created by synthesizing with 302. Also in the present embodiment, the method for generating (combining) the performance prediction model 303 of the target system 2 is the same as that in the first embodiment. The performance prediction model synthesis unit 103 in the virtual environment may execute the synthesis process triggered by an operation of an operator or the like, for example.

即ち、本実施形態に係る性能予測装置10によれば、仮想化環境の性能予測モデル合成部103が生成する性能予測モデル303を用いることにより、仮想化システム(対象システム)2へのリクエストの内容を基に、対象システム2全体の性能予測結果としての性能指標(性能予測値:各リソースの使用率、TAT、スループット等)を算出することができる。オペレータ等20は、係る性能指標を、例えばディスプレイ等(不図示:後述する図12に示す入出力ユーザインタフェース13に相当)を介して参照することにより、対象システム2の性能予測を行うことができる。   That is, according to the performance prediction apparatus 10 according to the present embodiment, the content of the request to the virtualization system (target system) 2 by using the performance prediction model 303 generated by the performance prediction model synthesis unit 103 of the virtual environment. Based on the above, it is possible to calculate a performance index (performance predicted value: usage rate of each resource, TAT, throughput, etc.) as a performance prediction result of the entire target system 2. The operator 20 can predict the performance of the target system 2 by referring to the performance index, for example, via a display or the like (not shown: equivalent to an input / output user interface 13 shown in FIG. 12 described later). .

(性能予測処理)
次に、上述した一連の性能予測動作を実現すべく、性能予測装置10が行う性能予測処理について、図7乃至図10を参照して、より具体的に説明する。
(Performance prediction process)
Next, the performance prediction processing performed by the performance prediction apparatus 10 in order to realize the above-described series of performance prediction operations will be described more specifically with reference to FIGS.

図7は、本発明の第2の実施形態に係る性能予測装置10による性能予測処理の概要を示すフローチャートである。   FIG. 7 is a flowchart showing an outline of the performance prediction process by the performance prediction apparatus 10 according to the second embodiment of the present invention.

まず、ステップS101において、ハードウェア層の性能予測モデル生成部102は、例えばオペレータ等20の操作を契機に、ハードウェア層205の性能予測モデル302を生成し、生成した性能予測モデル302を、仮想化環境の性能予測モデル合成部103に入力する。ステップS101の詳細は、図8を参照して後述する。   First, in step S101, the performance prediction model generation unit 102 of the hardware layer generates a performance prediction model 302 of the hardware layer 205 in response to an operation of an operator 20 or the like, for example, and generates the generated performance prediction model 302 as a virtual Is input to the performance prediction model composition unit 103 of the computer environment. Details of step S101 will be described later with reference to FIG.

次に、ステップS102において、アプリケーション層の性能予測モデル特定部101は、オペレータ等20の操作を契機に、仮想化システム2の仮想マシン201にて動作するアプリケーションに関する情報を入力値(検索キー)として、記憶部3に格納されている、アプリケーション層の性能予測モデル群110を参照することにより、当該入力値に対応する特定の性能予測モデル301を獲得する。   Next, in step S102, the performance prediction model specifying unit 101 of the application layer uses, as an input value (search key), information related to an application that operates on the virtual machine 201 of the virtualization system 2 in response to an operation of the operator 20 or the like. The specific performance prediction model 301 corresponding to the input value is acquired by referring to the performance prediction model group 110 of the application layer stored in the storage unit 3.

即ち、ステップS102は、アプリケーション層204にて実行する仮想マシン201に関するアプリケーション情報に合致した特定の性能予測モデル(アプリケーション層の性能予測モデル)301を、アプリケーション層の性能予測モデル群110から獲得するステップである。このことを換言すると、ステップS102は、仮想マシン201においてオペレータ等20が稼働を希望する所望のアプリケーションに関する情報と、同じ内容のアプリケーション情報を用いて予め生成されたアプリケーション層204の性能予測モデルを、性能予測モデル群110の中から、オペレータ等20が、例えば人的操作によって選択するステップである。選択された性能予測モデルは、後述するステップS103にて実行される性能予測に使用すべき特定の性能予測モデル301である。   That is, step S102 is a step of acquiring a specific performance prediction model (application layer performance prediction model) 301 that matches the application information related to the virtual machine 201 executed in the application layer 204 from the application layer performance prediction model group 110. It is. In other words, in step S102, the performance prediction model of the application layer 204 generated in advance using information about a desired application that the operator 20 desires to operate in the virtual machine 201 and application information having the same content is obtained. In this step, the operator 20 selects the performance prediction model group 110 by, for example, a human operation. The selected performance prediction model is a specific performance prediction model 301 to be used for performance prediction executed in step S103 described later.

そしてステップS103において、仮想化環境の性能予測モデル合成部103は、ステップS101にて入力されたところの、ハードウェア層205の性能予測モデル302と、ステップS102にて特定されたところの、アプリケーション層の性能予測モデル)301とを用いて、上述した合成処理を実行することにより、仮想化システム2全体の性能を予測する。この性能予測の結果として得た性能予測値は、仮想化環境の性能予測モデル合成部103の出力である。ステップS103は、例えば、オペレータ等21の操作を契機として実行される。ステップS103の詳細は、図10を参照して後述する。   In step S103, the performance prediction model composition unit 103 of the virtual environment receives the performance prediction model 302 of the hardware layer 205 input in step S101 and the application layer specified in step S102. The overall performance of the virtualization system 2 is predicted by executing the above-described synthesis process using the performance prediction model 301. The performance prediction value obtained as a result of this performance prediction is the output of the performance prediction model synthesis unit 103 in the virtual environment. Step S103 is executed, for example, triggered by the operation of the operator 21 or the like. Details of step S103 will be described later with reference to FIG.

図8は、第2の実施形態において、ハードウェア層の性能予測モデル生成部102が性能予測モデル302を生成する処理手順を示すフローチャートであり、上述したステップS101の詳細を示す。   FIG. 8 is a flowchart showing a processing procedure in which the performance prediction model generation unit 102 of the hardware layer generates the performance prediction model 302 in the second embodiment, and shows details of step S101 described above.

まず、ステップS201において、ハードウェア層の性能予測モデル生成部102は、オペレータ等20の操作を契機に、入力内容指定部401に対して、対象システム2に関する計測を指示する。このとき、入力内容指定部401は、オペレータ等20の操作によって、対象システム2に関する実測値(計測値)の計測内容に関わる設定値や、計測の実行を指示する命令(リクエスト)等を、対象システム2に設定する。仮想化システム2は、入力内容指定部401によってステップS201にて指定された情報が入力されるのに応じて、仮想化システム2の計測を開始する。   First, in step S201, the performance prediction model generation unit 102 of the hardware layer instructs the input content specification unit 401 to perform measurement related to the target system 2 in response to an operation of the operator 20 or the like. At this time, the input content designating unit 401 receives the setting value related to the measurement content of the actual measurement value (measurement value) related to the target system 2, the command (request) instructing the execution of the measurement, etc. Set to System 2. The virtualization system 2 starts measurement of the virtualization system 2 in response to the input of the information specified in step S201 by the input content specifying unit 401.

次に、情報収集部402は、ステップS202において、ステップS201によって開始された仮想化システム2の計測に応じて出力される実測値(計測値)を収集する。係る実測値は、例えば、各リソースの使用率、スループット、TAT等の、ハードウェア層205の状態を表す情報である。情報収集部402は、収集した実測値(ステップS201にて入力された入力値とその入力値に対応する出力値)を、ハードウェア層の性能予測モデル生成部102に入力する。   Next, in step S202, the information collection unit 402 collects actual measurement values (measurement values) output according to the measurement of the virtualization system 2 started in step S201. The actual measurement value is information representing the state of the hardware layer 205 such as the usage rate, throughput, and TAT of each resource. The information collection unit 402 inputs the collected actual measurement values (the input value input in step S201 and the output value corresponding to the input value) to the performance prediction model generation unit 102 of the hardware layer.

そして、ハードウェア層の性能予測モデル生成部302は、ステップS203において、例えばオペレータ等20の操作を契機に、情報収集部402によって入力された実測値を用いて、ブラックボックス的アプローチにより、ハードウェア層205の性能予測モデル302を生成する。係る性能予測モデル302の生成には、ステップS202にて情報収集部402が収集した実測値(入力値とその入力値に対応する出力値)が用いられる。   Then, in step S203, the hardware layer performance prediction model generation unit 302 uses a measured value input by the information collection unit 402 in response to an operation of the operator 20 or the like, for example, by a black box approach. A performance prediction model 302 of the layer 205 is generated. For the generation of the performance prediction model 302, actual values (input values and output values corresponding to the input values) collected by the information collection unit 402 in step S202 are used.

係る入力値は、各リソース要求(ハードウェア資源をどのように使用するかに関する情報)を含むデータである。係る出力値は、当該各リソースの使用率、スループットやTAT等を表すデータである。ハードウェア層の性能予測モデル生成部302は、これらの入出力値を用いて、例えば、ニューラルネットワーク、遺伝的アルゴリズム、多項式関数、回帰分析等の演算処理によって性能予測モデル302を生成する。但し、本実施形態を例に説明する本発明は、これらの演算処理に限定されず、実測値を用いた同様のアプローチによって性能予測モデル302を実現できればよい。   The input value is data including each resource request (information on how to use the hardware resource). The output value is data representing the usage rate, throughput, TAT, and the like of each resource. The hardware layer performance prediction model generation unit 302 uses these input / output values to generate the performance prediction model 302 by arithmetic processing such as neural network, genetic algorithm, polynomial function, regression analysis, and the like. However, the present invention described by taking this embodiment as an example is not limited to these arithmetic processes, and it is sufficient that the performance prediction model 302 can be realized by a similar approach using actually measured values.

図9は、図6に示す仮想化環境の性能予測モデル合成部103における、仮想化環境の性能予測モデル303の合成方法を概念的に表した説明図である。図9に示すアプリケーション層204では、仮想マシン毎に用意した、アプリケーション層の性能予測モデル801に対してそれぞれリクエスト(805,806)が入力され、その後、待ち行列を用いて処理した後、処理済リクエスト(812,813)が出力される状況を表している。ここで、性能予測モデル801は、アプリケーション層において実行されるアプリケーションの動作を模倣したモデルである。   FIG. 9 is an explanatory diagram conceptually showing a method of synthesizing the performance prediction model 303 of the virtual environment in the performance prediction model synthesis unit 103 of the virtual environment shown in FIG. In the application layer 204 shown in FIG. 9, a request (805, 806) is input to the performance prediction model 801 of the application layer prepared for each virtual machine, and then processed using a queue, and then processed. This represents a situation in which the request (812, 813) is output. Here, the performance prediction model 801 is a model imitating the operation of an application executed in the application layer.

即ち、オペレータ等20の操作により、アプリケーション層の性能予測モデル801には、リクエスト805、806が入力される。ここで、リクエスト805、806は、各性能予測モデル801を用いたシミュレーションのために、模擬的に作成したデータである。このデータの内容は、各ソフトウェア資源への負荷や、ハードウェアリソースの利用タイミング等を表す。   That is, requests 805 and 806 are input to the performance prediction model 801 of the application layer by the operation of the operator 20 or the like. Here, the requests 805 and 806 are data created in a simulated manner for simulation using each performance prediction model 801. The contents of this data represent the load on each software resource, the use timing of hardware resources, and the like.

アプリケーション層204において動作する仮想マシン(201)が複数台の場合、当該各仮想マシンへのリクエストは、同時もしくはオペレータ等20が指定した時間差をおいて、当該各仮想マシンに入力されることとする。図9に示す例の場合、リクエスト805、806がアプリケーション層の性能予測モデル801に入力されると、係る性能予測モデル801は、そのリクエストに対応する処理を行った後、処理済みリクエスト812、813を、入力された当該リクエストに関する処理結果として出力する。   When there are a plurality of virtual machines (201) operating in the application layer 204, requests to the respective virtual machines are input to the respective virtual machines simultaneously or with a time difference designated by the operator 20 or the like. . In the case of the example illustrated in FIG. 9, when requests 805 and 806 are input to the performance prediction model 801 of the application layer, the performance prediction model 801 performs processing corresponding to the request, and then processes the processed requests 812 and 813. Is output as a processing result related to the input request.

仮想化環境の性能予測モデル合成部103は、アプリケーション層の性能予測モデル801を用いて、入力されたリクエスト805、805から、そのリクエストが求める処理に必要なリソース要求807、808を算出する。係るリソース要求807、808とは、当該各性能予測モデル801に入力されたリクエストに対応する処理を実現するために必要なハードウェア層205を構成するリソースに対して、特定の処理を要求する命令であるとする。ここで、ハードウェア層205を構成するリソースとは、例えば、CPU、記憶装置(HDD)、通信ネットワーク(NIC:Network Interface Card)等である。   Using the application layer performance prediction model 801, the virtual environment performance prediction model composition unit 103 calculates resource requests 807 and 808 necessary for the processing requested by the request from the input requests 805 and 805. The resource requests 807 and 808 are instructions for requesting a specific process for the resources constituting the hardware layer 205 necessary for realizing the process corresponding to the request input to each performance prediction model 801. Suppose that Here, the resources configuring the hardware layer 205 are, for example, a CPU, a storage device (HDD), a communication network (NIC: Network Interface Card), and the like.

仮想化環境の性能予測モデル合成部103は、アプリケーション層204にて算出されたハードウェアリソースへのリソース要求807、808を、ハードウェア層205に入力する。ハードウェア層205に入力されたリソース要求807、808は、ハードウェア層の性能予測モデル802によって処理される。仮想化環境の性能予測モデル合成部103は、性能予測モデル802による処理完了後に、処理完了通知810、811を、ハードウェア層205からアプリケーション層204に対して出力する。処理完了通知810、811は、上述した第1の実施形態における、リソース要求に関する処理完了通知810(図4)に相当する。   The performance prediction model composition unit 103 of the virtual environment inputs resource requests 807 and 808 for hardware resources calculated by the application layer 204 to the hardware layer 205. The resource requests 807 and 808 input to the hardware layer 205 are processed by the performance prediction model 802 of the hardware layer. The performance prediction model composition unit 103 in the virtual environment outputs processing completion notifications 810 and 811 from the hardware layer 205 to the application layer 204 after the processing by the performance prediction model 802 is completed. The processing completion notifications 810 and 811 correspond to the processing completion notification 810 (FIG. 4) related to the resource request in the first embodiment described above.

仮想化環境の性能予測モデル合成部103は、ハードウェア層の性能予測モデル802を用いて、リソース要求807、808に対する処理において算出した性能指標809を、ハードウェア層の性能予測モデル802から出力する。係る性能指標809は、例えば、各リソースの使用率やTAT等の情報である。   Using the hardware layer performance prediction model 802, the virtual environment performance prediction model composition unit 103 outputs the performance index 809 calculated in the processing for the resource requests 807 and 808 from the hardware layer performance prediction model 802. . The performance index 809 is information such as the usage rate and TAT of each resource, for example.

仮想化環境の性能予測モデル合成部103は、ハードウェア層205が出力した処理完了通知810、811をアプリケーション層204が受け取った後、処理済みリクエスト812、813を、各性能予測モデル802から出力する。   The performance prediction model composition unit 103 of the virtual environment outputs processed requests 812 and 813 from each performance prediction model 802 after the application layer 204 receives the processing completion notifications 810 and 811 output from the hardware layer 205. .

尚、アプリケーション層204がハードウェア層205に対してリソース要求807、808を出力(発行)してから、ハードウェア層205から出力(発行)された処理完了通知810、811がアプリケーション層204に入力されるまでの時間(期間)を、アプリケーション層の性能予測モデル801の処理時間(処理所要時間)PTとする。係る処理時間PTは、アプリケーション層204から出力されたリソース要求807、808がハードウェア層205に入力されてから、ハードウェア層205がアプリケーション層204に対して処理完了通知810、811を出力するまでの時間(期間)と捉えることもできる。   Note that after the application layer 204 outputs (issues) the resource requests 807 and 808 to the hardware layer 205, processing completion notifications 810 and 811 output (issued) from the hardware layer 205 are input to the application layer 204. The time (period) until the processing is performed is defined as the processing time (processing required time) PT of the performance prediction model 801 of the application layer. The processing time PT is from when the resource requests 807 and 808 output from the application layer 204 are input to the hardware layer 205 until the hardware layer 205 outputs processing completion notifications 810 and 811 to the application layer 204. It can also be understood as a time (period).

以上の各ステップで算出された性能指標等を用いて、仮想化環境の性能予測モデル合成部103は、仮想化システム2の性能を予測可能な情報を、オペレータ等20に提供する。   Using the performance index calculated in each of the above steps, the performance prediction model synthesis unit 103 of the virtual environment provides information that can predict the performance of the virtualization system 2 to the operator 20.

即ち、アプリケーション層204の仮想マシン201において動作するアプリケーションとして置き換えられた、アプリケーション層204の性能予測モデル801の入出力の関係性に基づいて、オペレータ等20は、仮想化システム2の性能を予測することができる。具体的に、オペレータ等20は、アプリケーション層の性能予測モデル801への入力値であるリクエスト805、806と、当該リクエストに対する処理時間PTとの関係性を用いて、仮想化システム2全体の性能を予測することができる。   In other words, the operator 20 predicts the performance of the virtualization system 2 based on the input / output relationship of the performance prediction model 801 of the application layer 204 replaced as an application operating in the virtual machine 201 of the application layer 204. be able to. Specifically, the operator 20 uses the relationship between the requests 805 and 806, which are input values to the performance prediction model 801 of the application layer, and the processing time PT for the request to determine the performance of the entire virtualization system 2. Can be predicted.

また、ハードウェア層205を置き換えた性能予測モデル802への入力と出力との関係に基づいて、オペレータ等20は、ハードウェア層205の性能を予測することができる。具体的に、オペレータ等20は、性能予測モデル802への入力値であるリソース要求807、808と、出力値である性能指標809との関係性を用いて、ハードウェア層205の性能を予測することができる。   The operator 20 can predict the performance of the hardware layer 205 based on the relationship between the input and output to the performance prediction model 802 in which the hardware layer 205 is replaced. Specifically, the operator 20 predicts the performance of the hardware layer 205 using the relationship between the resource requests 807 and 808 that are input values to the performance prediction model 802 and the performance index 809 that is an output value. be able to.

これにより、オペレータ等20は、仮想化システム2全体の性能を予測できる。   Thereby, the operator 20 can predict the performance of the entire virtualization system 2.

図10は、第2の実施形態において、仮想化環境の性能予測モデル合成部103が行う合成処理(性能予測)の手順を示すフローチャートであり、上述したステップS103の詳細を示す。   FIG. 10 is a flowchart showing the procedure of the synthesis process (performance prediction) performed by the performance prediction model synthesis unit 103 of the virtual environment in the second embodiment, and shows details of step S103 described above.

ステップS301:仮想化環境の性能予測モデル合成部103は、オペレータ等20の操作を契機に、アプリケーション層の性能予測モデル801に、リクエスト805、806を入力する。係るリクエストは、アプリケーション層の各性能予測モデル301を用いたシミュレーションのために、模擬的に作成したデータである。即ち、図9に例示する如く複数の性能予測モデル801が動作している場合は、当該各性能予測モデルに対して、リクエストをそれぞれ入力する。係るデータの内容は、各ソフトウェア資源への負荷や、ハードウェアリソースの利用タイミング等である。また、各仮想マシンへの当該個々のリクエストは、同時、もしくはオペレータ等20が指定した時間差をおいたタイミングで入力される。   Step S301: The performance prediction model composition unit 103 of the virtual environment inputs requests 805 and 806 to the performance prediction model 801 of the application layer in response to the operation of the operator 20 or the like. The request is data created in a simulated manner for simulation using each performance prediction model 301 of the application layer. That is, when a plurality of performance prediction models 801 are operating as illustrated in FIG. 9, a request is input to each performance prediction model. The contents of such data are the load on each software resource, the use timing of hardware resources, and the like. The individual requests to each virtual machine are input at the same time or at a timing with a time difference designated by the operator 20 or the like.

ステップS302:仮想化環境の性能予測モデル合成部103は、ステップS301にて入力されたリクエストに従って、アプリケーション層の性能予測モデル801によって、リソース要求807、808を算出する。係るリソース要求は、仮想マシンを構成するプロセスが、どのハードウェアリソースを、どのように使用するかについての情報を含んだデータである。   Step S302: The performance prediction model composition unit 103 of the virtual environment calculates resource requests 807 and 808 according to the performance prediction model 801 of the application layer according to the request input in step S301. The resource request is data including information on which hardware resource is used by the process constituting the virtual machine and how.

ステップS303:仮想化環境の性能予測モデル合成部103は、ステップS302にて算出したリソース要求807、808を、ハードウェア層の性能予測モデル802に入力する。   Step S303: The performance prediction model composition unit 103 of the virtual environment inputs the resource requests 807 and 808 calculated in Step S302 to the performance prediction model 802 of the hardware layer.

ステップS304:仮想化環境の性能予測モデル合成部103は、ステップS303にて入力されたリソース要求807、808を、ハードウェア層の性能予測モデル802によって処理する。   Step S304: The performance prediction model composition unit 103 of the virtual environment processes the resource requests 807 and 808 input in step S303 by the hardware layer performance prediction model 802.

ステップS305:仮想化環境の性能予測モデル合成部103は、ステップS304における処理が完了したことを表す処理完了通知810、811を、ハードウェア層205からアプリケーション層204に入力する。係る処理完了通知がハードウェア層205から出力されるタイミングで、性能予測モデル合成部103は、ハードウェア層の性能予測モデル802により算出した性能指標(リソース使用率、TAT等)809を、ハードウェア層205から出力する。この性能指標809を算出するタイミングは、任意のタイミングでよい。具体的には、係る性能指標を算出するタイミングは、例えば、処理完了通知810、811を出力するときでもよいし、オペレータ等20が決めた時間毎でもよい。   Step S305: The performance prediction model composition unit 103 of the virtual environment inputs process completion notifications 810 and 811 indicating that the process in step S304 is completed from the hardware layer 205 to the application layer 204. At the timing when the processing completion notification is output from the hardware layer 205, the performance prediction model synthesis unit 103 uses the performance index (resource usage rate, TAT, etc.) 809 calculated by the hardware layer performance prediction model 802 as the hardware Output from layer 205. The timing for calculating the performance index 809 may be any timing. Specifically, the timing for calculating the performance index may be, for example, when the processing completion notifications 810 and 811 are output, or may be every time determined by the operator 20 or the like.

ステップS306:仮想化環境の性能予測モデル合成部103は、ハードウェア層205に対して、アプリケーション層204が出力する未処理のリソース要求の有無を確認する。未処理のリソース要求がアプリケーション層204に残っている場合(ステップS306にてYES)、性能予測モデル合成部103は、処理をステップS303に戻す。一方、全てのリソース要求の処理が完了した場合(ステップS306にてNO)、性能予測モデル合成部103は、処理をステップS307に進める。即ち、ステップS303からステップS306までの各ステップからなるループは、アプリケーション層204におけるリソース要求が無くなるまで繰り返される。   Step S306: The virtual environment performance prediction model synthesis unit 103 checks the hardware layer 205 for the presence of an unprocessed resource request output by the application layer 204. If an unprocessed resource request remains in application layer 204 (YES in step S306), performance prediction model synthesis unit 103 returns the process to step S303. On the other hand, when all resource request processing has been completed (NO in step S306), performance prediction model combining unit 103 advances the process to step S307. That is, a loop composed of steps S303 to S306 is repeated until there is no resource request in the application layer 204.

ステップS307:仮想化環境の性能予測モデル合成部103は、ステップS306にて全てのリソース要求に関して処理を完了したと判断すると、各性能予測モデル801から、処理済みリクエスト812、813を出力する。   Step S307: When the performance prediction model composition unit 103 of the virtual environment determines that the processing has been completed for all resource requests in Step S306, it outputs processed requests 812 and 813 from each performance prediction model 801.

ステップS308:これまでの過程において性能予測モデル合成部103が算出した、アプリケーション層204及びハードウェア層205の計算結果(性能指標809等)を用いて、オペレータ等20は、仮想化システム2全体の性能予測を行う。   Step S308: Using the calculation results (performance index 809 and the like) of the application layer 204 and the hardware layer 205 calculated by the performance prediction model synthesis unit 103 in the process so far, the operator and the like 20 Perform performance prediction.

上述したステップS301からステップS307までの処理ステップにおいて得られる値(情報)は、以下の通りである。即ち、
・アプリケーション層の性能予測モデル801に入力されたリクエスト(805、806)、
・アプリケーション層の性能予測モデル801により算出されたハードウェア層205へのリソース要求(807、808)、
・ハードウェア層の性能予測モデル802により算出された性能指標(809:各リソースの使用率、TAT等)、
・処理時間(処理所要時間)PT。
Values (information) obtained in the processing steps from step S301 to step S307 described above are as follows. That is,
Requests (805, 806) input to the performance prediction model 801 of the application layer,
A resource request (807, 808) to the hardware layer 205 calculated by the performance prediction model 801 of the application layer,
-Performance index (809: usage rate of each resource, TAT, etc.) calculated by the hardware layer performance prediction model 802,
Processing time (processing time) PT.

即ち、係る性能予測モデル802を用いることで、仮想化環境の性能予測モデル合成部103は、性能を予測すべき対象である仮想化システム2へのリクエストの内容を基に、性能指標(809:各リソースの使用率、TAT、スループット)を算出することができる。従って、オペレータ等20は、上述した各算出値を参照することにより、仮想化環境の性能予測モデル(303)を用いた性能予測として、仮想化システム2全体の性能を容易に予測することができる。   That is, by using the performance prediction model 802, the performance prediction model composition unit 103 of the virtualization environment uses the performance index (809: 809 :) based on the content of the request to the virtualization system 2 that is the target of performance prediction. The usage rate, TAT, and throughput of each resource can be calculated. Accordingly, the operator 20 can easily predict the performance of the entire virtualization system 2 as a performance prediction using the performance prediction model (303) of the virtual environment by referring to the calculated values described above. .

上述した本実施形態に係る性能予測装置10は、仮想化システム2の構成をアプリケーション層204、ハードウェア層205と定義した上で、これら各層の性能予測モデル801、802を生成し、当該各層の依存関係が反映された仮想化システム2の性能予測モデル303を生成することによって性能予測を行う。これにより、アプリケーション層204において動作する仮想マシン(201)の台数が単体または複数の場合であっても、仮想化システム2の性能を容易に予測することが可能である。   The performance prediction apparatus 10 according to the present embodiment described above defines the configuration of the virtualization system 2 as the application layer 204 and the hardware layer 205, generates performance prediction models 801 and 802 for these layers, The performance prediction is performed by generating the performance prediction model 303 of the virtualization system 2 in which the dependency relationship is reflected. Thereby, even when the number of virtual machines (201) operating in the application layer 204 is single or plural, it is possible to easily predict the performance of the virtualization system 2.

(第1及び第2の実施形態の変形例)
次に、上述した第1及び第2の実施形態の変形例について説明する。図11は、本発明の第1及び第2の実施形態の変形例に係る、仮想化システムの性能予測装置の前提条件を概念的に説明する図である。本実施形態では、仮想化システム(対象システム)2の性能を予測するに際して、その仮想化システムの構成を、アプリケーション層204、仮想マシンモニタ層206、及びハードウェア層205Aという3層からなる階層的な構成と定義する。この構成が図2に示した前提条件(2層構造)とは異なる。
(Modification of the first and second embodiments)
Next, modified examples of the first and second embodiments described above will be described. FIG. 11 is a diagram conceptually illustrating the preconditions of the performance prediction apparatus for the virtualization system according to the modification of the first and second embodiments of the present invention. In the present embodiment, when the performance of the virtualization system (target system) 2 is predicted, the configuration of the virtualization system is hierarchically composed of three layers: an application layer 204, a virtual machine monitor layer 206, and a hardware layer 205A. Defined as a simple configuration. This configuration is different from the precondition (two-layer structure) shown in FIG.

即ち、本変形例では、これら3層において性能予測モデルをそれぞれ生成し、生成した性能予測モデルを用いて対象システム2の性能予測を行うことも可能である。係る3層に定義した場合も、当該各層のシステム構成の特徴を性能予測モデルに反映可能なアプローチを用いた性能予測モデルの生成を行うことが必要である。このような本変形例によっても、上述した各実施形態と略同様な効果を実現することができる。   That is, in this modification, it is also possible to generate performance prediction models in these three layers and perform performance prediction of the target system 2 using the generated performance prediction model. Even when defined in such three layers, it is necessary to generate a performance prediction model using an approach that can reflect the characteristics of the system configuration of each layer in the performance prediction model. Also by this modification, it is possible to achieve substantially the same effects as those of the above-described embodiments.

以上説明した各実施形態及びその変形例によれば、仮想化システム2の性能予測モデルに対して、実環境における振舞い(挙動)が反映されているため、様々な性能予測の用途に適応が可能である。即ち、上述した性能予測装置(1、10)によれば、仮想化技術を用いて構築された情報処理システムを、実際の運用に先だって振舞いを確認したい場合に、比較的簡単な操作によって、高精度な性能予測が実現する。   According to each embodiment and the modification described above, since the behavior (behavior) in the real environment is reflected in the performance prediction model of the virtualization system 2, it can be adapted to various performance prediction applications. It is. That is, according to the above-described performance prediction apparatus (1, 10), when it is desired to confirm the behavior of an information processing system constructed using a virtualization technology prior to actual operation, the performance prediction apparatus (1, 10) Accurate performance prediction is realized.

<ハードウェアの構成例>
ここで、上述した各実施形態及びその変形例に係る性能予測装置を実現可能なハードウェアの構成例について説明する。上述した性能予測装置(1、10)は、専用の装置として実現してもよいが、コンピュータ(情報処理装置)を用いて実現してもよい。
<Example of hardware configuration>
Here, a configuration example of hardware capable of realizing the performance prediction apparatus according to each of the above-described embodiments and modifications thereof will be described. The performance prediction devices (1, 10) described above may be realized as a dedicated device, but may be realized using a computer (information processing device).

図12は、本発明の各実施形態及びその変形例を実現可能なコンピュータ(情報処理装置)のハードウェア構成を例示的に説明する図である。   FIG. 12 is a diagram for exemplarily explaining a hardware configuration of a computer (information processing apparatus) capable of realizing each embodiment of the present invention and its modification.

図12に示した情報処理装置(コンピュータ)100のハードウェアは、CPU11、通信インタフェース(I/F)12、入出力ユーザインタフェース13、ROM(Read Only Memory)14、RAM(Random Access Memory)15、記憶装置17、及びコンピュータ読み取り可能な記憶媒体19のドライブ装置18を備え、これらがバス16を介して接続された構成を有する。入出力ユーザインタフェース13は、入力デバイスの一例であるキーボードや、出力デバイスとしてのディスプレイ等のマンマシンインタフェースである。通信インタフェース13は、上述した各実施形態に係る装置(図1,図6)が、外部装置とのとの間において、通信ネットワーク300を介して通信するための一般的な通信手段である。係るハードウェア構成において、CPU11は、各実施形態に係る性能予測装置(1、10)としての情報処理装置100の全体の動作を司る。   The hardware of the information processing apparatus (computer) 100 shown in FIG. 12 includes a CPU 11, a communication interface (I / F) 12, an input / output user interface 13, a ROM (Read Only Memory) 14, a RAM (Random Access Memory) 15, A storage device 17 and a drive device 18 of a computer-readable storage medium 19 are provided, and these are connected via a bus 16. The input / output user interface 13 is a man-machine interface such as a keyboard which is an example of an input device and a display as an output device. The communication interface 13 is a general communication means for the devices (FIGS. 1 and 6) according to the above-described embodiments to communicate with an external device via the communication network 300. In the hardware configuration, the CPU 11 governs the overall operation of the information processing apparatus 100 as the performance prediction apparatus (1, 10) according to each embodiment.

そして、上述した各実施形態およびその変形例を例に説明した本発明は、それら実施形態の説明において参照したフローチャート(図7,図8,図10)の機能、或いは、図1,図6に示したブロック図において当該装置内に示した各部(各ブロック)を実現可能なプログラム(コンピュータ・プログラム)を、図12に示す情報処理装置100に対して供給した後、そのプログラムを、CPU11に読み出して実行することによって達成される。また、情報処理装置100内に供給されたプログラムは、読み書き可能な一時記憶メモリ(15)またはハードディスクドライブ等の不揮発性の記憶装置(17)に格納すればよい。即ち、記憶装置17において、プログラム群17Aは、例えば、上述した各実施形態における性能予測装置(1、10)内に示した各部の機能を実現可能なプログラムである。また、各種の記憶情報17Bは、例えば、上述した各実施形態におけるアプリケーション層の性能予測モデル群110や、対象システム2に関する実測値等である。但し、情報処理装置100へのプログラムの実装に際して、個々のプログラム・モジュールの構成単位は、ブロック図(図1,図6)に示した各ブロックの区分けには限定されず、当業者が実装に際して適宜選択可能な事項である。   The present invention described with reference to each of the above-described embodiments and the modifications thereof is based on the functions of the flowcharts (FIGS. 7, 8, and 10) referred to in the description of the embodiments, or FIGS. In the block diagram shown, a program (computer program) capable of realizing each unit (each block) shown in the apparatus is supplied to the information processing apparatus 100 shown in FIG. 12, and then the program is read to the CPU 11 To achieve. The program supplied in the information processing apparatus 100 may be stored in a readable / writable temporary storage memory (15) or a non-volatile storage device (17) such as a hard disk drive. That is, in the storage device 17, the program group 17 </ b> A is a program that can realize the functions of the respective units shown in the performance prediction devices (1, 10) in the above-described embodiments, for example. Further, the various kinds of stored information 17B are, for example, the performance prediction model group 110 of the application layer in each of the above-described embodiments, the actual measurement values related to the target system 2, and the like. However, when the program is installed in the information processing apparatus 100, the structural unit of each program module is not limited to the division of each block shown in the block diagrams (FIG. 1 and FIG. 6), and those skilled in the art can implement the program. This is a matter that can be selected as appropriate.

また、前記の場合において、当該装置内へのプログラムの供給方法は、CD−ROM、フラッシュメモリ等のコンピュータ読み取り可能な各種の記録媒体(19)を介して当該装置内にインストールする方法や、インターネット等の通信回線(300)を介して外部よりダウンロードする方法等のように、現在では一般的な手順を採用することができる。そして、このような場合において、本発明は、係るコンピュータ・プログラムを構成するコード(プログラム群107A)或いは係るコードが格納された記憶媒体(19)によって構成されると捉えることができる。   In the above case, the program can be supplied to the apparatus by a method of installing in the apparatus via various computer-readable recording media (19) such as CD-ROM and flash memory, and the Internet. Currently, a general procedure can be adopted, such as a method of downloading from the outside via the communication line (300). In such a case, the present invention can be understood to be configured by a code (program group 107A) constituting the computer program or a storage medium (19) in which the code is stored.

以上、本発明を、上述した模範的な実施形態およびその実施例に適用した例として説明した。しかしながら、本発明の技術的範囲は、上述した各実施形態及び実施例に記載した範囲には限定されない。当業者には、係る実施形態に対して多様な変更又は改良を加えることが可能であることは明らかである。そのような場合、係る変更又は改良を加えた新たな実施形態も、本発明の技術的範囲に含まれ得る。そしてこのことは、特許請求の範囲に記載した事項から明らかである。   In the above, this invention was demonstrated as an example applied to exemplary embodiment mentioned above and its Example. However, the technical scope of the present invention is not limited to the scope described in the above embodiments and examples. It will be apparent to those skilled in the art that various modifications and improvements can be made to such embodiments. In such a case, new embodiments to which such changes or improvements are added can also be included in the technical scope of the present invention. This is clear from the matters described in the claims.

尚、上述した実施形態及びその変形例の一部又は全部は、以下の付記のようにも記載されうる。しかしながら、上述した実施形態及びその変形例により例示的に説明した本発明は、以下には限られない。   Note that a part or all of the above-described embodiment and its modifications can be described as the following supplementary notes. However, the present invention described by way of example with the above-described embodiment and its modifications is not limited to the following.

即ち、
(付記1)
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成する第1の性能予測モデル生成部と、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成する第2の性能予測モデル生成部と、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する合成処理により、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する性能予測モデル合成部と、
を備えることを特徴とする、仮想化システムの性能予測装置。
That is,
(Appendix 1)
A first performance prediction model generation unit that generates a performance prediction model of the application layer based on information related to the application that operates in a virtual machine executed in a virtualization system including an application layer and a hardware layer When,
A second performance prediction model generation unit that generates a performance prediction model of the hardware layer based on the measurement result of the virtualization system;
By combining the performance prediction model of the application layer and the performance prediction model of the hardware layer, the output value in the performance prediction model of one layer is used as the input value in the performance prediction model of the other layer. , A performance prediction model synthesis unit that generates a performance prediction model of the virtualization system in which the dependency relationship between the two layers is reflected;
A performance prediction apparatus for a virtualization system, comprising:

(付記2)
前記第1の性能予測モデル生成部は、
前記アプリケーション層の性能予測モデルにリクエストが入力されるのに応じて、前記ハードウェア層に対して、そのハードウェア層を構成するハードウェアリソースの使用方法に関する情報を含むリソース要求を発行し、
前記第2の性能予測モデル生成部は、
前記ハードウェア層の性能予測モデルによって、前記リソース要求に応じた処理を行うと共に、その処理の完了に応じて、前記アプリケーション層に対して、処理完了通知を発行し、
前記性能予測モデル合成部は、
前記合成処理に際して、前記リソース要求と、前記処理完了通知とを利用する
ことを特徴とする付記1記載の、仮想化システムの性能予測装置。
(Appendix 2)
The first performance prediction model generation unit includes:
In response to a request being input to the performance prediction model of the application layer, a resource request including information on how to use hardware resources constituting the hardware layer is issued to the hardware layer,
The second performance prediction model generation unit includes:
The hardware layer performance prediction model performs processing according to the resource request, and upon completion of the processing, issues a processing completion notification to the application layer,
The performance prediction model synthesis unit
The virtual system performance prediction apparatus according to appendix 1, wherein the resource request and the process completion notification are used in the synthesis process.

(付記3)
前記性能予測モデル合成部は、前記仮想化システムの性能予測モデルとして、
前記リクエストと、
前記リソース要求と、
前記ハードウェア層の性能予測モデルにより算出された性能指標と、
前記リソース要求が前記ハードウェア層に対して発行されてから、前記ハードウェア層から前記処理完了通知が発行されるまでの所用時間と
のうち、少なくとも何れかを提示する
ことを特徴とする付記2記載の、仮想化システムの性能予測装置。
(Appendix 3)
The performance prediction model synthesis unit is a performance prediction model of the virtualization system,
The request;
The resource request;
A performance index calculated by the performance prediction model of the hardware layer; and
Appendix 2 wherein at least one of the required time from when the resource request is issued to the hardware layer to when the processing completion notification is issued from the hardware layer is presented The performance prediction apparatus of a virtualization system as described.

(付記4)
前記性能指標は、
前記ハードウェア層を構成するハードウェアリソースの使用率、TAT(Turn Around Time)、及びスループットのうち少なくとも何れかを含む
ことを特徴とする付記3記載の、仮想化システムの性能予測装置。
(Appendix 4)
The performance index is
4. The virtual system performance prediction apparatus according to appendix 3, wherein the performance prediction apparatus includes at least one of a usage rate of hardware resources constituting the hardware layer, TAT (Turn Around Time), and throughput.

(付記5)
前記ハードウェア層は、
仮想マシンモニタと、物理マシンのハードウェアとを含む
ことを特徴とする付記1乃至付記4の何れかに記載の、仮想化システムの性能予測装置。
(Appendix 5)
The hardware layer is
The virtual machine system performance prediction apparatus according to any one of appendix 1 to appendix 4, including a virtual machine monitor and physical machine hardware.

(付記6)
前記第2の性能予測モデル生成部は、
前記仮想化システムを計測し、計測した結果得られた入力値と、その入力値に対応する出力値とに基づいて、前記ハードウェア層の性能予測モデルを生成する
ことを特徴とする付記1乃至付記5の何れかに記載の、仮想化システムの性能予測装置。
(Appendix 6)
The second performance prediction model generation unit includes:
Appendices 1 to 1, wherein the virtualization system is measured, and a performance prediction model of the hardware layer is generated based on an input value obtained as a result of the measurement and an output value corresponding to the input value. The virtualization system performance prediction apparatus according to any one of Appendix 5.

(付記7)
前記第1の性能予測モデル生成部の代わりに、或いは、前記第1の性能予測モデル生成部に加えて更に、
前記仮想マシンにて動作するアプリケーションの設計情報に基づき生成された、前記アプリケーション層の性能予測モデルを1つ以上格納している記憶部から、特定の性能予測モデルを選択する、性能予測モデル特定部を備える
ことを特徴とする付記1乃至付記6の何れかに記載の、仮想化システムの性能予測装置。
(Appendix 7)
Instead of the first performance prediction model generation unit or in addition to the first performance prediction model generation unit,
A performance prediction model specifying unit that selects a specific performance prediction model from a storage unit that stores one or more performance prediction models of the application layer generated based on design information of an application that operates on the virtual machine The performance prediction device for a virtualization system according to any one of appendix 1 to appendix 6, wherein

(付記8)
前記記憶部を更に備える
ことを特徴とする付記1乃至付記7の何れかに記載の、仮想化システムの性能予測装置。
(Appendix 8)
The virtualization system performance prediction apparatus according to any one of appendix 1 to appendix 7, further comprising the storage unit.

(付記9)
前記仮想化システムの計測に関わる設定値と、その計測の実行命令を指定可能な入力内容指定部と、
前記仮想化システムの計測値である入力値と、その入力値に対応する出力値とを収集する情報収集部と、
を更に備えることを特徴とする付記1乃至付記8の何れかに記載の、仮想化システムの性能予測装置。
(Appendix 9)
An input content designation unit capable of designating a setting value related to measurement of the virtualization system and an execution instruction of the measurement;
An information collection unit that collects an input value that is a measurement value of the virtualization system and an output value corresponding to the input value;
The virtual system performance prediction apparatus according to any one of Supplementary Note 1 to Supplementary Note 8, further comprising:

(付記10)
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成し、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成し、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用することにより、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する
ことを特徴とする、仮想化システムの性能予測方法。
(Appendix 10)
Generate a performance prediction model of the application layer based on information about the application that operates in a virtual machine executed in a virtualization system composed of an application layer and a hardware layer,
Based on the measurement result of the virtualization system, generate a performance prediction model of the hardware layer,
Targeting the performance prediction model of the application layer and the performance prediction model of the hardware layer, by using the output value in the performance prediction model of one layer as an input value in the performance prediction model of the other layer, A virtualization system performance prediction method, wherein the virtualization system performance prediction model reflecting the dependency between the two layers is generated.

(付記11)
前記ハードウェア層の定義に、仮想マシンモニタと、物理マシンのハードウェアとを含める
ことを特徴とする付記10記載の、仮想化システムの性能予測方法。
(Appendix 11)
The virtual system performance prediction method according to appendix 10, wherein the definition of the hardware layer includes a virtual machine monitor and hardware of a physical machine.

(付記12)
仮想化システムの性能予測装置の動作制御のためのコンピュータ・プログラムであって、そのコンピュータ・プログラムにより、
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成する第1の性能予測モデル生成機能と、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成する第2の性能予測モデル生成機能と、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する合成処理により、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する性能予測モデル合成機能とを、
コンピュータに実現させることを特徴とするコンピュータ・プログラム。
(Appendix 12)
A computer program for controlling the operation of a performance prediction device of a virtualization system, the computer program,
A first performance prediction model generation function that generates a performance prediction model of the application layer based on information related to the application that operates in a virtual machine executed in a virtualization system including an application layer and a hardware layer When,
A second performance prediction model generation function for generating a performance prediction model of the hardware layer based on the measurement result of the virtualization system;
By combining the performance prediction model of the application layer and the performance prediction model of the hardware layer, the output value in the performance prediction model of one layer is used as the input value in the performance prediction model of the other layer. A performance prediction model synthesis function for generating a performance prediction model of the virtualization system, in which the dependency relationship between the two layers is reflected,
A computer program characterized by being realized by a computer.

1 性能予測装置
2 (対象システム)仮想化システム
3 記憶部
10 性能予測装置
11 CPU
12 通信インタフェース
13 入出力ユーザインタフェース
14 ROM
15 RAM
16 バス
17 記憶装置
18 ドライブ装置
19 記憶媒体
20 オペレータ等
101 アプリケーション層の性能予測モデル生成部
102 ハードウェア層の性能予測モデル生成部
103 仮想化環境の性能予測モデル合成部
104 アプリケーション層の性能予測モデル特定部
110 アプリケーション層の性能予測モデル群
201 仮想マシン
202 仮想マシンモニタ
203 物理マシンのハードウェア
204 アプリケーション層
205 ハードウェア層
205A ハードウェア層
206 仮想マシンモニタ層
300 通信ネットワーク
301 アプリケーション層の性能予測モデル
302 ハードウェア層の性能予測モデル
303 仮想化環境の性能予測モデル
401 入力内容指定部
402 情報収集部
801 アプリケーション層の性能予測モデル
802 ハードウェア層の性能予測モデル
805 リクエスト
806 リクエスト
807 ハードウェアリソースへのリソース要求
808 ハードウェアリソースへのリソース要求
809 性能指標
810 リソース要求に関する処理完了通知
811 リソース要求に関する処理完了通知
812 処理済みリクエスト
813 処理済みリクエスト
DESCRIPTION OF SYMBOLS 1 Performance prediction apparatus 2 (Target system) Virtualization system 3 Memory | storage part 10 Performance prediction apparatus 11 CPU
12 Communication interface 13 Input / output user interface 14 ROM
15 RAM
16 Bus 17 Storage device 18 Drive device 19 Storage medium 20 Operator etc. 101 Application layer performance prediction model generation unit 102 Hardware layer performance prediction model generation unit 103 Virtualization environment performance prediction model synthesis unit 104 Application layer performance prediction model Specific unit 110 Application layer performance prediction model group 201 Virtual machine 202 Virtual machine monitor 203 Physical machine hardware 204 Application layer 205 Hardware layer 205A Hardware layer 206 Virtual machine monitor layer 300 Communication network 301 Application layer performance prediction model 302 Performance prediction model of hardware layer 303 Performance prediction model of virtual environment 401 Input content specification unit 402 Information collection unit 801 Application layer performance prediction model Model 802 Performance prediction model of hardware layer 805 request 806 request 807 resource request to hardware resource 808 resource request to hardware resource 809 performance index 810 processing completion notification related to resource request 811 processing completion notification related to resource request 812 processed request 813 Request processed

Claims (10)

アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成する第1の性能予測モデル生成部と、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成する第2の性能予測モデル生成部と、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する合成処理により、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する性能予測モデル合成部と、
を備えることを特徴とする、仮想化システムの性能予測装置。
A first performance prediction model generation unit that generates a performance prediction model of the application layer based on information related to the application that operates in a virtual machine executed in a virtualization system including an application layer and a hardware layer When,
A second performance prediction model generation unit that generates a performance prediction model of the hardware layer based on the measurement result of the virtualization system;
By combining the performance prediction model of the application layer and the performance prediction model of the hardware layer, the output value in the performance prediction model of one layer is used as the input value in the performance prediction model of the other layer. , A performance prediction model synthesis unit that generates a performance prediction model of the virtualization system in which the dependency relationship between the two layers is reflected;
A performance prediction apparatus for a virtualization system, comprising:
前記第1の性能予測モデル生成部は、
前記アプリケーション層の性能予測モデルにリクエストが入力されるのに応じて、前記ハードウェア層に対して、そのハードウェア層を構成するハードウェアリソースの使用方法に関する情報を含むリソース要求を発行し、
前記第2の性能予測モデル生成部は、
前記ハードウェア層の性能予測モデルによって、前記リソース要求に応じた処理を行うと共に、その処理の完了に応じて、前記アプリケーション層に対して、処理完了通知を発行し、
前記性能予測モデル合成部は、
前記合成処理に際して、前記リソース要求と、前記処理完了通知とを利用する
ことを特徴とする請求項1記載の、仮想化システムの性能予測装置。
The first performance prediction model generation unit includes:
In response to a request being input to the performance prediction model of the application layer, a resource request including information on how to use hardware resources constituting the hardware layer is issued to the hardware layer,
The second performance prediction model generation unit includes:
The hardware layer performance prediction model performs processing according to the resource request, and upon completion of the processing, issues a processing completion notification to the application layer,
The performance prediction model synthesis unit
The virtualization system performance prediction apparatus according to claim 1, wherein the resource request and the process completion notification are used in the synthesis process.
前記性能予測モデル合成部は、前記仮想化システムの性能予測モデルとして、
前記リクエストと、
前記リソース要求と、
前記ハードウェア層の性能予測モデルにより算出された性能指標と、
前記リソース要求が前記ハードウェア層に対して発行されてから、前記ハードウェア層から前記処理完了通知が発行されるまでの所用時間と
のうち、少なくとも何れかを提示する
ことを特徴とする請求項2記載の、仮想化システムの性能予測装置。
The performance prediction model synthesis unit is a performance prediction model of the virtualization system,
The request;
The resource request;
A performance index calculated by the performance prediction model of the hardware layer; and
The present invention presents at least one of a required time from when the resource request is issued to the hardware layer to when the processing completion notification is issued from the hardware layer. 3. The performance prediction apparatus for a virtualization system according to 2.
前記ハードウェア層は、
仮想マシンモニタと、物理マシンのハードウェアとを含む
ことを特徴とする請求項1乃至請求項3の何れかに記載の、仮想化システムの性能予測装置。
The hardware layer is
The virtual machine performance prediction apparatus according to any one of claims 1 to 3, further comprising a virtual machine monitor and hardware of a physical machine.
前記第2の性能予測モデル生成部は、
前記仮想化システムを計測し、計測した結果得られた入力値と、その入力値に対応する出力値とに基づいて、前記ハードウェア層の性能予測モデルを生成する
ことを特徴とする請求項1乃至請求項4の何れかに記載の、仮想化システムの性能予測装置。
The second performance prediction model generation unit includes:
The hardware layer performance prediction model is generated based on an input value obtained by measuring the virtualization system and an output value corresponding to the input value. The performance prediction apparatus of the virtualization system according to any one of claims 1 to 4.
前記第1の性能予測モデル生成部の代わりに、或いは、前記第1の性能予測モデル生成部に加えて更に、
前記仮想マシンにて動作するアプリケーションの設計情報に基づき生成された、前記アプリケーション層の性能予測モデルを1つ以上格納している記憶部から、特定の性能予測モデルを選択する、性能予測モデル特定部を備える
ことを特徴とする請求項1乃至請求項5の何れかに記載の、仮想化システムの性能予測装置。
Instead of the first performance prediction model generation unit or in addition to the first performance prediction model generation unit,
A performance prediction model specifying unit that selects a specific performance prediction model from a storage unit that stores one or more performance prediction models of the application layer generated based on design information of an application that operates on the virtual machine The virtual system performance prediction apparatus according to any one of claims 1 to 5, further comprising:
前記仮想化システムの計測に関わる設定値と、その計測の実行命令を指定可能な入力内容指定部と、
前記仮想化システムの計測値である入力値と、その入力値に対応する出力値とを収集する情報収集部と、
を更に備えることを特徴とする請求項1乃至請求項6の何れかに記載の、仮想化システムの性能予測装置。
An input content designation unit capable of designating a setting value related to measurement of the virtualization system and an execution instruction of the measurement;
An information collection unit that collects an input value that is a measurement value of the virtualization system and an output value corresponding to the input value;
The virtual system performance prediction apparatus according to claim 1, further comprising:
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成し、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成し、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用することにより、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する
ことを特徴とする、仮想化システムの性能予測方法。
Generate a performance prediction model of the application layer based on information about the application that operates in a virtual machine executed in a virtualization system composed of an application layer and a hardware layer,
Based on the measurement result of the virtualization system, generate a performance prediction model of the hardware layer,
Targeting the performance prediction model of the application layer and the performance prediction model of the hardware layer, by using the output value in the performance prediction model of one layer as an input value in the performance prediction model of the other layer, A virtualization system performance prediction method, wherein the virtualization system performance prediction model reflecting the dependency between the two layers is generated.
前記ハードウェア層の定義に、仮想マシンモニタと、物理マシンのハードウェアとを含める
ことを特徴とする請求項8記載の、仮想化システムの性能予測方法。
The virtual system performance prediction method according to claim 8, wherein the definition of the hardware layer includes a virtual machine monitor and hardware of a physical machine.
仮想化システムの性能予測装置の動作制御のためのコンピュータ・プログラムであって、そのコンピュータ・プログラムにより、
アプリケーション層とハードウェア層とからなる仮想化システムにて実行される仮想マシンにおいて動作するところの、アプリケーションに関する情報に基づいて、前記アプリケーション層の性能予測モデルを生成する第1の性能予測モデル生成機能と、
前記仮想化システムを計測した結果に基づいて、前記ハードウェア層の性能予測モデルを生成する第2の性能予測モデル生成機能と、
前記アプリケーション層の性能予測モデルと、前記ハードウェア層の性能予測モデルとを対象として、一方の層の性能予測モデルにおける出力値を、他方の層の性能予測モデルにおける入力値として利用する合成処理により、該2層間の依存関係が反映された、前記仮想化システムの性能予測モデルを生成する性能予測モデル合成機能とを、
コンピュータに実現させることを特徴とするコンピュータ・プログラム。
A computer program for controlling the operation of a performance prediction device of a virtualization system, the computer program,
A first performance prediction model generation function that generates a performance prediction model of the application layer based on information related to the application that operates in a virtual machine executed in a virtualization system including an application layer and a hardware layer When,
A second performance prediction model generation function for generating a performance prediction model of the hardware layer based on the measurement result of the virtualization system;
By combining the performance prediction model of the application layer and the performance prediction model of the hardware layer, the output value in the performance prediction model of one layer is used as the input value in the performance prediction model of the other layer. A performance prediction model synthesis function for generating a performance prediction model of the virtualization system, in which the dependency relationship between the two layers is reflected,
A computer program characterized by being realized by a computer.
JP2013000669A 2013-01-07 2013-01-07 Performance prediction device of virtualization system, performance prediction method and computer program Pending JP2014132419A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013000669A JP2014132419A (en) 2013-01-07 2013-01-07 Performance prediction device of virtualization system, performance prediction method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013000669A JP2014132419A (en) 2013-01-07 2013-01-07 Performance prediction device of virtualization system, performance prediction method and computer program

Publications (1)

Publication Number Publication Date
JP2014132419A true JP2014132419A (en) 2014-07-17

Family

ID=51411477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013000669A Pending JP2014132419A (en) 2013-01-07 2013-01-07 Performance prediction device of virtualization system, performance prediction method and computer program

Country Status (1)

Country Link
JP (1) JP2014132419A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015141552A (en) * 2014-01-29 2015-08-03 日本電気株式会社 Performance prediction apparatus and performance model generation method
WO2016181549A1 (en) * 2015-05-14 2016-11-17 三菱電機株式会社 Performance evaluation apparatus and performance evaluation program
WO2019092853A1 (en) * 2017-11-10 2019-05-16 Nec Corporation Throughput estimation device and throughput estimation system
CN111209999A (en) * 2018-11-21 2020-05-29 成都唐源电气股份有限公司 Contact network performance degradation prediction method based on recurrent neural network
US10866830B2 (en) 2015-08-19 2020-12-15 Nec Corporation Virtual computer system performance prediction device, performance prediction method, and program storage medium
CN113051145A (en) * 2021-04-08 2021-06-29 武汉极意网络科技有限公司 Performance detection method of online verification system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143400A (en) * 1996-11-07 1998-05-29 Fuji Electric Co Ltd Method for evaluating performance of computer system for control
JP2009217531A (en) * 2008-03-11 2009-09-24 Fujitsu Ltd Virtual software generator
JP2012089104A (en) * 2010-09-22 2012-05-10 Internatl Business Mach Corp <Ibm> Program operation estimation method and program
US20120239376A1 (en) * 2011-03-14 2012-09-20 Sap Ag Predicting performance of a consolidated virtualized computing environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10143400A (en) * 1996-11-07 1998-05-29 Fuji Electric Co Ltd Method for evaluating performance of computer system for control
JP2009217531A (en) * 2008-03-11 2009-09-24 Fujitsu Ltd Virtual software generator
JP2012089104A (en) * 2010-09-22 2012-05-10 Internatl Business Mach Corp <Ibm> Program operation estimation method and program
US20120239376A1 (en) * 2011-03-14 2012-09-20 Sap Ag Predicting performance of a consolidated virtualized computing environment

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015141552A (en) * 2014-01-29 2015-08-03 日本電気株式会社 Performance prediction apparatus and performance model generation method
WO2016181549A1 (en) * 2015-05-14 2016-11-17 三菱電機株式会社 Performance evaluation apparatus and performance evaluation program
JPWO2016181549A1 (en) * 2015-05-14 2017-07-13 三菱電機株式会社 Performance evaluation apparatus and performance evaluation program
US10866830B2 (en) 2015-08-19 2020-12-15 Nec Corporation Virtual computer system performance prediction device, performance prediction method, and program storage medium
WO2019092853A1 (en) * 2017-11-10 2019-05-16 Nec Corporation Throughput estimation device and throughput estimation system
US11507490B2 (en) 2017-11-10 2022-11-22 Nec Corporation Throughput estimation device and throughput estimation system
CN111209999A (en) * 2018-11-21 2020-05-29 成都唐源电气股份有限公司 Contact network performance degradation prediction method based on recurrent neural network
CN111209999B (en) * 2018-11-21 2023-04-07 成都唐源电气股份有限公司 Contact network performance degradation prediction method based on recurrent neural network
CN113051145A (en) * 2021-04-08 2021-06-29 武汉极意网络科技有限公司 Performance detection method of online verification system
CN113051145B (en) * 2021-04-08 2022-06-28 武汉极意网络科技有限公司 Performance detection method of online verification system

Similar Documents

Publication Publication Date Title
US10175745B2 (en) Optimizing power consumption by dynamic workload adjustment
Gulati et al. Vmware distributed resource management: Design, implementation, and lessons learned
JP2014132419A (en) Performance prediction device of virtualization system, performance prediction method and computer program
US9524179B2 (en) Virtual-machine-deployment-action analysis
Minarolli et al. Tackling uncertainty in long-term predictions for host overload and underload detection in cloud computing
JP6753200B2 (en) Methods, systems and computer programs for cloud-based computing clusters for simulated operator training systems
US20050204333A1 (en) Integrated system-of-systems modeling environment and related methods
US20200125973A1 (en) Data Centre Utilisation Forecasting System And Method
TWI534710B (en) A Virtual Machine Migration Method
Tertilt et al. Generic performance prediction for ERP and SOA applications
Casalicchio et al. Research challenges in legal-rule and QoS-aware cloud service brokerage
JP5884841B2 (en) Performance prediction apparatus and performance model generation method
Reuter et al. Cost efficiency under mixed serverless and serverful deployments
US20210263718A1 (en) Generating predictive metrics for virtualized deployments
JP2014174609A (en) Hardware configuration estimation system, hardware configuration estimation method and hardware configuration estimation program
JP5871018B2 (en) Performance prediction apparatus, performance model generation method, and program
JP2016103126A (en) Method for finding condition of category division of key performance indicator, computer for the purpose and computer program
US20220237099A1 (en) Service specifying method and non-transitory computer-readable medium
Hauck et al. Deriving performance-relevant infrastructure properties through model-based experiments with Ginpex
Karimian-Aliabadi et al. Scalable performance modeling and evaluation of MapReduce applications
Verbitskiy et al. Cobell: Runtime prediction for distributed dataflow jobs in shared clusters
CN103186423A (en) Migration method for virtual machine, and cloud servosystem
Hauck et al. Automatic derivation of performance prediction models for load-balancing properties based on goal-oriented measurements
JP2016139984A (en) Network evaluation system and network evaluation method
Badii et al. ICARO Cloud Simulator exploiting knowledge base

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160129

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160329