JP5814874B2 - コンピュータ装置及びリソース使用量予測方法及びプログラム - Google Patents
コンピュータ装置及びリソース使用量予測方法及びプログラム Download PDFInfo
- Publication number
- JP5814874B2 JP5814874B2 JP2012161148A JP2012161148A JP5814874B2 JP 5814874 B2 JP5814874 B2 JP 5814874B2 JP 2012161148 A JP2012161148 A JP 2012161148A JP 2012161148 A JP2012161148 A JP 2012161148A JP 5814874 B2 JP5814874 B2 JP 5814874B2
- Authority
- JP
- Japan
- Prior art keywords
- standby
- transactions
- resource usage
- main
- load
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Hardware Redundancy (AREA)
- Debugging And Monitoring (AREA)
Description
また、擬似アプリケーション実行によって、仮想化統合後のシステム負荷の見積もりを行う方法も提案されている(例えば、特許文献2、3)。
しかし、有事の際などに待機系の予備サーバ装置へ切替えた場合、待機系サーバ装置のリソース使用量が、平常時のリソース使用量と異なる場合が多々ある(少なくなる場合が多い)。
そのため、従来方法で見積もりを行うと、不要なリソースを用意することになり、無駄なコストが発生するという課題がある。
複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測部と、
前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測部により予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測部とを有することを特徴とする。
なお、実施の形態1〜5で示す手順は、物理サーバ装置を仮想化サーバ装置へ統合する場合だけでなく、仮想化サーバ装置の仮想マシンを異なる仮想化サーバ装置へ統合する場合にも利用可能である。
複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わり、それぞれが物理計算機上に単体で動作した場合の待機系システムのリソース使用量を予測する待機系リソース使用量予測部と、
前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測部により予測された各待機系システム単体でのリソース使用量を用いて予測する計算機リソース使用量予測部とを有するコンピュータ装置を説明する。
図1は、本実施の形態に係る主系サイトと待機系サイトを含むシステム構成例を示す。
サーバ装置10、11、12、13のいずれも、物理計算機である。
物理サーバ装置とは、仮想化されていない物理計算機であり、仮想化サーバ装置とは、仮想マシンが動作する物理計算機である。
また、コンピュータ装置30は、サイジング機能が動作する端末である。
サーバ装置10、11では、負荷測定部200、201が動作し、各サーバ装置のシステム負荷を測定している。
また、主系システムの障害発生時に主系システムに代わって動作するバックアップシステムを待機系システムという。
本実施の形態では、待機系システムは待機系サイト2の仮想化サーバ装置上の仮想マシンとして実現される。
このため、主系システムは物理的なハードウェアとして存在するが、待機系システムは、物理的なハードウェアとして存在するものではなく、論理的な存在である。
1つの仮想化サーバ装置には2つ以上の仮想マシン(2つ以上の待機系システム)が統合して実装される。
本実施の形態では、仮想化サーバ装置に仮想マシン(待機系システム)が実装される前に、コンピュータ装置30が、主系システムごとに、主系システムから待機系システムに系が切り替わり、物理計算機上に単体で動作した場合の待機系システムのリソース使用量を予測する。
そして、コンピュータ装置30が予測した待機系システム単体でのリソース使用量から、仮想化サーバ装置に実装した際のリソース使用量を計算し、積み上げて、仮想化サーバ装置全体でのリソース使用量を予測する。
その後、待機系システムが仮想マシンとして仮想化サーバ装置に実装されると、仮想化サーバ装置は、2つ以上の主系システムをバックアップする予備サーバ装置となる。
記憶装置253は、情報記憶部の例に相当する。
処理装置252において、構成管理部210、負荷管理部211、負荷収集部212及び性能設計部220が実行される。
また、記憶装置253に、複数のテーブルが記憶されている。
負荷収集部212は、サーバ装置上の負荷測定部200、201が出力する測定情報を収集する。
負荷管理部211は、負荷収集部212が収集した負荷をCPU負荷テーブル103(図5)、ディスク負荷テーブル104(図6)、ネットワーク負荷テーブル105(図7)に格納する。
性能設計部220は、負荷情報と入力装置250から入力された統合先サーバスペック情報からリソース使用量の見積もりを行う。
予測の手法としては、待機系負荷算出部221は、主系システムごとに、主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数とを用いて、平常時のリソース使用量とトランザクション数との相関関係を表す数式を算出する。
更に、待機系負荷算出部221は、主系システムごとに、系切替後の待機系システムの最大トランザクション数を取得し、主系システムごとに、算出した数式と、取得した系切替後の待機系システムの最大トランザクション数とを用いて、系切替後に単体で動作する場合の待機系システムの最大リソース使用量を予測する。
待機系負荷算出部221は、数式算出部及び待機系リソース使用量予測部の例に相当する。
負荷見積もり部222は、計算機リソース使用量予測部の例に相当する。
構成情報テーブル101は、図4に示すように、サーバ装置10、11のホスト名、IPアドレス、OS(Operating System)名、OSバージョン、CPU名、CPU数、サーバ装置を利用する会社名などの構成情報を格納するテーブルである。
構成情報テーブル101は、予め、入力装置250によって入力されたデータを構成管理部210が登録する。
その際、構成管理部210は、コンピュータ装置3内でサーバ装置を一意に識別するシステムIDを割当てる。
CPU性能情報テーブル102は、例えば、図8に示すテーブルである。
CPU性能情報テーブル102のCPU性能の値は、例えば、SPECintから取得した性能値である。
また、CPU性能の値は、事前のベンチマークテストによる独自の性能値でもよい。
ディスク負荷テーブル104は、図6に示すように、平常時に計測された、主系サイト1のサーバ装置における記憶リソースの使用負荷(ディスク負荷)とトランザクション数とが示されるテーブルである。
ネットワーク負荷テーブル105は、図7に示すように、平常時に計測された、主系サイト1のサーバ装置におけるネットワークアクセスリソースの使用負荷(ネットワーク負荷)とトランザクション数とが示されるテーブルである。
CPU負荷テーブル103、ディスク負荷テーブル104及びネットワーク負荷テーブル105には、それぞれ、サーバ装置10、11で動作する負荷測定部200、201から収集された値が示される。
なお、CPU負荷テーブル103、ディスク負荷テーブル104及びネットワーク負荷テーブル105は、それぞれ主系平常時情報の例に相当する。
トランザクション数テーブル106は、例えば、図9に示すテーブルである。
トランザクション数テーブル106は、平常時に主系サイト1のサーバ装置を利用するユーザの数が示されるテーブルであり、トランザクション数テーブル106も主系平常時情報の例に相当する。
会社情報テーブル107は、例えば、図10に示すテーブルである。
システム要件テーブル108は、例えば、図11に示すテーブルである。
システム要件テーブル108は、待機系システム要件情報の例に相当する。
一方、図23は、従来技術の動作の概要を説明する図である。
図3及び図23では、サーバ装置10はA社に利用され、サーバ装置11はB社に利用されているものとする。
また、501及び502は平常時に利用するネットワークであり、601及び602は非常時に利用するバックアップ回線である。
図23に示すように、従来技術では、負荷見積もり部701は、主系サイト1のサーバ装置10、11から負荷測定部200、201が計測した平常時のリソース使用量(CPU負荷、ディスク負荷、ネットワーク負荷)とサーバスペック情報を用いて、サーバ装置10、11をバックアップする仮想化サーバ装置の全体のリソース使用量を見積もっている。
つまり、従来技術では、サーバ装置10、11の平常時のリソース使用量を用いて、仮想化サーバ装置の全体のリソース使用量を見積もっている。
前述したように、主系から待機系に系が切り替わった非常時では、待機系でのリソース使用量は、機能の縮退等により、平常時の主系のリソース使用量よりも少なくなることが多い。
本実施の形態では、図3に示すように、待機系負荷算出部221が、負荷測定部200、201が計測した平常時のリソース使用量(CPU負荷、ディスク負荷、ネットワーク負荷)と、各社の事業継続計画(図2のシステム要件テーブル108に該当)を用いて、非常時に単体で動作した場合の待機系のリソース使用量(縮退により、平常のリソース使用量よりも少ないリソース使用量)を予測する。
そして、負荷見積もり部222は、待機系負荷算出部221により予測された非常時の待機系のリソース使用量とサーバスペック情報と仮想化サーバスペック情報を用いて、仮想化サーバ装置の全体のリソース使用量を見積もっている。
図3及び図23において、詰め込み先サーバ決定部400の動作は共通しているが、図3と図23では、詰め込み先サーバ決定部400の動作の前提となる仮想化サーバ装置の全体のリソース使用量の見積値が異なるので、詰め込み先サーバ決定部400が決定する内容は異なり得る。
なお、詰め込み先サーバ決定部400は、図2では図示していない。また、図3及び図23では、主系サイトにおける各社の物理サーバが1つの例となっているが、自社の複数の物理サーバを、待機サイトの仮想化サーバ装置に、自社のみで統合する、もしくは他社と共同で統合する場合においても、同様の考えで本技術を活用できる。その場合、事業継続計画(待機系サーバのシステム要件)は、主系サイトの物理サーバごとに必要となるが、事業継続計画が物理サーバごとにない場合、各物理サーバに対する待機系サーバのシステム要件は同じと判断する。
まず、サーバ装置10、11で動作する負荷測定部200、201の動作について説明する。
コンピュータ装置3の負荷収集部212は、サーバ装置10、11にtelnetやSSH(Secure Shell)を利用して接続し、tailコマンドなどを利用して、ログファイルから各サーバ装置の負荷を一定周期ごとに読み取り、コンピュータ装置30側に収集する。
ログファイルは、CSV形式、バイナリ形式、テキスト形式でも負荷収集部212が読み込み可能な形式ならどのような形式でもよい。
また、負荷測定部200、201は測定結果をログファイルに出力せず、メモリ内に蓄積しておき、負荷収集部212が直接負荷測定部200、201とLAN20、WAN22、LAN21を経由したコネクションを確立し、測定結果を取得してもよい。
負荷収集部212は、取得したIPアドレス、ログインアカウント、パスワードにより各サーバ装置に接続し、負荷測定部200、201が測定した結果を一定周期で収集し、負荷管理部211を利用して各負荷に収集時刻と収集対象のシステムIDを付与してCPU負荷テーブル103(図5)、ディスク負荷テーブル104(図6)、ネットワーク負荷テーブル105(図7)、トランザクション数テーブル106(図9)に格納する。
性能設計部220は、入力装置250から、統合先サーバ装置Sjに統合される統合対象サーバ装置Si(i∈Xj;Xjは主系サイト1のサーバ装置の総数)のシステムIDと、統合先サーバ装置Sjのスペック、少なくともCPUに関する情報(CPU名、クロック、コア数、チップ数、搭載されるCPU数)を取得する(S101)。
次に、待機系負荷算出部221は非常時負荷算出ステップにより、非常時(主系から待機系への系切替時)の最大トランザクション数ti(i∈Xj)を算出する(S102)。
また、待機系負荷算出部221は、非常時CPU負荷算出ステップ(S103)、非常時ディスク負荷算出ステップ(S104)、非常時ネットワーク負荷算出ステップ(S105)によって、システム特性を考慮し、統合対象サーバ装置Si(i∈Xj)の非常時の、最大CPU使用率kcpu_i、最大ディスクアクセスI/O数kdisk_req_i、最大ディスクアクセス帯域kdisk_th_i、最大ネットワークアクセスI/O数knet_req_i、最大ネットワークアクセス帯域knet_th_iを算出する。
次に、待機系負荷算出部221は、選択された統合対象サーバ装置SiのシステムIDと会社情報テーブル107(図10)から、統合対象サーバ装置Siの会社名と従業員数(平常時、主系サイト1の物理サーバ装置を利用するユーザ数)uiを取得する(S1022)。
次に、待機系負荷算出部221は、会社名とシステム要件テーブル108(図11)から非常時従業員数eiを取得する(S1023)。
次に、待機系負荷算出部221は、CPU負荷テーブル103(図5)から、(平常時の)最大トランザクション数ti_maxを取得し、非常時の最大トランザクション数ti=平常時最大トランザクション数ti_max×(平常時従業員数ui÷非常時従業員数ei)を算出する(S1024)。
これは、トランザクション数とシステムのユーザ数(従業員数)の関係が線形になると仮定した場合の計算方法である。
待機系負荷算出部221は、以上の処理を全ての統合対象サーバ装置Si(i∈Xj)に対して行う(S1025)。
次に、待機系負荷算出部221は、CPU負荷テーブル103(図5)と、選択された統合対象サーバ装置SiのシステムIDから、統合対象サーバ装置SiのCPU使用率とトランザクション数のデータを取得し(S1032)、トランザクション数毎の平均CPU使用率を算出する。
なお、ここでのCPU使用率とは、CPU負荷テーブル103のユーザ使用率、システム使用率、I/O待ちの比率を合計したものである。
次に、待機系負荷算出部221は、トランザクション数と算出した平均CPU使用率の相関関係を表す非線形モデル式(近似式)を、回帰分析を用いて導出する(S1033)。
待機系負荷算出部221は、例えば、以下の近似式を導出するようにする。
Y=αcpu_i・X2+βcpu_i・X+γcpu_i
(αcpu_i、βcpu_i、γcpu_iは定数値)
更に、待機系負荷算出部221は、非常時トランザクション算出ステップ(S102)で算出した、統合対象サーバ装置Siの非常時最大トランザクション数tiを、導出した近似式に入力することで、非常時の最大CPU使用率kcpu_iを以下のように算出する(S1034)。
kcpu_i=αcpu_i・ti 2+βcpu_i・ti+γcpu_i
(αcpu_i、βcpu_i、γcpu_iは定数値)
なお、S1033で導出された近似式と、非常時の最大トランザクション数と、非常時の最大CPU使用率kcpu_iの関係を図13に示す。
待機系負荷算出部221は、以上の処理を全ての統合対象サーバ装置Si(i∈Xj)に対して行う(S1035)。
次に、待機系負荷算出部221は、ディスク負荷テーブル104(図6)と、選択された統合対象サーバ装置SiのシステムIDから、統合対象サーバ装置SiのディスクアクセスI/O数とディスクアクセス帯域とトランザクション数のデータを取得し(S1042)、トランザクション数毎の平均ディスクアクセスI/O数と平均ディスクアクセス帯域を算出する。
なお、ここでのディスクアクセスI/O数、ディスクアクセス帯域は、ディスク負荷テーブル104の読込時と書込時のデータを合計したものである。
次に、待機系負荷算出部221は、トランザクション数と算出したディスクアクセスI/O数の相関関係、トランザクション数とディスクアクセス帯域との相関関係を表す非線形モデル式(近似式)を、回帰分析を用いて導出する(S1043)。
待機系負荷算出部221は、例えば、以下のトランザクション数とディスクアクセスI/O数の近似式を導出するようにする。
Y=αdisk_req_i・X2+βdisk_req_i・X+γdisk_req_i
(αdisk_req_i、βdisk_req_i、γdisk_req_iは定数値)
更に、待機系負荷算出部221は、非常時トランザクション算出ステップ(S102)で算出した、統合対象サーバ装置Siの非常時最大トランザクション数tiを、導出した近似式に入力することで、非常時の最大ディスクアクセスI/O数kdisk_req_iを以下のように算出する(S1044)
kdisk_req_i=αdisk_req_i・ti 2+βdisk_req_i・ti+γdisk_req_i
(αdisk_req_i、βdisk_req_i、γdisk_req_iは定数値)
なお、S1043で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ディスクアクセスI/O数kdisk_req_iの関係を図14に示す。
また、待機系負荷算出部221は、同様にして、以下のトランザクション数とディスクアクセス帯域との相関関係を表す近似式を導出するようにする。
Y=αdisk_th_i・X2+βdisk_th_i・X+γdisk_th_i
(αdisk_th_i、βdisk_th_i、γdisk_th_iは定数値)
更に、統合対象サーバ装置Siの非常時最大トランザクション数tiを、導出した近似式に入力することで、非常時の最大ディスクアクセス帯域kdisk_th_iを以下のように算出する(S1044)。
kdisk_th_i=αdisk_th_i・ti 2+βdisk_th_i・ti+γdisk_th_i
(αdisk_th_i、βdisk_th_i、γdisk_th_iは定数値)
なお、S1053で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ディスクアクセス帯域kdisk_th_iの関係を図24に示す。
待機系負荷算出部221は、以上の処理を全ての統合対象サーバ装置Si(i∈Xj)に対して行う(S1045)。
待機系負荷算出部221は、ネットワーク負荷テーブル105(図7)と、選択された統合対象サーバ装置SiのシステムIDから、統合対象サーバ装置SiのネットワークアクセスI/O数とネットワークアクセス帯域とトランザクション数のデータを取得し(S1052)、トランザクション数毎の平均ネットワークアクセスI/O数と平均ネットワークアクセス帯域を算出する。
なお、ここでのネットワークアクセスI/O数、ネットワークアクセス帯域とは、ネットワーク負荷テーブル105の送信時と受信時のデータを合計したものである。
次に、待機系負荷算出部221は、トランザクション数と算出したネットワークアクセスI/O数との相関関係、トランザクション数とネットワークアクセス帯域との相関関係を表す非線形モデル式(近似式)を、回帰分析を用いて導出する(S1053)。
例えば、以下のトランザクション数とネットワークアクセスI/O数の近似式を導出するようにする。
Y=αnet_req_i・X2+βnet_req_i・X+γnet_req_i
(αnet_req_i、βnet_req_i、γnet_req_iは定数値)
更に、待機系負荷算出部221は、非常時トランザクション算出ステップで算出した、統合対象サーバ装置Siの非常時最大トランザクション数tiを、導出した近似式に入力することで、非常時の最大ネットワークアクセスI/O数knet_req_を以下のように算出する(S1054)。
knet_req_=αnet_req_i・ti 2+βnet_req_i・ti+γnet_req_i
(αnet_req_i、βnet_req_i、γnet_req_iは定数値)
なお、S1053で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ネットワークアクセスI/O数knet_req_iの関係を図15に示す。
また、待機系負荷算出部221は、同様にして、以下のトランザクション数とネットワークアクセス帯域との相関関係を表す近似式を導出するようにする。
Y=αnet_th_i・X2+βnet_th_i・X+γnet_th_i
(αnet_th_i、βnet_th_i、γnet_th_iは定数値)
更に、統合対象サーバ装置Siの非常時最大トランザクション数tiを、導出した近似式に入力することで、非常時の最大ネットワークアクセス帯域knet_th_iを以下のように算出する(S1054)。
knet_th_i=αnet_th_i・ti 2+βnet_th_i・ti+γnet_th_i
(αnet_th_i、βnet_th_i、γnet_th_iは定数値)
なお、S1053で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ネットワークアクセス帯域knet_th_iの関係を図25に示す。
非常時の最大CPU使用率kcpu_i
非常時の最大ディスクアクセスI/O数kdisk_req_i
非常時の最大ディスクアクセス帯域kdisk_th_i
非常時の最大ネットワークアクセスI/O数knet_req_i
非常時の最大ネットワークアクセス帯域knet_th_i
待機系システムのリソース使用量を、単純に、システム要件から抽出した平常時のシステム使用比率で見積もると(線形予測)、本来システム利用率(トランザクション数)に対するリソース使用率が非線形の関係になるため、見積もり誤差が大きくなる(図12)。
この点を考慮して、S1033、S1043、S1053では、非線形の近似式を導出している。
但し、線形予測を行っても見積もり誤差が大きくない場合等は、S1033、S1043、S1053の非線形予測に代えて線形予測を行ってもよい。
この際に、単純な人数比でリソース負荷を算出するのではなく、システムによってトランザクション数の増加に対するリソース使用量に変化が異なるため、そのシステム特性を現すモデルから、非常時のリソース負荷を見積もることによって、リソース負荷の見積もり精度を向上させることができる。
そして、本実施の形態に係る仮想マシンサイジング装置は、平常時のシステムユーザ数(従業員数)と待機系のシステム要件(事業継続計画などで定められている待機系システムを利用する際のユーザ数)と、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、平常時ユーザ数と待機系利用時のユーザ数の比率と平常時の最大トランザクション数から待機系利用時の最大トランザクション数を算出する。
また、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
以上の実施の形態1では、トランザクション数とユーザ(従業員)の関係が線形になると考え、平常時と非常時の従業員数(システム利用ユーザ数)の比率と平常時の最大トランザクション数によって、非常時の最大トランザクション数を算出している。
しかし、平常時のユーザ数(従業員数)に対するトランザクション数が計測できる場合は、ユーザ数とトランザクション数の関係を、回帰分析によってモデル化して非線形の近似式を導出し、非線形の近似式を用いて非常時の最大トランザクション数を算出する方が(図16)、精度の高い非常時トランザクション数が算出可能となる。
平常時のユーザ数(従業員数)の計測は、例えば、入門ゲート通過時のICカード認証による出勤者人数のカウントやパソコンのログイン記録、一日の最初にメールアクセスした際のログのカウントなどによって日時単位の出勤人数が可能であり、これとトランザクション数の計測によって、出勤人数(利用人数)に対するトランザクション数の統計情報が収集でき、出勤人数に対するトランザクション数の関係をモデル化することが可能となる。
なお、システムの利用者が特定ユーザ向け(全従業員数でない)場合は、システムを利用するユーザのみをカウントする必要がある。
なお、非常時最大トランザクション数の算出以外の処理は、実施の形態1に示した通りである。
また、本実施の形態に係る仮想マシンサイジング装置は、導出したモデル式と待機系システムのユーザ数から、待機系システム利用時の最大トランザクション数をシステム毎に算出し、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態1では、非常時の最大トランザクション数を、平常時と非常時従業員(システム利用ユーザ数)の比率と平常時の最大トランザクション数から算出しているが、本実施の形態では、事業継続計画として、非常時システム利用にモバイル端末が必須とする場合があり、非常時用モバイル端末の台数が計画されている場合は、非常時の従業員数ではなく、非常時用モバイル端末台数を非常時のシステム利用ユーザ数と考え、下記方法で、非常時の最大トランザクション数を算出する。
非常時最大トランザクション数=
平常時最大トランザクション数×(モバイル端末台数(非常時用)÷平常時従業員数)
ただし、非常時用モバイル端末台数>非常時従業員数の場合は、非常時従業員数で計算する。
また、モバイル端末台数以外に、シンクライアント台数や同時ユーザID数、ユーザライセンス数などの場合も同様の考えで算出可能である。
なお、非常時最大トランザクション数の算出以外の処理は、実施の形態1に示した通りである。
また、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態1では、非常時の最大トランザクション数を、平常時と非常時従業員(システム利用ユーザ数)の比率と平常時の最大トランザクション数から算出しているが、本実施の形態では、事業継続計画に、平常時の最大トランザクション数に対する非常時の最大トランザクション数の比率(例えば、非常時は平常時の20%減、など)として定められている場合は、その数値と平常時の最大トランザクション数から、非常時の最大トランザクション数を算出して、リソース負荷を算出する。
なお、非常時最大トランザクション数の算出以外の処理は、実施の形態1に示した通りである。
また、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態1では、非常時の最大トランザクション数を、平常時と非常時従業員(システム利用ユーザ数)の比率と平常時の最大トランザクション数から算出しているが、本実施の形態では、事業継続計画に非常時の最大トランザクション数が定められている場合は、その数値を用いて、リソース負荷を算出する。
なお、非常時最大トランザクション数の取得以外の処理は、実施の形態1に示した通りである。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
図22は、実施の形態1〜5に示すコンピュータ装置30のハードウェア資源の一例を示す図である。
なお、図22の構成は、あくまでもコンピュータ装置30のハードウェア構成の一例を示すものであり、コンピュータ装置30のハードウェア構成は図22に記載の構成に限らず、他の構成であってもよい。
CPU911は、バス912を介して、例えば、ROM(Read Only Memory)913、RAM(Random Access Memory)914、通信ボード915、表示装置901、キーボード902、マウス903、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。
更に、CPU911は、FDD904(Flexible Disk Drive)、コンパクトディスク装置905(CDD)、プリンタ装置906、スキャナ装置907と接続していてもよい。
また、磁気ディスク装置920の代わりに、SSD(Solid State Drive)、光ディスク装置、メモリカード(登録商標)読み書き装置などの記憶装置でもよい。
CPU901は処理装置252の一例である。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。
これらは、記憶装置253の一例である。
通信ボード915、キーボード902、マウス903、スキャナ装置907などは、入力装置250の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力装置251の一例である。
通信ボード915は、図1に示すように、ネットワークに接続されている。
プログラム群923のプログラムは、CPU911がオペレーティングシステム921、ウィンドウシステム922を利用しながら実行する。
また、RAM914には、CPU911による処理に必要な各種データが格納される。
コンピュータ装置30の起動時には、ROM913のBIOSプログラム及び磁気ディスク装置920のブートプログラムが実行され、BIOSプログラム及びブートプログラムによりオペレーティングシステム921が起動される。
プログラムは、CPU911により読み出され実行される。
また、暗号鍵・復号鍵や乱数値やパラメータが、ディスクやメモリなどの記憶媒体にファイルとして記憶されてもよい。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記憶媒体に記憶される。
ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出される。
そして、読み出された情報やデータや信号値や変数値やパラメータは、抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示などのCPUの動作に用いられる。
抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリ、レジスタ、キャッシュメモリ、バッファメモリ等に一時的に記憶される。
また、実施の形態1〜5で説明しているフローチャートの矢印の部分は主としてデータや信号の入出力を示す。
データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ブルーレイ(登録商標)ディスク、DVD等の記憶媒体に記録される。
また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
すなわち、実施の形態1〜5で説明したフローチャートに示すステップ、手順、処理により、本発明に係る「リソース使用量予測方法」を実現することができる。
また、「〜部」として説明しているものは、ROM913に記憶されたファームウェアで実現されていても構わない。
或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。
ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の記憶媒体に記憶される。
プログラムはCPU911により読み出され、CPU911により実行される。
すなわち、プログラムは、実施の形態1〜5の「〜部」としてコンピュータを機能させるものである。あるいは、実施の形態1〜5の「〜部」の手順や方法をコンピュータに実行させるものである。
そして、上記したように「〜部」として示された機能をこれら処理装置、記憶装置、入力装置、出力装置を用いて実現するものである。
Claims (12)
- 複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測部と、
前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測部により予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測部とを有することを特徴とするコンピュータ装置。 - 前記コンピュータ装置は、更に、
主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数とが示される主系平常時情報を、主系システムごとに記憶する情報記憶部を有し、
主系システムごとに、主系平常時情報に示されるリソース使用量とトランザクション数とを用いて、平常時のリソース使用量とトランザクション数との相関関係を表す数式を算出する数式算出部とを有し、
前記待機系リソース使用量予測部は、
主系システムごとに、系切替後の待機系システムのトランザクション数を取得し、
主系システムごとに、前記数式算出部により算出された数式と、取得した系切替後の待機系システムのトランザクション数とを用いて、系切替後の待機系システムのリソース使用量を予測することを特徴とする請求項1に記載のコンピュータ装置。 - 前記情報記憶部は、
主系システムごとに、系切替後の待機系システムのシステム要件が示される待機系システム要件情報を記憶しており、
前記待機系リソース使用量予測部は、
主系システムごとに、待機系システム要件情報に示される待機系システムのシステム要件を用いて、系切替後の待機系システムのトランザクション数を取得し、
主系システムごとに、前記数式算出部により算出された数式と、取得した系切替後の待機系システムのトランザクション数とを用いて、系切替後の待機系システムのリソース使用量を予測することを特徴とする請求項2に記載のコンピュータ装置。 - 前記情報記憶部は、
主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数に加えて、主系システムの平常時に主系システムを利用するユーザの数が示される主系平常時情報を記憶し、
系切替後の待機系システムのシステム要件として、系切替後に待機系システムを利用するユーザの数が示される待機系システム要件情報を記憶しており、
前記待機系リソース使用量予測部は、
主系システムごとに、主系平常時情報に示される主系システムの平常時のトランザクション数とユーザ数と、待機系システム要件情報に示される待機系システムのユーザ数とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。 - 前記情報記憶部は、
系切替後の待機系システムのシステム要件として、主系システムの平常時に主系システムを利用するユーザの数と主系システムの平常時のトランザクション数との相関関係を表す数式と、系切替後に待機系システムを利用するユーザの数とが示される待機系システム要件情報を記憶しており、
前記待機系リソース使用量予測部は、 主系システムごとに、待機系システム要件情報に示される、主系システムの平常時のユーザ数とトランザクション数との相関関係を表す数式と、系切替後の待機系システムのユーザ数とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。 - 前記情報記憶部は、
主系システムの平常時のリソース使用量とトランザクション数との相関関係を表す非線形の数式が示される待機系システム要件情報を記憶していることを特徴とする請求項5に記載のコンピュータ装置。 - 前記情報記憶部は、
主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数に加えて、主系システムの平常時に主系システムを利用するユーザの数が示される主系平常時情報を記憶し、
系切替後の待機系システムのシステム要件として、系切替後に待機系システムを利用するために用いられる端末装置の数が示される待機系システム要件情報を記憶しており、
前記待機系リソース使用量予測部は、
主系システムごとに、主系平常時情報に示される主系システムの平常時のトランザクション数とユーザ数と、待機系システム要件情報に示される端末装置数とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。 - 前記情報記憶部は、
系切替後の待機系システムのシステム要件として、主系システムの平常時のトランザクション数に対する系切替後の待機系システムのトランザクション数の比率が示される待機系システム要件情報を記憶しており、
前記待機系リソース使用量予測部は、
主系平常時情報に示される主系システムの平常時のトランザクション数と、待機系システム要件情報に示される比率とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。 - 前記情報記憶部は、
系切替後の待機系システムのシステム要件として、系切替後の待機系システムのトランザクション数が示される待機系システム要件情報を記憶しており、
前記待機系リソース使用量予測部は、
主系システムごとに、待機系システム要件情報から系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。 - 前記情報記憶部は、
平常時に主系システムで計測されたリソース使用量として、演算リソース、記憶リソース及びネットワークアクセスリソースの少なくともいずれかの使用量が示される主系平常時情報を記憶し、
前記数式算出部は、
主系システムの平常時のリソース使用量とトランザクション数との相関関係を表す数式として、演算リソース、記憶リソース及びネットワークアクセスリソースの少なくともいずれかの使用量とトランザクション数との相関関係を表す数式を算出し、
前記待機系リソース使用量予測部は、
待機系システムのリソース使用量として、演算リソース、記憶リソース及びネットワークアクセスリソースの少なくともいずれかの使用量を予測することを特徴とする請求項2〜9のいずれかに記載のコンピュータ装置。 - コンピュータ装置が、複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測ステップと、
前記コンピュータ装置が、前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測ステップにより予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測ステップとを有することを特徴とするリソース使用量予測方法。 - 複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測ステップと、
前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測ステップにより予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測ステップとをコンピュータ装置に実行させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012161148A JP5814874B2 (ja) | 2012-07-20 | 2012-07-20 | コンピュータ装置及びリソース使用量予測方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012161148A JP5814874B2 (ja) | 2012-07-20 | 2012-07-20 | コンピュータ装置及びリソース使用量予測方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014021803A JP2014021803A (ja) | 2014-02-03 |
JP5814874B2 true JP5814874B2 (ja) | 2015-11-17 |
Family
ID=50196591
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012161148A Expired - Fee Related JP5814874B2 (ja) | 2012-07-20 | 2012-07-20 | コンピュータ装置及びリソース使用量予測方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5814874B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6904155B2 (ja) * | 2017-08-09 | 2021-07-14 | 富士通株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN110825597A (zh) * | 2019-08-21 | 2020-02-21 | 广州市申迪计算机系统有限公司 | 一种磁盘空间占有率预测方法、装置及存储介质 |
-
2012
- 2012-07-20 JP JP2012161148A patent/JP5814874B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014021803A (ja) | 2014-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4906686B2 (ja) | 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム | |
US9866481B2 (en) | Comprehensive bottleneck detection in a multi-tier enterprise storage system | |
US9742652B2 (en) | Proactive identification of hotspots in a cloud computing environment | |
US11290360B2 (en) | Analyzing resource placement fragmentation for capacity planning | |
US10027651B2 (en) | Shaping I/O traffic by managing queue depth in fractional increments | |
US11256595B2 (en) | Predictive storage management system | |
RU2696347C2 (ru) | Визуальные инструменты для анализа отказов в распределенных системах | |
US11269714B2 (en) | Performance anomaly detection | |
JP6581648B2 (ja) | システム障害からのクラウド・ベース・サービスの可用性の回復 | |
US20150332280A1 (en) | Compliant auditing architecture | |
US11023354B2 (en) | Hyper-converged infrastructure (HCI) log system | |
JP5814874B2 (ja) | コンピュータ装置及びリソース使用量予測方法及びプログラム | |
US10554525B2 (en) | Tracking usage of computing resources | |
Wu et al. | iShare: Balancing I/O performance isolation and disk I/O efficiency in virtualized environments | |
US8806121B2 (en) | Intelligent storage provisioning within a clustered computing environment | |
Perennou et al. | Workload characterization for a non-hyperscale public cloud platform | |
WO2014097598A1 (ja) | リスク分析を行う情報処理装置及びリスク分析方法 | |
JPWO2013114911A1 (ja) | リスク評価システム、リスク評価方法、及びプログラム | |
US10277521B2 (en) | Authorizing an action request in a networked computing environment | |
US20160275469A1 (en) | Systems and methods for providing information technology on an as-used basis | |
Tripathi et al. | Adapting and reducing cost in cloud paradigm (ARCCP) | |
Baruchi et al. | Hypervisor Agnostic Workload Characterization Of Virtual Machines |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150729 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150918 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5814874 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |