JP5814874B2 - コンピュータ装置及びリソース使用量予測方法及びプログラム - Google Patents

コンピュータ装置及びリソース使用量予測方法及びプログラム Download PDF

Info

Publication number
JP5814874B2
JP5814874B2 JP2012161148A JP2012161148A JP5814874B2 JP 5814874 B2 JP5814874 B2 JP 5814874B2 JP 2012161148 A JP2012161148 A JP 2012161148A JP 2012161148 A JP2012161148 A JP 2012161148A JP 5814874 B2 JP5814874 B2 JP 5814874B2
Authority
JP
Japan
Prior art keywords
standby
transactions
resource usage
main
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012161148A
Other languages
English (en)
Other versions
JP2014021803A (ja
Inventor
利浩 市原
利浩 市原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2012161148A priority Critical patent/JP5814874B2/ja
Publication of JP2014021803A publication Critical patent/JP2014021803A/ja
Application granted granted Critical
Publication of JP5814874B2 publication Critical patent/JP5814874B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Hardware Redundancy (AREA)
  • Debugging And Monitoring (AREA)

Description

本発明は、リソース使用量を予測するコンピュータ装置等に関する。
近年、仮想化技術を利用して、複数の物理サーバ装置を1つの仮想化サーバ装置へ集約し、運用コストの削減を図ることが多くなっており、災害対策などを目的とした待機系の予備サーバ装置を構築する場合、この技術を利用することが多い。
従来のサーバ仮想化技術を利用したサーバ統合技術では、物理サーバ(非仮想化サーバ)装置を仮想化サーバ装置に統合する際、統合対象サーバのシステム負荷の統計情報を基に、統合対象サーバ装置のアプリケーション実行による最大CPU(Central Processing Unit)負荷や、複数のサーバプログラムが一つの物理マシン上で動作することによる競合やスケジューリングによる最大オーバヘッド、仮想化によってディスクアクセス時に発生するI/O(Input/Output)エミュレーションによる最大オーバヘッドを考慮し、静的演算(積上げ計算)を行うことによって、仮想化統合後のシステム負荷の見積もりを行っていた(例えば、特許文献1)。
また、擬似アプリケーション実行によって、仮想化統合後のシステム負荷の見積もりを行う方法も提案されている(例えば、特許文献2、3)。
特開2009−123174号公報 特開2011−60053号公報 国際公開WO2011/105091号公報
従来のサイジング方法では、平常時のシステム負荷情報と、統合対象サーバ装置及び統合先サーバ装置のスペック情報のみでサイジングを行う。
しかし、有事の際などに待機系の予備サーバ装置へ切替えた場合、待機系サーバ装置のリソース使用量が、平常時のリソース使用量と異なる場合が多々ある(少なくなる場合が多い)。
そのため、従来方法で見積もりを行うと、不要なリソースを用意することになり、無駄なコストが発生するという課題がある。
この発明は上記のような課題を解決することを主な目的としており、待機系のリソース使用量を適切に予測して、待機系の物理計算機に適切なリソースを確保することを主な目的とする。
本発明に係るコンピュータ装置は、
複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測部と、
前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測部により予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測部とを有することを特徴とする。
本発明によれば、系切替後、物理計算機上に単体で動作した場合の待機系システムのリソース使用量を予測し、予測した待機系システム単体でのリソース使用量を用いて待機系の物理計算機に統合した場合のリソース使用量を予測するため、主系システムの平常時のリソース使用量を用いる場合と異なり、待機系の物理計算機に適切なリソースを割り当てることができる。
実施の形態1に係る主系サイトと待機系サイトを含むシステム構成例を示す図。 実施の形態1に係るコンピュータ装置の構成例を示す図。 実施の形態1に係るサイジング方法の概要を示す図。 実施の形態1に係る構成情報テーブルの例を示す図。 実施の形態1に係るCPU負荷テーブルの例を示す図。 実施の形態1に係るディスク負荷テーブルの例を示す図。 実施の形態1に係るネットワーク負荷テーブルの例を示す図。 実施の形態1に係るCPU性能情報テーブルの例を示す図。 実施の形態1に係るトランザクション数テーブルの例を示す図。 実施の形態1に係る会社情報テーブルの例を示す図。 実施の形態1に係るシステム要件テーブルの例を示す図。 実施の形態1に係る線形モデル予測と非線形モデル予測の比較例を示す図。 実施の形態1に係るトランザクション数とCPU使用率の相関図。 実施の形態1に係るトランザクション数とディスクI/O数の相関図。 実施の形態1に係るトランザクション数とネットワークI/O数の相関図。 実施の形態2に係るユーザ数とトランザクション数の相関図。 実施の形態1に係る非常時負荷算出ステップを示すフローチャート図。 実施の形態1に係る非常時トランザクション算出ステップを示すフローチャート図。 実施の形態1に係る非常時CPU負荷算出ステップを示すフローチャート図。 実施の形態1に係る非常時ディスク負荷算出ステップを示すフローチャート図。 実施の形態1に係る非常時ネットワーク負荷算出ステップを示すフローチャート図。 実施の形態1〜5に係るコンピュータ装置のハードウェア構成例を示す図。 従来のサイジング方法の概要を示す図。 実施の形態1に係る非常時の最大トランザクション数と、非常時の最大ディスクアクセス帯域の相関図。 実施の形態1に係る非常時の最大トランザクション数と、非常時の最大ネットワークアクセス帯域の相関図。
実施の形態1〜5では、会社情報(平常時のシステムユーザ数)や事業継続計画などの待機系サーバのシステム要件(待機系システムのユーザ数、非常時などに利用するモバイル端末、待機系サーバ装置への同時アクセス数等)と、平常時のシステム負荷情報から、仮想化した待機系サーバのCPU負荷等を見積もる例を説明する。
なお、実施の形態1〜5で示す手順は、物理サーバ装置を仮想化サーバ装置へ統合する場合だけでなく、仮想化サーバ装置の仮想マシンを異なる仮想化サーバ装置へ統合する場合にも利用可能である。
実施の形態1〜5では、
複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わり、それぞれが物理計算機上に単体で動作した場合の待機系システムのリソース使用量を予測する待機系リソース使用量予測部と、
前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測部により予測された各待機系システム単体でのリソース使用量を用いて予測する計算機リソース使用量予測部とを有するコンピュータ装置を説明する。
実施の形態1.
図1は、本実施の形態に係る主系サイトと待機系サイトを含むシステム構成例を示す。
サーバ装置10、11は、物理サーバ装置(非仮想化サーバ装置)もしくは仮想化サーバ装置であり、仮想化サーバ装置12、13は、複数の物理サーバ装置が統合される統合先の仮想化サーバ装置である。
サーバ装置10、11、12、13のいずれも、物理計算機である。
物理サーバ装置とは、仮想化されていない物理計算機であり、仮想化サーバ装置とは、仮想マシンが動作する物理計算機である。
主系サイト1内のサーバ装置10、11はLAN(Local Area Network)20で接続されており、待機系サイト2内の仮想化サーバ装置12、13とコンピュータ装置30は、LAN21で接続されており、更にLAN20とLAN21は、WAN(Wide Area Network)22によって接続されている。
また、コンピュータ装置30は、サイジング機能が動作する端末である。
サーバ装置10、11では、負荷測定部200、201が動作し、各サーバ装置のシステム負荷を測定している。
主系サイト1のサーバ装置10、11を、主系システムという。
また、主系システムの障害発生時に主系システムに代わって動作するバックアップシステムを待機系システムという。
本実施の形態では、待機系システムは待機系サイト2の仮想化サーバ装置上の仮想マシンとして実現される。
このため、主系システムは物理的なハードウェアとして存在するが、待機系システムは、物理的なハードウェアとして存在するものではなく、論理的な存在である。
1つの仮想化サーバ装置には2つ以上の仮想マシン(2つ以上の待機系システム)が統合して実装される。
本実施の形態では、仮想化サーバ装置に仮想マシン(待機系システム)が実装される前に、コンピュータ装置30が、主系システムごとに、主系システムから待機系システムに系が切り替わり、物理計算機上に単体で動作した場合の待機系システムのリソース使用量を予測する。
そして、コンピュータ装置30が予測した待機系システム単体でのリソース使用量から、仮想化サーバ装置に実装した際のリソース使用量を計算し、積み上げて、仮想化サーバ装置全体でのリソース使用量を予測する。
その後、待機系システムが仮想マシンとして仮想化サーバ装置に実装されると、仮想化サーバ装置は、2つ以上の主系システムをバックアップする予備サーバ装置となる。
図2は、コンピュータ装置3の構成例を示す。
コンピュータ装置30は、入力装置250と、出力装置251と、処理装置252と、記憶装置253というハードウェアを備える。
記憶装置253は、情報記憶部の例に相当する。
処理装置252において、構成管理部210、負荷管理部211、負荷収集部212及び性能設計部220が実行される。
また、記憶装置253に、複数のテーブルが記憶されている。
構成管理部210は、サーバ装置10、11の構成情報を管理する。
負荷収集部212は、サーバ装置上の負荷測定部200、201が出力する測定情報を収集する。
負荷管理部211は、負荷収集部212が収集した負荷をCPU負荷テーブル103(図5)、ディスク負荷テーブル104(図6)、ネットワーク負荷テーブル105(図7)に格納する。
性能設計部220は、負荷情報と入力装置250から入力された統合先サーバスペック情報からリソース使用量の見積もりを行う。
性能設計部220は、待機系システムの単体利用時のシステム負荷(リソース使用量)を算出する待機系負荷算出部221と、見積もり対象サーバを仮想化した場合の全体のシステム負荷を積み上げ計算により算出する負荷見積もり部222から構成される。
待機系負荷算出部221は、会社情報(従業員数、住所、利用する主系サイト内サーバ装置のホスト名とシステムIDなど)や事業継続計画情報などのシステム要件(待機系システム利用時の利用人数、非常時などに利用するモバイル端末台数、待機系シンクライアント台数、待機系サーバユーザライセンス数、同時アクセスユーザID数など)、平常時に測定したシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)などから、非常時などに待機系サイト2内の仮想化サーバ装置(待機系システム)を単体で利用する際の最大リソース負荷を算出する。
換言すると、待機系負荷算出部221は、複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わり、それぞれが単体で動作した場合の待機系システムのリソース使用量を予測する。
予測の手法としては、待機系負荷算出部221は、主系システムごとに、主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数とを用いて、平常時のリソース使用量とトランザクション数との相関関係を表す数式を算出する。
更に、待機系負荷算出部221は、主系システムごとに、系切替後の待機系システムの最大トランザクション数を取得し、主系システムごとに、算出した数式と、取得した系切替後の待機系システムの最大トランザクション数とを用いて、系切替後に単体で動作する場合の待機系システムの最大リソース使用量を予測する。
待機系負荷算出部221は、数式算出部及び待機系リソース使用量予測部の例に相当する。
また、負荷見積もり部222は、複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機(仮想化サーバ装置)に統合する場合の物理計算機全体のリソース使用量を、待機系負荷算出部221により予測された各待機系システムのリソース使用量を用いて予測する。
負荷見積もり部222は、計算機リソース使用量予測部の例に相当する。
構成情報テーブル101には、主系サイト1内のサーバ装置の構成情報が格納されている。
構成情報テーブル101は、図4に示すように、サーバ装置10、11のホスト名、IPアドレス、OS(Operating System)名、OSバージョン、CPU名、CPU数、サーバ装置を利用する会社名などの構成情報を格納するテーブルである。
構成情報テーブル101は、予め、入力装置250によって入力されたデータを構成管理部210が登録する。
その際、構成管理部210は、コンピュータ装置3内でサーバ装置を一意に識別するシステムIDを割当てる。
CPU性能情報テーブル102には、CPU製品とCPU性能の組合せが格納されている。
CPU性能情報テーブル102は、例えば、図8に示すテーブルである。
CPU性能情報テーブル102のCPU性能の値は、例えば、SPECintから取得した性能値である。
また、CPU性能の値は、事前のベンチマークテストによる独自の性能値でもよい。
CPU負荷テーブル103は、図5に示すように、平常時に計測された、主系サイト1のサーバ装置における演算リソースの使用率(CPU負荷)とトランザクション数とが示されるテーブルである。
ディスク負荷テーブル104は、図6に示すように、平常時に計測された、主系サイト1のサーバ装置における記憶リソースの使用負荷(ディスク負荷)とトランザクション数とが示されるテーブルである。
ネットワーク負荷テーブル105は、図7に示すように、平常時に計測された、主系サイト1のサーバ装置におけるネットワークアクセスリソースの使用負荷(ネットワーク負荷)とトランザクション数とが示されるテーブルである。
CPU負荷テーブル103、ディスク負荷テーブル104及びネットワーク負荷テーブル105には、それぞれ、サーバ装置10、11で動作する負荷測定部200、201から収集された値が示される。
なお、CPU負荷テーブル103、ディスク負荷テーブル104及びネットワーク負荷テーブル105は、それぞれ主系平常時情報の例に相当する。
トランザクション数テーブル106は、各システムの平常時の利用ユーザ数と平均トランザクション数のデータを格納するテーブルである。
トランザクション数テーブル106は、例えば、図9に示すテーブルである。
トランザクション数テーブル106は、平常時に主系サイト1のサーバ装置を利用するユーザの数が示されるテーブルであり、トランザクション数テーブル106も主系平常時情報の例に相当する。
会社情報テーブル107は、会社名、従業員数、住所、主系サイト内サーバ装置のホスト名、システムIDなど、主系サイトのサーバ装置を利用している会社情報を格納するテーブルであり、予め、入力装置250によって入力されたデータを構成管理部210が登録する。
会社情報テーブル107は、例えば、図10に示すテーブルである。
システム要件テーブル108は、例えば、待機系システム利用時の利用人数、非常時などに利用するモバイル端末台数、待機系シンクライアント台数、待機系サーバユーザライセンス数、同時アクセスユーザID数など、待機系サイトの仮想化サーバ装置の利用量に関係する情報を格納するテーブルであり、予め、入力装置250によって入力されたデータを構成管理部210が登録する。
システム要件テーブル108は、例えば、図11に示すテーブルである。
システム要件テーブル108は、待機系システム要件情報の例に相当する。
図3は、本実施の形態に係るコンピュータ装置3の動作の概要を説明する図である。
一方、図23は、従来技術の動作の概要を説明する図である。
図3及び図23では、サーバ装置10はA社に利用され、サーバ装置11はB社に利用されているものとする。
また、501及び502は平常時に利用するネットワークであり、601及び602は非常時に利用するバックアップ回線である。
図23に示すように、従来技術では、負荷見積もり部701は、主系サイト1のサーバ装置10、11から負荷測定部200、201が計測した平常時のリソース使用量(CPU負荷、ディスク負荷、ネットワーク負荷)とサーバスペック情報を用いて、サーバ装置10、11をバックアップする仮想化サーバ装置の全体のリソース使用量を見積もっている。
つまり、従来技術では、サーバ装置10、11の平常時のリソース使用量を用いて、仮想化サーバ装置の全体のリソース使用量を見積もっている。
前述したように、主系から待機系に系が切り替わった非常時では、待機系でのリソース使用量は、機能の縮退等により、平常時の主系のリソース使用量よりも少なくなることが多い。
本実施の形態では、図3に示すように、待機系負荷算出部221が、負荷測定部200、201が計測した平常時のリソース使用量(CPU負荷、ディスク負荷、ネットワーク負荷)と、各社の事業継続計画(図2のシステム要件テーブル108に該当)を用いて、非常時に単体で動作した場合の待機系のリソース使用量(縮退により、平常のリソース使用量よりも少ないリソース使用量)を予測する。
そして、負荷見積もり部222は、待機系負荷算出部221により予測された非常時の待機系のリソース使用量とサーバスペック情報と仮想化サーバスペック情報を用いて、仮想化サーバ装置の全体のリソース使用量を見積もっている。
図3及び図23において、詰め込み先サーバ決定部400の動作は共通しているが、図3と図23では、詰め込み先サーバ決定部400の動作の前提となる仮想化サーバ装置の全体のリソース使用量の見積値が異なるので、詰め込み先サーバ決定部400が決定する内容は異なり得る。
なお、詰め込み先サーバ決定部400は、図2では図示していない。また、図3及び図23では、主系サイトにおける各社の物理サーバが1つの例となっているが、自社の複数の物理サーバを、待機サイトの仮想化サーバ装置に、自社のみで統合する、もしくは他社と共同で統合する場合においても、同様の考えで本技術を活用できる。その場合、事業継続計画(待機系サーバのシステム要件)は、主系サイトの物理サーバごとに必要となるが、事業継続計画が物理サーバごとにない場合、各物理サーバに対する待機系サーバのシステム要件は同じと判断する。
次に動作について説明する。
まず、サーバ装置10、11で動作する負荷測定部200、201の動作について説明する。
負荷測定部200、201は、各サーバ装置上の、CPU使用率(%)、ディスクアクセス数(数)、ディスクアクセス帯域(KB/sec)、ネットワークアクセス数(数)、ネットワークアクセス帯域、トランザクション数などの負荷情報を一定周期で収集し、ログファイルに出力する。
コンピュータ装置3の負荷収集部212は、サーバ装置10、11にtelnetやSSH(Secure Shell)を利用して接続し、tailコマンドなどを利用して、ログファイルから各サーバ装置の負荷を一定周期ごとに読み取り、コンピュータ装置30側に収集する。
ログファイルは、CSV形式、バイナリ形式、テキスト形式でも負荷収集部212が読み込み可能な形式ならどのような形式でもよい。
また、負荷測定部200、201は測定結果をログファイルに出力せず、メモリ内に蓄積しておき、負荷収集部212が直接負荷測定部200、201とLAN20、WAN22、LAN21を経由したコネクションを確立し、測定結果を取得してもよい。
次に、負荷収集部212が各サーバ装置10、11のシステム負荷を収集する動作について説明する。
負荷収集部212は、構成情報テーブル101に登録されている全てのサーバ装置、又は入力装置250から指定された特定のサーバ装置のIPアドレス、ログインアカウント、パスワードなど、サーバ装置に接続するために必要な情報を、構成管理部210を利用して構成情報テーブル101(図4)からシステムIDをキーに取得する。
負荷収集部212は、取得したIPアドレス、ログインアカウント、パスワードにより各サーバ装置に接続し、負荷測定部200、201が測定した結果を一定周期で収集し、負荷管理部211を利用して各負荷に収集時刻と収集対象のシステムIDを付与してCPU負荷テーブル103(図5)、ディスク負荷テーブル104(図6)、ネットワーク負荷テーブル105(図7)、トランザクション数テーブル106(図9)に格納する。
次に、性能設計部220が入力装置250から入力された統合先サーバスペック情報からCPU負荷見積を行う動作を図17を参照して説明する。
統合対象サーバ装置をS(i=1,...,m)、iをシステムIDとする。
性能設計部220は、入力装置250から、統合先サーバ装置Sに統合される統合対象サーバ装置S(i∈X;Xは主系サイト1のサーバ装置の総数)のシステムIDと、統合先サーバ装置Sのスペック、少なくともCPUに関する情報(CPU名、クロック、コア数、チップ数、搭載されるCPU数)を取得する(S101)。
次に、待機系負荷算出部221は非常時負荷算出ステップにより、非常時(主系から待機系への系切替時)の最大トランザクション数t(i∈X)を算出する(S102)。
また、待機系負荷算出部221は、非常時CPU負荷算出ステップ(S103)、非常時ディスク負荷算出ステップ(S104)、非常時ネットワーク負荷算出ステップ(S105)によって、システム特性を考慮し、統合対象サーバ装置S(i∈X)の非常時の、最大CPU使用率kcpu_i、最大ディスクアクセスI/O数kdisk_req_i、最大ディスクアクセス帯域kdisk_th_i、最大ネットワークアクセスI/O数knet_req_i、最大ネットワークアクセス帯域knet_th_iを算出する。
まず、非常時トランザクション算出ステップ(図17のS102)では、図18に示すように、待機系負荷算出部221は統合対象サーバ装置S(i∈X)の集合から、統合対象サーバ装置Sを一つ選択する(S1021)。
次に、待機系負荷算出部221は、選択された統合対象サーバ装置SのシステムIDと会社情報テーブル107(図10)から、統合対象サーバ装置Sの会社名と従業員数(平常時、主系サイト1の物理サーバ装置を利用するユーザ数)uを取得する(S1022)。
次に、待機系負荷算出部221は、会社名とシステム要件テーブル108(図11)から非常時従業員数eを取得する(S1023)。
次に、待機系負荷算出部221は、CPU負荷テーブル103(図5)から、(平常時の)最大トランザクション数ti_maxを取得し、非常時の最大トランザクション数t=平常時最大トランザクション数ti_max×(平常時従業員数u÷非常時従業員数e)を算出する(S1024)。
これは、トランザクション数とシステムのユーザ数(従業員数)の関係が線形になると仮定した場合の計算方法である。
待機系負荷算出部221は、以上の処理を全ての統合対象サーバ装置S(i∈X)に対して行う(S1025)。
非常時CPU負荷算出ステップ(図17のS103)では、図19に示すように、待機系負荷算出部221は、統合対象サーバ装置S(i∈X)の集合から、統合対象サーバ装置Sを一つ選択する(S1031)。
次に、待機系負荷算出部221は、CPU負荷テーブル103(図5)と、選択された統合対象サーバ装置SのシステムIDから、統合対象サーバ装置SのCPU使用率とトランザクション数のデータを取得し(S1032)、トランザクション数毎の平均CPU使用率を算出する。
なお、ここでのCPU使用率とは、CPU負荷テーブル103のユーザ使用率、システム使用率、I/O待ちの比率を合計したものである。
次に、待機系負荷算出部221は、トランザクション数と算出した平均CPU使用率の相関関係を表す非線形モデル式(近似式)を、回帰分析を用いて導出する(S1033)。
待機系負荷算出部221は、例えば、以下の近似式を導出するようにする。
Y=αcpu_i・X+βcpu_i・X+γcpu_i
(αcpu_i、βcpu_i、γcpu_iは定数値)
更に、待機系負荷算出部221は、非常時トランザクション算出ステップ(S102)で算出した、統合対象サーバ装置Sの非常時最大トランザクション数tを、導出した近似式に入力することで、非常時の最大CPU使用率kcpu_iを以下のように算出する(S1034)。
cpu_i=αcpu_i・t +βcpu_i・t+γcpu_i
(αcpu_i、βcpu_i、γcpu_iは定数値)
なお、S1033で導出された近似式と、非常時の最大トランザクション数と、非常時の最大CPU使用率kcpu_iの関係を図13に示す。
待機系負荷算出部221は、以上の処理を全ての統合対象サーバ装置S(i∈X)に対して行う(S1035)。
非常時ディスク負荷算出ステップ(図17のS104)では、図20に示すように、待機系負荷算出部221は、統合対象サーバ装置S(i∈X)の集合から、統合対象サーバ装置Sを一つ選択する(S1041)。
次に、待機系負荷算出部221は、ディスク負荷テーブル104(図6)と、選択された統合対象サーバ装置SのシステムIDから、統合対象サーバ装置SのディスクアクセスI/O数とディスクアクセス帯域とトランザクション数のデータを取得し(S1042)、トランザクション数毎の平均ディスクアクセスI/O数と平均ディスクアクセス帯域を算出する。
なお、ここでのディスクアクセスI/O数、ディスクアクセス帯域は、ディスク負荷テーブル104の読込時と書込時のデータを合計したものである。
次に、待機系負荷算出部221は、トランザクション数と算出したディスクアクセスI/O数の相関関係、トランザクション数とディスクアクセス帯域との相関関係を表す非線形モデル式(近似式)を、回帰分析を用いて導出する(S1043)。
待機系負荷算出部221は、例えば、以下のトランザクション数とディスクアクセスI/O数の近似式を導出するようにする。
Y=αdisk_req_i・X+βdisk_req_i・X+γdisk_req_i
(αdisk_req_i、βdisk_req_i、γdisk_req_iは定数値)
更に、待機系負荷算出部221は、非常時トランザクション算出ステップ(S102)で算出した、統合対象サーバ装置Sの非常時最大トランザクション数tを、導出した近似式に入力することで、非常時の最大ディスクアクセスI/O数kdisk_req_iを以下のように算出する(S1044)
disk_req_i=αdisk_req_i・t +βdisk_req_i・t+γdisk_req_i
(αdisk_req_i、βdisk_req_i、γdisk_req_iは定数値)
なお、S1043で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ディスクアクセスI/O数kdisk_req_iの関係を図14に示す。
また、待機系負荷算出部221は、同様にして、以下のトランザクション数とディスクアクセス帯域との相関関係を表す近似式を導出するようにする。
Y=αdisk_th_i・X+βdisk_th_i・X+γdisk_th_i
(αdisk_th_i、βdisk_th_i、γdisk_th_iは定数値)
更に、統合対象サーバ装置Sの非常時最大トランザクション数tを、導出した近似式に入力することで、非常時の最大ディスクアクセス帯域kdisk_th_iを以下のように算出する(S1044)。
disk_th_i=αdisk_th_i・t +βdisk_th_i・t+γdisk_th_i
(αdisk_th_i、βdisk_th_i、γdisk_th_iは定数値)
なお、S1053で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ディスクアクセス帯域kdisk_th_iの関係を図24に示す。
待機系負荷算出部221は、以上の処理を全ての統合対象サーバ装置S(i∈X)に対して行う(S1045)。
非常時ネットワーク負荷算出ステップ(図17のS105)では、図21に示すように、待機系負荷算出部221は、統合対象サーバ装置S(i∈X)の集合から、統合対象サーバ装置Sを一つ選択する(S1051)。
待機系負荷算出部221は、ネットワーク負荷テーブル105(図7)と、選択された統合対象サーバ装置SのシステムIDから、統合対象サーバ装置SのネットワークアクセスI/O数とネットワークアクセス帯域とトランザクション数のデータを取得し(S1052)、トランザクション数毎の平均ネットワークアクセスI/O数と平均ネットワークアクセス帯域を算出する。
なお、ここでのネットワークアクセスI/O数、ネットワークアクセス帯域とは、ネットワーク負荷テーブル105の送信時と受信時のデータを合計したものである。
次に、待機系負荷算出部221は、トランザクション数と算出したネットワークアクセスI/O数との相関関係、トランザクション数とネットワークアクセス帯域との相関関係を表す非線形モデル式(近似式)を、回帰分析を用いて導出する(S1053)。
例えば、以下のトランザクション数とネットワークアクセスI/O数の近似式を導出するようにする。
Y=αnet_req_i・X+βnet_req_i・X+γnet_req_i
(αnet_req_i、βnet_req_i、γnet_req_iは定数値)
更に、待機系負荷算出部221は、非常時トランザクション算出ステップで算出した、統合対象サーバ装置Sの非常時最大トランザクション数tを、導出した近似式に入力することで、非常時の最大ネットワークアクセスI/O数knet_req_を以下のように算出する(S1054)。
net_req_=αnet_req_i・t +βnet_req_i・t+γnet_req_i
(αnet_req_i、βnet_req_i、γnet_req_iは定数値)
なお、S1053で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ネットワークアクセスI/O数knet_req_iの関係を図15に示す。
また、待機系負荷算出部221は、同様にして、以下のトランザクション数とネットワークアクセス帯域との相関関係を表す近似式を導出するようにする。
Y=αnet_th_i・X+βnet_th_i・X+γnet_th_i
(αnet_th_i、βnet_th_i、γnet_th_iは定数値)
更に、統合対象サーバ装置Sの非常時最大トランザクション数tを、導出した近似式に入力することで、非常時の最大ネットワークアクセス帯域knet_th_iを以下のように算出する(S1054)。
net_th_i=αnet_th_i・t +βnet_th_i・t+γnet_th_i
(αnet_th_i、βnet_th_i、γnet_th_iは定数値)
なお、S1053で導出された近似式と、非常時の最大トランザクション数と、非常時の最大ネットワークアクセス帯域knet_th_iの関係を図25に示す。
次に、待機系負荷算出部221が非常時負荷算出ステップで算出した下記の非常時の最大リソース使用量を用いて、負荷見積もり部222が、例えば従来方法(例えば、特許文献1)により、統合対象サーバ装置を仮想化した場合の仮想化サーバ装置の全体のシステム負荷を見積もり、サイジングを行う。
非常時の最大CPU使用率kcpu_i
非常時の最大ディスクアクセスI/O数kdisk_req_i
非常時の最大ディスクアクセス帯域kdisk_th_i
非常時の最大ネットワークアクセスI/O数knet_req_i
非常時の最大ネットワークアクセス帯域knet_th_i
なお、上記のS1033、S1043、S1053では、非線形の近似式を導出している。
待機系システムのリソース使用量を、単純に、システム要件から抽出した平常時のシステム使用比率で見積もると(線形予測)、本来システム利用率(トランザクション数)に対するリソース使用率が非線形の関係になるため、見積もり誤差が大きくなる(図12)。
この点を考慮して、S1033、S1043、S1053では、非線形の近似式を導出している。
但し、線形予測を行っても見積もり誤差が大きくない場合等は、S1033、S1043、S1053の非線形予測に代えて線形予測を行ってもよい。
以上のように、本実施の形態では、統合後のリソース負荷を見積もる処理において、平常時のシステム負荷の統計情報だけでなく、事業継続計画情報などの非常時(待機系2サイト内の仮想化サーバ装置を利用する時)のシステム要件に含まれる非常時ユーザ数と、平常時のユーザ数(会社情報に含まれる従業員数)を考慮し、非常時の最大リソース負荷を算出する。
この際に、単純な人数比でリソース負荷を算出するのではなく、システムによってトランザクション数の増加に対するリソース使用量に変化が異なるため、そのシステム特性を現すモデルから、非常時のリソース負荷を見積もることによって、リソース負荷の見積もり精度を向上させることができる。
以上、本実施の形態では、負荷測定機能を持つ複数の統合対象サーバ(物理サーバもしくは仮想化サーバ)を、待機系サーバ(仮想化サーバ)として複数の仮想化サーバに統合する際の、仮想マシンサイジング装置を説明した。
そして、本実施の形態に係る仮想マシンサイジング装置は、平常時のシステムユーザ数(従業員数)と待機系のシステム要件(事業継続計画などで定められている待機系システムを利用する際のユーザ数)と、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、平常時ユーザ数と待機系利用時のユーザ数の比率と平常時の最大トランザクション数から待機系利用時の最大トランザクション数を算出する。
また、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態2.
以上の実施の形態1では、トランザクション数とユーザ(従業員)の関係が線形になると考え、平常時と非常時の従業員数(システム利用ユーザ数)の比率と平常時の最大トランザクション数によって、非常時の最大トランザクション数を算出している。
しかし、平常時のユーザ数(従業員数)に対するトランザクション数が計測できる場合は、ユーザ数とトランザクション数の関係を、回帰分析によってモデル化して非線形の近似式を導出し、非線形の近似式を用いて非常時の最大トランザクション数を算出する方が(図16)、精度の高い非常時トランザクション数が算出可能となる。
平常時のユーザ数(従業員数)の計測は、例えば、入門ゲート通過時のICカード認証による出勤者人数のカウントやパソコンのログイン記録、一日の最初にメールアクセスした際のログのカウントなどによって日時単位の出勤人数が可能であり、これとトランザクション数の計測によって、出勤人数(利用人数)に対するトランザクション数の統計情報が収集でき、出勤人数に対するトランザクション数の関係をモデル化することが可能となる。
なお、システムの利用者が特定ユーザ向け(全従業員数でない)場合は、システムを利用するユーザのみをカウントする必要がある。
本実施の形態では、平常時のユーザ数とトランザクション数の関係を表す非線形近似式をシステム要件テーブル(図11)に格納しておき、待機系負荷算出部221は、この非線形近似式に非常時の従業員数を適用することで、非常時最大トランザクション数を算出することができる。
なお、非常時最大トランザクション数の算出以外の処理は、実施の形態1に示した通りである。
以上のように、ユーザとトランザクション数の関係も非線形モデル化することで、精度の高いCPU負荷の見積もりを可能とする。
このように、本実施の形態に係る仮想マシンサイジング装置は、平常時ユーザ数とトランザクション数の関係を表す非線形モデル式(近似式)をシステム毎に導出する。
また、本実施の形態に係る仮想マシンサイジング装置は、導出したモデル式と待機系システムのユーザ数から、待機系システム利用時の最大トランザクション数をシステム毎に算出し、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態3.
実施の形態1では、非常時の最大トランザクション数を、平常時と非常時従業員(システム利用ユーザ数)の比率と平常時の最大トランザクション数から算出しているが、本実施の形態では、事業継続計画として、非常時システム利用にモバイル端末が必須とする場合があり、非常時用モバイル端末の台数が計画されている場合は、非常時の従業員数ではなく、非常時用モバイル端末台数を非常時のシステム利用ユーザ数と考え、下記方法で、非常時の最大トランザクション数を算出する。
非常時最大トランザクション数=
平常時最大トランザクション数×(モバイル端末台数(非常時用)÷平常時従業員数)
ただし、非常時用モバイル端末台数>非常時従業員数の場合は、非常時従業員数で計算する。
また、モバイル端末台数以外に、シンクライアント台数や同時ユーザID数、ユーザライセンス数などの場合も同様の考えで算出可能である。
本実施の形態では、待機系負荷算出部221は、システム要件テーブル(図11)に記述されているモバイル端末数、シンクライアント台数、同時ユーザID数、ユーザライセンス数を用いて、実施の形態1又は実施の形態2に示した方式にて、非常時最大トランザクション数を算出することができる。
なお、非常時最大トランザクション数の算出以外の処理は、実施の形態1に示した通りである。
以上のように、非常時のユーザ数以外の事業継続計画情報(システム要件)を用いても、実施の形態1と同様、精度の高いCPU負荷の見積もりが可能である。
このように、本実施の形態に係る仮想マシンサイジング装置は、平常時ユーザ数と待機系システム利用に必須なモバイル端末台数、もしくはシンクライアント台数、もしくは同時ユーザID数、もしくはユーザライセンス数などから待機系利用時の最大トランザクション数を算出する。
また、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態4.
実施の形態1では、非常時の最大トランザクション数を、平常時と非常時従業員(システム利用ユーザ数)の比率と平常時の最大トランザクション数から算出しているが、本実施の形態では、事業継続計画に、平常時の最大トランザクション数に対する非常時の最大トランザクション数の比率(例えば、非常時は平常時の20%減、など)として定められている場合は、その数値と平常時の最大トランザクション数から、非常時の最大トランザクション数を算出して、リソース負荷を算出する。
本実施の形態では、平常時の最大トランザクション数に対する非常時の最大トランザクション数の比率をシステム要件テーブル(図11)に格納しておき、待機系負荷算出部221は、この比率と平常時の最大トランザクション数とを用いて、非常時最大トランザクション数を算出することができる。
なお、非常時最大トランザクション数の算出以外の処理は、実施の形態1に示した通りである。
以上のように、事業継続計画情報(システム要件)に定められている平常時のトランザクション数の対比として定められている数値を用いることで、実施の形態1と同様、精度の高いCPU負荷の見積もりが可能である。
このように、本実施の形態に係る仮想マシンサイジング装置は、待機系のシステム要件(事業継続計画などで定められている、平常時の最大トランザクション数に対する待機系システムを利用時の最大トランザクション数の比率(例えば、平常時の20%減、など))を基に、待機系システム利用時の最大トランザクション数を算出する。
また、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
実施の形態5.
実施の形態1では、非常時の最大トランザクション数を、平常時と非常時従業員(システム利用ユーザ数)の比率と平常時の最大トランザクション数から算出しているが、本実施の形態では、事業継続計画に非常時の最大トランザクション数が定められている場合は、その数値を用いて、リソース負荷を算出する。
本実施の形態では、非常時の最大トランザクション数の値をシステム要件テーブル(図11)に格納しておき、待機系負荷算出部221は、この値を、非常時最大トランザクション数とすることができる。
なお、非常時最大トランザクション数の取得以外の処理は、実施の形態1に示した通りである。
以上のように、事業継続計画情報(システム要件)に定められている最大トランザクション数を用いることで、実施の形態1と同様、精度の高いCPU負荷の見積もりが可能である。
このように、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのシステム負荷の統計情報(CPU負荷、ディスクI/O負荷、ネットワークI/O負荷、トランザクション数)を基に、CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数の関係を表すそれぞれの非線形モデル式(近似式)をシステム毎に導出し、導出したモデル式と待機系システム利用時の最大トランザクション数(事業継続計画に定められている非常時の最大トランザクション数)によって、待機系システム利用時のシステム最大負荷(CPU使用率とトランザクション数、ディスクアクセスI/O数とトランザクション数、ディスクアクセス帯域とトランザクション数、ネットワークアクセスI/O数とトランザクション数、ネットワークアクセス帯域とトランザクション数)を見積もる。
そして、本実施の形態に係る仮想マシンサイジング装置は、統合対象サーバのアプリケーション実行によるCPU負荷、複数サーバが一つの物理マシン上で動作することによる競合やスケジューリングによるオーバヘッド、仮想マシンのディスクアクセス及びネットワークアクセスによって発生するI/O(Input/Output)エミュレーションによるオーバヘッドに対し、統合した待機系サーバ(仮想化サーバ)を使った場合のリソース使用率を算出し、積上げ計算を行い、統合後のシステム負荷を見積もる。
なお、以上の実施の形態1〜5のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
最後に、実施の形態1〜5に示したコンピュータ装置30のハードウェア構成例について説明する。
図22は、実施の形態1〜5に示すコンピュータ装置30のハードウェア資源の一例を示す図である。
なお、図22の構成は、あくまでもコンピュータ装置30のハードウェア構成の一例を示すものであり、コンピュータ装置30のハードウェア構成は図22に記載の構成に限らず、他の構成であってもよい。
図22において、コンピュータ装置30は、プログラムを実行するCPU911を備えている。
CPU911は、バス912を介して、例えば、ROM(Read Only Memory)913、RAM(Random Access Memory)914、通信ボード915、表示装置901、キーボード902、マウス903、磁気ディスク装置920と接続され、これらのハードウェアデバイスを制御する。
更に、CPU911は、FDD904(Flexible Disk Drive)、コンパクトディスク装置905(CDD)、プリンタ装置906、スキャナ装置907と接続していてもよい。
また、磁気ディスク装置920の代わりに、SSD(Solid State Drive)、光ディスク装置、メモリカード(登録商標)読み書き装置などの記憶装置でもよい。
CPU901は処理装置252の一例である。
RAM914は、揮発性メモリの一例である。ROM913、FDD904、CDD905、磁気ディスク装置920の記憶媒体は、不揮発性メモリの一例である。
これらは、記憶装置253の一例である。
通信ボード915、キーボード902、マウス903、スキャナ装置907などは、入力装置250の一例である。
また、通信ボード915、表示装置901、プリンタ装置906などは、出力装置251の一例である。
通信ボード915は、図1に示すように、ネットワークに接続されている。
磁気ディスク装置920には、オペレーティングシステム921(OS)、ウィンドウシステム922、プログラム群923、ファイル群924が記憶されている。
プログラム群923のプログラムは、CPU911がオペレーティングシステム921、ウィンドウシステム922を利用しながら実行する。
また、RAM914には、CPU911に実行させるオペレーティングシステム921のプログラムやアプリケーションプログラムの少なくとも一部が一時的に格納される。
また、RAM914には、CPU911による処理に必要な各種データが格納される。
また、ROM913には、BIOS(Basic Input Output System)プログラムが格納され、磁気ディスク装置920にはブートプログラムが格納されている。
コンピュータ装置30の起動時には、ROM913のBIOSプログラム及び磁気ディスク装置920のブートプログラムが実行され、BIOSプログラム及びブートプログラムによりオペレーティングシステム921が起動される。
上記プログラム群923には、実施の形態1〜5の説明において「〜部」として説明している機能を実行するプログラムが記憶されている。
プログラムは、CPU911により読み出され実行される。
ファイル群924には、実施の形態1〜5の説明において、「〜の判断」、「〜の計算」、「〜の算出」、「〜の導出」、「〜の見積もり」、「〜の予測」、「〜の取得」、「〜の設定」、「〜の登録」、「〜の選択」、「〜の入力」、「〜の出力」等として説明している処理の結果を示す情報やデータや信号値や変数値が、ディスクやメモリなどの記憶媒体にファイルとして記憶されている。
また、暗号鍵・復号鍵や乱数値やパラメータが、ディスクやメモリなどの記憶媒体にファイルとして記憶されてもよい。
「〜ファイル」や「〜データベース」は、ディスクやメモリなどの記憶媒体に記憶される。
ディスクやメモリなどの記憶媒体に記憶された情報やデータや信号値や変数値やパラメータは、読み書き回路を介してCPU911によりメインメモリやキャッシュメモリに読み出される。
そして、読み出された情報やデータや信号値や変数値やパラメータは、抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示などのCPUの動作に用いられる。
抽出・検索・参照・比較・演算・計算・処理・編集・出力・印刷・表示のCPUの動作の間、情報やデータや信号値や変数値やパラメータは、メインメモリ、レジスタ、キャッシュメモリ、バッファメモリ等に一時的に記憶される。
また、実施の形態1〜5で説明しているフローチャートの矢印の部分は主としてデータや信号の入出力を示す。
データや信号値は、RAM914のメモリ、FDD904のフレキシブルディスク、CDD905のコンパクトディスク、磁気ディスク装置920の磁気ディスク、その他光ディスク、ブルーレイ(登録商標)ディスク、DVD等の記憶媒体に記録される。
また、データや信号は、バス912や信号線やケーブルその他の伝送媒体によりオンライン伝送される。
また、実施の形態1〜5の説明において「〜部」として説明しているものは、「〜回路」、「〜装置」、「〜機器」であってもよく、また、「〜ステップ」、「〜手順」、「〜処理」であってもよい。
すなわち、実施の形態1〜5で説明したフローチャートに示すステップ、手順、処理により、本発明に係る「リソース使用量予測方法」を実現することができる。
また、「〜部」として説明しているものは、ROM913に記憶されたファームウェアで実現されていても構わない。
或いは、ソフトウェアのみ、或いは、素子・デバイス・基板・配線などのハードウェアのみ、或いは、ソフトウェアとハードウェアとの組み合わせ、さらには、ファームウェアとの組み合わせで実施されても構わない。
ファームウェアとソフトウェアは、プログラムとして、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の記憶媒体に記憶される。
プログラムはCPU911により読み出され、CPU911により実行される。
すなわち、プログラムは、実施の形態1〜5の「〜部」としてコンピュータを機能させるものである。あるいは、実施の形態1〜5の「〜部」の手順や方法をコンピュータに実行させるものである。
このように、実施の形態1〜5に示すコンピュータ装置30は、処理装置たるCPU、記憶装置たるメモリ、磁気ディスク等、入力装置たるキーボード、マウス、通信ボード等、出力装置たる表示装置、通信ボード等を備える。
そして、上記したように「〜部」として示された機能をこれら処理装置、記憶装置、入力装置、出力装置を用いて実現するものである。
1 主系サイト、2 待機系サイト、10 物理サーバ装置、11 物理サーバ装置、12 仮想化サーバ装置、13 仮想化サーバ装置、20 LAN、21 LAN、22 WAN、30 コンピュータ装置、101 構成情報テーブル、102 CPU性能情報テーブル、103 CPU負荷テーブル、104 ディスク負荷テーブル、105 ネットワーク負荷テーブル、106 トランザクション数テーブル、107 会社情報テーブル、108 システム要件テーブル、200 負荷測定部、201 負荷測定部、210 構成管理部、211 負荷管理部、212 負荷収集部、220 性能設計部、221 待機系負荷算出部、222 負荷見積もり部、250 入力装置、251 出力装置、252 処理装置、253 記憶装置。

Claims (12)

  1. 複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測部と、
    前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測部により予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測部とを有することを特徴とするコンピュータ装置。
  2. 前記コンピュータ装置は、更に、
    主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数とが示される主系平常時情報を、主系システムごとに記憶する情報記憶部を有し、
    主系システムごとに、主系平常時情報に示されるリソース使用量とトランザクション数とを用いて、平常時のリソース使用量とトランザクション数との相関関係を表す数式を算出する数式算出部とを有し、
    前記待機系リソース使用量予測部は、
    主系システムごとに、系切替後の待機系システムのトランザクション数を取得し、
    主系システムごとに、前記数式算出部により算出された数式と、取得した系切替後の待機系システムのトランザクション数とを用いて、系切替後の待機系システムのリソース使用量を予測することを特徴とする請求項1に記載のコンピュータ装置。
  3. 前記情報記憶部は、
    主系システムごとに、系切替後の待機系システムのシステム要件が示される待機系システム要件情報を記憶しており、
    前記待機系リソース使用量予測部は、
    主系システムごとに、待機系システム要件情報に示される待機系システムのシステム要件を用いて、系切替後の待機系システムのトランザクション数を取得し、
    主系システムごとに、前記数式算出部により算出された数式と、取得した系切替後の待機系システムのトランザクション数とを用いて、系切替後の待機系システムのリソース使用量を予測することを特徴とする請求項2に記載のコンピュータ装置。
  4. 前記情報記憶部は、
    主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数に加えて、主系システムの平常時に主系システムを利用するユーザの数が示される主系平常時情報を記憶し、
    系切替後の待機系システムのシステム要件として、系切替後に待機系システムを利用するユーザの数が示される待機系システム要件情報を記憶しており、
    前記待機系リソース使用量予測部は、
    主系システムごとに、主系平常時情報に示される主系システムの平常時のトランザクション数とユーザ数と、待機系システム要件情報に示される待機系システムのユーザ数とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。
  5. 前記情報記憶部は、
    系切替後の待機系システムのシステム要件として、主系システムの平常時に主系システムを利用するユーザの数と主系システムの平常時のトランザクション数との相関関係を表す数式と、系切替後に待機系システムを利用するユーザの数とが示される待機系システム要件情報を記憶しており、
    前記待機系リソース使用量予測部は、 主系システムごとに、待機系システム要件情報に示される、主系システムの平常時のユーザ数とトランザクション数との相関関係を表す数式と、系切替後の待機系システムのユーザ数とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。
  6. 前記情報記憶部は、
    主系システムの平常時のリソース使用量とトランザクション数との相関関係を表す非線形の数式が示される待機系システム要件情報を記憶していることを特徴とする請求項5に記載のコンピュータ装置。
  7. 前記情報記憶部は、
    主系システムの平常時に主系システムで計測されたリソース使用量とトランザクション数に加えて、主系システムの平常時に主系システムを利用するユーザの数が示される主系平常時情報を記憶し、
    系切替後の待機系システムのシステム要件として、系切替後に待機系システムを利用するために用いられる端末装置の数が示される待機系システム要件情報を記憶しており、
    前記待機系リソース使用量予測部は、
    主系システムごとに、主系平常時情報に示される主系システムの平常時のトランザクション数とユーザ数と、待機系システム要件情報に示される端末装置数とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。
  8. 前記情報記憶部は、
    系切替後の待機系システムのシステム要件として、主系システムの平常時のトランザクション数に対する系切替後の待機系システムのトランザクション数の比率が示される待機系システム要件情報を記憶しており、
    前記待機系リソース使用量予測部は、
    主系平常時情報に示される主系システムの平常時のトランザクション数と、待機系システム要件情報に示される比率とを用いて、系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。
  9. 前記情報記憶部は、
    系切替後の待機系システムのシステム要件として、系切替後の待機系システムのトランザクション数が示される待機系システム要件情報を記憶しており、
    前記待機系リソース使用量予測部は、
    主系システムごとに、待機系システム要件情報から系切替後の待機系システムのトランザクション数を取得することを特徴とする請求項3に記載のコンピュータ装置。
  10. 前記情報記憶部は、
    平常時に主系システムで計測されたリソース使用量として、演算リソース、記憶リソース及びネットワークアクセスリソースの少なくともいずれかの使用量が示される主系平常時情報を記憶し、
    前記数式算出部は、
    主系システムの平常時のリソース使用量とトランザクション数との相関関係を表す数式として、演算リソース、記憶リソース及びネットワークアクセスリソースの少なくともいずれかの使用量とトランザクション数との相関関係を表す数式を算出し、
    前記待機系リソース使用量予測部は、
    待機系システムのリソース使用量として、演算リソース、記憶リソース及びネットワークアクセスリソースの少なくともいずれかの使用量を予測することを特徴とする請求項2〜9のいずれかに記載のコンピュータ装置。
  11. コンピュータ装置が、複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測ステップと、
    前記コンピュータ装置が、前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測ステップにより予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測ステップとを有することを特徴とするリソース使用量予測方法。
  12. 複数の主系システムに対して、主系システムごとに、主系システムから待機系システムに系が切り替わった後の待機系システムのリソース使用量を予測する待機系リソース使用量予測ステップと、
    前記複数の主系システムの複数の待機系システムを仮想化により共通の物理計算機に統合する場合の前記物理計算機全体のリソース使用量を、前記待機系リソース使用量予測ステップにより予測された各待機系システムのリソース使用量を用いて予測する計算機リソース使用量予測ステップとをコンピュータ装置に実行させることを特徴とするプログラム。
JP2012161148A 2012-07-20 2012-07-20 コンピュータ装置及びリソース使用量予測方法及びプログラム Expired - Fee Related JP5814874B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012161148A JP5814874B2 (ja) 2012-07-20 2012-07-20 コンピュータ装置及びリソース使用量予測方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012161148A JP5814874B2 (ja) 2012-07-20 2012-07-20 コンピュータ装置及びリソース使用量予測方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014021803A JP2014021803A (ja) 2014-02-03
JP5814874B2 true JP5814874B2 (ja) 2015-11-17

Family

ID=50196591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012161148A Expired - Fee Related JP5814874B2 (ja) 2012-07-20 2012-07-20 コンピュータ装置及びリソース使用量予測方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5814874B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6904155B2 (ja) * 2017-08-09 2021-07-14 富士通株式会社 情報処理装置、情報処理方法及びプログラム
CN110825597A (zh) * 2019-08-21 2020-02-21 广州市申迪计算机系统有限公司 一种磁盘空间占有率预测方法、装置及存储介质

Also Published As

Publication number Publication date
JP2014021803A (ja) 2014-02-03

Similar Documents

Publication Publication Date Title
JP4906686B2 (ja) 仮想マシンサーバサイジング装置及び仮想マシンサーバサイジング方法及び仮想マシンサーバサイジングプログラム
US9866481B2 (en) Comprehensive bottleneck detection in a multi-tier enterprise storage system
US9742652B2 (en) Proactive identification of hotspots in a cloud computing environment
US11290360B2 (en) Analyzing resource placement fragmentation for capacity planning
US10027651B2 (en) Shaping I/O traffic by managing queue depth in fractional increments
US11256595B2 (en) Predictive storage management system
RU2696347C2 (ru) Визуальные инструменты для анализа отказов в распределенных системах
US11269714B2 (en) Performance anomaly detection
JP6581648B2 (ja) システム障害からのクラウド・ベース・サービスの可用性の回復
US20150332280A1 (en) Compliant auditing architecture
US11023354B2 (en) Hyper-converged infrastructure (HCI) log system
JP5814874B2 (ja) コンピュータ装置及びリソース使用量予測方法及びプログラム
US10554525B2 (en) Tracking usage of computing resources
Wu et al. iShare: Balancing I/O performance isolation and disk I/O efficiency in virtualized environments
US8806121B2 (en) Intelligent storage provisioning within a clustered computing environment
Perennou et al. Workload characterization for a non-hyperscale public cloud platform
WO2014097598A1 (ja) リスク分析を行う情報処理装置及びリスク分析方法
JPWO2013114911A1 (ja) リスク評価システム、リスク評価方法、及びプログラム
US10277521B2 (en) Authorizing an action request in a networked computing environment
US20160275469A1 (en) Systems and methods for providing information technology on an as-used basis
Tripathi et al. Adapting and reducing cost in cloud paradigm (ARCCP)
Baruchi et al. Hypervisor Agnostic Workload Characterization Of Virtual Machines

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150918

R150 Certificate of patent or registration of utility model

Ref document number: 5814874

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees