JP2013080346A - 情報処理装置、保守作業支援方法および保守作業支援用プログラム - Google Patents
情報処理装置、保守作業支援方法および保守作業支援用プログラム Download PDFInfo
- Publication number
- JP2013080346A JP2013080346A JP2011219544A JP2011219544A JP2013080346A JP 2013080346 A JP2013080346 A JP 2013080346A JP 2011219544 A JP2011219544 A JP 2011219544A JP 2011219544 A JP2011219544 A JP 2011219544A JP 2013080346 A JP2013080346 A JP 2013080346A
- Authority
- JP
- Japan
- Prior art keywords
- computer
- virtual machine
- memory usage
- maintenance work
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012423 maintenance Methods 0.000 title claims abstract description 186
- 230000010365 information processing Effects 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 title claims description 38
- 230000008569 process Effects 0.000 claims description 29
- 230000001174 ascending effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 7
- 230000005012 migration Effects 0.000 abstract description 48
- 238000013508 migration Methods 0.000 abstract description 48
- 238000012545 processing Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Landscapes
- Debugging And Monitoring (AREA)
Abstract
【課題】保守作業のためにコンピュータ間で仮想マシンの移動を行う場合に必要となるリソースを低減させる。
【解決手段】各サーバにおいて仮想マシンが動作する複数のサーバに接続される情報処理装置に、サーバ毎に、サーバにおいて動作する仮想マシンによる合計メモリ使用量を取得し、合計メモリ使用量が最も少ないサーバである第1サーバ上で動作する仮想マシンを、他のサーバに移動させることで、第1サーバに対する保守作業を可能として、仮想マシンの移動によって保守作業が可能となったサーバの保守作業の終了後に、次に保守作業の対象となるサーバ上で動作する仮想マシンを、直前に保守作業が終了したサーバに移動させることで、次に保守作業の対象となるサーバを保守作業が可能な状態とする。
【選択図】図3
【解決手段】各サーバにおいて仮想マシンが動作する複数のサーバに接続される情報処理装置に、サーバ毎に、サーバにおいて動作する仮想マシンによる合計メモリ使用量を取得し、合計メモリ使用量が最も少ないサーバである第1サーバ上で動作する仮想マシンを、他のサーバに移動させることで、第1サーバに対する保守作業を可能として、仮想マシンの移動によって保守作業が可能となったサーバの保守作業の終了後に、次に保守作業の対象となるサーバ上で動作する仮想マシンを、直前に保守作業が終了したサーバに移動させることで、次に保守作業の対象となるサーバを保守作業が可能な状態とする。
【選択図】図3
Description
本発明は、情報処理装置、保守作業支援方法および保守作業支援用プログラムに関する。
従来、複数のブレードサーバとシステム全体を管理する管理装置から成り、管理装置に格納されたシステム構成情報により各ブレードサーバが対称型マルチプロセッサブレードサーバシステムとして動作するか独立ブレードサーバシステムとして動作するかが設定されるブレードサーバシステムにおいて、対称型マルチプロセッサブレードサーバシステムに予備のブレードサーバをスタンバイさせ、対称型マルチプロセッサブレードサーバシステムを構成するブレードサーバに障害が発生した際に、管理装置は障害が発生したブレードサーバの電源を遮断し、予備のブレードサーバの電源を投入するブレードサーバシステムが提案されている(特許文献1を参照)。
また、複数のサーバと、複数のサーバ間を移動可能な仮想マシンとを備え、仮想マシンのサーバ間の移動を、仮想マシンのリアルタイムにおける消費電力、及びサーバのリアルタイムの残電力に基づいて、サーバの稼働数をできる限り低減する条件に基づいて、サーバの最大電力の範囲で仮想マシンを集約し、当該集約により仮想マシンが起動されないことになったサーバを停止させるサーバシステムが提案されている(特許文献2を参照)。
従来、仮想マシンが動作しているコンピュータに対して保守作業を行うために、保守作業の対象となるコンピュータにおいて動作している仮想マシンを他のコンピュータに移動させてから保守作業を行うことで、サービスの提供を継続しながら保守作業を行う技術が用いられている。
しかし、このような技術を用いる場合、仮想マシンの移動先のコンピュータの負荷が高まり、仮想マシンのメモリイメージを他のコンピュータに移動する毎に大きなリソースが必要となる。このことは、保守作業中におけるサービスのパフォーマンス低下や、保守作業の遅延の原因となっていた。
本発明は、上記した問題に鑑み、保守作業のためにコンピュータ間で仮想マシンの移動を行う場合に必要となるリソースを低減させることを課題とする。
本発明では、上記課題を解決するために、以下の手段を採用した。即ち、本発明は、保守作業の対象となる複数のコンピュータであり各コンピュータにおいて1または複数の仮想マシンが動作するコンピュータに接続され、前記コンピュータ毎に、該コンピュータにおいて動作する前記1または複数の仮想マシンによる合計メモリ使用量を取得する情報取得手段と、前記情報取得手段によって取得された前記合計メモリ使用量が最も少ないコンピュータ上で動作する前記1または複数の仮想マシンを、他のコンピュータに移動させる
ための指示を行うことで、該合計メモリ使用量が最も少ないコンピュータに対する保守作業を可能とする第一の移動指示手段と、仮想マシンの移動によって保守作業が可能となったコンピュータの保守作業の終了後に、次に保守作業の対象となるコンピュータ上で動作する仮想マシンを、直前に保守作業が終了したコンピュータに移動させるための指示を行うことで、前記次に保守作業の対象となるコンピュータを保守作業が可能な状態とする第二の移動指示手段と、を備える情報処理装置である。
ための指示を行うことで、該合計メモリ使用量が最も少ないコンピュータに対する保守作業を可能とする第一の移動指示手段と、仮想マシンの移動によって保守作業が可能となったコンピュータの保守作業の終了後に、次に保守作業の対象となるコンピュータ上で動作する仮想マシンを、直前に保守作業が終了したコンピュータに移動させるための指示を行うことで、前記次に保守作業の対象となるコンピュータを保守作業が可能な状態とする第二の移動指示手段と、を備える情報処理装置である。
即ち、本発明は、保守作業のためにコンピュータ間で仮想マシンの移動を行う場合に、合計メモリ使用量が最も少ないコンピュータ上で動作する1または複数の仮想マシンを、他のコンピュータに移動させるようにすることで、移動するメモリイメージの量を減らし、必要となるリソースを低減させることとした。
また、前記複数のコンピュータは、3以上のコンピュータであり、前記合計メモリ使用量が最も少ないコンピュータ上では、複数の仮想マシンが動作し、前記第一の移動指示手段は、前記合計メモリ使用量が最も少ないコンピュータを除く複数のコンピュータにおける合計メモリ使用量が平準化するように、前記合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンの移動指示を行ってもよい。
即ち、仮想マシンの移動先として複数のコンピュータがある場合に、移動先の複数のコンピュータにおける合計メモリ使用量を平準化するように仮想マシンの移動先を決定することで、特定のコンピュータに負荷が集中することを回避し、パフォーマンスのバラツキを防止することが出来る。
また、本情報処理装置は、前記情報取得手段によって取得された、前記メモリ使用量の前記コンピュータ毎の合計に基づいて、前記コンピュータをメモリ使用量の少ない順に順位付けするコンピュータ順位付け手段と、前記合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンを、各仮想マシンによるメモリ使用量の多い順に順位付けする仮想マシン順位付け手段と、を更に備え、前記第一の移動指示手段は、前記合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンが、メモリ使用量の多い順で、合計メモリ使用量が少ないコンピュータに対して優先的に割り当てられるように、仮想マシンの移動指示を行ってもよい。
即ち、仮想マシンの移動先として複数のコンピュータがある場合に、メモリ使用量に基づいてコンピュータと仮想マシンとを夫々順位付けし、合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンを、メモリ使用量の多い順で、合計メモリ使用量が少ないコンピュータに対して優先的に割り当てることで、移動先の複数のコンピュータにおける合計メモリ使用量を平準化することが出来る。
また、前記第二の移動指示手段は、前記コンピュータの保守作業が終了する毎に、仮想マシンを移動させるための指示を行うことで、前記複数のコンピュータを順次保守作業が可能な状態としてもよい。
ここで、移動先の複数のコンピュータにおける合計メモリ使用量が平準化されていれば、保守作業のために順次仮想マシンを移動させる際の使用リソースを平準化することが出来る。
また、本情報処理装置は、保守作業の対象となる前記複数のコンピュータについて保守作業が完了した場合に、各コンピュータにおいて動作している仮想マシンを、通常の運用状態において該仮想マシンを動作させたいコンピュータに移動させるための指示を行う第三の移動指示手段を更に備えてもよい。
即ち、各コンピュータにおいて動作している仮想マシンを、通常の運用状態において該仮想マシンを動作させたいコンピュータに移動させることで、保守作業が完了した場合に、通常の運用状態における、各コンピュータを用いた作業を継続することが出来る。
また、前記第三の移動指示手段は、前記第一の移動指示手段による移動指示前の状態である保守作業前状態において前記合計メモリ使用量が最も少ないコンピュータ上で動作していた1または複数の仮想マシンを除く仮想マシン群を、該仮想マシン群に属する仮想マシンが前記保守作業前状態において動作していたコンピュータに移動させるための指示を行い、該仮想マシン群の移動が完了した後に、前記保守作業前状態において前記合計メモリ使用量が最も少ないコンピュータ上で動作していた前記1または複数の仮想マシンを、該1または複数の仮想マシンが前記保守作業前状態において動作していたコンピュータへ移動させるための指示を行ってもよい。
ここでは、保守作業が完了して運用状態に戻す場合に、はじめに、保守作業前状態において合計メモリ使用量が最も少ないコンピュータ以外のコンピュータで動作していた仮想マシン群を保守作業前状態において動作していたコンピュータに戻し、その後に、保守作業前状態において合計メモリ使用量が最も少ないコンピュータ上で動作していた仮想マシンを保守作業前状態において動作していたコンピュータへ戻す。このようにすることで、保守作業のための第二の移動指示手段によって既に保守作業前状態において動作していたコンピュータに戻っている仮想マシンを移動させることなく、少ないメモリ移動量で、システムを運用状態に戻すことが出来る。
また、前記第三の移動指示手段は、前記保守作業前状態において前記合計メモリ使用量が最も少ないコンピュータ上で動作していた1または複数の仮想マシンを、直前に保守作業が終了したコンピュータに移動させるための指示を行ってもよい。
この場合、保守作業前状態において合計メモリ使用量が最も少ないコンピュータ以外のコンピュータで動作していた仮想マシン群を保守作業前状態において動作していたコンピュータに戻すことは行われなくてもよい。即ち、保守作業前状態において合計メモリ使用量が最も少ないコンピュータ上で動作していた仮想マシンを、直前に保守作業が終了したコンピュータに移動させて作業完了とすることで、更に少ないメモリ移動量で、システムを運用状態に戻すことを可能としている。
更に、本発明は、方法、又はコンピュータによって実行されるプログラムとしても把握することが可能である。また、本発明は、そのようなプログラムをコンピュータその他の装置、機械等が読み取り可能な記録媒体に記録したものでもよい。ここで、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、または化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。
本発明によれば、保守作業のためにコンピュータ間で仮想マシンの移動を行う場合に必要となるリソースを低減させることが可能となる。
以下、本発明の実施の形態について、図面に基づいて説明する。以下に説明する実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を以下に説明する具体的構成に限定するものではない。本発明を実施するにあたっては、実施の形態に応じた具体的構成が適宜採用されることが好ましい。
<システムの構成>
図1は、本実施形態に係る情報処理システム100の構成を示す概略図である。本実施形態に係る情報処理システム100は、クライアント(図示は省略する)に対して種々のサービスを提供する複数のサーバ3と、これらのサーバ3が接続されるネットワーク2と、ネットワーク2に接続されて、これらのサーバ3の保守および管理を行うための管理用端末1と、を備える。ここで、管理用端末1は、本発明の情報処理装置に相当する。
図1は、本実施形態に係る情報処理システム100の構成を示す概略図である。本実施形態に係る情報処理システム100は、クライアント(図示は省略する)に対して種々のサービスを提供する複数のサーバ3と、これらのサーバ3が接続されるネットワーク2と、ネットワーク2に接続されて、これらのサーバ3の保守および管理を行うための管理用端末1と、を備える。ここで、管理用端末1は、本発明の情報処理装置に相当する。
管理用端末1は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、EEPROM(Electrically Erasable
and Programmable Read Only Memory)やHDD(Hard Disk Drive)等の記憶装置14、NIC(Network Interface Card)15等の通信ユニット、等を備えるコンピュータである。
and Programmable Read Only Memory)やHDD(Hard Disk Drive)等の記憶装置14、NIC(Network Interface Card)15等の通信ユニット、等を備えるコンピュータである。
また、サーバ3は、何れも、CPU、RAM、ROM、記憶装置、および通信ユニット等(図示は省略する)を備えるコンピュータである。サーバ3は、記憶装置に記録されているプログラムがRAMに読み出され、CPUによって実行されることで、業務等において必要とされる様々なサービスをクライアントに提供するサーバとして機能する。なお、本実施形態では、サーバ3として、シャーシ4に搭載されるブレードサーバ3を用い、保守作業の対象となるシャーシ4に搭載されるブレードサーバ3に対して保守作業を行う場合について説明する。但し、本発明の適用対象は、ブレードサーバ3に限定されない。本発明は、仮想マシンが動作する複数のコンピュータに対して保守作業を行う場合に用いることができる。
夫々のブレードサーバ3には、1または複数の仮想マシンがインストールされている。ここで、仮想マシンとは、コンピュータの動作をエミュレートするソフトウェア、およびこのようなソフトウェアを実行することで用意された仮想的なコンピュータである。本実施形態に係る情報処理システム100では、ブレードサーバ3上で1または複数の仮想マシンを動作させ、仮想マシン毎にクライアントへサービスを提供するためのOS(Operating System)およびサービス用ソフトウェアを動作させることで、ブレ
ードサーバ3の備えるリソースを効率よく用いることとしている。
ードサーバ3の備えるリソースを効率よく用いることとしている。
なお、ブレードサーバ毎の仮想マシンのメモリ使用量は、予め「各サーバのメモリ搭載量*(n−1)/n」を限度として運用されていることが好ましい。
図2は、本実施形態に係る管理用端末1の機能構成の概略を示す図である。管理用端末1は、記憶装置14に記録されている保守作業支援用プログラムが、RAM13に読み出され、CPU11によって実行されることで、情報取得部21、コンピュータ順位付け部22、仮想マシン順位付け部23、第一の移動指示部24、第二の移動指示部25および第三の移動指示部26を備える情報処理装置として機能する。このような機能を備える管理端末は、ディスプレイ(図示は省略する)に、保守作業および仮想マシンの移動操作手順を表示させる。なお、本実施形態では、管理用端末1の備える各機能は、汎用プロセッサであるCPU11によって実行されるが、これらの機能の一部または全部は、1または複数の専用プロセッサによって実行されてもよい。
情報取得部21は、ブレードサーバ3毎に、ブレードサーバ3において動作する1または複数の仮想マシンによる合計メモリ使用量を取得する。
コンピュータ順位付け部22は、情報取得部21によって取得された、メモリ使用量のブレードサーバ3毎の合計に基づいて、ブレードサーバ3をメモリ使用量の少ない順に順位付けする。
仮想マシン順位付け部23は、合計メモリ使用量が最も少ないブレードサーバ3(以下、「第1サーバ」と称する)上で動作する仮想マシンを、各仮想マシンによるメモリ使用量の多い順に順位付けする。
第一の移動指示部24は、情報取得部21によって取得された第1サーバ上で動作する1または複数の仮想マシンを、他の複数のブレードサーバ3に移動(ライブ・マイグレーション)させるための指示を行うことで、第1サーバに対する保守作業を可能とする。本実施形態では、第一の移動指示部24は、第1サーバを除くブレードサーバ3(即ち、第2サーバから第nサーバ)における合計メモリ使用量が平準化するように、第1サーバ上で動作する仮想マシンの移動指示を行う。より具体的には、第一の移動指示部24は、第1サーバ上で動作する仮想マシンが、メモリ使用量の多い順で、合計メモリ使用量が少ないブレードサーバ3に対して優先的に割り当てられるように、仮想マシンの移動指示を行う。
第二の移動指示部25は、仮想マシンの移動によって保守作業が可能となったブレードサーバ3の保守作業の終了後に、次に保守作業の対象となるブレードサーバ3上で動作する仮想マシンを、直前に保守作業が終了したブレードサーバ3に移動(ライブ・マイグレーション)させるための指示を行うことで、次に保守作業の対象となるブレードサーバ3を保守作業が可能な状態とする。第二の移動指示部25は、ブレードサーバ3の保守作業が終了する毎に、仮想マシンを移動させるための指示を行うことで、複数のブレードサーバ3を順次保守作業が可能な状態とする。
第三の移動指示部26は、保守作業の対象となる複数のブレードサーバ3について保守作業が完了した場合に、各ブレードサーバ3において動作している仮想マシンを、通常の運用状態において仮想マシンを動作させたいブレードサーバ3に移動(ライブ・マイグレーション)させるための指示を行う。本実施形態では、第三の移動指示部26は、第一の移動指示部24による移動指示前の状態である保守作業前状態において第2サーバから第nサーバ上で夫々動作していた仮想マシン群を、保守作業前状態において仮想マシン群に
属する仮想マシンが動作していたブレードサーバ3に移動させるための指示を行い、仮想マシン群の移動が完了した後に、保守作業前状態において第1サーバ上で動作していた仮想マシンを、第1サーバへ移動させるための指示を行う。
属する仮想マシンが動作していたブレードサーバ3に移動させるための指示を行い、仮想マシン群の移動が完了した後に、保守作業前状態において第1サーバ上で動作していた仮想マシンを、第1サーバへ移動させるための指示を行う。
ここで、ライブ・マイグレーションとは、動作中の仮想マシン上で動作しているOSおよびソフトウェアを、動作を停止することなく他の仮想マシンへ移動させることであり、移動元の仮想マシン上のメモリイメージをそのまま移動先の仮想マシンにコピーすることで実現される。なお、本実施形態において、「仮想マシンを移動させる」とは、移動先に新たに仮想マシンを設けて仮想マシン上のメモリイメージをコピーすることの他、移動元の仮想マシンごと移動先にメモリコピーすることも含む。
また、管理用端末1の記憶装置14には、予め各シャーシ4に搭載されているブレードサーバ3の台数が記録されている。また、記憶装置14には、メモリ搭載量を含む各ブレードサーバ3のハードウェアスペックや、各ブレードサーバ3において稼働している仮想マシン毎のメモリ使用量、等が更に記録されていてもよい。
<処理の流れ>
次に、本実施形態において実行される処理の流れを説明する。なお、以下に説明される処理の具体的な内容および処理順序は、本発明を実施するための一例である。具体的な処理内容および処理順序は、本発明の実施の形態に応じて適宜選択されてよい。
次に、本実施形態において実行される処理の流れを説明する。なお、以下に説明される処理の具体的な内容および処理順序は、本発明を実施するための一例である。具体的な処理内容および処理順序は、本発明の実施の形態に応じて適宜選択されてよい。
図3は、本実施形態に係る保守作業支援処理の流れを示すシーケンス図である。本実施形態に係る保守作業支援処理は、管理者であるユーザによって管理用端末1が操作され、保守作業支援処理の開始操作が行われたことや、予め設定された、管理用端末1によるブレードサーバ3の保守作業開始時刻が到来したこと等を契機として開始される。
ステップS101では、保守作業の対象となるシャーシ4に搭載されたブレードサーバ3の台数、各ブレードサーバ3のメモリ搭載量、および各ブレードサーバ3において動作する各仮想マシンのメモリ使用量が取得される。管理用端末1の情報取得部21は、記憶装置14から、保守作業の対象となるシャーシ4に搭載されているブレードサーバ3の台数(ハードウェアとしての物理サーバマシンの台数)を取得する。また、管理用端末1の情報取得部21は、保守作業の対象となるシャーシ4に搭載された各ブレードサーバ3に問い合わせることで、ブレードサーバ3毎のメモリ搭載量(搭載されているRAMの容量)を取得する。但し、ブレードサーバ3毎のメモリ搭載量は、予め管理用端末1において動作する管理用ソフトウェアによって管理され、管理用端末1の記憶装置14に保持されているものが読み出されることで取得されてもよい。
更に、管理用端末1の情報取得部21は、保守作業の対象となるシャーシ4に搭載された各ブレードサーバ3に問い合わせることで、ブレードサーバ3において動作する仮想マシン毎に、仮想マシンのメモリ使用量を取得する。この際、単一のブレードサーバ3において複数の仮想マシンが動作している場合、情報取得部21は、仮想マシン毎にメモリ使用量を取得する。例えば、管理用端末1は、サーバID、サーバの状態(通常運用中、保守作業中、・・・)、サーバのメモリ搭載量、サーバのメモリ使用量、サーバ上で稼働する仮想マシンの仮想マシンID、仮想マシン毎のメモリ使用量、等の項目を含む管理用データベースを管理し、予め保持しているサーバIDおよび仮想マシンIDを指定して、対象の仮想マシンまたはサーバにメモリ使用量の問合せを送信し、問合せを受けた仮想マシンまたはサーバからのメモリ使用量の通知を受信することで、仮想マシン毎にメモリ使用量を取得する。取得された仮想マシン毎のメモリ使用量は、仮想マシンIDと関連付けて管理用データベースに格納される。
そして、管理用端末1の情報取得部21は、ステップS101において取得された、各仮想マシンのメモリ使用量を、サーバIDによって特定されるブレードサーバ3毎に合計することで、ブレードサーバ3毎の、仮想マシンによるメモリ使用量を算出する。算出されたブレードサーバ3毎のメモリ使用量は、サーバIDと関連付けて管理用データベースに格納される。なお、仮想マシン毎のメモリ使用量についても、予め管理用端末1において動作する管理用ソフトウェアによって管理され、記憶装置14に保持されているものが読み出されることで取得されてもよい。その後、処理はステップS102へ進む。
ステップS102では、保守作業の対象となるシャーシ4に搭載されたブレードサーバ3が、メモリ使用量の少ない順に順位付けされる。管理用端末1のコンピュータ順位付け部22は、算出されたメモリ使用量が少ない順に、ブレードサーバ3を順位付けする。より具体的には、コンピュータ順位付け部22は、管理用データベースから、ブレードサーバ3毎に、サーバIDと関連付けてメモリ使用量を読み出す。そして、コンピュータ順位付け部22は、メモリ使用量をキーにしてソート処理を行うことで、サーバIDをメモリ使用量が少ない順に並び替える。このようにして、算出されたメモリ使用量が少ない順に、ブレードサーバ3が順位付けされる。以下、仮想マシンによるメモリ使用量が最も少ないブレードサーバ3から順に、第1サーバ、第2サーバ、第3サーバ・・・第nサーバと称する。
図4は、本実施形態における、メモリ使用量が少ない順に順位付けされたブレードサーバ3上で稼働する仮想マシンの遷移を示す表である。また、図5Aから図5Dは、本実施形態に係る保守作業支援処理の各段階における各ブレードサーバ3でのメモリ使用状況を示す図である。ここで、図5Aは保守作業前状態における各ブレードサーバ3でのメモリ使用状況を示す図であり、図中のD1、D2、D3・・・Dnは、1または複数の仮想マシンからなる仮想マシンの集合(以下、「仮想マシン群」と称する)を表す。
図4に示した表および図5Aに示したメモリ使用状況によれば、第1サーバ上で稼働する仮想マシン群D1が最もメモリ使用量が少なく、仮想マシン群D2、仮想マシン群D3・・・仮想マシン群Dnの順にメモリ使用量が多くなっていることが分かる。また、保守作業前状態において第1サーバ上で稼働する仮想マシン群D1は、仮想マシンd2、d3・・・dnの集合である(図5Aを参照)。なお、本実施形態では、第1サーバ上で稼働する仮想マシンを、メモリ使用量の多い順に仮想マシンd2、d3・・・dnと称する。ブレードサーバ3の順位付けが完了すると、処理はステップS103へ進む。
ステップS103では、第1サーバ上で稼働する仮想マシンが、他のブレードサーバ3に移動(ライブ・マイグレーション)される。管理用端末1の第一の移動指示部24は、第1サーバに対して、第1サーバ上で稼働する仮想マシンの移動指示を行うことで、第1サーバ上で稼働する仮想マシンを、他のブレードサーバ3に移動させる。
この際、第一の移動指示部24は、仮想マシンd2〜dnの移動先の各ブレードサーバ3におけるメモリ使用量が平準化されるように、仮想マシンd2〜dnの移動先となるブレードサーバ3を決定し、第1サーバに指示する。即ち、第一の移動指示部24は、ステップS101において取得された第2サーバから第nサーバのメモリ使用量(還元すると、仮想マシンD2〜Dnのメモリ使用量)と、仮想マシンd2〜dnのメモリ使用量とを参照し、仮想マシンd2〜dnの移動後の第2サーバから第nサーバにおけるメモリ使用量が近くなるように、仮想マシンd2〜dnの移動先を決定する。このため、本実施形態に係る保守作業支援処理を適用する対象は、3以上のサーバを備えることがより好ましい。
例えば、仮想マシン順位付け部23は、管理用データベースから、仮想マシンd2〜d
n毎に、仮想マシンIDと関連付けてメモリ使用量を読み出し、メモリ使用量をキーにしてソート処理を行うことで、仮想マシンIDをメモリ使用量が多い順に並び替える。このようにして、メモリ使用量が多い順に、仮想マシンd2〜dnが順位付けされる。そして、第一の移動指示部24は、メモリ使用量が多い仮想マシンd2〜dn順に、仮想マシン群によるメモリ使用量が少ないブレードサーバ3を移動先として決定する。換言すると、第一の移動指示部24は、第1サーバ上で動作する仮想マシンd2〜dnを、仮想マシン順位付け部23によって順位付けされた順(d2、d3・・・dnの順)で、コンピュータ順位付け部22によって順位付けされた順(D2、D3・・・Dnの順)に第2サーバから第nサーバに対して割り当てられるように、仮想マシンIDとサーバIDとの組み合わせを指定して、仮想マシンの移動指示を行う。
n毎に、仮想マシンIDと関連付けてメモリ使用量を読み出し、メモリ使用量をキーにしてソート処理を行うことで、仮想マシンIDをメモリ使用量が多い順に並び替える。このようにして、メモリ使用量が多い順に、仮想マシンd2〜dnが順位付けされる。そして、第一の移動指示部24は、メモリ使用量が多い仮想マシンd2〜dn順に、仮想マシン群によるメモリ使用量が少ないブレードサーバ3を移動先として決定する。換言すると、第一の移動指示部24は、第1サーバ上で動作する仮想マシンd2〜dnを、仮想マシン順位付け部23によって順位付けされた順(d2、d3・・・dnの順)で、コンピュータ順位付け部22によって順位付けされた順(D2、D3・・・Dnの順)に第2サーバから第nサーバに対して割り当てられるように、仮想マシンIDとサーバIDとの組み合わせを指定して、仮想マシンの移動指示を行う。
即ち、本実施形態に示した例では、第1サーバにおいて最もメモリ使用量が多い仮想マシンd2の移動先が、保守作業対象のシャーシ4において第1サーバの次にメモリ使用量が少ない第2サーバに決定され、第1サーバにおいて2番目にメモリ使用量が多い仮想マシンd3の移動先が、保守作業対象のシャーシ4において第2サーバの次にメモリ使用量が少ない第3サーバに決定される。このようにして仮想マシンd2〜dnの移動先が決定されると、仮想マシンdnの移動先は、保守作業対象のシャーシ4において最もメモリ使用量の多い第nサーバに決定される(図5Bを参照)。
なお、第1サーバにおいて稼働する仮想マシンの数が移動先ブレードサーバ3の台数よりも少ない場合には、メモリ使用量が多い順に仮想マシンの移動先を決定していき、第1サーバ上で稼働する全ての仮想マシンの移動先が決定すると、移動先の決定は終了する。一方、第1サーバにおいて稼働する仮想マシンの数が移動先ブレードサーバ3の台数よりも多い場合には、メモリ使用量が多い順に仮想マシンの移動先を決定していき、第nサーバまで割り当てられると、割り当て先が再び第2サーバに巡回し、仮想マシンd(n+1)の移動先が第2サーバ、仮想マシンd(n+2)の移動先が第3サーバ・・・という風に決定されていく。第1サーバ上で稼働する全ての仮想マシンの移動先が決定すると、移動先の決定は終了する。
また、仮想マシンd2〜dnの移動先ブレードサーバ3の決定方法には、その他の方式が採用されてもよい。例えば、保守作業対象のブレードサーバ3で稼働する全ての仮想マシンのメモリ使用量を合計して「ブレードサーバ台数−1」で割ることで割り当て後の第2サーバから第nサーバにおけるメモリ使用量の目標値を算出する。算出には、例えば以下の式を用いることが出来る。
目標値 = (D1+D2+D3+・・・+Dn)/(n−1)
目標値 = (D1+D2+D3+・・・+Dn)/(n−1)
次に、目標値と各ブレードサーバ3の合計メモリ使用量との差分を算出することで、各ブレードサーバ3における仮想マシンd2〜dnの割り当て可能メモリ量が算出される。例えば、第iサーバについての割り当て可能メモリ量は、以下の式を用いて算出することが出来る。
第iサーバの割り当て可能メモリ量 = 目標値−Di
第iサーバの割り当て可能メモリ量 = 目標値−Di
そして、算出された割り当て可能メモリ量に近似するメモリ使用量となる1または複数の仮想マシンの組み合わせを、仮想マシンd2〜dnから決定することで、仮想マシンd2〜dnの移動先を決定することが出来る。このような方法で移動先を決定することで、各ブレードサーバ3の負荷がより平準化された移動先を決定することが出来る。
管理用端末1から仮想マシンの移動が指示されると、第1サーバは、第1サーバ上で稼働する仮想マシンから、管理用端末1によって指示された移動先ブレードサーバ3に対して、仮想マシンd2〜dnの移動(ライブ・マイグレーション)を行う。移動元のブレー
ドサーバ3(ここでは、第1サーバ)は、移動先ブレードサーバ3へのメモリイメージのコピーが完了すると、サービスの提供を移動先のブレードサーバ3に引き継ぎ、クライアントへのサービスの提供を停止する(保守可能な状態にする)。
ドサーバ3(ここでは、第1サーバ)は、移動先ブレードサーバ3へのメモリイメージのコピーが完了すると、サービスの提供を移動先のブレードサーバ3に引き継ぎ、クライアントへのサービスの提供を停止する(保守可能な状態にする)。
但し、仮想マシンd2〜dnの移動(ライブ・マイグレーション)を行う場合にも、移動後のブレードサーバ毎の仮想マシンのメモリ使用量は、「各サーバのメモリ搭載量*(n−1)/n」を限度とすることが好ましい。このようなチェックを行う場合、例えば、第一の移動指示部24は、ステップS101で取得されたブレードサーバ毎のメモリ搭載量およびメモリ使用量を、サーバIDを指定して管理用データベースから取得し、また、ステップS101で取得された仮想マシンd2〜dn毎のメモリ使用量を、仮想マシンIDを指定して管理用データベースから取得する。そして、移動先として指定された仮想マシンIDとサーバIDとの組み合わせ毎に、仮想マシンのメモリ使用量と移動先サーバのメモリ使用量との合計が、「移動先サーバのメモリ搭載量*(n−1)/n」を越えないことを確認する。仮想マシンのメモリ使用量と移動先サーバのメモリ使用量との合計が「移動先サーバのメモリ搭載量*(n−1)/n」を越える場合、第一の移動指示部24は、仮想マシンの移動先を決定するためのアルゴリズムを変更する等して、仮想マシンの移動先を変更する。その後、処理はステップS104へ進む。
ステップS104では、ブレードサーバ3の保守作業が行われる。ここでは、ステップS103または後述するステップS106における仮想マシンの移動によって保守可能となった(仮想マシンによるクライアントへのサービス提供が停止された)ブレードサーバ3に対して、保守作業が行われる。ここで、保守作業とは、例えば、OSおよびソフトウェアのアップデート作業(パッチ適用やバージョンアップ等)や、ハードウェアの交換・追加作業等であるが、ここで行われる保守作業の内容は限定されない。本実施形態において説明する保守作業支援処理によれば、クライアントにサービスを提供するための仮想マシンを他のブレードサーバ3に移動させるため、クライアントへのサービス提供を中断することなく、ブレードサーバ3への保守作業を行うことが出来る。また、管理用端末1は、保守作業の完了したブレードサーバ3のサーバIDを記録する。保守作業が完了すると、処理はステップS105へ進む。
ステップS105では、保守作業の対象となる全てのブレードサーバ3について保守作業が完了したか否かが判定される。管理用端末1の第二の移動指示部25は、保守作業の完了したブレードサーバ3のサーバIDを参照することで、ステップS104において説明した保守作業が、第1サーバから第nサーバまでの、保守作業対象のシャーシ4に搭載された全てのブレードサーバ3について完了したか否かを判定する。全ての保守作業対象ブレードサーバ3について保守作業が完了したと判定された場合、処理はステップS107へ進む。一方、保守作業が完了していないブレードサーバ3が存在すると判定された場合、処理はステップS106へ進む。
ステップS106では、次に保守作業の対象となるブレードサーバ3上で稼働する仮想マシンが、保守が終了したブレードサーバ3に移動(ライブ・マイグレーション)される。第二の移動指示部25は、次回実行されるステップS104における保守作業の対象となるブレードサーバ3上で稼働する仮想マシンを、直前に実行されたステップS104において保守作業が完了したブレードサーバ3に移動させるための指示を行う。本実施形態では、第1サーバ、第2サーバ、第3サーバ・・・第nサーバの順(即ち、保守作業前状態で稼働していた仮想マシン群のメモリ使用量が少ない順)に保守作業の対象となるため、直前に実行されたステップS104において保守作業が完了したブレードサーバ3が第iサーバ(iはサーバ番号を示すインデックス)である場合、次回実行されるステップS104における保守作業の対象となるブレードサーバ3は第(i+1)サーバとなる。第二の移動指示部25は、第(i+1)サーバに対して、第(i+1)サーバ上で稼働する
仮想マシンを第iサーバに移動させるための指示を行う(図5Bを参照)。ライブ・マイグレーションの処理の詳細については、上記第一の移動指示部24の説明およびステップS103の説明において説明したものと概略同様であるため、説明は省略する。
仮想マシンを第iサーバに移動させるための指示を行う(図5Bを参照)。ライブ・マイグレーションの処理の詳細については、上記第一の移動指示部24の説明およびステップS103の説明において説明したものと概略同様であるため、説明は省略する。
但し、全ての保守作業が完了した際にブレードサーバ3上で稼働する仮想マシンが保守作業前状態と異なっていても問題がない場合等には、本実施形態のような、保守作業前状態で稼働していた仮想マシン群のメモリ使用量が少ない順で仮想マシンの移動および保守作業を行う必要はない。第二の移動指示部25は、任意に選択された、次に保守作業を行いたいブレードサーバ3上で稼働する仮想マシンを、保守が終了したブレードサーバ3に移動(ライブ・マイグレーション)させることで、任意に選択された順序で、ブレードサーバ3の保守を行うことが出来る。
仮想マシンの移動が完了すると、処理はステップS104へ戻り、ステップS104では、ライブ・マイグレーションによる移動元となったブレードサーバ3の保守作業が実行される。即ち、本フローチャートに示された保守作業支援処理によれば、保守作業の対象となる全てのブレードサーバ3について保守作業が完了するまで、ステップS104からステップS106に示された処理が繰り返し実行され、第1サーバ、第2サーバ、第3サーバ・・・第nサーバの順でブレードサーバが順次保守作業可能となる(図5Bを参照)。
ステップS107では、仮想マシン群が保守作業前状態で稼働していたブレードサーバ3に移動される。全てのブレードサーバ3について保守作業が完了した時点で、仮想マシン群D2〜Dnは、保守作業前状態とは異なるブレードサーバ3に移動している(図5Bを参照)。本実施形態に示した例では、仮想マシン群Diは、保守作業が完了した時点で第(i−1)サーバにおいて稼働している。このため、管理用端末1の第三の移動指示部26は、各ブレードサーバ3に対して、第(i−1)サーバにおいて稼働している仮想マシン群Diを、保守作業前状態において稼働していた第iサーバに移動させる指示を出す。
この際、メモリの空きのあるブレードサーバ3から順に移動を完了させる必要があるため、第三の移動指示部26は、第(n−1)サーバから降順に移動の指示を行い、指示を受けた各ブレードサーバ3は、自身よりもサーバ番号が1多いブレードサーバ3に対して仮想マシン群の移動(ライブ・マイグレーション)を行う(図5Cを参照)。より具体的には、第(n−1)サーバから第nサーバへの仮想マシン群Dnの移動、第(n−2)サーバから第n−1サーバへの仮想マシン群D(n−1)の移動、・・・第1サーバから第2サーバへの仮想マシン群D2の移動、が順に行われる。仮想マシン群D2〜Dnが保守作業前状態において稼働していたブレードサーバ3に移動完了すると、処理はステップS108へ進む。
ステップS108では、仮想マシンd2〜dnが第1サーバへ移動される。ステップS107に示された処理が完了すると、仮想マシン群D1以外の仮想マシン群D2〜Dnは、保守作業前状態において稼働していたブレードサーバ3に移動している(保守作業前状態に戻っている)が、仮想マシン群D1を構成していた仮想マシンd2〜dnは、第1サーバから第(n−1)サーバに分散された状態で稼働している。このため、第三の移動指示部26は、第2サーバから第(n−1)サーバに対して、これらのブレードサーバ3上で稼働している仮想マシンd3〜dnを、第1サーバに移動させるよう指示する。
なお、仮想マシンd2に関しては、既に保守作業前状態で稼働していた第1サーバに移動完了しているため、移動させる必要はない。指示を受けた各ブレードサーバ3は、順に仮想マシンの移動(ライブ・マイグレーション)を行う(図5Dを参照)。仮想マシンd
3〜dnが保守作業前状態において稼働していた第1サーバに移動完了することで、第1サーバにおいて稼働する仮想マシン群D1が再構築されると、本フローチャートに示された処理は終了する。
3〜dnが保守作業前状態において稼働していた第1サーバに移動完了することで、第1サーバにおいて稼働する仮想マシン群D1が再構築されると、本フローチャートに示された処理は終了する。
<効果>
本実施形態によれば、仮想マシンの移動を伴う保守作業を行う際に、ブレードサーバ3間で移動するメモリイメージの量を減らし、必要となるリソースを低減させることが出来る。また、仮想マシンの移動先として複数のブレードサーバ3がある場合に、移動先の複数のブレードサーバ3における合計メモリ使用量を平準化するように仮想マシンの移動先を決定することで、特定のブレードサーバ3に負荷が集中することを回避し、パフォーマンスのバラツキを防止することが出来る。更に、本実施形態によれば、保守作業が完了して運用状態に戻す場合に、少ないメモリ移動量で、情報処理システム100を運用状態に戻すことが出来る。また、全体としてメモリ移動量を低減させたことで、保守作業にかかる時間を短縮することも可能である。
本実施形態によれば、仮想マシンの移動を伴う保守作業を行う際に、ブレードサーバ3間で移動するメモリイメージの量を減らし、必要となるリソースを低減させることが出来る。また、仮想マシンの移動先として複数のブレードサーバ3がある場合に、移動先の複数のブレードサーバ3における合計メモリ使用量を平準化するように仮想マシンの移動先を決定することで、特定のブレードサーバ3に負荷が集中することを回避し、パフォーマンスのバラツキを防止することが出来る。更に、本実施形態によれば、保守作業が完了して運用状態に戻す場合に、少ないメモリ移動量で、情報処理システム100を運用状態に戻すことが出来る。また、全体としてメモリ移動量を低減させたことで、保守作業にかかる時間を短縮することも可能である。
<保守作業支援処理のバリエーション>
上述の通り、上に説明した実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を上に説明した具体的構成に限定するものではない。本発明を実施するにあたっては、実施の形態に応じた具体的構成が適宜採用されることが好ましい。以下に、保守作業支援処理のバリエーションについて説明する。
上述の通り、上に説明した実施の形態は、本発明を実施する場合の一例を示すものであって、本発明を上に説明した具体的構成に限定するものではない。本発明を実施するにあたっては、実施の形態に応じた具体的構成が適宜採用されることが好ましい。以下に、保守作業支援処理のバリエーションについて説明する。
本バリエーションは、第三の移動指示部26による処理内容が、上に説明した実施形態と異なる点に特徴を有している。本バリエーションにおいて、第三の移動指示部26は、保守作業前状態において第1サーバ上で動作していた1または複数の仮想マシンを、直前に保守作業が終了したブレードサーバ3に移動させるための指示を行う。
図6は、本実施形態のバリエーションに係る保守作業支援処理の流れを示すシーケンス図である。ステップS201からステップS206に示された処理は、図3を用いて説明した保守作業支援処理のステップS101からステップS106の処理と概略同様であるため、説明を省略する。
ステップS207では、仮想マシンd2〜dnが第nサーバへ移動される。全てのブレードサーバ3について保守作業が完了した時点で、仮想マシン群D2〜Dnは、保守作業前状態とは異なるブレードサーバ3に移動している(図5Bを参照)。本実施形態に示した例では、仮想マシン群Diは、保守作業が完了した時点で第(i−1)サーバにおいて稼働している。しかし、バリエーションに係る保守作業支援処理では、第(i−1)サーバにおいて稼働している仮想マシン群Diを、保守作業前状態において稼働していた第iサーバに移動させる(戻す)ことは行わない。
ここで、仮想マシン群D1を構成していた仮想マシンd2〜dnは、第1サーバから第(n−1)サーバに分散された状態で稼働している。このため、第三の移動指示部26は、第1サーバから第(n−1)サーバに対して、これらのブレードサーバ3上で稼働している仮想マシンd2〜dnを、第nサーバに移動させるよう指示する。指示を受けた各ブレードサーバ3は、順に仮想マシンの移動(ライブ・マイグレーション)を行う(図7を参照)。仮想マシンd2〜dnが第nサーバに移動完了することで、保守作業前状態において第1サーバにおいて稼働していた仮想マシン群D1は、第nサーバ上に再構築される。その後、本フローチャートに示された処理は終了する。
即ち、本バリエーションに係る保守作業支援処理によれば、保守作業前状態において第2サーバから第nサーバで動作していた仮想マシン群を保守作業前状態において動作して
いたブレードサーバ3(第2サーバから第nサーバ)に戻すことは行われない。即ち、本バリエーションに係る保守作業支援処理は、保守作業前状態において第1サーバ上で動作していた仮想マシンを、直前に保守作業が終了したブレードサーバ3(ここでは、第nサーバ)に移動させて作業完了とすることで、上に説明した実施形態に比べて更に少ないメモリ移動量で、情報処理システム100を運用状態に戻すことを可能としている。
いたブレードサーバ3(第2サーバから第nサーバ)に戻すことは行われない。即ち、本バリエーションに係る保守作業支援処理は、保守作業前状態において第1サーバ上で動作していた仮想マシンを、直前に保守作業が終了したブレードサーバ3(ここでは、第nサーバ)に移動させて作業完了とすることで、上に説明した実施形態に比べて更に少ないメモリ移動量で、情報処理システム100を運用状態に戻すことを可能としている。
1 管理用端末(情報処理装置)
3 ブレードサーバ(コンピュータ)
21 情報取得部
22 コンピュータ順位付け部
23 仮想マシン順位付け部
24 第一の移動指示部
25 第二の移動指示部
26 第三の移動指示部
3 ブレードサーバ(コンピュータ)
21 情報取得部
22 コンピュータ順位付け部
23 仮想マシン順位付け部
24 第一の移動指示部
25 第二の移動指示部
26 第三の移動指示部
Claims (10)
- 保守作業の対象となる複数のコンピュータであり各コンピュータにおいて1または複数の仮想マシンが動作するコンピュータに接続され、
前記コンピュータ毎に、該コンピュータにおいて動作する前記1または複数の仮想マシンによる合計メモリ使用量を取得する情報取得手段と、
前記情報取得手段によって取得された前記合計メモリ使用量が最も少ないコンピュータ上で動作する前記1または複数の仮想マシンを、他のコンピュータに移動させるための指示を行うことで、該合計メモリ使用量が最も少ないコンピュータに対する保守作業を可能とする第一の移動指示手段と、
仮想マシンの移動によって保守作業が可能となったコンピュータの保守作業の終了後に、次に保守作業の対象となるコンピュータ上で動作する仮想マシンを、直前に保守作業が終了したコンピュータに移動させるための指示を行うことで、前記次に保守作業の対象となるコンピュータを保守作業が可能な状態とする第二の移動指示手段と、
を備える情報処理装置。 - 前記複数のコンピュータは、3以上のコンピュータであり、前記合計メモリ使用量が最も少ないコンピュータ上では、複数の仮想マシンが動作し、
前記第一の移動指示手段は、前記合計メモリ使用量が最も少ないコンピュータを除く複数のコンピュータにおける合計メモリ使用量が平準化するように、前記合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンの移動指示を行う、
請求項1に記載の情報処理装置。 - 前記情報取得手段によって取得された、前記メモリ使用量の前記コンピュータ毎の合計に基づいて、前記コンピュータをメモリ使用量の少ない順に順位付けするコンピュータ順位付け手段と、
前記合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンを、各仮想マシンによるメモリ使用量の多い順に順位付けする仮想マシン順位付け手段と、を更に備え、
前記第一の移動指示手段は、前記合計メモリ使用量が最も少ないコンピュータ上で動作する仮想マシンが、メモリ使用量の多い順で、合計メモリ使用量が少ないコンピュータに対して優先的に割り当てられるように、仮想マシンの移動指示を行う、
請求項2に記載の情報処理装置。 - 前記コンピュータの識別子と該コンピュータ識別子によって示されるコンピュータのメモリ使用量との組み合わせ、および前記仮想マシンの識別子と該仮想マシン識別子によって示される仮想マシンのメモリ使用量との組み合わせ、を管理する管理用データベースに接続され、
前記コンピュータ順位付け手段は、前記管理用データベースから読み出された、前記コンピュータ識別子とコンピュータのメモリ使用量との組み合わせを、コンピュータのメモリ使用量に基づいたソート処理によって並び替えることで前記コンピュータをメモリ使用量の少ない順に順位付けし、
前記仮想マシン順位付け手段は、前記管理用データベースから読み出された、前記仮想マシン識別子と仮想マシンのメモリ使用量との組み合わせを、仮想マシンのメモリ使用量に基づいたソート処理によって並び替えることで前記仮想マシンをメモリ使用量の多い順に順位付けし、
前記第一の移動指示手段は、前記コンピュータ識別子と前記仮想マシン識別子とを組み合わせることによって、仮想マシンの移動指示を行う、
請求項3に記載の情報処理装置。 - 前記第二の移動指示手段は、前記コンピュータの保守作業が終了する毎に、仮想マシンを移動させるための指示を行うことで、前記複数のコンピュータを順次保守作業が可能な状態とする、
請求項1から4の何れか一項に記載の情報処理装置。 - 保守作業の対象となる前記複数のコンピュータについて保守作業が完了した場合に、各コンピュータにおいて動作している仮想マシンを、通常の運用状態において該仮想マシンを動作させたいコンピュータに移動させるための指示を行う第三の移動指示手段を更に備える、
請求項5に記載の情報処理装置。 - 前記第三の移動指示手段は、前記第一の移動指示手段による移動指示前の状態である保守作業前状態において前記合計メモリ使用量が最も少ないコンピュータ上で動作していた1または複数の仮想マシンを除く仮想マシン群を、該仮想マシン群に属する仮想マシンが前記保守作業前状態において動作していたコンピュータに移動させるための指示を行い、該仮想マシン群の移動が完了した後に、前記保守作業前状態において前記合計メモリ使用量が最も少ないコンピュータ上で動作していた前記1または複数の仮想マシンを、該1または複数の仮想マシンが前記保守作業前状態において動作していたコンピュータへ移動させるための指示を行う、
請求項6に記載の情報処理装置。 - 前記第三の移動指示手段は、前記保守作業前状態において前記合計メモリ使用量が最も少ないコンピュータ上で動作していた1または複数の仮想マシンを、直前に保守作業が終了したコンピュータに移動させるための指示を行う、
請求項6に記載の情報処理装置。 - 保守作業の対象となる複数のコンピュータであり各コンピュータにおいて1または複数の仮想マシンが動作するコンピュータに接続された情報処理装置が、
前記コンピュータ毎に、該コンピュータにおいて動作する前記1または複数の仮想マシンによる合計メモリ使用量を取得する情報取得ステップと、
前記情報取得ステップにおいて取得された前記合計メモリ使用量が最も少ないコンピュータ上で動作する前記1または複数の仮想マシンを、他のコンピュータに移動させるための指示を行うことで、該合計メモリ使用量が最も少ないコンピュータに対する保守作業を可能とする第一の移動指示ステップと、
仮想マシンの移動によって保守作業が可能となったコンピュータの保守作業の終了後に、次に保守作業の対象となるコンピュータ上で動作する仮想マシンを、直前に保守作業が終了したコンピュータに移動させるための指示を行うことで、前記次に保守作業の対象となるコンピュータを保守作業が可能な状態とする第二の移動指示ステップと、
を実行する保守作業支援方法。 - 保守作業の対象となる複数のコンピュータであり各コンピュータにおいて1または複数の仮想マシンが動作するコンピュータに接続された情報処理装置を、
前記コンピュータ毎に、該コンピュータにおいて動作する前記1または複数の仮想マシンによる合計メモリ使用量を取得する情報取得手段と、
前記情報取得手段によって取得された前記合計メモリ使用量が最も少ないコンピュータ上で動作する前記1または複数の仮想マシンを、他のコンピュータに移動させるための指示を行うことで、該合計メモリ使用量が最も少ないコンピュータに対する保守作業を可能とする第一の移動指示手段と、
仮想マシンの移動によって保守作業が可能となったコンピュータの保守作業の終了後に、次に保守作業の対象となるコンピュータ上で動作する仮想マシンを、直前に保守作業が
終了したコンピュータに移動させるための指示を行うことで、前記次に保守作業の対象となるコンピュータを保守作業が可能な状態とする第二の移動指示手段と、
として機能させるための保守作業支援用プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011219544A JP2013080346A (ja) | 2011-10-03 | 2011-10-03 | 情報処理装置、保守作業支援方法および保守作業支援用プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011219544A JP2013080346A (ja) | 2011-10-03 | 2011-10-03 | 情報処理装置、保守作業支援方法および保守作業支援用プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013080346A true JP2013080346A (ja) | 2013-05-02 |
Family
ID=48526671
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011219544A Pending JP2013080346A (ja) | 2011-10-03 | 2011-10-03 | 情報処理装置、保守作業支援方法および保守作業支援用プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013080346A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7491650B2 (ja) | 2019-09-25 | 2024-05-28 | インターナショナル・ビジネス・マシーンズ・コーポレーション | クロス・フレーム・ライブ更新のパフォーマンスの増加 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309345A (ja) * | 2005-04-26 | 2006-11-09 | Toshiba Corp | 並列型監視制御システム、同システムの並列型コントローラのファームウェアの更新方法 |
WO2010044131A1 (ja) * | 2008-10-13 | 2010-04-22 | 三菱電機株式会社 | リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法 |
JP2011013822A (ja) * | 2009-06-30 | 2011-01-20 | Nec Corp | 情報システム、制御装置、そのデータ処理方法およびプログラム |
JP2011090594A (ja) * | 2009-10-26 | 2011-05-06 | Hitachi Ltd | サーバ管理装置およびサーバ管理方法 |
JP2011192049A (ja) * | 2010-03-15 | 2011-09-29 | Nec Corp | 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム |
-
2011
- 2011-10-03 JP JP2011219544A patent/JP2013080346A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006309345A (ja) * | 2005-04-26 | 2006-11-09 | Toshiba Corp | 並列型監視制御システム、同システムの並列型コントローラのファームウェアの更新方法 |
WO2010044131A1 (ja) * | 2008-10-13 | 2010-04-22 | 三菱電機株式会社 | リソース割り当て装置及びリソース割り当てプログラム及び記録媒体及びリソース割り当て方法 |
JP2011013822A (ja) * | 2009-06-30 | 2011-01-20 | Nec Corp | 情報システム、制御装置、そのデータ処理方法およびプログラム |
JP2011090594A (ja) * | 2009-10-26 | 2011-05-06 | Hitachi Ltd | サーバ管理装置およびサーバ管理方法 |
JP2011192049A (ja) * | 2010-03-15 | 2011-09-29 | Nec Corp | 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7491650B2 (ja) | 2019-09-25 | 2024-05-28 | インターナショナル・ビジネス・マシーンズ・コーポレーション | クロス・フレーム・ライブ更新のパフォーマンスの増加 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11425194B1 (en) | Dynamically modifying a cluster of computing nodes used for distributed execution of a program | |
AU2017258659B2 (en) | Multi-Cluster Warehouse | |
US10623481B2 (en) | Balancing resources in distributed computing environments | |
US8321558B1 (en) | Dynamically monitoring and modifying distributed execution of programs | |
US9218196B2 (en) | Performing pre-stage replication of data associated with virtual machines prior to migration of virtual machines based on resource usage | |
US10831387B1 (en) | Snapshot reservations in a distributed storage system | |
US9929931B2 (en) | Efficient provisioning and deployment of virtual machines | |
JP5244236B2 (ja) | 計算機システム、方法、およびプログラム | |
US9276987B1 (en) | Identifying nodes already storing indicated input data to perform distributed execution of an indicated program in a node cluster | |
US9436516B2 (en) | Virtual machines management apparatus, virtual machines management method, and computer readable storage medium | |
US8719415B1 (en) | Use of temporarily available computing nodes for dynamic scaling of a cluster | |
JP5577412B2 (ja) | 計算機システム、マイグレーション方法及び管理サーバ | |
US10241836B2 (en) | Resource management in a virtualized computing environment | |
US9164791B2 (en) | Hierarchical thresholds-based virtual machine configuration | |
RU2697700C2 (ru) | Равноправное разделение системных ресурсов в исполнении рабочего процесса | |
US10061781B2 (en) | Shared data storage leveraging dispersed storage devices | |
US10817380B2 (en) | Implementing affinity and anti-affinity constraints in a bundled application | |
US11182217B2 (en) | Multilayered resource scheduling | |
US20180165109A1 (en) | Predictive virtual server scheduling and optimization of dynamic consumable resources to achieve priority-based workload performance objectives | |
JP2012069056A (ja) | クラウドサービス再配置システムと方法およびプログラム | |
JP6692454B2 (ja) | 継続的インテグレーションシステム及びリソース制御方法 | |
Oh et al. | TripS: Automated multi-tiered data placement in a geo-distributed cloud environment | |
JP2017138895A (ja) | 仮想化環境管理システムおよび仮想化環境管理方法 | |
JP5515889B2 (ja) | 仮想マシンシステム、自動マイグレーション方法および自動マイグレーションプログラム | |
JP7177349B2 (ja) | スケジュールプログラム、スケジュール装置およびスケジュール方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150428 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150908 |