JP2020027530A - 管理装置、管理プログラムおよび情報処理システム - Google Patents

管理装置、管理プログラムおよび情報処理システム Download PDF

Info

Publication number
JP2020027530A
JP2020027530A JP2018153052A JP2018153052A JP2020027530A JP 2020027530 A JP2020027530 A JP 2020027530A JP 2018153052 A JP2018153052 A JP 2018153052A JP 2018153052 A JP2018153052 A JP 2018153052A JP 2020027530 A JP2020027530 A JP 2020027530A
Authority
JP
Japan
Prior art keywords
cluster
information processing
server
maintenance
virtual machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018153052A
Other languages
English (en)
Inventor
智也 小西
Tomoya Konishi
智也 小西
剛啓 喜田
Takahiro Kida
剛啓 喜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2018153052A priority Critical patent/JP2020027530A/ja
Publication of JP2020027530A publication Critical patent/JP2020027530A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stored Programmes (AREA)

Abstract

【課題】メンテナンス作業にかかる時間を短縮することを課題とする。【解決手段】管理装置は、複数の情報処理装置によって構成されるクラスタのリソース情報と、クラスタ内で稼働する各仮想マシンのリソース情報の合計値とを取得する。管理装置は、クラスタのリソース情報が各仮想マシンのリソース情報の合計値よりも多くなるように、複数の情報処理装置の中から、クラスタの冗長ポリシーに基づき設定される設定台数の情報処理装置を選択してクラスタから切り離す。管理装置は、クラスタから切り離された情報処理装置上で稼働する仮想マシンを、クラスタ内の他の情報処理装置に移動させ、クラスタから切り離された情報処理装置に対してメンテナンス作業を実行する。【選択図】図2

Description

本発明は、管理装置、管理プログラムおよび情報処理システムに関する。
複数台のサーバを1つのシステムとみせるクラスタリング技術が普及している。クラスタリング技術を用いたシステムは、リソースの活用や冗長化等を行うために、数十台から数百台以上の規模のデータセンター事業者から、数台規模の中小企業まで、幅広く導入されている。
近年では、クラスタリング技術を用いたサーバ群のシステムに対して、システムを構成する個々のサーバのBIOS(Basic Input/Output System)/BMC(Baseboard Management Controller)等のファームウェアのアップデートなどを行うメンテナンス技術として、システムの全サーバの完全停止をしないローリングアップデートが知られている。
特開平11−353196号公報 特開2011−81588号公報
しかしながら、上記技術では、ローリングアップデートによってシステムを起動しながらメンテナンスを行う際でも、クラスタを構成しているサーバ1台ずつの起動と停止を繰り返すことになるので、数十台を超えるサーバ群のシステムでは、メンテナンスが完了するまでに時間がかかり過ぎる。また、サーバ1台を保守するためには、メンテナンス対象のサーバ上で起動しているサービスや仮想マシン等をクラスタ上の別のサーバへ移動する煩雑な作業が発生するので、メンテナンス時間がさらに長くなる。
一つの側面では、メンテナンス作業にかかる時間を短縮することができる管理装置、管理プログラムおよび情報処理システムを提供することを目的とする。
第1の案では、管理装置は、複数の情報処理装置によって構成されるクラスタのリソース情報と、前記クラスタ内で稼働する各仮想マシンのリソース情報の合計値とを取得する取得部を有する。管理装置は、前記クラスタのリソース情報が前記各仮想マシンのリソース情報の合計値よりも多くなるように、前記複数の情報処理装置の中から、前記クラスタの冗長ポリシーに基づき設定される設定台数の情報処理装置を選択して前記クラスタから切り離すクラスタ制御部を有する。管理装置は、前記クラスタから切り離された情報処理装置上で稼働する仮想マシンを、前記クラスタ内の他の情報処理装置に移動させ、前記クラスタから切り離された情報処理装置に対してメンテナンス作業を実行する実行部を有する。
一実施形態によれば、メンテナンス作業にかかる時間を短縮することができる。
図1は、実施例1にかかるクラスタシステムの全体構成例を示す図である。 図2は、実施例1にかかる管理装置の機能構成を示す機能ブロック図である。 図3は、固定VMリストDBに記憶される情報の例を示す図である。 図4は、VM位置情報DBに記憶される情報の例を示す図である。 図5は、サーバリストDBに記憶される情報の例を示す図である。 図6は、サーバリソース情報DBに記憶される情報の例を示す図である。 図7は、VMリソース情報DBに記憶される情報の例を示す図である。 図8は、具体例におけるメンテナンス開始時の初期状態を説明する図である。 図9は、具体例における1回目のメンテナンス処理を説明する図である。 図10は、具体例における1回目のメンテナンス完了時を説明する図である。 図11は、具体例における2回目のメンテナンス処理を説明する図である。 図12は、具体例における2回目のメンテナンス完了時を説明する図である。 図13は、具体例における3回目のメンテナンス処理を説明する図である。 図14は、具体例における3回目のメンテナンス完了時を説明する図である。 図15は、事前処理の流れを示すシーケンス図である。 図16は、メンテナンス処理の流れを示すシーケンス図である。 図17は、メンテナンス処理におけるリソース不足を説明する図である。 図18は、メンテナンス処理におけるリソース不足時の処理を説明する図である。 図19は、ハードウェア構成例を説明する図である。
以下に、本願の開示する管理装置、管理プログラムおよび情報処理システムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかるクラスタシステムの全体構成例を示す図である。図1に示すように、クラスタシステムは、保守端末20、クラスタ30、管理装置50を有し、各装置がインターネットなどのネットワークを介して相互に通信可能に接続されるシステムである。
保守端末20は、クラスタシステムを管理およびメンテナンスを行う保守者が利用するコンピュータ装置であり、例えばサーバ、パーソナルコンピュータ、スマートフォンなどである。保守端末20は、ディスプレイなどの表示部に各種情報を表示する。また、保守端末20は、保守者から各種指示の入力を受け付けて管理装置50に出力する。
クラスタ30は、サーバ1からサーバN(Nは自然数)の複数のサーバをホストサーバとしてクラスタリング技術で統合し、システム全体として処理性能を向上させたクラスタサービスを提供する。クラスタ30を構成する各サーバ上では、各サーバの物理リソースを利用して複数のVM(Virtual Machine:仮想マシン)が稼働している。
管理装置50は、保守端末20からの指示に応じて、クラスタ30のメンテナンスを実行するコンピュータ装置であり、例えばサーバ、パーソナルコンピュータ、スマートフォンなどである。
このようなシステムにおいてクラスタ30の各サーバのメンテナンスを実行する場合、管理装置50は、複数のサーバによって構成されるクラスタ30のリソース情報と、クラスタ30内で稼働する各VMのリソース情報の合計値とを取得する。続いて、管理装置50は、クラスタ30のリソース情報が各VMのリソース情報の合計値よりも多くなるように、複数のサーバの中から、クラスタ30の冗長ポリシーによって設定される台数のサーバを、クラスタ30から切り離す。そして、管理装置50は、クラスタ30から切り離されたサーバ上で稼働するVMを、クラスタ30内の他のサーバに移動させ、クラスタ30から切り離されたサーバに対してメンテナンス作業を実行する。
例えば、管理装置50は、冗長ポリシーで制限される2台のサーバが停止しても、全VMをクラスタ30内で稼働可能か否かを判定する。そして、管理装置50は、稼働可能と判定した場合、サーバ1上で稼働するVMとサーバ2で稼働するVMとを、リソースに余裕があるサーバ5などの移動させた後、サーバ1とサーバ2のシャットダウンを行う。その後、管理装置50は、サーバ1とサーバ2のソフトウェアのバージョンアップなどを実行し、完了した場合に、サーバ1とサーバ2を起動する。そして、管理装置50は、メンテナンス未完了の他のサーバについても同様に実行する。
このようにして、管理装置50は、起動停止含むメンテナンス対象のサーバを自動で複数選択してメンテナンスを実施し、自動で再起動を含めたメンテナンスを実施することで、作業期間および作業工数を短縮し、メンテナンス作業にかかる時間を短縮する。
[機能構成]
図2は、実施例1にかかる管理装置50の機能構成を示す機能ブロック図である。図2に示すように、管理装置50は、通信部51、記憶部52、制御部60を有する。
通信部51は、クラスタシステムの他の装置の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部51は、メンテナンス開始の指示を保守端末20から受信する。通信部51は、クラスタ30内の各サーバに起動停止などの指示を送信し、クラスタ30内の各VMに移動(マイグレーション)などの指示を送信する。また、通信部51は、各サーバや各VMから処理完了の通知などを受信する。
記憶部52は、データやプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。記憶部52は、固定VMリストDB53、VM位置情報DB54、冗長ポリシーDB55、サーバリストDB56、サーバリソース情報DB57、VMリソース情報DB58を記憶する。
固定VMリストDB53は、使用ライセンス上他のサーバへ移動することが許可されていないなどの理由により、別のサーバへ移動することができない固定されたVM(以下では、固定VMと記載する場合がある)に関する情報を記憶するデータベースである。ここで記憶される情報は、保守者により設定登録することもでき、後述するように管理装置50が自動で生成することもできる。
図3は、固定VMリストDB53に記憶される情報の例を示す図である。図3に示すように、固定VMリストDB53は、「固定VM、サーバ」を対応付けて記憶する。ここで記憶される「固定VM」は、移動できないVMを識別する識別子であり、「サーバ」は、固定VMが稼働するサーバを識別する識別子である。図3の例では、サーバ1上で固定VMである管理VM#1が稼働し、サーバ2上で固定VMである管理VM#2が稼働していることを示す。なお、VMが稼働することの具体的な一例は、サーバの物理リソースであるプロセッサやメモリなどの一部が割当てられた仮想プロセッサや仮想メモリなどを利用して、VMが各種サービスを提供することなどを示す。
VM位置情報DB54は、クラスタ30内で稼働するVMの初期位置情報を記憶するデータベースである。具体的には、VM位置情報DB54は、クラスタ30が構成されて各VMが実行された初期状態のVMの位置情報を記憶する。ここで記憶される情報は、保守者により設定登録することもでき、管理装置50がクラスタ30内の各サーバのメモリ等を参照して自動で生成することもできる。
図4は、VM位置情報DB54に記憶される情報の例を示す図である。図4に示すように、VM位置情報DB54は、VMが稼働するサーバを識別する識別子が設定される「サーバ」と、サーバ上で稼働するVMを識別する識別子が設定される「VM」とを対応付けて記憶する。図4の例では、VM1とVM2がサーバ1上で稼働し、VM3とVM4とVM5とがサーバ2上で稼働することを示す。なお、VM位置情報DB54は、初期位置情報に限らず、VMの移動(マイグレーション)に追従して、VMの現在位置すなわちVMが現時点で稼働するサーバの識別子を記憶することもできる。
冗長ポリシーDB55は、クラスタの冗長ポリシー、言い換えると仮想ストレージの冗長ポリシーによって設定される、同時に再起動が可能なサーバの台数を記憶するデータベースである。例えば、冗長ポリシーDB55は、「台数」として「2」などを記憶する。この例の場合、クラスタ内のサーバのうち2台までは同時に再起動、すなわちメンテナンスが可能であることを示す。なお、ここで設定される情報は、クラスタ内の冗長性が担保される範囲で設定され、RAID(Redundant Arrays of Inexpensive Disks)構成等により管理装置50が自動で設定することもできる。例えば、クラスタ30がRAID5で構成されている場合には、2台が設定され、クラスタ30がRAID1で構成されている場合には、1台が設定される。
サーバリストDB56は、メンテナンス対象のサーバの一覧を記憶するデータベースである。ここで記憶される情報は、保守者により設定登録することもでき、管理装置50がクラスタ30内のクラスタリングを実現するアプリケーションなどに問い合わせることにより自動で生成することもできる。
図5は、サーバリストDB56に記憶される情報の例を示す図である。図5に示すように、サーバリストDB56は、サーバを識別する識別子が設定される「サーバ」として、「サーバ1、サーバ2、サーバ3、・・・」などを記憶する。ここで記憶される情報は、クラスタ30を構成するサーバのうちサーバ1、サーバ2、サーバ3などがメンテナンス対象であることを示す。
サーバリソース情報DB57は、クラスタ30を構成する各サーバの物理リソースおよび使用リソースに関する情報を記憶するデータベースである。ここで記憶される情報は、保守者により設定登録することもでき、管理装置50がクラスタ30内の各サーバから自動で生成することもできる。
図6は、サーバリソース情報DB57に記憶される情報の例を示す図である。図6に示すように、サーバリソース情報DB57は、「サーバ、物理リソース(CPU(Central Processing Unit)、メモリ)、使用率(CPU、メモリ)」を対応付けて記憶する。ここで記憶される「サーバ」は、サーバを識別する識別子であり、「物理リソース」は、サーバが有する物理リソースを示し、「使用率」は、サーバが有する物理リソースのうち使用されているリソースの割合を示す。
図6の例では、サーバリソース情報DB57は、「サーバ、物理リソース(CPU、メモリ)、使用率(CPU、メモリ)」の一例として、「サーバ=サーバ1、物理リソース(CPU=4GHz、メモリ=8GB)、使用率(CPU=2/4、メモリ=6/8)」を記憶する。これは、サーバ1が物理リソースとして、4GHzのCPUと8GBのメモリとを有し、4GHzのうち1GHzと8GBのうち6GBとが使用中であることを示す。
また、サーバリソース情報DB57は、「サーバ、物理リソース(CPU、メモリ)、使用率(CPU、メモリ)」の一例として、「サーバ=クラスタ、物理リソース(CPU=20、メモリ=40)、使用率(CPU=8/20、メモリ=32/40)」を記憶する。これは、クラスタ30のシステムリソースを示す情報である。具体的には、クラスタ30は、物理リソースとして、合計20GHzのCPUと合計40GBのメモリとを有し、そのうち8GHzと32GBが使用中であることを示す。なお、システムリソースの物理リソースのCPUの数は、各サーバのCPU数の合計であり、システムリソースの物理リソースのメモリの数は、各サーバのメモリ数の合計である。なお、メモリのことをMEMと記載する場合がある。
VMリソース情報DB58は、クラスタ30内で稼働する各VMが使用するリソースに関する情報を記憶するデータベースである。ここで記憶される情報は、管理装置50がクラスタ30内の各サーバから自動で生成することもできる。図7は、VMリソース情報DB58に記憶される情報の例を示す図である。図7に示すように、VMリソース情報DB58は、「VM、リソース(CPU、メモリ)」を対応付けて記憶する。
ここで記憶される「VM」は、VMを識別する識別子である。「リソース(CPU)」は、VMが使用しているCPUの情報であり、「リソース(メモリ)」は、VMが使用しているメモリの情報である。図7の例では、VM1が、1GHzのCPU(プロセッサ)と4GBのメモリを使用していることを示す。
制御部60は、入出力部61とメイン処理部62とを有し、管理装置50全体を司る処理部であり、例えばプロセッサなどである。なお、入出力部61とメイン処理部62は、例えばプロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例などである。
入出力部61は、保守端末20から各種情報を受け付けて管理装置50に設定する処理部である。具体的には、入出力部61は、対象システム内の固定VMの登録、メンテナンスの実行指示や後述する処理部によって特定されたメンテナンスを可能とする方法の提案などを出力する。
例えば、入出力部61は、固定VMに関する情報を受け付けて固定VMリストDB53に登録し、クラスタ30内の各VMの初期位置情報を受け付けてVM位置情報DB54に登録する。また、入出力部61は、同時再起動可能なサーバ台数を受け付けて冗長ポリシーDB55に登録し、クラスタ30を構成するサーバに関する情報を受け付けてサーバリストDB56に登録する。また、入出力部61は、VMのシャットダウンの指示や各サーバのメンテナンス完了の通知を保守端末20に送信する。
メイン処理部62は、事前処理部63とメンテナンス実行部64を有し、サーバのメンテナンスに関する事前作業や各種作業などを実行する処理部である。
事前処理部63は、保守端末20からメンテナンス開始の指示を受け付けた場合に、メンテナンスを行うための事前処理を実行し、メンテナンスの実行可否を判定する処理部である。具体的には、事前処理部63は、メンテナンスの開始に先立って、事前に固定VMの確認、ストレージの冗長ポリシーの確認、クラスタ30を構成している全サーバの物理リソースの確認、全VMのリソースの確認を行い、メンテナンスが可能か算出する。そして、事前処理部63は、システムのリソース使用状態からメンテナンスが可能かを判断し、実行可能な場合は、メンテナンス実行部64に処理開始を出力し、メンテナンスできない要因がある場合は、入出力部61を介してユーザに対処方法を提案する。
例えば、事前処理部63は、固定VMリストDB53を参照して固定VMを特定し、クラスタ30にアクセスして、固定VMが稼働中か否かを判定する。そして、事前処理部63は、固定VMが稼働中である場合、入出力部61を介して、固定VMの停止(シャットダウン)を保守者に要求する。なお、事前処理部63は、固定VMを利用するユーザ等によって許可されている場合には、保守者を介することなく、固定VMを停止することもできる。
また、事前処理部63は、冗長ポリシーDB55を参照して、同時再起動可能な台数「2」を取得し、サーバリソース情報DB57を参照して、全サーバの物理リソース(B)を取得し、VMリソース情報DB58を参照して、各VMの使用リソース(C)を取得する。そして、事前処理部63は、2台のサーバをシャットダウンさせたときのクラスタ30内の物理リソース(D)を算出し、物理リソース(D)の範囲で各VMの使用リソース(C)が確保できるか否かを判定する。
より詳細には、事前処理部63は、サーバリソース情報DB57からシステムリソースとして、CPU使用率(8/20)とメモリ使用率(32/40)を取得する。そして、事前処理部63は、クラスタ30内のサーバ1からサーバNのうちいずれかのサーバ2台を停止したとしても、VMに割り当てるための8個のCPUと32個目のメモリとが確保可能か否かを判定する。ここで、事前処理部63は、取得したシステムリソースに固定VMのリソースが含まれている場合は、固定VMのリソースを除外したシステムリソースを算出して上記判定を行うことができる。
そして、事前処理部63は、VMのリソースが確保可能な場合は、メンテナンス実行部64に処理開始を指示する。一方、事前処理部63は、VMのリソースの確保が不可能な場合は、メンテナンス不可能である旨とVMのシャットダウンを要求する旨を含むメッセージを保守端末20に出力する。その後、保守者によるリソース確保のためのVM停止が実行された後、事前処理部63は、サーバリソース情報DB57やVMリソース情報DB58から、停止されたVMのリソースを削除して、使用リソース等を更新する。そして、事前処理部63は、上記判定を再度実行する。
メンテナンス実行部64は、メンテナンスに伴うVMの自動停止、VMの移動、サーバの再起動などを実行する処理部である。具体的には、メンテナンス実行部64は、サーバリソース情報DB57を参照して、各サーバの使用率(使用リソース)を確認し、使用率が少ないサーバの順番を特定する。その後、メンテナンス実行部64は、決定したサーバを同時メンテナンス可能な台数分並行してメンテナンスを実施し、メンテナンス実施後、対象のサーバをサーバリストDB56のサーバリストから削除する。メンテナンス実行部64は、このような処理をサーバリストがゼロになるまで繰り返す。なお、メンテナンス実行部64は、サーバリストDB56を参照して、リストに登録される各サーバへアクセスを行い、リソース使用率を確認することもできる。
例えば、メンテナンス実行部64は、サーバリストにあるサーバ3とサーバ4をメンテナンス対象に決定すると、サーバ3やサーバ4にアクセスして、サーバ3上で稼働するVM6とサーバ4上で稼働するVM7を特定する。また、メンテナンス実行部64は、サーバリソース情報DB57を参照して、リソースに空きがあるサーバ1とサーバ5を特定する。そして、メンテナンス実行部64は、サーバ3上のVM6をサーバ5に移動させ、サーバ4上のVM7をサーバ1に移動させる。移動完了後、メンテナンス実行部64は、サーバ3とサーバ4をクラスタ30から切り離す。
そして、メンテナンス実行部64は、サーバ3とサーバ4に予め指定されたメンテナンスを実行したり、保守者によるメンテナンス作業の完了を待ったりする。なお、メンテナンス実行部64は、必要に応じて、サーバ3とサーバ4をシャットダウンや再起動させることもできる。
その後、メンテナンス実行部64は、メンテナンスが完了すると、サーバ3とサーバ4をクラスタ30に接続してクラスタ30を再構成する。そして、メンテナンス実行部64は、サーバリストに登録されている他のサーバについても同様の手法で、メンテナンスを実行する。
なお、クラスタ30からの切り離しや再構成は、一般的なクラスタリング技術を採用することができるので、詳細な説明は省略する。また、VMの移動は、一般的なライブマイグレーション技術を採用することができる。例えば、メンテナンス実行部64は、該当VMが使用するメモリのプレコピーやストップアンドコピーなどを実行して、VMのマイグレーションを実行する。
[具体例]
次に、図8から図14を用いて、メンテナンスの自動実行の具体例を説明する。ここでは、固定VMはすでに停止しており、各サーバの物理リソースの使用リソースは、固定VMを除くリソースが管理されているものとする。また、メンテナンスが可能であると判定済みとする。
(初期状態)
図8は、具体例におけるメンテナンス開始時の初期状態を説明する図である。図8の(a)に示すように、サーバリストDB56が記憶するサーバリストには、メンテナンス対象として、サーバ1からサーバ5が登録されている。また、冗長ポリシーDB55には、「2」台が登録されている。また、VM位置情報DB54には、VMの初期の位置情報「サーバ、VM」として、「サーバ1、VM1,VM2」、「サーバ2、VM3,VM4,VM5」、「サーバ3、VM6」、「サーバ4、VM7」、「サーバ5、VM8」が登録されている。
クラスタ30内のサーバ、VM、リソースの初期状態は、図8の(b)に示される。具体的には、サーバ1は、物理リソースとして4GHzのプロセッサと8GBのメモリとを有し、1GHzのCPUと2GBのメモリを使用するVM1と、1GHzのCPUと1GBのメモリを使用するVM2とを稼働させており、4GHzのプロセッサのうちの2GHzと8GBのメモリのうちの3GBが使用中である。
サーバ2は、物理リソースとして4GHzのプロセッサと8GBのメモリとを有し、それぞれ1GHzのCPUと1GBのメモリを使用するVM3とVM4とVM5とを稼働させており、4GHzのプロセッサのうちの3GHzと8GBのメモリのうちの3GBが使用中である。サーバ3は、物理リソースとして4GHzのプロセッサと8GBのメモリとを有し、1GHzのCPUと2GBのメモリを使用するVM6を稼働させており、4GHzのプロセッサのうちの1GHzと8GBのメモリのうちの2GBが使用中である。
サーバ4は、物理リソースとして4GHzのプロセッサと8GBのメモリとを有し、1GHzのCPUと4GBのメモリを使用するVM7を稼働させており、4GHzのプロセッサのうちの1GHzと8GBのメモリのうちの4GBが使用中である。サーバ5は、物理リソースとして4GHzのプロセッサと8GBのメモリとを有し、1GHzのCPUと4GBのメモリを使用するVM8を稼働させており、4GHzのプロセッサのうちの1GHzと8GBのメモリのうちの4GBが使用中である。
したがって、クラスタ30全体のシステムリソースとしては、20GHzのCPUと40GBのメモリとを有し、そのうちの8GHzと16GBとが使用中となる。
(1回目のメンテナンス)
図8に示した初期状態において、管理装置50は、メンテナンス対象のサーバを特定し、自動でメンテナンスを実行する。図9は、具体例における1回目のメンテナンス処理を説明する図である。
図9に示すように、管理装置50のメイン処理部62は、サーバ1からサーバ5のうち、冗長ポリシーに設定される2台のメンテナンス対象のサーバを特定する。ここでは、メイン処理部62は、サーバリストの中からCPU使用率が少ないサーバ3、4、5を特定し、サーバ3、4、5のうちメモリ使用率が少ないサーバ3を選択する。また、メイン処理部62は、残りのサーバ4とサーバ5のうち、サーバリストの上位であるサーバ4を選択する。この結果、メイン処理部62は、メンテナンス対象としてサーバ3とサーバ4を特定する。
続いて、メイン処理部62は、メンテナンス対象のサーバ上で稼働するVMをリソースに空きがある任意のサーバに移動させる。例えば、メイン処理部62は、メンテナンス対象のサーバ3上で稼働するVM6をサーバ5に移動させ、メンテナンス対象のサーバ4上で稼働するVM7をサーバ1に移動させる。その後、サーバ3とサーバ4に対してメンテナンスが実行される。なお、2台のサーバが停止中であることから、クラスタ30全体のシステムリソースとしては、12GHzのCPUと24GBのメモリとを有し、そのうちの8GHzと16GBとが使用中となる。
メンテナンスの実行完了後の状態を図10に示す。図10は、具体例における1回目のメンテナンス完了時を説明する図である。図10の(a)に示すように、メイン処理部62は、メンテナンスが完了したサーバ3とサーバ4をサーバリストから削除する。また、図10の(b)に示すように、サーバ3とサーバ4は、メンテナンス完了後であることから、物理リソースの使用率は0である。サーバ1は、サーバ4から移動したVM7を新たに稼働させているので、4GHzのプロセッサのうちの3GHzと8GBのメモリのうちの7GBが使用中である。同様に、サーバ5は、サーバ3から移動したVM6を新たに稼働させているので、4GHzのプロセッサのうちの2GHzと8GBのメモリのうちの6GBが使用中である。
なお、サーバ2には変化がなく、システムリソースとしても、VMが移動しただけで全体としては変化がないので、初期状態と同様、20GHzのCPUのうちの8GHzと40GBのメモリのうちの16GBとが使用中である。また、サーバ3とサーバ4は、メンテナンス完了後に、クラスタ30に再度組み込まれる。
(2回目のメンテナンス)
図10に示した初期状態において、管理装置50は、次のメンテナンス対象のサーバを特定し、自動でメンテナンスを実行する。図11は、具体例における2回目のメンテナンス処理を説明する図である。
図11に示すように、管理装置50のメイン処理部62は、サーバリストの中から冗長ポリシーに設定される2台のメンテナンス対象のサーバを特定する。ここでは、メイン処理部62は、サーバリストに登録されるサーバ1、2、5のうちCPU使用率が少ないサーバ5を選択する。また、メイン処理部62は、残りのサーバ1とサーバ2についてはCPU使用率が同じであることから、メモリ使用率が少ないサーバ2を選択する。この結果、メイン処理部62は、メンテナンス対象としてサーバ2とサーバ5を特定する。
続いて、メイン処理部62は、メンテナンス対象のサーバ上で稼働するVMをリソースに空きがある任意のサーバに移動させる。例えば、メイン処理部62は、メンテナンス対象のサーバ2上で稼働するVM3、VM4、VM5をサーバ3に移動させ、メンテナンス対象のサーバ5上で稼働するVM5、VM6をサーバ4に移動させる。その後、サーバ2とサーバ5に対してメンテナンスが実行される。なお、2台のサーバが停止中であることから、クラスタ30全体のシステムリソースとしては、12GHzのCPUと24GBのメモリとを有し、そのうちの8GHzと16GBとが使用中となる。
メンテナンスの実行完了後の状態を図12に示す。図12は、具体例における2回目のメンテナンス完了時を説明する図である。図12の(a)に示すように、メイン処理部62は、メンテナンスが完了したサーバ2とサーバ5をサーバリストから削除する。また、図12の(b)に示すように、サーバ2とサーバ5は、メンテナンス完了後であることから、物理リソースの使用率は0である。サーバ3は、サーバ2から移動したVM3、VM4、VM5を新たに稼働させているので、4GHzのプロセッサのうちの3GHzと8GBのメモリのうちの3GBが使用中である。同様に、サーバ4は、サーバ5から移動したVM6とVM8を新たに稼働させているので、4GHzのプロセッサのうちの2GHzと8GBのメモリのうちの6GBが使用中である。
なお、サーバ1には変化がなく、システムリソースとしても、VMが移動しただけで全体としては変化がないので、初期状態と同様、20GHzのCPUのうちの8GHzと40GBのメモリのうちの16GBとが使用中である。また、サーバ2とサーバ5は、メンテナンス完了後に、クラスタ30に再度組み込まれる。
(3回目のメンテナンス)
図11に示した初期状態において、管理装置50は、次のメンテナンス対象のサーバを特定し、自動でメンテナンスを実行する。図13は、具体例における3回目のメンテナンス処理を説明する図である。
図13に示すように、管理装置50のメイン処理部62は、サーバリストの中から冗長ポリシーに設定される2台のメンテナンス対象のサーバを特定する。ここでは、メイン処理部62は、サーバリストにサーバが登録されていないので、メンテナンス対象としてサーバ1のみを特定する。
続いて、メイン処理部62は、メンテナンス対象のサーバ上で稼働するVMをリソースに空きがある任意のサーバに移動させる。例えば、メイン処理部62は、メンテナンス対象のサーバ1上で稼働するVM1、VM2、VM7をサーバ2に移動させる。その後、サーバ2とサーバ5に対してメンテナンスが実行される。なお、1台のサーバが停止中であることから、クラスタ30全体のシステムリソースとしては、16GHzのCPUと32GBのメモリとを有し、そのうちの8GHzと16GBとが使用中となる。
メンテナンスの実行完了後の状態を図12に示す。図14は、具体例における3回目のメンテナンス完了時を説明する図である。図14の(a)に示すように、メイン処理部62は、メンテナンスが完了したサーバ1をサーバリストから削除する。また、図14の(b)に示すように、サーバ1は、メンテナンス完了後であることから、物理リソースの使用率は0である。サーバ2は、サーバ1から移動したVM1、VM2、VM7を新たに稼働させているので、4GHzのプロセッサのうちの3GHzと8GBのメモリのうちの7GBが使用中である。
なお、サーバ3、4、5には変化がなく、システムリソースとしても、VMが移動しただけで全体としては変化がないので、初期状態と同様、20GHzのCPUのうちの8GHzと40GBのメモリのうちの16GBとが使用中である。また、サーバ1は、メンテナンス完了後に、クラスタ30に再度組み込まれる。
その後、メイン処理部62は、サーバリストにサーバが登録されていないことから、メンテナンスが完了したと判定する。また、メイン処理部62は、VMの初期位置情報に基づいて、メンテナンス完了後の図14の状態から図8の状態になるように、VMを移動させることもできる。具体的には、メイン処理部62は、サーバ2で稼働するVM1、VM2をサーバ1に移動させ、サーバ2で稼働するVM7をサーバ4に移動させ、サーバ3で稼働するVM3、VM4、VM5をサーバ2に移動させ、サーバ4で稼働するVM6とVM8それぞれをサーバ3とサーバ5に移動させる。
[事前処理の流れ]
図15は、事前処理の流れを示すシーケンス図である。図15に示すように、管理装置50の入出力部61は、保守端末20から固定VMの入力を受け付けると(S101とS102)、固定VMを固定VMリストDB53に設定(登録)する(S103とS104)。
続いて、管理装置50の事前処理部63は、メンテナンス開始が指示されると、固定VMのリストを固定VMリストDB53から取得し(S105とS106)、クラスタ30内の各サーバにアクセスし、各固定VMの起動状態を取得する(S107とS108)。
ここで、事前処理部63は、起動状態の固定VMが存在する場合(S109:Yes)、入出力部61を介して、固定VMの停止を保守端末20に要求する(S110とS111)。そして、保守端末20は、クラスタ30内の該当サーバにアクセスして、固定VMの停止を実行する(S112とS113)。この指示を受信した該当サーバは、固定VMを停止し(S114)、停止が完了したことを示す停止完了通知を保守端末20に送信する(S115とS116)。そして、保守端末20は、入出力部61を介して、固定VMの停止完了通知を事前処理部63に通知する(S117とS118)。
この停止完了通知を受信した事前処理部63は、冗長ポリシーである同時再起動可能なサーバ数を冗長ポリシーDB55から取得する(S119とS120)。続いて、事前処理部63は、サーバの物理リソースおよび使用リソースを含むシステムリソースの情報をサーバリソース情報DB57から取得し(S121とS122)、各VMのリソース情報をVMリソース情報DB58から取得する(S123とS124)。
その後、事前処理部63は、クラスタ30内のサーバのうち同時再起動可能なサーバ数を除いた残りのサーバの物理リソース量から、各VMのリソース量を減算した未使用リソース量を算出する(S125)。そして、事前処理部63は、未使用リソース量が0以上か否かによって、メンテナンスが可能か否かを判定する(S126)。つまり、事前処理部63は、クラスタ30内のサーバのうち同時再起動可能なサーバ数を除いた残りのサーバの物理リソースで、VMのリソースが確保できるか否かによって、メンテナンスが可能か否かを判定する。
ここで、事前処理部63は、メンテナンスが可能ではないと判定した場合(S126:No)、入出力部61を介して、保守端末20にリソース解放を要求する(S127とS128)。続いて、保守端末20は、クラスタ30に対して、使用していなアプリ等を終了させたり、不要なVMを停止させたりするリソース解放を実行する(S129とS130)。
そして、クラスタ30内では、保守端末20からの指示に応じて、該当VMの停止などが実行されてリソースを解放し(S131)、完了通知を保守端末20に送信する(S132とS133)。
この完了通知を受信した保守端末20は、入出力部61を介して、事前処理部63にリソース解放完了通知を送信する(S134とS135)。その後、事前処理部63は、メンテナンス実行部64に、メンテナンス処理の実行開始を指示する(S136)。
なお、S109において、事前処理部63は、起動状態の固定VMが存在しない場合(S109:No)、S110からS118を実行することなく、S119を実行する。また、S127において、事前処理部63は、メンテナンスが可能であると判定した場合(S126:Yes)、S127からS135を実行することなく、S136を実行する。
[メンテナンス処理の流れ]
図16は、メンテナンス処理の流れを示すシーケンス図である。なお、ここでは、一例として、メンテナンス時にサーバを停止させる例を用いて説明するが、これに限定されるものではない。
図16に示すように、管理装置50のメンテナンス実行部64は、メンテナンス実行が指示されると、サーバリストをサーバリストDB56から取得する(S201とS202)。続いて、メンテナンス実行部64は、冗長ポリシーである同時再起動可能なサーバ数を冗長ポリシーDB55から取得する(S203とS204)。
そして、メンテナンス実行部64は、メンテナンス対象のサーバを決定する(S205)。例えば、メンテナンス実行部64は、サーバリストから、CPU使用率およびメモリ使用率の少ない順に同時再起動可能台数分のサーバを選択する。
続いて、メンテナンス実行部64は、メンテナンス対象に選択されたサーバに、メンテナンス対象であることを通知する(S206とS207)。すると、該当サーバは、メンテナンスモードに変換し、変換が完了したことをメンテナンス実行部64に通知する(S208とS209)。このとき、メンテナンス実行部64は、メンテナンス対象のサーバ上で稼働するVMの移動指示を送信し、該当サーバのVMの移動を実行する。なお、メンテナンスモードの一例としては、稼働中のVMを停止または移動させて、サーバの停止等が実行可能な状態を示す。
そして、メンテナンス実行部64は、メンテナンスモードに変更対象に選択されたサーバに、サーバ停止を指示する(S210とS211)。すると、該当サーバは、シャットダウンして停止する(S212)。その後、保守者等によるメンテナンスが実行され(S213)、メンテナンスが完了すると、メンテナンス完了通知がメンテナンス実行部64に送信される(S214とS215)。なお、メンテナンス完了通知は、クラスタ30内のいずれかのサーバから送信することもでき、クラスタ内の管理VMなどから送信することもでき、保守端末20が送信することもできる。
そして、メンテナンス実行部64は、メンテナンス完了を確認すると(S216)、停止させたサーバに起動指示を送信する(S217とS218)。すると、該当サーバは、Wake−ON−Lanなどを用いた遠隔操作によりサーバを起動し、起動が完了すると、起動完了を通知する(S219とS220)。
その後、メンテナンス実行部64は、サーバの起動を確認すると(S221)、サーバリストを更新する(S222)。すなわち、メンテナンス実行部64は、メンテナンスが完了したサーバをサーバリストから削除する。
そして、メンテナンス実行部64は、サーバリストにサーバが残っており、メンテナンス未完了のサーバが存在する場合(S223:Yes)、S205以降を繰り返す。一方、メンテナンス実行部64は、サーバリストにサーバが残っておらず、メンテナンス未完了のサーバが存在しない場合(S223:No)、入出力部61にメンテナンス完了通知を送信する(S224とS225)。そして、入出力部61は、メンテナンス完了通知を保守端末20に送信する(S226とS227)。
[効果]
上述したように、管理装置50は、クラスタリング技術を用いたサーバ群であるシステムのファームウェアのアップデートなどのメンテナンス時に、事前確認において高度なスキルやノウハウを用いずに、メンテナンス作業を開始することができる。また、管理装置50は、事前に空のサーバを用意する必要がなくなり、複数台のサーバを同時に保守・メンテナンスを可能となるため、メンテナンス作業時間の短期化を実現し、結果として保守作業のコスト削減を実現できる。
一般的に、クラスタリング技術を用いたシステムを構成しているサーバの台数、種類が多いほど、工数や人為的ミスの発生する可能性が高くなる。これに対して、管理装置50は、起動停止含む保守を行うサーバを自動で複数選択し、自動で再起動を含めたメンテナンスを同時に実施することで、コストダウンと短納期化を実現するとともに、人為的なミスも削減できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[冗長ポリシーの変更]
例えば、管理装置50は、メンテナンス処理時にリソース不足が発生した場合、冗長ポリシーを動的に変更して、メンテナンス処理を継続することができる。図17は、メンテナンス処理におけるリソース不足を説明する図である。図18は、メンテナンス処理におけるリソース不足時の処理を説明する図である。
図17に示すように、使用可能なシステム全体の物理リソースが、CPUが20GHzでメモリが40GBであり、VMが使用している使用リソースが、CPUが8GHzでメモリが32GBの状態で、冗長ポリシー2台であったとする。
そして、管理装置50は、サーバ1からサーバ5はいずれも同じ物理リソース(4GHz、8GB)であることから、任意の2台をメンテナンス対象とする。ところが、管理装置50は、2台のサーバをクラスタ30から切り離したときの物理リソースがCPU12GHz、メモリ24GBとなり、VMが使用している使用リソース(CPU8GHz、メモリ32GB)より少なくなるので、メンテナンスが実行できないと判定する。
このとき、図18に示すように、管理装置50は、冗長ポリシーを設定値「2」よりも小さい「1」に変更する。この結果、管理装置50は、1台のサーバをクラスタ30から切り離したときの物理リソースがCPU16GHzでメモリ32GBとなり、VMが使用している使用リソース(CPU8GHz、メモリ32GB)より多くなるので、メンテナンスが実行可能と判定し、実施例1によるメンテナンスを実行することができる。このように、管理装置50は、冗長化が担保できる範囲内で、クラスタ30から切り離すサーバ台数を動的に制御することができるので、冗長化を維持しつつ、安全にメンテナンスを実行することができる。
[固定VMの検出]
管理装置50は、固定VMを自動で検出することができる。例えば、各サーバはクラスタ30に属している共有ストレージと、クラスタ30に属していないローカルストレージを保有している。一般的にローカルストレージにはオペレーティングシステム等が格納され、共有ストレージには仮想マシン等のデータが格納される。ただし、仮想マシンを移動させないために、ローカルストレージ上に仮想マシンを配置する場合がある。このため、管理装置50の事前処理部63は、各サーバ上の各仮想マシンのデータが保有されているストレージを確認し、ローカルストレージにある仮想マシンを固定VMと自動で判定することができる。
[メンテナンス]
上記実施例で説明したメンテナンスの一例としては、保守者が手動で行うハードディスク交換などに限らず、管理装置50が主導で実行できるファームウェア等へのパッチ適用、ファームウェア等のアップデート、サーバリブートなどを含む。また、管理装置は、サーバに限らずルータなどのネットワーク機器に対しても上記自動メンテナンスを実行することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値などは、あくまで一例であり、任意に変更することができる。なお、リソースの数字等、実施例で説明した各数値例は一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図19は、ハードウェア構成例を説明する図である。図19に示すように、管理装置50は、通信装置50a、HDD(Hard Disk Drive)50b、メモリ50c、プロセッサ50dを有する。また、図19に示した各部は、バス等で相互に接続される。
通信装置50aは、ネットワークインタフェースカードなどであり、他のサーバや他の端末との通信を行う。HDD50bは、図2に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ50dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD50b等から読み出してメモリ50cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、管理装置50が有する各処理部と同様の機能を実行する。具体的には、プロセッサ50dは、入出力部61とメイン処理部62等と同様の機能を有するプログラムをHDD50b等から読み出す。そして、プロセッサ50dは、入出力部61とメイン処理部62等と同様の処理を実行するプロセスを実行する。
このように管理装置50は、プログラムを読み出して実行することで管理方法を実行する情報処理装置として動作する。また、管理装置50は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、管理装置50によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
20 保守端末
30 クラスタ
50 管理装置
51 通信部
52 記憶部
53 固定VMリストDB
54 VM位置情報DB
55 冗長ポリシーDB
56 サーバリストDB
57 サーバリソース情報DB
58 VMリソース情報DB
60 制御部
61 入出力部
62 メイン処理部
63 事前処理部
64 メンテナンス実行部

Claims (8)

  1. 複数の情報処理装置によって構成されるクラスタのリソース情報と、前記クラスタ内で稼働する各仮想マシンのリソース情報の合計値とを取得する取得部と、
    前記クラスタのリソース情報が前記各仮想マシンのリソース情報の合計値よりも多くなるように、前記複数の情報処理装置の中から、前記クラスタの冗長ポリシーに基づき設定される設定台数の情報処理装置を選択して前記クラスタから切り離すクラスタ制御部と、
    前記クラスタから切り離された情報処理装置上で稼働する仮想マシンを、前記クラスタ内の他の情報処理装置に移動させ、前記クラスタから切り離された情報処理装置に対してメンテナンス作業を実行する実行部と
    を有することを特徴とする管理装置。
  2. 前記クラスタ制御部は、メンテナンス作業が完了した作業済みの情報処理装置を前記クラスタに組み込んで前記クラスタを再構成し、前記クラスタのリソース情報が前記各仮想マシンのリソース情報の合計値よりも多くなるように、前記クラスタを構成する前記複数の情報処理装置のうち前記作業済みの情報処理装置を除く情報処理装置の中から、前記設定台数以下の情報処理装置を選択して、前記クラスタから切り離し、
    前記実行部は、前記クラスタから切り離された情報処理装置上で稼働する仮想マシンを、前記クラスタ内の他の情報処理装置に移動させ、前記クラスタから切り離された情報処理装置に対してメンテナンス作業を実行することを特徴とする請求項1に記載の管理装置。
  3. 前記クラスタ制御部は、前記クラスタを構成する複数の情報処理装置それぞれに対するメンテナンス作業が完了するまで、前記クラスタから切り離す情報処理装置の選択と、メンテナンス作業が完了した情報処理装置を組み込む前記クラスタの再構成とを順次繰り返すことを特徴とする請求項2に記載の管理装置。
  4. 前記実行部は、前記クラスタを構成する複数の情報処理装置それぞれに対するメンテナンス完了後の各仮想マシンの稼働位置を、初期状態の位置に戻すように、前記各仮想マシンの移動を実行することを特徴とする請求項3に記載の管理装置。
  5. 前記各仮想マシンのうち他の情報処理装置に移動できない固定仮想マシンを、前記メンテナンス作業の開始前に停止させる停止部をさらに有することを特徴とする請求項1に記載の管理装置。
  6. 前記停止部は、前記各仮想マシンのうち、前記クラスタに属していない情報処理装置のローカルストレージを利用する仮想マシンを前記固定仮想マシンとして検出することを特徴とする請求項5に記載の管理装置。
  7. コンピュータに、
    複数の情報処理装置によって構成されるクラスタのリソース情報と、前記クラスタ内で稼働する各仮想マシンのリソース情報の合計値とを取得し、
    前記クラスタのリソース情報が前記各仮想マシンのリソース情報の合計値よりも多くなるように、前記複数の情報処理装置の中から、前記クラスタの冗長ポリシーに基づき設定される設定台数の情報処理装置を選択して前記クラスタから切り離し、
    前記クラスタから切り離された情報処理装置上で稼働する仮想マシンを、前記クラスタ内の他の情報処理装置に移動させ、前記クラスタから切り離された情報処理装置に対してメンテナンス作業を実行する
    を実行させることを特徴とする管理プログラム。
  8. クラスタシステムと管理装置とを含む情報処理システムにおいて、
    前記クラスタシステムは、
    前記クラスタシステムを構成する複数の情報処理装置と、前記複数の情報処理装置それぞれのリソースを用いて稼働する各仮想マシンとを有し、
    前記管理装置は、
    前記クラスタシステムのリソース情報と、前記各仮想マシンのリソース情報の合計値とを取得する取得部と、
    前記クラスタシステムのリソース情報が前記各仮想マシンのリソース情報の合計値よりも多くなるように、前記複数の情報処理装置の中から、前記クラスタシステムの冗長ポリシーに基づき設定される設定台数の情報処理装置を選択して前記クラスタシステムから切り離すクラスタ制御部と、
    前記クラスタシステムから切り離された情報処理装置上で稼働する仮想マシンを、前記クラスタシステム内の他の情報処理装置に移動させ、前記クラスタシステムから切り離された情報処理装置に対してメンテナンス作業を実行する実行部と、を有する
    ことを特徴とする情報処理システム。
JP2018153052A 2018-08-16 2018-08-16 管理装置、管理プログラムおよび情報処理システム Pending JP2020027530A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018153052A JP2020027530A (ja) 2018-08-16 2018-08-16 管理装置、管理プログラムおよび情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018153052A JP2020027530A (ja) 2018-08-16 2018-08-16 管理装置、管理プログラムおよび情報処理システム

Publications (1)

Publication Number Publication Date
JP2020027530A true JP2020027530A (ja) 2020-02-20

Family

ID=69620270

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018153052A Pending JP2020027530A (ja) 2018-08-16 2018-08-16 管理装置、管理プログラムおよび情報処理システム

Country Status (1)

Country Link
JP (1) JP2020027530A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977876B2 (en) 2021-04-30 2024-05-07 Hitachi, Ltd. Update device, update method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283210A (ja) * 1997-04-01 1998-10-23 Hitachi Ltd 仮想計算機システム間の仮想計算機移動制御方式
WO2008126221A1 (ja) * 2007-03-29 2008-10-23 Fujitsu Limited ソフトウェア修正管理プログラム、ソフトウェア修正管理装置、およびソフトウェア修正管理方法
WO2010122709A1 (ja) * 2009-04-23 2010-10-28 日本電気株式会社 若化処理装置、若化処理システム、コンピュータプログラムおよびデータ処理方法
JP2011081588A (ja) * 2009-10-07 2011-04-21 Nec Corp コンピュータシステム、及びコンピュータシステムのメンテナンス方法
JP2014206805A (ja) * 2013-04-11 2014-10-30 株式会社三菱東京Ufj銀行 制御装置
JP2015531091A (ja) * 2012-10-04 2015-10-29 株式会社日立製作所 システム管理方法、及び計算機システム
WO2017130030A1 (en) * 2016-01-29 2017-08-03 Telefonaktiebolaget Lm Ericsson (Publ) Rolling upgrade with dynamic batch size

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10283210A (ja) * 1997-04-01 1998-10-23 Hitachi Ltd 仮想計算機システム間の仮想計算機移動制御方式
WO2008126221A1 (ja) * 2007-03-29 2008-10-23 Fujitsu Limited ソフトウェア修正管理プログラム、ソフトウェア修正管理装置、およびソフトウェア修正管理方法
WO2010122709A1 (ja) * 2009-04-23 2010-10-28 日本電気株式会社 若化処理装置、若化処理システム、コンピュータプログラムおよびデータ処理方法
JP2011081588A (ja) * 2009-10-07 2011-04-21 Nec Corp コンピュータシステム、及びコンピュータシステムのメンテナンス方法
JP2015531091A (ja) * 2012-10-04 2015-10-29 株式会社日立製作所 システム管理方法、及び計算機システム
JP2014206805A (ja) * 2013-04-11 2014-10-30 株式会社三菱東京Ufj銀行 制御装置
WO2017130030A1 (en) * 2016-01-29 2017-08-03 Telefonaktiebolaget Lm Ericsson (Publ) Rolling upgrade with dynamic batch size

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
田中 敦樹 他: "仮想化基盤システム(NFV)におけるコンピュートサーバの異機種混在の課題", 電子情報通信学会技術研究報告, vol. 第117巻 第114号, JPN6022011228, 29 June 2017 (2017-06-29), pages 45 - 50, ISSN: 0004880968 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977876B2 (en) 2021-04-30 2024-05-07 Hitachi, Ltd. Update device, update method and program

Similar Documents

Publication Publication Date Title
US11023143B2 (en) Node interconnection apparatus, resource control node, and server system
JP6195958B2 (ja) アプリケーションサーバとクラスタ化されたデータベースとを接続するためのシステムおよび方法
US11550603B2 (en) Method and system for sizing a cloud desktop fabric
EP3117322B1 (en) Method and system for providing distributed management in a networked virtualization environment
US8078824B2 (en) Method for dynamic load balancing on partitioned systems
CN109347681B (zh) 分布式系统中的自更新功能
US8041976B2 (en) Power management for clusters of computers
US10127080B2 (en) Dynamically controlled distributed workload execution
US8244827B2 (en) Transferring a logical partition (‘LPAR’) between two server computing devices based on LPAR customer requirements
US8635318B1 (en) Message broadcast protocol which handles configuration changes in a cluster of virtual servers
JP2015518997A (ja) 統合型ストレージ/vdiプロビジョニング方法
US8316110B1 (en) System and method for clustering standalone server applications and extending cluster functionality
JP6421470B2 (ja) 仮想マシンマイグレーションプログラム、仮想マシンマイグレーションシステムおよび仮想マシンマイグレーション方法
US9665163B2 (en) Distributed power management with partial suspend mode for distributed storage systems
JP2020027530A (ja) 管理装置、管理プログラムおよび情報処理システム
US10461991B1 (en) Dynamic replication peering
US11295018B1 (en) File system modification
CN106325972B (zh) 一种虚拟机管理方法及网络设备
US8074109B1 (en) Third-party voting to select a master processor within a multi-processor computer
US9645636B2 (en) Centralized power management with partial suspend mode for distributed storage systems
US11392423B2 (en) Method for running a quorum-based system by dynamically managing the quorum
CN114115703A (zh) 裸金属服务器在线迁移方法以及系统
WO2012054023A1 (en) Computer system with computers that perform network boots
WO2022041839A1 (zh) 裸金属服务器在线迁移方法以及系统
US11994965B2 (en) Storage system, failover control method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220927