JP5758022B1 - ソフトウェア更新方法 - Google Patents
ソフトウェア更新方法 Download PDFInfo
- Publication number
- JP5758022B1 JP5758022B1 JP2014075982A JP2014075982A JP5758022B1 JP 5758022 B1 JP5758022 B1 JP 5758022B1 JP 2014075982 A JP2014075982 A JP 2014075982A JP 2014075982 A JP2014075982 A JP 2014075982A JP 5758022 B1 JP5758022 B1 JP 5758022B1
- Authority
- JP
- Japan
- Prior art keywords
- server
- load balancer
- stage
- servers
- software update
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
【課題】ロードバランサにより負荷分散されるサーバのクラスタを多段・多階層有する複数の系統からなる情報処理システムにおいて、無停止でソフトウェアのバージョンアップ等のメンテナンスを行う。【解決手段】更新対象の系統における各段のサーバが対応するロードバランサからのリクエストを遮断する第1の工程と、各段のサーバが後段のサーバと直接接続する通信経路を確立する第2の工程と、各段のサーバがソフトウェアを更新する第3の工程と、最前段のサーバが外部ロードバランサからのリクエストの遮断を解除する第4の工程と、全ての系統について前記第1〜第4の工程が終了すると、各系統の各段のサーバが内部ロードバランサからのリクエストの遮断を解除する第5の工程と、全ての系統における各段のサーバが前記直接の通信経路を解除し、リクエストを後段のロードバランサに対して送信するようにする第6の工程とを有する。【選択図】図1
Description
本発明は、サーバシステムにおけるソフトウェアの更新技術に関し、特に、ロードバランサにより負荷分散されるサーバ群を複数階層有するサーバシステムにおけるソフトウェア更新方法に適用して有効な技術に関するものである。
近年では、例えば、Amazon web services(登録商標、以下では「AWS」と記載する場合がある)や、Windows Azure(登録商標)、Google(登録商標) App Engineなど、仮想サーバやストレージなどのリソースを提供する商用のクラウドコンピューティングサービス(以下では単に「クラウド」と略称する場合がある)が各種提供されて普及してきている。これらのサービスを利用することにより、自身でサーバ機器等を保持して運用管理することなく、ネットワークを介して必要なリソースを必要なだけ調達して、Webシステムなどの情報処理システムを低コストで柔軟に構築することができる。
これらのサービス上で構築される情報処理システムは、インターネット等を介して大量のリクエストを受け付けるものが多いことから、通常は、同様の処理を行うサーバを複数台並列に設けてクラスタとし、クラスタ内のサーバに対してロードバランサ(クラウドサービスにより提供される場合もある)によりリクエストを振り分けることにより負荷分散が行われる。このとき、これらのクラウドサービスに特有のいわゆるオートスケール機能を利用して、サーバの負荷の増減等に応じてクラスタ内のサーバ台数を適宜増減(スケールアウト/スケールイン)したり、障害等によるサーバの停止に対して同数のサーバを追加起動して一定台数を維持したり等の運用を自動的に行うことができる。
これらのサービス上で構築される情報処理システムでは、さらに可用性を高めて災害対策にも適用できるよう、例えば、AWSではAvailability Zone(以下では「AZ」と記載する場合がある)という機能により、クラウド環境内であっても物理的に異なるロケーションにシステムを構築することで、多系統/多重化の構成とする場合もある。
このようなシステムでは24時間365日に近い運用が行われる場合も多く、ソフトウェアのバージョンアップ等のメンテナンス作業をシステムの稼働中に行う必要がある。この場合、クラウド環境におけるシステムであるか否かに関わらず、通常は、非特許文献1などに記載されているように、メンテナンス対象の系統への通信やリクエストを閉塞させ、他の系統に処理を一斉に寄せる「片寄せ」を行った後、閉塞させた方の系統に対してメンテナンスを行うという作業を、系統毎に計画的に順次繰り返すという手法がとられる。
「ユニシス技報 『エアラインリザベーション』」,日本ユニシス株式会社,2013年12月,Vol.33 No.3 通巻118号,p.148−150
上述したように、通信やリクエストを受け付ける系統が複数ある場合、メンテナンス対象となる系統を順次閉塞させた上でメンテナンスを行うという手法が一般的にとられる。
しかしながら、近年では、上述したようなクラウドサービスにおいて、ロードバランサなども含む仮想サーバを安価、容易かつ柔軟に構築することができるため、例えば、ロードバランサにより負荷分散されるサーバのクラスタを多段・多階層有することで、システムに対する入口だけに限らず、各段・各階層にそれぞれロードバランサが設置されて、各段・各階層においてそれぞれ負荷分散が行われるという構成がとられる場合がある。さらに、上述したAZ機能などを用いて、このような多段・多階層の負荷分散構成が複数系統構成され、これらの系統間での負荷分散が行われる場合もある。
この場合、ある系統についてメンテナンスを行うために、システムの入口において当該系統への通信やリクエストを閉塞しても、片寄せされた他の系統で処理された結果の後続処理が、後段・下位層のクラスタにおいて、負荷分散の結果、閉塞された方の系統に割り振られる場合がある。このような状態では、閉塞して片寄せした効果が全く発揮されず、後段・下位層のサーバに対するソフトウェアの更新等のメンテナンス作業を行うことができない。
そこで本発明の目的は、ロードバランサにより負荷分散されるサーバのクラスタを多段・多階層有する複数の系統からなる情報処理システムにおいて、無停止でソフトウェアのバージョンアップ等のメンテナンスを行うことを可能とするソフトウェア更新方法を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述および添付図面から明らかになるであろう。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、以下のとおりである。
本発明の代表的な実施の形態によるソフトウェア更新方法は、ロードバランサにより負荷分散されるサーバを多段に有する複数の系統からなる情報処理システムにおける、前記各サーバについてのソフトウェア更新方法であって、更新対象の系統における各段のサーバが、それぞれ対応するロードバランサからのリクエストを遮断する第1の工程と、更新対象の系統における最後段を除く各段のサーバが、それぞれ後段のロードバランサに代えて後段のサーバと直接接続する通信経路を確立する第2の工程と、更新対象の系統における各段のサーバが、それぞれソフトウェアを更新する第3の工程と、更新対象の系統における最前段のサーバが、外部ロードバランサからのリクエストの遮断を解除する第4の工程と、全ての系統について前記第1〜第4の工程が終了すると、前記最前段のサーバを除く各系統の各段のサーバが、それぞれ内部ロードバランサからのリクエストの遮断を解除する第5の工程と、全ての系統における最後段を除く各段のサーバが、前記直接の通信経路を解除し、リクエストを後段のロードバランサに対して送信するようにする第6の工程と、を有するものである。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
すなわち、本発明の代表的な実施の形態によれば、ロードバランサにより負荷分散されるサーバのクラスタを多段・多階層有する複数の系統からなる情報処理システムにおいて、無停止でソフトウェアのバージョンアップ等のメンテナンスを行うことが可能となる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。
<概要>
上述したように、近年では、クラウドサービスにおいて、例えば、AWSを例にすると、Amazon EC2(登録商標、以下では単に「EC2」と記載する場合がある)のようなクラウドホスティングサービスにより、ロードバランサ(AWSではElastic Load Balancing機能(以下では「ELB」と記載する場合がある)による)なども含む仮想サーバを安価、容易かつ柔軟に構築することができる。
上述したように、近年では、クラウドサービスにおいて、例えば、AWSを例にすると、Amazon EC2(登録商標、以下では単に「EC2」と記載する場合がある)のようなクラウドホスティングサービスにより、ロードバランサ(AWSではElastic Load Balancing機能(以下では「ELB」と記載する場合がある)による)なども含む仮想サーバを安価、容易かつ柔軟に構築することができる。
従って、クラウド上に構築される情報処理システムが、例えば、ロードバランサにより負荷分散されるサーバのクラスタを多段・多階層有することで、システムに対する入口だけに限らず、各段・各階層にそれぞれロードバランサが設置されて、各段・各階層においてそれぞれ負荷分散が行われるという構成がとられる場合がある。さらに、AWSにおけるAZ機能などを用いて、このような多段・多階層の負荷分散構成が複数系統構成され、これらの系統間での負荷分散が行われる場合もある。
図2は、ロードバランサにより負荷分散される多段・多階層のクラスタを複数系統有するクラウド上の情報処理システムの例について概要を示した図である。図2の例では、図示しないEC2等のクラウドサービス上で、それぞれ同様の情報処理サービスを提供するA系(10a)、B系(10b)の2系統の情報処理システムが構築されている状態を示している。各系統は、例えばAWSにおけるAZ機能により、クラウド環境内であっても物理的に異なるロケーションに構築することができる。各系では、それぞれ、1つ以上のサーバからなるクラスタ構成であるグループ1A(11a)、グループ2A(12a)、グループ3A(13a)、およびグループ1B(11b)、グループ2B(12b)、グループ3B(13b)の3段からなる階層構造を有する。
各段には、それぞれ、各系統にまたがって、各系統のグループに含まれる各サーバに対してリクエストを振り分けて負荷分散を行うロードバランサ14〜16が、ELB等により構築されて設けられている。このような構成では、例えば、グループ2A(12a)のサーバに対しては、ロードバランサ15により、同じ系統のグループ1A(11a)のサーバからのリクエストだけではなく、異なる系統のグループ1B(11b)のサーバからのリクエストも割り振られることで、広く負荷分散が行われる。
ここで、例えば、各段のサーバに導入されているアプリケーションプログラム等のソフトウェアをバージョンアップするなどのメンテナンスを行う場合、従来技術では、システムへの入口のロードバランサ(外部ロードバランサ)であるロードバランサ14から、メンテナンスを行う系統(例えばB系(10b)とする)に対してリクエストが送信されないよう、グループ1B(11b)において通信を閉塞する等により、ロードバランサ14からグループ1B(11b)へのリクエストの送信を遮断する。
しかしながら、図2の例のような構成では、上述したように、グループ1B(11b)に対するリクエストを遮断したとしても、同じ系統の後段のグループ2B(12b)のサーバに対しては、異なる系統の前段のグループ1A(11a)により処理された結果のリクエストが後段のロードバランサ(内部ロードバランサ)であるロードバランサ15を介して割り振られる。このような状態では、1段目(グループ1)においてB系(10b)のグループ1B(11b)を閉塞してA系(10a)に片寄せした効果が全く発揮されず、B系(10b)の各段・各グループのサーバに対するメンテナンス作業を行うことができない。
そこで本発明の一実施の形態であるソフトウェア更新方法は、メンテナンス対象の系統の各段・各階層において、それぞれ閉塞を行うことにより、各段のロードバランサからのリクエストを全て遮断した上で、各段のサーバを直接接続させることで当該系統における独立した通信経路を確立し、メンテナンス作業を行う。これにより、系統全体での片寄せを可能とし、システム全体としては無停止でメンテナンス作業を行うことを可能とする。
<ソフトウェア更新方法>
以下では、図2に示したようなクラウド環境上に構築された情報処理システムにおいて、サーバに導入されたアプリケーションプログラム等のソフトウェアについてのバージョンアップ等の更新処理を行う方法について説明する。図1は、本発明の一実施の形態であるソフトウェアの更新方法の例について概要を示したフローチャートである。また、図3〜図13は、本実施の形態におけるソフトウェア更新方法の各手順での状況について説明する図である。
以下では、図2に示したようなクラウド環境上に構築された情報処理システムにおいて、サーバに導入されたアプリケーションプログラム等のソフトウェアについてのバージョンアップ等の更新処理を行う方法について説明する。図1は、本発明の一実施の形態であるソフトウェアの更新方法の例について概要を示したフローチャートである。また、図3〜図13は、本実施の形態におけるソフトウェア更新方法の各手順での状況について説明する図である。
図1のフローチャートにおいて、まず、対象の情報処理システムにおいてメンテナンスの対象とする系統毎に処理を繰り返すループ処理を開始する(S01)。図2の例ではA系(10a)、B系(10b)の2系統が対象となるが、これより多い系統を有していてもよい。
ループ処理を開始すると、まず、処理対象の系統における更新対象の各サーバについての、クラウドサービスにおけるオートスケール機能をサスペンド(一時停止)させる(S02)。オートスケール機能は、上述したように、サーバの負荷の増減等に応じてクラスタ内のサーバ台数を適宜増減(スケールアウト/スケールイン)したり、障害等によるサーバの停止に対して同数のサーバを追加起動して一定台数を維持したり等の運用を自動的に行う。このオートスケール機能が稼働していると、メンテナンス作業のためにサーバを停止させたりした場合に、クラウドサービス自体が自動的にこれに代わるサーバを新たに起動・追加してしまうため、これを抑止するために事前にサスペンド(一時停止)させておく。例えば、EC2などのクラウドサービスが提供するコマンドやAPI(Application Programming Interface)を利用してサスペンドさせることができる。
図3は、メンテナンス対象の系統として、まずB系(10b)が選択されているものとし、ステップS02を実施して、B系(10b)の各段のグループのサーバについてのオートスケール機能がサスペンドされた状態を示している。この状態では、B系(10b)についてオートスケール機能が働かないのみであり、サービスに係る処理としては正常時と同様にA系(10a)と同内容の処理を行うことができる。
図1に戻り、次に、対象の系統における各段のクラスタにおいて、それぞれ、ロードバランサ(LB)からのリクエストの受け付けを遮断することで閉塞する(S03)。一般的に、ロードバランサは、クラスタ内の各サーバに対して負荷分散させることが可能かどうかを判断するために、定期的に通信を行って生死確認するヘルスチェック機能を有しており、例えば、この機能を積極的に利用して、各段のクラスタ内の各サーバにおいて、ヘルスチェック機能において正常ではないと判断されるような設定を行う。これにより、ロードバランサは、これらのサーバ(クラスタ)に対してリクエストを割り振らなくなる。
なお、ヘルスチェック機能が何をどのようにチェックするかについては、ロードバランサの機能・設定や、システムの構成などにより様々であるが、正常ではないと判断されるような設定としては、例えば、チェック対象とするサーバ上のプログラムやモジュールにおいて、エラー値を応答するように設定やモードを変更したり、チェック対象のプロセスを停止させたりなど、環境に応じて各種の手法を適宜採用することができる。
ステップS03において対象の系統が閉塞され、ロードバランサからのリクエストが遮断されると、対象の系統は他の系統から分離されるが、対象の系統内の各段の間での通信経路も遮断されることになる。そこで、対象の系統のみで独立して動作することを可能とするために、対象の系統の各段の間での直列の通信経路を確立する。まず、各段において、接続先(リクエストの送信先)となる後段のグループ内のサーバのIPアドレス等の宛先情報を取得する(S04)。
クラウド環境では、オートスケール機能によりサーバが起動されるため、各サーバのIPアドレスは、所定の範囲内で割り当てられるものの原則として固定値ではない。従って、例えば、後段の接続先のサーバに現在割り当てられているIPアドレスを、クラウドサービスが提供するコマンドやAPIを実行することにより取得する。なお、後段がクラスタ構成となっており複数のサーバを有する場合には、いずれか1つのサーバを選択するようにしてもよい。
その後、ステップS04で取得したIPアドレスに基づいて、各段のサーバにおけるhostsファイル(/etc/hosts)のエントリを書き換える(S05)。具体的には、後段の内部ロードバランサ(例えば図2の構成ではグループ1B(11b)のサーバに対するロードバランサ15)のFQDN(Fully Qualified Domain Name:完全修飾ドメイン名)にアクセスするためのエントリを、ステップS04で取得した後段の接続先のサーバのIPアドレスに書き換えて、直接アクセスさせるようにする。なお、最後段のクラスタ(例えば図2の構成ではグループ3B(13b))内のサーバについては当該処理は不要である。
その後、対象の系統において稼働確認を行うための外部ロードバランサを設置する(S06)。図4は、ステップS03〜S06を実施して、メンテナンス対象のB系(10b)を閉塞してロードバランサ14〜16からのリクエストを遮断するとともに、グループ1B(11b)およびグループ2B(12b)のhostsファイル18bおよびhostsファイル19bのエントリをそれぞれ書き換えて独立した直列の通信経路を確立し、さらに稼働確認用のロードバランサ17を設置した状態を示している。これにより、メンテナンス対象のB系(10b)は、稼働中のA系(10a)から分離され、ソフトウェアの更新等のメンテナンス作業を行うことが可能となる。
図1に戻り、その後、ソフトウェア更新等のメンテナンス作業を行い(S07)、稼働確認用のロードバランサを用いて稼働確認を行う(S08)。図5は、ステップS07〜S08を実施して、B系(10b)の各段のサーバのソフトウェア等が正常に更新された状態(図中の星印)を示している。
図1に戻り、稼働確認が完了すると、稼働確認用のロードバランサを除去し、外部ロードバランサに対する閉塞のみを解除して、リクエストの受け付けを再開する(S09)。例えば、最前段のクラスタ内のサーバについてのみ、外部ロードバランサからの定期的なヘルスチェックにおいて正常と判断されるような設定を行う(すなわち、ステップS03での設定内容を元に戻す)。これにより、外部ロードバランサは、メンテナンス対象の系統のサーバ(クラスタ)に対してリクエストの割り振りを再開する。
図6は、ステップS09を実施して、ロードバランサ14からB系(10b)に対してもリクエストが割り振られるようになっている状態を示している。なお、この状態では、A系(10a)とB系(10b)との間でソフトウェアのバージョン等が異なる状態となっているが、A系(10a)とB系(10b)との間は分離された状態となっていることから、例えば、ソフトウェアを更新したことによる旧バージョンとのインタフェースの相違などの非互換性に起因する障害については回避することができる。
図1に戻り、次に、メンテナンス対象の系統を他の系統に切り替えて、上記のループ処理を繰り返す(S10、S01)。図7は、メンテナンス対象の系統をA系(10a)に切り替えて、ステップS02によりA系(10a)の各段のクラスタ内のサーバについてオートスケール機能をサスペンドさせた状態を示している。また、図8は、ステップS03〜S06を実施して、メンテナンス対象のA系(10a)を閉塞してロードバランサ14〜16からのリクエストを遮断するとともに、グループ1A(11a)およびグループ2A(12a)のhostsファイル18aおよびhostsファイル19aのエントリをそれぞれ書き換えて独立した直列の通信経路を確立し、さらに稼働確認用のロードバランサ17を設置した状態を示している。また、図9は、ステップS07〜S08を実施して、A系(10a)の各段のサーバのソフトウェア等が正常に更新された状態を示している。
図1に戻り、稼働確認が完了すると、稼働確認用のロードバランサを除去し、外部ロードバランサに対する閉塞のみを解除して、リクエストの受け付けを再開する(S09)。これにより、外部ロードバランサは、メンテナンス対象の系統のサーバ(クラスタ)に対してリクエストの割り振りを再開する。図10は、ロードバランサ14からA系(10a)に対してもリクエストが割り振られるようになっている状態を示している。なお、この状態では、A系(10a)とB系(10b)との間でソフトウェアのバージョン等は同一となっているが、まだA系(10a)とB系(10b)との間は分離された状態となっている。
図1に戻り、ステップS01〜S10の処理により各系統についてのソフトウェアの更新が完了すると、全ての系統について、最前段を除く各段についての内部ロードバランサに対する閉塞を解除して、リクエストを受け付けられるようにする(S11)。図11は、ステップS11を実施して、内部ロードバランサであるロードバランサ15およびロードバランサ16からグループ2A(12a)、2B(12b)およびグループ3A(13a)、3B(13b)に対してもリクエストを割り振ることができるようになっている状態を示している。しかしながら、この状態では、ロードバランサ14から各系統に割り振られたリクエストは、それぞれの系統における独立した直列の通信経路により処理され、各段の内部ロードバランサ(ロードバランサ15、16)からの負荷分散は行われない。
図1に戻り、その後、全ての系統の各段のサーバに対して、ステップS05で書き換えたhostsファイルのエントリをそれぞれ書き換えてのエントリを元の状態に復元する(S12)。具体的には、後段の内部ロードバランサのFQDNにアクセスするためのエントリを復元する。これにより、各系統の各段のクラスタから内部ロードバランサに対してリクエストが送信され、内部ロードバランサから後段のクラスタに対して負荷分散によりリクエストが振り分けられる。図12は、ステップS12を実施して、hostsファイル18a、18bおよびhostsファイル19a、19bのエントリを書き換えたことにより、内部ロードバランサ(ロードバランサ15、16)による負荷分散が再開された状態を示している。
図1に戻り、最後に、各系統の各段のサーバに対して、ステップS02でサスペンドしていたオートスケール機能のサスペンドを全て解除して再開させ(S13)、ソフトウェアの更新処理を終了する。図13は、ステップS13を実施して、各系統の各サーバにおいてソフトウェア等が更新された状態で正常な処理を再開した状態を示している。なお、本実施の形態では、ステップS13で最後に一括してオートスケール機能のサスペンドを解除して再開させているが、各系統の更新処理が終了した都度(例えば、ステップS09の後など)、当該系統におけるサスペンドを解除するようにしてもよい。
上記の一連の処理は、例えば、スクリプトファイル等により、全部もしくは一部を適宜自動化することが可能である。
以上に説明したように、本発明の一実施の形態であるソフトウェア更新方法によれば、メンテナンス対象の系統の各段・各階層において、それぞれ閉塞を行うことにより、各段のロードバランサからのリクエストを全て遮断した上で、各段のサーバを直接接続させることで当該系統における独立した通信経路を確立し、メンテナンス作業を行う。これにより、系統全体での片寄せを可能とし、システム全体としては無停止でメンテナンス作業を行うことが可能となる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は上記の実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記の実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
本発明は、ロードバランサにより負荷分散されるサーバ群を複数階層有するサーバシステムにおけるソフトウェア更新方法に利用可能である。
10a…A系、10b…B系、
11a…グループ1A、11b…グループ1B、12a…グループ2A、12b…グループ2B、13a…グループ3A、13b…グループ3B、14〜17…ロードバランサ、18a、18b、19a、19b…hostsファイル
11a…グループ1A、11b…グループ1B、12a…グループ2A、12b…グループ2B、13a…グループ3A、13b…グループ3B、14〜17…ロードバランサ、18a、18b、19a、19b…hostsファイル
Claims (3)
- ロードバランサにより負荷分散されるサーバを多段に有する複数の系統からなる情報処理システムにおける、前記各サーバについてのソフトウェア更新方法であって、
更新対象の系統における各段のサーバが、それぞれ対応するロードバランサからのリクエストを遮断する第1の工程と、
更新対象の系統における最後段のサーバを除く各段のサーバが、それぞれ後段のロードバランサに代えて後段のサーバと直接接続する通信経路を確立する第2の工程と、
更新対象の系統における各段のサーバが、それぞれソフトウェアを更新する第3の工程と、
更新対象の系統における最前段のサーバが、外部ロードバランサからのリクエストの遮断を解除する第4の工程と、
全ての系統について前記第1〜第4の工程が終了すると、前記最前段のサーバを除く各系統の各段のサーバが、それぞれ内部ロードバランサからのリクエストの遮断を解除する第5の工程と、
全ての系統における前記最後段のサーバを除く各段のサーバが、前記通信経路を解除し、リクエストを後段のロードバランサに対して送信するようにする第6の工程と、
を有する、ソフトウェア更新方法。 - 請求項1に記載のソフトウェア更新方法において、
前記第1の工程を実行する前に、更新対象の系統における各段のサーバについて、オートスケール機能を一時停止させる工程と、
前記第4の工程を実行した後のタイミングで、前記オートスケール機能を再開させる工程と、
をさらに有する、ソフトウェア更新方法。 - 請求項1または2に記載のソフトウェア更新方法において、
前記第2の工程の後、前記第3の工程を実行する際に、前記外部ロードバランサに代えて、前記最前段のサーバに稼働確認用のロードバランサを接続する工程をさらに有する、ソフトウェア更新方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014075982A JP5758022B1 (ja) | 2014-04-02 | 2014-04-02 | ソフトウェア更新方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014075982A JP5758022B1 (ja) | 2014-04-02 | 2014-04-02 | ソフトウェア更新方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5758022B1 true JP5758022B1 (ja) | 2015-08-05 |
JP2015197838A JP2015197838A (ja) | 2015-11-09 |
Family
ID=53887543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014075982A Expired - Fee Related JP5758022B1 (ja) | 2014-04-02 | 2014-04-02 | ソフトウェア更新方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5758022B1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11106454B2 (en) | 2016-04-15 | 2021-08-31 | Nec Corporation | Software update control device, software update control method, and recording medium having software update control program stored thereon |
JP6562093B2 (ja) | 2018-01-23 | 2019-08-21 | 日本電気株式会社 | システム管理装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011096161A (ja) * | 2009-11-02 | 2011-05-12 | Nippon Telegr & Teleph Corp <Ntt> | サービス提供システム、分散処理管理装置、ファイル更新方法およびプログラム |
US20120102480A1 (en) * | 2010-10-20 | 2012-04-26 | Microsoft Corporation | High availability of machines during patching |
-
2014
- 2014-04-02 JP JP2014075982A patent/JP5758022B1/ja not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011096161A (ja) * | 2009-11-02 | 2011-05-12 | Nippon Telegr & Teleph Corp <Ntt> | サービス提供システム、分散処理管理装置、ファイル更新方法およびプログラム |
US20120102480A1 (en) * | 2010-10-20 | 2012-04-26 | Microsoft Corporation | High availability of machines during patching |
Also Published As
Publication number | Publication date |
---|---|
JP2015197838A (ja) | 2015-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10855770B2 (en) | Deploying and managing containers to provide a highly available distributed file system | |
CN109491776B (zh) | 任务编排方法和系统 | |
CN107666525B (zh) | 集群容器ip分配的方法和装置 | |
US9633040B2 (en) | Distributed processing system including a name node and a plurality of data nodes, and method of operating the same | |
US10061619B2 (en) | Thread pool management | |
US8386501B2 (en) | Dynamically splitting multi-tenant databases | |
JP6739938B2 (ja) | クラスタ境界にわたるサービス移行 | |
US10884727B2 (en) | Rolling upgrade of a distributed application | |
US11163669B1 (en) | Measuring test coverage during phased deployments of software updates | |
EP3180692A1 (en) | Fault tolerant federation of computing clusters | |
US20160204977A1 (en) | Method and system for providing distributed management in a networked virtualization environment | |
US20140379921A1 (en) | Resource silos at network-accessible services | |
US9628504B2 (en) | Deploying a security appliance system in a high availability environment without extra network burden | |
CN102932409B (zh) | 一种虚拟机在线迁移的方法和系统 | |
GB2507753A (en) | Dynamic configuration of virtual appliances | |
US20160087833A1 (en) | Server clustering in mobile computing environment | |
US20190026139A1 (en) | Method and apparatus for managing cloud server in cloud environment | |
JP5758022B1 (ja) | ソフトウェア更新方法 | |
US20160226963A1 (en) | Load balancing using predictable state partitioning | |
CN112667711A (zh) | 一种MySQL只读实例管理方法及系统 | |
US9647881B2 (en) | Managing a network connection of a switch | |
US20190250957A1 (en) | System and method of dynamic allocation of hardware accelerator | |
CN114827177A (zh) | 一种分布式文件系统的部署方法、装置及电子设备 | |
US11455181B1 (en) | Cross-network connector appliances | |
KR20210142829A (ko) | 복수의 엣지 디바이스에게 애플리케이션을 배포하는 엣지 컴퓨팅 시스템 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150602 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5758022 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |