JP6075882B2 - 分散処理システム、および、分散処理方法 - Google Patents

分散処理システム、および、分散処理方法 Download PDF

Info

Publication number
JP6075882B2
JP6075882B2 JP2014009567A JP2014009567A JP6075882B2 JP 6075882 B2 JP6075882 B2 JP 6075882B2 JP 2014009567 A JP2014009567 A JP 2014009567A JP 2014009567 A JP2014009567 A JP 2014009567A JP 6075882 B2 JP6075882 B2 JP 6075882B2
Authority
JP
Japan
Prior art keywords
server
virtual machine
address
resources
access
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014009567A
Other languages
English (en)
Other versions
JP2015138385A (ja
Inventor
康次郎 玉置
康次郎 玉置
長尾 仁
仁 長尾
勝 真田
勝 真田
健一 眞瀬
健一 眞瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2014009567A priority Critical patent/JP6075882B2/ja
Publication of JP2015138385A publication Critical patent/JP2015138385A/ja
Application granted granted Critical
Publication of JP6075882B2 publication Critical patent/JP6075882B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Computer And Data Communications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、分散処理システム、および、分散処理方法に関する。
従来、分散処理を行うN+1台の冗長構成(N+1構成)のサーバからなるシステムにおいて、システム内のN台の稼働サーバのファイル更新を行う際には、システム内に用意された予備用のサーバを利用しつつ、N台の稼働サーバを1台ずつサービス系から切り離し、ファイル更新を行っていた。このようなファイル更新方法によれば、サービスに影響を与えることなくシステム内の各サーバのファイル更新を行うことができる。しかし、この方法は、システム内のサーバを1台ずつファイル更新する必要があるので、システム内のすべてのサーバのファイル更新に時間がかかるという問題があった。
このような問題を解決するため、例えば、特許文献1に記載の技術を用いて、システムに、追加リソースとしてさらにN+1台のファイル更新用のサーバを用意し、このN+1台のサーバで平行してファイル更新を行う方法が考えられる。このような方法によれば、サービスに影響を与えることなく、短時間でシステム内の各サーバのファイル更新を行うことができる。
特開2011−96161号公報
しかし、特許文献1に記載の技術の場合、システム内にファイル更新のため、N+1台のサーバを追加リソースとして用意しなければならないという問題がある。そこで、本発明は、前記した問題を解決し、追加リソースを用意しなくても、サービスに影響を与えることなく、速やかにファイル更新を行う手段を提供することを目的とする。
前記した課題を解決し、目的を達成するために、本発明は、サーバそれぞれが、稼働サーバとして動作し、かつ、各サーバ合計で1台のサーバ分のリソースを予備リソースとして確保しているN+1構成の分散処理システムであって、1以上の仮想マシンを備える前記サーバと、外部装置からのアクセスの振り分け先となる仮想マシンのアドレスを示したアドレス情報と、前記アクセスを受け付けたとき、前記アドレス情報を参照して、前記アクセス先の仮想マシンを選択する振り分け部とを備える振り分け装置と、前記サーバおよび前記振り分け装置を制御する管理装置とを有し、前記管理装置は、前記サーバそれぞれのファイル更新を行うとき、前記サーバそれぞれに、新たな仮想マシンを作成させ、前記新たな仮想マシンに対しアドレス割り当てを行う仮想マシン制御部と、前記新たな仮想マシンに対し当該サーバの余剰リソースからリソースの割り当てを行うリソース割り当て部と、前記新たな仮想マシンそれぞれに対しファイル更新処理を行うファイル更新部と、前記振り分け装置の閉塞および閉塞解除を行う振り分け装置制御部と、前記振り分け装置の閉塞後、前記アドレス情報における前記アクセスの振り分け先となる仮想マシンのアドレスを、前記新たな仮想マシンのアドレスに更新するアドレス情報更新部と、備えることを特徴とする。
本発明によれば、分散処理システムにおいて、追加リソースを用意しなくても、サービスに影響を与えることなく、速やかにファイル更新を行うことができる。
図1は、分散処理システムの構成の一例を示す図である。 図2は、図1の管理装置の処理概要を説明する図である。 図3は、図1の管理装置の処理概要を説明する図である。 図4は、図1のアドレス情報の一例を示す図である。 図5は、図1の管理装置の処理手順を示すフローチャートである。 図6は、図1の分散処理システムにおける稼働中のVMおよびファイル更新の対象となる新たなVMのリソースの割り当てイメージを説明する図である。 図7は、管理プログラムを実行するコンピュータを示す図である。
以下、本発明の実施形態について説明する。なお、この実施形態によりこの発明が限定されるものではない。
まず、図1を用いて本発明の実施形態の分散処理システムの概要を説明する。この分散処理システムはいわゆるN+1構成のシステムであり、N+1台のサーバ10と、ロードバランサ(振り分け装置)20と、端末30と、管理装置40と、試験装置50とを備える。
サーバ10群はそれぞれ、稼働サーバであり、端末30からのアクセスに基づく処理を実行する。このサーバ10は仮想マシン(VM)およびVMを制御するホストOS(Operating System)を備える。なお、図1において、サーバ10はサーバ10A〜10Cの3台しか描いていないが、実際にはN+1台のサーバ10が用意される。
ロードバランサ20は、インターネット等のネットワーク経由で端末30からのアクセスを受け付けると、このアクセスをいずれかのサーバ10のVMに振り分ける。
管理装置40は、サーバ10およびロードバランサ20の制御を行う。管理装置40は、例えば、サーバ10のファイル更新を行なったり、ロードバランサ20に対し、端末30からのアクセスの振り分け先の変更を指示したりする。この管理装置40の詳細は後記する。試験装置50は、サーバ10に対し試験を実行する。例えば、試験装置50はサーバ10のファイル更新が行われたとき、当該サーバ10が正常に動作するか否かを確認するための試験を行う。
次に、図2および図3を用いて、管理装置40の処理の概要を説明する。前記したとおり分散処理システム(システム)はN+1構成のシステムであり、各サーバ10は合計で1台のサーバ分のリソース量となる予備リソースが確保される。つまり、各サーバ10には1台分のサーバのリソースをN+1で割った分のリソースが予備リソースとして確保される。例えば、サーバ10内のVMがフル稼働した場合でも、この予備リソースは確保しておく。ロードバランサ20にはVIP(Virtual IP address)が設定され、サーバ10のVMにはRIP(Real IP address)が設定されている。ロードバランサ20は、VIPとRIPとを対応付けた情報(後記するアドレス情報21)を保持しており、VIP宛のアクセスを受け付けると、アドレス情報21を参照して、このアクセスをいずれかのVMに振り分ける。
このようなシステムにおいて、管理装置40は、各サーバ10のファイル更新を行う際には、各サーバ10内に現在稼働中(図2において「本番」と記載)のVM1(VM1A,1B,1C,…)とは別に新たなVM2(VM2A,2B,2C,…)を用意する。つまり、更新予定のVM2を作成させる。また、管理装置40は、この新たなVM2それぞれに対する新たなRIPの割り当て、リソースの割り当てを行う。そして、この新たなVMに対しファイル更新を行う。その後、管理装置40は、ロードバランサ20に対し、VIPに対応するRIPを新たなVM2のRIPに変更させ、VIP宛のアクセスをVM2へ振り分ける。これにより、端末30からのVIP宛のアクセスは、VM1からVM2に切り替えられることになる。
つまり、管理装置40は、図3に示すように、システム内のN+1台のサーバの事前準備(更新用のファイルの準備等)を行った後、N+1台のサーバ10それぞれに対し、新たなVMを作成させ、ファイル更新を実行する。システム内のサーバ10はそれぞれが平行してファイル更新を行う。その後、管理装置40は、N+1台のサーバ10の新たなVMへの試験、バックアップ等を行った後、LB(ロードバランサ)20の切り替えを行う。具体的には、LB20の閉塞後、N+1台分のサーバ10(実際にはVM)のアクセス先を切り替え、LB20の閉塞の解除を行う。ここで、各サーバ10に新たなVMを作成させるときは、当該サーバの余剰リソース(いずれのVMにも割り当てられていないリソース)からリソースを割り当てる。つまり、各サーバ10には予備リソースが所定量確保されているので、稼働中のVMがリソースをフルで使っていた場合でも、この予備リソースからリソースを割り当てることができる。したがって、システムは、追加リソースを用意しなくても、サービスに影響を与えることなく、速やかにファイル更新を行うことができる。
次に、図1に戻って、システムのロードバランサ20および管理装置40を詳細に説明する。
まず、ロードバランサ20を説明する。ロードバランサ20は、前記したとおり、ネットワーク経由で端末30等の外部装置からのアクセスを受け付けると、このアクセスをいずれかのサーバ10のVMに振り分ける。ロードバランサ20は、アドレス情報21と、振り分け部22とを備える。
アドレス情報21は、外部装置(例えば、端末30)からのアクセスの振り分け先となるVMのアドレス(IPアドレス)を示した情報である。このIPアドレスは、例えば、前記したRIPが用いられる。例えば、アドレス情報21は、図4に示すように、ロードバランサ20のVIPに対し、当該VIP宛のアクセスの振り分け先となるVMのRIPが示される。図4の左側に示すアドレス情報21において、VIP「aaa」宛のアクセスの振り分け先は、RIP「RIP1A,RIP1B,RIP1C,…」のいずれかのアドレスのVMであることを示す。このアドレス情報21は、管理装置40により更新される。
振り分け部22は、外部装置(例えば、端末30)からのアクセスの振り分けを行う。具体的には、振り分け部22は、外部装置からのアクセスを受け付けたとき、アドレス情報21を参照して、アクセス先のVMを選択し、この選択したVMへアクセスさせる。
管理装置40は、入出力部41と、通信部42と、制御部43と、記憶部44とを備える。
入出力部41は、外部装置等から、当該管理装置40に対する様々な指示入力や設定情報の入力を受け付ける。例えば、入出力部41は、外部装置等から、各サーバ10のファイル更新の指示入力を受け付けたり、ロードバランサ20に関する設定情報の入力を受け付けたりする。この入出力部41は、外部装置とのデータ入出力を行う入出力インタフェースにより実現される。
通信部42は、ロードバランサ20やサーバ10等の外部装置との間でデータ通信を行う。例えば、通信部42は、ロードバランサ20内のアドレス情報21の更新に関する情報を送信したり、各サーバ10に対しファイル更新の指示を送信したり、各サーバ10のバックアップデータを受信したりする。この通信部42は、所定の通信プロトコルにより外部装置との間でデータ通信を行う通信インタフェースにより実現される。
制御部43は、管理装置40全体の制御を司り、仮想マシン制御部431と、リソース割り当て部432と、ファイル更新部433と、ロードバランサ制御部434と、アドレス情報更新部435と、バックアップ部436とを備える。この制御部43は、管理装置40の備えるCPU(Central Processing Unit)によるプログラム実行処理や、専用のハードウェアにより実現される。
仮想マシン制御部431は、通信部42経由で、各サーバ10のVMの制御を行う。具体的には、仮想マシン制御部431は、入出力部41経由で各サーバ10のファイル更新の指示入力を受け付けると、各サーバ10それぞれに、ファイル更新用の新たなVMを作成させ、この新たなVMに対しアドレス(例えば、RIP)の割り当てを行う。また、例えば、新たなVMの稼働開始後、入出力部41経由で各サーバ10から旧VMの削除の指示入力を受け付けると、各サーバ10それぞれに、旧VMを削除させる。
リソース割り当て部432は、各サーバ10のVMへのリソースの割り当てを行う。例えば、リソース割り当て部432は、各サーバ10に新たなVMが作成されると、この新たなVMへのリソースの割り当てを行う。この新たなVMへのリソースの割り当ては、この新たなVMが作成されたサーバ10において、稼働中のVMに割り当てられていないリソース(余剰リソース)から割り当てられる。なお、前記したとおり、システム内の各サーバ10には1台分のサーバのリソースをN+1で割った分のリソースが予備リソースとして確保されている。よって、サーバ10で稼働中のVMが利用可能なリソースをフルで使っていた場合でも、この予備リソースを用いて新たなVMへのリソース割り当てが可能である。
ファイル更新部433は、新たなVMそれぞれに対しファイル更新処理を行う。具体的には、ファイル更新部433は、サーバ10に対し、当該サーバ10で稼働中のVMを、当該VMで作成された新たなVMへコピーさせ、この新たなVMに対しファイル更新処理を行う。
ロードバランサ制御部434は、ロードバランサ20の閉塞、および、閉塞の解除を行う。例えば、ロードバランサ制御部434は、ファイル更新部433により新たなVMへのファイル更新処理が行われた後、ロードバランサ20を閉塞し、アドレス情報更新部435によりロードバランサ20のアドレス情報の更新が行われた後、閉塞を解除する。
アドレス情報更新部435は、ロードバランサ制御部434がロードバランサ20を閉塞した後、ロードバランサ20のアドレス情報21におけるVMのアドレスを、新たなVMのアドレスに更新する。これにより、例えば、図4に示すように、ロードバランサ20のアドレス情報21におけるVIP「aaa」に対するVMのアドレス(RIP)が、旧VMのアドレス「RIP1A,RIP1B,RIP1C,…」から、新たなVMのアドレス「RIP2A,RIP2B,RIP2C,…」に変更される。そして、ロードバランサ20の閉塞解除後、ロードバランサ20が端末30からのアクセスを受け付けると、この更新後のアドレス情報21をもとに端末30からのアクセスの振り分けを行う。つまり、端末30からのアクセスはファイル更新がされた新たなVMへ振り分けされる。
バックアップ部436は、各サーバ10の新たなVMのバックアップ処理を行う。具体的には、各サーバ10の新たなVMへのファイル更新後、この新たなVMに対し試験装置50が試験を実行し、正常な動作が確認されると、この新たなVMそれぞれのバックアップを取る。バックアップデータは、記憶部44の所定領域に格納される。
記憶部44は、新たなVMのバックアップデータや、システム内のサーバ10やVMのアドレス、それぞれのサーバ10やVMへの割り当てリソース、ロードバランサ20の設定情報等を記憶する。この記憶部44は、管理装置40の備えるHDD(Hard Disk Drive)やRAM(Random Access Memory)等の記憶手段により実現される。
次に、図5を用いて、管理装置40の処理手順を説明する。まず、管理装置40の仮想マシン制御部431がシステムのファイル更新の指示入力を受け付けると(S1)、システムのN+1台のサーバ10の更新ファイルの準備を行う(S2)。そして、仮想マシン制御部431は、各サーバ10に、新たなVMの作成を指示する(S3)。また、仮想マシン制御部431は、新たなVMへのリソースの割り当てを行う(S4)。さらに、仮想マシン制御部431は、新たなVMへのアドレス割り当てを行う(S5)。
次に、ファイル更新部433は新たなVMそれぞれに対しファイル更新を指示する(S6)。例えば、ファイル更新部433は、更新ファイルを各サーバ10へ送信する。そして、各サーバ10は、自サーバで稼働中のVMを新たなVMへコピーした後、この更新ファイルによるファイル更新を行う。
その後、管理装置40が試験装置50に対し、各サーバ10の新たなVM(ファイル更新後のVM)への試験の実施指示を行い(S7)、新たなVMが正常に動作することを確認すると、バックアップ部436が新たなVMのバックアップ処理を行う(S8)。
その後、ロードバランサ制御部434がロードバランサ20を閉塞し(S9)、アドレス情報更新部435がロードバランサ20のアドレス情報21の更新を行う(S10)。つまり、アドレス情報更新部435は、アドレス情報21におけるVMのアドレスを、新たなVMのアドレスに変更する。
その後、ロードバランサ制御部434はロードバランサ20の閉塞を解除する(S11)。これにより、ロードバランサ20は、更新後のアドレス情報21を参照して、アクセスの振り分けを行うので、新たなVMへのアクセスが振り分けられる。
次に、図6を用いて、管理装置40の処理の具体例を交えながら、各サーバ10における稼働中のVMおよびファイル更新の対象となる新たなVMのリソースの割り当てイメージを説明する。ここでは、サーバ10の稼働中のVMをVM1とし、ファイル更新の対象となる新たなVMをVM2とする。
まず、管理装置40が、システム内のN+1台のサーバ10それぞれのVM1が稼働した状態で、VM2の作成およびリソースの割り当てを指示する(S21)。次に、試験装置50がサーバ10それぞれのVM2への事前試験を実施した後(S22)、ロードバランサ20の閉塞と、N+1台分のVM2への振り分け設定を行う(S23)。つまり、管理装置40は、ロードバランサ20を閉塞し、アドレス情報21におけるアクセスの振り分け先をVM2のアドレスに変更する。その後、管理装置40はロードバランサ20の閉塞を解除する。その後、管理装置40は、N+1台のサーバ10それぞれに対しVM1の削除を指示する(S24)。これによりVM2が稼働することになる。
ここで、サーバ10内のVMの実効上のリソースの割り当てには、オーバーコミットが適用される。つまり、VM2の作成からVM1の削除までの間、設定上はVM1、VM2それぞれに同じ物理リソース分が割り当てるが、実効上はVM1、VM2へのアクセスに応じたリソースの割り当てがされる。よって、例えば、符号201に示すように、設定上、VM1、VM2へそれぞれ(ホストOS分を除く)物理リソース分の割り当てを行う。つまり、サーバ全体では、設定上の物理リソースの約2倍のリソースを割り当てる。
ここで、VMの実効上のリソースの割り当てにオーバーコミットを適用することで、例えば、VM1は稼働中であるが、VM2は試験装置50からの事前試験を受けた状態であるとき(図6のS22の状態であるとき)、符号202に示すように、VM2の実効上の割り当てリソース(Y)は、試験に必要なリソースとなる。つまり、VM2には実効上、試験に必要なリソース(例えば、1コール分の処理を実行可能なリソース)が割り当てられればよいので、VM1と同じリソース(X)は必要ない。
ここで、Yのリソースで処理可能なトランザクション最大値×(N+1)が、1台のサーバ10で処理可能なトランザクションの最大値以下となれば、システムのファイル更新を実施しても、サーバ10への追加リソースは不要となる。
なお、各VMへのリソースの実効上の割り当ては、トランザクションに応じて、VM自身が行う。ただし、ファイル更新前後で、サーバ1台あたりの最大のトランザクション数が変わることはないため、結果として図6のX+Yがサーバ10の物理リソースを超えることはない。
(プログラム)
また、上記実施形態に係る管理装置40が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。以下に、管理装置40と同様の機能を実現する管理プログラムを実行するコンピュータの一例を説明する。
図7は、管理プログラムを実行するコンピュータを示す図である。図7に示すように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有する。これらの各部は、バス1080によって接続される。
メモリ1010は、ROM(Read Only Memory)1011およびRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、ディスクドライブ1100に接続される。ディスクドライブ1100には、例えば、磁気ディスクや光ディスク等の着脱可能な記憶媒体が挿入される。シリアルポートインタフェース1050には、例えば、マウス1110およびキーボード1120が接続される。ビデオアダプタ1060には、例えば、ディスプレイ1130が接続される。
ここで、図7に示すように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093およびプログラムデータ1094を記憶する。上記実施形態で説明した各テーブルは、例えばハードディスクドライブ1090やメモリ1010に記憶される。
また、管理プログラムは、例えば、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、ハードディスクドライブ1090に記憶される。具体的には、上記実施形態で説明した管理装置40が実行する各処理が記述されたプログラムモジュールが、ハードディスクドライブ1090に記憶される。
また、管理プログラムによる情報処理に用いられるデータは、プログラムデータとして、例えば、ハードディスクドライブ1090に記憶される。そして、CPU1020が、ハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出して、上述した各手順を実行する。
なお、管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば、着脱可能な記憶媒体に記憶されて、ディスクドライブ1100等を介してCPU1020によって読み出されてもよい。あるいは、管理プログラムに係るプログラムモジュール1093やプログラムデータ1094は、LAN(Local Area Network)やWAN(Wide Area Network)等のネットワークを介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。
10 サーバ
20 ロードバランサ
21 アドレス情報
22 振り分け部
30 端末
40 管理装置
41 入出力部
42 通信部
43 制御部
44 記憶部
50 試験装置
431 仮想マシン制御部
432 リソース割り当て部
433 ファイル更新部
434 ロードバランサ制御部
435 アドレス情報更新部
436 バックアップ部

Claims (3)

  1. サーバそれぞれが、稼働サーバとして動作し、かつ、各サーバ合計で1台のサーバ分のリソースを予備リソースとして確保しているN+1構成の分散処理システムであって、
    1以上の仮想マシンを備える前記サーバと、
    外部装置からのアクセスの振り分け先となる仮想マシンのアドレスを示したアドレス情報と、前記アクセスを受け付けたとき、前記アドレス情報を参照して、前記アクセス先の仮想マシンを選択する振り分け部とを備える振り分け装置と、
    前記サーバおよび前記振り分け装置を制御する管理装置とを有し、
    前記管理装置は、
    前記サーバそれぞれのファイル更新を行うとき、
    前記サーバそれぞれに、新たな仮想マシンを作成させ、前記新たな仮想マシンに対しアドレス割り当てを行う仮想マシン制御部と、
    前記新たな仮想マシンに対し当該サーバの余剰リソースからリソースの割り当てを行うリソース割り当て部と、
    前記新たな仮想マシンそれぞれに対しファイル更新処理を行うファイル更新部と、
    前記振り分け装置の閉塞および閉塞解除を行う振り分け装置制御部と、
    前記振り分け装置の閉塞後、前記アドレス情報における前記アクセスの振り分け先となる仮想マシンのアドレスを、前記新たな仮想マシンのアドレスに更新するアドレス情報更新部と、
    を備えることを特徴とする分散処理システム。
  2. 前記リソース割り当て部は、前記新たな仮想マシンに、少なくとも1コール分の処理を実行可能なリソースを割り当てることを特徴とする請求項1に記載の分散処理システム。
  3. サーバそれぞれが、稼働サーバとして動作し、かつ、各サーバ合計で1台のサーバ分のリソースを予備リソースとして確保しているN+1構成の分散処理システムにおける管理装置が、
    前記サーバそれぞれのファイル更新を行うとき、
    前記サーバそれぞれに、新たな仮想マシンを作成させ、前記新たな仮想マシンに対しアドレス割り当てを行うステップと、
    前記新たな仮想マシンに対し、前記サーバの予備リソースからリソースの割り当てを行うステップと、
    前記新たな仮想マシンそれぞれに対しファイル更新処理を行うステップと、
    外部装置からのアクセスを受け付けたとき、前記アクセスの振り分けを行う振り分け装置を閉塞するステップと、
    前記振り分け装置のアドレス情報に示される振り分け先の仮想マシンのアドレスを、前記新たな仮想マシンのアドレスに更新するステップと、
    前記振り分け装置の閉塞を解除するステップと、
    を実行することを特徴とする分散処理方法。
JP2014009567A 2014-01-22 2014-01-22 分散処理システム、および、分散処理方法 Active JP6075882B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014009567A JP6075882B2 (ja) 2014-01-22 2014-01-22 分散処理システム、および、分散処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014009567A JP6075882B2 (ja) 2014-01-22 2014-01-22 分散処理システム、および、分散処理方法

Publications (2)

Publication Number Publication Date
JP2015138385A JP2015138385A (ja) 2015-07-30
JP6075882B2 true JP6075882B2 (ja) 2017-02-08

Family

ID=53769345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014009567A Active JP6075882B2 (ja) 2014-01-22 2014-01-22 分散処理システム、および、分散処理方法

Country Status (1)

Country Link
JP (1) JP6075882B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6254963B2 (ja) * 2015-01-30 2017-12-27 日本電信電話株式会社 分散処理システム、および、分散処理方法
JP6969077B2 (ja) * 2016-08-23 2021-11-24 日本電気株式会社 仮想マシン制御装置とその制御方法、及び、管理装置とその制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5717164B2 (ja) * 2009-10-07 2015-05-13 日本電気株式会社 コンピュータシステム、及びコンピュータシステムのメンテナンス方法
JP5530759B2 (ja) * 2010-03-05 2014-06-25 株式会社エヌ・ティ・ティ・データ リソース連携システム及びリソース連携方法

Also Published As

Publication number Publication date
JP2015138385A (ja) 2015-07-30

Similar Documents

Publication Publication Date Title
US10140115B2 (en) Applying update to snapshots of virtual machine
EP3761170B1 (en) Virtual machine creation method and apparatus
US10116735B2 (en) Service migration across cluster boundaries
JP5298763B2 (ja) 仮想システム制御プログラム、方法及び装置
US20160266938A1 (en) Load balancing function deploying method and apparatus
US9087001B1 (en) Virtualizing multiple networked machines using a predetermined network recovery policy
WO2011156922A1 (en) Method and system for workload distributing and processing across a network of replicated virtual machines
US11556369B2 (en) Virtual machine deployment method and OMM virtual machine
US9495269B1 (en) Mobility validation by trial boot using snap shot
WO2019160030A1 (ja) サービス提供システム、資源割り当て方法、及び資源割り当てプログラム
JP6003590B2 (ja) データセンタ,仮想システムの複写サービスの提供方法,データセンタの管理サーバ及び仮想システムの複写プログラム
JPWO2017002921A1 (ja) 仮想ネットワークファンクション管理装置、仮想マシン管理装置、仮想ネットワークファンクションへの資源の割り当て方法及びプログラム
JP2017505494A (ja) テンプレートベースのプラットフォームとインフラをプロビジョニングするための方法とその装置
JP7056555B2 (ja) ネットワークシステム、その管理方法および装置ならびにサーバ
JP2008107966A (ja) 計算機システム
JP6254963B2 (ja) 分散処理システム、および、分散処理方法
JP6075882B2 (ja) 分散処理システム、および、分散処理方法
US20180232143A1 (en) Burst buffer dynamic logical volume sizing in high performance computing environment
EP3697025B1 (en) Equipment upgrading method and device
JP2010205208A (ja) ホストコンピュータ、マルチパスシステム、パス割当方法およびプログラム
JP6273880B2 (ja) 仮想マシン管理システム、仮想マシン管理装置、仮想マシン管理方法、及び仮想マシン管理プログラム
CN113572856A (zh) 为ovn架构配置七层负载均衡的方法、控制方法及介质
JP6870390B2 (ja) 仮想基盤にもとづくシステムにおけるリソース割当方法、接続管理サーバおよび接続管理プログラム
WO2014041664A1 (ja) 情報処理システム、情報処理装置、移行制御プログラム、及び移行制御方法
JP2021022287A (ja) バックアップ処理装置、バックアップ処理方法、及び、バックアップ処理プログラム

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20151001

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20151005

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170106

R150 Certificate of patent or registration of utility model

Ref document number: 6075882

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150