JP2017027166A - 運用管理装置、運用管理プログラムおよび情報処理システム - Google Patents

運用管理装置、運用管理プログラムおよび情報処理システム Download PDF

Info

Publication number
JP2017027166A
JP2017027166A JP2015142459A JP2015142459A JP2017027166A JP 2017027166 A JP2017027166 A JP 2017027166A JP 2015142459 A JP2015142459 A JP 2015142459A JP 2015142459 A JP2015142459 A JP 2015142459A JP 2017027166 A JP2017027166 A JP 2017027166A
Authority
JP
Japan
Prior art keywords
server
call processing
unit
operation management
cores
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015142459A
Other languages
English (en)
Inventor
正明 村合
Masaaki Muraai
正明 村合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015142459A priority Critical patent/JP2017027166A/ja
Publication of JP2017027166A publication Critical patent/JP2017027166A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】物理リソースを有効利用することを課題とする。
【解決手段】運用管理サーバは、第1のサーバ群に属する各呼処理サーバについて、各呼処理サーバが有する第1のプロセッサの各コアを、当該呼処理サーバの第1の仮想マシンごとに割り当てる。そして、運用管理サーバは、第1のサーバ群の待機系である第2のサーバ群に属する各呼処理サーバについて、各呼処理サーバが有する第2のプロセッサの複数のコアの一部を、待機系である複数の第2の仮想マシンに割り当てる。
【選択図】図4

Description

本発明は、運用管理装置、運用管理プログラムおよび情報処理システムに関する。
従来、呼処理サービスに利用される交換機のようなサーバシステムは、信頼性が要求されることから、運用系と待機系から構成される二重化構成が一般的である。呼処理サービスは、TAT(Turn Around Time)や信号遅延時間が厳格に規定されており、僅かな揺らぎや変動が許容されない要件がある。この対策として、CPU(Central Processing Unit)コアリソースを呼処理サービスのプロセスに独占的に割り当てる手法が利用されており、待機系であっても切り替え後の運用化に備え、運用系と同じ条件で待機系のCPUコアリソースが割り当てられている。
近年では、NFV(Network Functions Virtualisation)による通信サービスの仮想化が推し進められており、呼処理サービスにおいても、仮想環境を用いた二重化構成が利用されている。例えば、待機系の仮想マシンは、運用系の仮想マシンの故障に備え、ある状態変化のポイントで運用系から送られてくる複製データを受信して、メモリあるいはディスクに格納する。つまり、待機系は、運用系と同じCPUコアリソースが割り当てられ、運用系のデータと同期したデータを保持する。このようにすることで、運用系から待機系の切替時間を短縮し、サービスの信頼性を向上させている。
特開2014−75027号公報 特開2013−37433号公報
しかしながら、上記技術では、運用系と同条件の待機系を用意することになるので、待機系に割当てる物理リソースが無駄である。例えば、待機系には、運用系と同じCPUコアリソースが割り当てられるが、運用系へ切り替えられるまでは、データ同期程度の処理が実行しない。このため、待機系に割当てられたCPUコアリソースの多くが、通常は使用されていない。
1つの側面では、物理リソースを有効利用することができる運用管理装置、運用管理プログラムおよび情報処理システムを提供することを目的とする。
第1の案では、運用管理装置は、第1のサーバ群に属する物理サーバが有する第1のプロセッサの各コアを、前記物理サーバの第1の仮想マシンごとに割り当てる第1割当部を有する。運用管理装置は、前記第1のサーバ群の待機系である第2のサーバ群に属する物理サーバが有する第2のプロセッサの複数のコアの一部を、前記待機系である複数の第2の仮想マシンに割り当てる第2割当部を有する。
一実施形態によれば、物理リソースを有効利用することができる。
図1は、実施例1にかかるシステムの全体構成例を示す図である。 図2は、呼処理サーバの階層構造例を示す図である。 図3は、運用系と待機系との対応関係を説明する図である。 図4は、実施例1にかかるシステムを構成する各サーバの機能構成を示す機能ブロック図である。 図5は、VM属性DBに記憶される情報の例を示す図である。 図6は、物理マシン属性DBに記憶される情報の例を示す図である。 図7は、VMリソース管理DBに記憶される情報の例を示す図である。 図8は、CPUコア管理DBに記憶される情報の例を示す図である。 図9は、運用系である呼処理サーバ1の正常時のVMリソース管理状況を説明する図である。 図10は、待機系である呼処理サーバ31の正常時のVMリソース管理状況を説明する図である。 図11は、呼処理サーバ1を待機系に切り替えた時のVMリソース管理状況を説明する図である。 図12は、呼処理サーバ1を待機系に切り替えた時の構成図を説明する図である。 図13は、VM生成処理の流れを示すシーケンス図である。 図14は、故障検出時の処理の流れを示すシーケンス図である。 図15は、運用管理サーバが実行する故障検出時の処理の流れを示すフローチャートである。 図16は、ハードウェア構成例を示す図である。
以下に、本願の開示する運用管理装置、運用管理プログラムおよび情報処理システムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
[全体構成]
図1は、実施例1にかかるシステムの全体構成例を示す図である。図1に示すように、このシステムは、複数の呼処理サーバ1から34と、サービス用スイッチ50と、監視用スイッチ51と、クライアント装置52と、運用管理サーバ100とを有する呼制御システムである。また、このシステムは、呼処理の信頼性を向上させるために、運用系と待機系とで冗長化されている。なお、各サーバの台数は一例であり、任意に設定変更することができる。
また、クライアント装置52、運用管理サーバ100、各呼処理サーバは、ネットワークNを介して相互に通信可能に接続される。かかるネットワークNには、有線または無線を問わず、インターネット(Internet)を始め、LAN(Local Area Network)やVPN(Virtual Private Network)などの任意の種類の通信網を採用できる。
呼処理サーバ1から34は、SIP(Session Initiation Protocol)などを用いた呼処理を実行する物理サーバの一例である。呼処理サーバ1から34は、サービス用スイッチ50を介してネットワークNに接続され、クライアント装置52や運用管理サーバ100と通信可能に接続される。また、呼処理サーバ1から34は、監視用スイッチ51を介して相互に通信可能に接続される。
各呼処理サーバは、運用管理サーバ100から受信する設定情報などにしたがって、仮想マシン(VM:Virtual Machine)を実行し、VMを用いて呼処理サービスを実行する。図2は、呼処理サーバの階層構造例を示す図である。ここでは呼処理サーバ1を例にして説明する。図2に示すように、呼処理サーバ1は、ハードウェア、OS、サーバ管理部、HV、VMを有する。OS、HVおよびVMは、物理サーバである呼処理サーバのハードウェアによって、実行されるソフトウェアである。
ハードウェアの構成については後述する。OSは、ハードウェアを制御するオペレーティングシステム(Operating System)である。HVは、OS上で実行されるハイパーバイザのプログラムである。例えば、HVは、ハードウェアに含まれるメモリの領域を仮想的に割り当てた仮想メモリやハードウェアに含まれるプロセッサを仮想的に割り当てた仮想プロセッサなどを用いて、少なくとも1つのVMを実行する。
サーバ管理部は、VMを動作させるための各種情報の設定、VMの生成や削除などを実行するソフトウェア等の一例である。例えば、運用管理サーバ100は、本システムにおいてシステムの2重化を実現するサーバ管理ソフトウェアのエージェント機能であるサーバ管理エージェントの一例である。各VMは、HVによって生成、管理される仮想マシン・プログラムである。各VMは、VM上で動作するゲストOS、VM上で動作するミドルウェア、呼処理サービスを実行する呼処理APL(アプリケーション)を実行する。
この呼処理サーバ1から34は、運用系の第1サーバ群と待機系の第2サーバ群とに分けられる。本実施例では、呼処理サーバ1から30は、運用系サーバであり、呼処理サーバ31から34は、待機系サーバとする。つまり、呼処理サーバ1から30で実行される各VMが運用系のサービスを提供し、呼処理サーバ31から34で実行される各VMが待機系として機能する。このため、待機系の呼処理サーバ31から34は、運用系の呼処理サーバからデータを定期的に取得し、データの同期を実行する。なお、同期の手法等は、公知の様々な手法を採用することができる。
クライアント装置52は、ユーザが利用するユーザ端末であり、例えばコンピュータや、携帯電話やスマートフォンなどの移動体端末の一例である。このクライアント装置52は、SIP接続要求をいずれかの呼処理サーバに対して送信し、宛先の装置との間でセッションを確立し、呼処理を実行する。
運用管理サーバ100は、各呼処理サーバで動作させるVMを決定し、各VMに関する情報などを呼処理サーバに配信するサーバの一例である。例えば、運用管理サーバ100は、本システムにおいてシステムの2重化を実現するサーバ管理ソフトウェアのマネージャ機能であるサーバ管理マネージャを実行する。なお、本実施例では、運用管理サーバ100を物理サーバで実現する例で説明するが、これに限定されるものではなく、VMで実現することもできる。
この運用管理サーバ100は、第1のサーバ群である運用系に属する呼処理サーバが有する第1のプロセッサの各コアを、呼処理サーバのVMごとに割り当てる。運用管理サーバ100は、待機系である第2のサーバ群に属する呼処理サーバが有する第2のプロセッサの複数のコアの一部を、待機系である複数のVMに割り当てる。
ここで、運用管理サーバ100によって生成される運用系と待機系について説明する。図3は、運用系と待機系との対応関係を説明する図である。なお、以下の実施例では、呼処理サーバ1を呼処理サーバ#1などと記載する場合がある。
図3に示すように、運用系サーバ群は、呼処理サーバ1から呼処理サーバ30の合計30台である。また、各呼処理サーバは、16個のコアを有するCPU(Central Processing Unit)を有し、呼処理プロセスを実行する4台のVMを動作させる。このとき、運用系の各呼処理サーバは、運用管理サーバ100の指示にしたがって、VMごとに4つのCPUコアを割当てる。つまり、運用系のVMは、同じ物理サーバ上で動作する他のVMとCPUコアを共有せず、特定のCPUコアを割当てる。
一方で、待機系サーバ群は、呼処理サーバ31から呼処理サーバ34の合計4台である。各呼処理サーバは、16個のコアを有するCPUを有し、呼処理プロセスを実行する30台のVMを動作させる。このとき、待機系の各呼処理サーバは、運用管理サーバ100の指示にしたがって、8個のCPUコアを30台のVMに割当てる。つまり、待機系のVMは、同じ物理サーバ上で動作する他のVMとCPUコアを共有する。なお、各待機系の呼処理サーバは、各運用系の呼処理サーバとデータ同期を実行する。
上述したように、運用管理サーバ100は、運用系の各VMがCPUコアを占有し、待機系の各仮想マシンがCPUコアを共有するように、各系の呼処理サーバに設定する。このようにすることで、待機系のリソースを削減でき、物理リソースを有効利用できる。
[機能構成]
次に、各呼処理サーバと運用管理サーバの機能構成について説明する。図4は、実施例1にかかるシステムを構成する各サーバの機能構成を示す機能ブロック図である。なお、各呼処理サーバは、同様の構成を有するので、呼処理サーバ1を例にして説明する。
(呼処理サーバの構成)
図4に示すように、呼処理サーバ1は、通信部1a、記憶部1b、制御部1cを有する。通信部1aは、有線や無線を問わず、他のサーバとの通信を実行する処理部であり、例えば通信インタフェースなどである。例えば、通信部1aは、監視用スイッチ51を介して他の呼処理サーバとの間で各種情報を送受信し、サービス用スイッチ50を介してクライアント装置52や運用管理サーバ100との間で各種情報を送受信する。
記憶部1bは、制御部1cが実行するプログラムや各種データを記憶する記憶装置であり、例えばハードディスクやメモリなどである。この記憶部1bは、動作対象のVM数や各VMへのCPUコアの割当などを示したリストなどの設定情報も記憶する。
制御部1cは、呼処理サーバ1全体を司る処理部である。この制御部1cは、例えば、CPUやMPU(Micro Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部1cは、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。
この制御部1cは、VM制御部1dとサーバ管理部1eを有する。なお、待機系の呼処理サーバの制御部では、運用系の呼処理サーバから定期的にデータを取得するデータ同期を実行する。
VM制御部1dは、VMに関する各種処理を実行する処理部である。例えば、VM制御部1dは、記憶部1bに記憶される設定情報にしたがって、VMの生成、起動、停止、削除、VMに対するCPUコアの割当てなどを実行する。また、VM制御部1dは、運用系から待機系への系切替や待機系から運用系への系切替などを実行する。なお、VM制御部1dは、サーバ管理エージェントの一例である。
例えば、VM制御部1dは、運用管理サーバ100から、VMとCPUコアとを対応付けたリストを含む切替指示を受信する。すると、VM制御部1dは、受信したリストに従ってVMとCPUコアの設定を変更する。VM制御部1dは、入力されたリスト上で、何れのVMからも割り当てられていないCPUコアについては電源を停止する。一方、VM制御部1dは、1台以上のVMから割り当てられているCPUコアがあれば電源を投入する。そして、VM制御部1dは、全VMに対して上記処理を実施した後、サーバ切り替え制御の結果を、運用管理サーバ100に応答する。また、VM制御部1dは、運用化される各VMのミドルウェアに対して切り替えを指示して、呼処理を起動させる。
サーバ管理部1eは、サーバに関する各種処理を実行する処理部である。具体的には、サーバ管理部1eは、CPUコアへの電源投入や電源OFF、各種故障監視、CPUやメモリなどの負荷測定などを実行する。
例えば、サーバ管理部1eは、様々な監視ツール等を用いて、ハードウェア障害、ソフトウェア障害、ネットワーク障害などの各種障害(故障)を検出する。また、サーバ管理部1eは、運用管理サーバ100からの問い合わせに対して、故障の検出有無を応答する。
また、サーバ管理部1eは、呼処理サーバ1上で動作するVMごとに、CPU使用率、メモリ使用率、ネットワーク使用率などの負荷状況を測定する。そして、サーバ管理部1eは、運用管理サーバ100からの問い合わせに対して、測定した負荷状況を応答する。
(運用管理サーバの構成)
図4に示すように、運用管理サーバ100は、通信部101、記憶部102、制御部110を有する。
通信部101は、有線や無線を問わず、他のサーバとの通信を実行する処理部であり、例えば、通信インタフェースなどである。例えば、通信部101は、各呼処理サーバから障害の検出有無や負荷状況などを受信し、各呼処理サーバにVMの設定に関する設定情報を送信する。
記憶部102は、制御部110が実行するプログラムや各種データを記憶する記憶装置であり、例えばハードディスクやメモリなどである。この記憶部102は、VM属性DB103、物理マシン属性DB104、VMリソース管理DB105、CPUコア管理DB106を記憶する。
VM属性DB103は、VMに関する情報を記憶するデータベースである。具体的には、VM属性DB103は、システム内のVMごとに、VMが動作するための情報などを記憶する。図5は、VM属性DBに記憶される情報の例を示す図である。図5に示すように、VM属性DB103は、「仮想マシン番号、系種別、必要CPUコア数、CPUコア使用率閾値、物理サーバ番号」を対応付けたVM属性データを記憶する。
ここで記憶される「仮想マシン番号」は、VMの運用系と待機系それぞれに閉じた一意な番号である。「系種別」は、運用系か待機系かを示す。「必要CPUコア数」は、運用系のVMが必要とするCPUコア数が設定され、待機系のVMについては未設定となる。「CPUコア使用率閾値」は、待機系のVMが必要とするCPU使用率の上限値が設定され、運用系のVMについては未設定となる。「物理サーバ番号」は、VMを動作する物理サーバ(呼処理サーバ)に付与される一意な番号である。
物理マシン属性DB104は、物理マシンである呼処理サーバに関する情報を記憶するデータベースである。具体的には、物理マシン属性DB104は、各呼処理サーバに搭載されるCPUコアの数を管理する。図6は、物理マシン属性DBに記憶される情報の例を示す図である。
図6に示すように、物理マシン属性DB104は、「物理サーバ番号、搭載CPUコア数」を対応付けた物理マシン属性データを記憶する。ここで記憶される「物理サーバ番号」は、物理サーバである呼処理サーバに付与される一意な番号である。「搭載CPUコア数」は、呼処理サーバに搭載されるCPUコア数である。
VMリソース管理DB105は、VMの状態を記憶するデータベースである。図7は、VMリソース管理DBに記憶される情報の例を示す図である。図7に示すように、VMリソース管理DB105は、「物理サーバ番号、仮想マシン番号、仮想マシン状態、CPUコア割り当て状態、割り当てCPUコア番号」を対応付けたVMリソース管理データを記憶する。
ここで記憶される「物理サーバ番号」は、物理サーバである呼処理サーバに付与される一意な番号である。「仮想マシン番号」は、VMの運用系と待機系それぞれに閉じた一意な番号であり、運用系と待機系に付与される一意な番号はペア同士で同じ番号である。「仮想マシン状態」は、VMの状態が設定され、運用系であることを示す運用中、待機系であることを示す待機中、障害が発生したことを示す故障中のいずれかが設定される。「CPUコア割り当て状態」は、VMに対するCPUコアの割当状態が設定され、占有か共有のいずれかが設定される。「割り当てCPUコア番号」は、VMで使用しているCPUコア番号が設定され、ビットマップで設定される。なお、ビットマップにおいては、使用されているCPUコアには「1」、未使用のCPUコアには「0」が設定される。
CPUコア管理DB106は、各呼処理サーバが有するCPUコアの状態を記憶するデータベースである。図8は、CPUコア管理DBに記憶される情報の例を示す図である。図8に示すように、CPUコア管理DB106は、「物理サーバ番号、CPUコア番号、CPUコア状態」を対応付けたCPUコア管理データを記憶する。
ここで記憶される「物理サーバ番号」は、物理サーバである呼処理サーバに付与される一意な番号である。「CPUコア番号」は、CPUコアを識別する番号であり、呼処理サーバ内で一意な番号である。「CPUコア状態」は、CPUコアの状態が設定され、運用中、停止中、故障中のいずれかが設定される。
制御部110は、運用管理サーバ100全体を司る処理部である。この制御部110は、例えば、CPUやMPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部110は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。この制御部110は、割当部111、監視部112、切替部113を有する。
割当部111は、運用系に属する呼処理サーバ1から30の各VMについて、各呼処理サーバが有するCPUの各コアを割当て、待機系に属する呼処理サーバ31から34のVMについて、呼処理サーバ31から34が有するCPUコアの一部を割当てる処理部である。
具体的には、割当部111は、予め定められた定義書やユーザからの入力にしたがって、物理マシン属性DB104とVM属性DB103とを生成し、VMとCPUコアとの対応付けをリスト化する。そして、割当部111は、リスト化されたVMとCPUコアの対応表を仮想マシンのイメージファイルに包含して、各呼処理サーバにダウンロードさせて展開する。呼処理サーバでは、展開後にサーバ管理エージェントが起動され、包含された対応表を参照しながら、VMとCPUコアの対応付けが実施される。
例えば、割当部111は、クライアント装置52からの入力にしたがって、図6に示した物理マシン属性DB104に記憶される物理マシン属性データを、全呼処理サーバ台数分設定する。設定する情報は、システムユニークな物理サーバ番号と、各物理サーバが実装するCPUコア数の対応付けである。なお、本実施例では、呼処理サーバが34台、CPUコア数が各呼処理サーバに16個搭載されているものとする。
割当部111は、物理マシン属性データを設定した後、図5に示したVM属性DB103に記憶されるVM属性データを設定する。具体的には、割当部111は、VM属性データについて、運用系と待機系の系種別毎に設定する。割当部111は、仮想マシン番号について系種別毎にユニークに設定し、搭載される呼処理サーバとの対応付けを設定するとともに、該呼処理サーバ上でのCPUコアリソースの要求数を設定する。なお、本実施例では、運用系のVMはCPUコアを4個占有し、1台の呼処理サーバ上に4台のVMを搭載するものとし、計120台のVMをシステムに設置する。
また、割当部111は、待機系のVMについては、運用系のVMを搭載する呼処理サーバ上のVMが、待機系として同一の物理サーバ上に配置されないように設置する。本実施例では、運用系として1台の呼処理サーバ上に4台のVMを搭載するため、待機系のVMは、最低4台の待機系サーバ(呼処理サーバ)上に分散配置されることになる。また待機系のVMはCPUコアを占有しないため、設計上の使用率上限(閾値)を超えない範囲で設定する。この閾値により待機系に集約可能なVM台数に制限をかける。
そして、割当部111は、VM属性データの設定が完了した後、VMとCPUコアの対応付けを設計し、設計結果をリスト化する。このとき、割当部111は、待機系の呼処理サーバのリストについて、余剰なCPUコアに対する電源を停止するCPUコア番号も識別できるようにする。
割当部111は、VMとCPUコアの対応付けを行った後、VMリソース管理DB105の「仮想マシン状態」に運用中または待機中の何れかを設定する。同様に、割当部111は、「CPUコア割り当て状態」に占有または共有の何れかを設定し、「割り当てCPUコア番号」に該VMが使用しているCPUコア番号を設定する。また、割当部111は、CPUコア管理DB106に対して、物理サーバ単位にCPUコアの使用状態を「CPUコア状態」に設定する。なお、割当部111は、上記した設定が完了すると、監視部112に障害監視の開始を指示する。
ここで、上記処理によって生成されるDBの一例として、システム起動時のVMリソース管理DB105の管理状況について具体例を説明する。図9は、運用系である呼処理サーバ1の正常時のVMリソース管理状況を説明する図である。図9に示すように、運用系の呼処理サーバ1にはVM#1からVM#4の4台が動作する。割当部111は、VM#1からVM#4の「系種別」を「運用中」に設定して、VM#1、VM#2、VM#3、VM#4それぞれを動作させる。また、割当部111は、VM1に対してCPUコア1から4のビットマップを「1」に変更して、「CPU割り当て状態」に「占有」を設定し、VM#1に4つのコアを占有させる。同様に、割当部111は、VM#2に対してCPUコア5から8のビットマップを「1」に変更して、「CPU割り当て状態」に「占有」を設定し、VM#2に4つのコアを占有させる。また、割当部111は、VM#3に対してCPUコア9から12のビットマップを「1」に変更して、「CPU割り当て状態」に「占有」を設定し、VM#3に4つのコアを占有させる。割当部111は、VM#4に対してCPUコア13から16のビットマップを「1」に変更して、「CPU割り当て状態」に「占有」を設定し、VM4に4つのコアを占有させる。
また、図10は、待機系である呼処理サーバ31の正常時のVMリソース管理状況を説明する図である。図10に示すように、待機系の呼処理サーバ31にはVM#1、#5、#9・・・#117の30台が存在する。割当部111は、各VMの「系種別」に「待機中」を設定して、30台の各VMを待機系に設定する。さらに、割当部111は、各VMの「CPU割り当て状態」に「共有」を設定し、CPUコア1から8のビットマップを「1」に設定することで、各VMにCPUコア1から8を共有させる。
監視部112は、運用系の呼処理サーバ1から30の障害発生を監視する処理部である。具体的には、監視部112は、SNMP(Simple Network Management Protocol)トラップや監視ツールなどを用いて、運用系の障害監視を実行する。また、監視部112は、運用管理サーバ100主体で定期的に監視を実行することもでき、障害を検知した呼処理サーバから障害発生の通知を受信することもできる。
一例を挙げると、監視部112は、各呼処理サーバのサーバ管理エージェントに対して定期的に監視信号を送信する。そして、監視部112は、正常処理中を示す応答を返信した呼処理サーバについては正常動作と判定し、異常を示す応答を返信した呼処理サーバまたは所定時間内に返信が受信できない呼処理サーバについては障害と判定する。そして、監視部112は、障害が検出された呼処理サーバに関する情報として、例えば物理サーバ番号などを切替部113等に出力する。
切替部113は、障害が発生した場合に、運用系から待機系への系切替を実行する処理部である。具体的には、切替部113は、監視部112によって障害が検出された呼処理サーバで動作する4つのVMを停止させる。続いて、切替部113は、待機系の呼処理サーバ31から34から1つずつ、切替先のVMを選択する。その後、切替部113は、選択した各VMのCPUコア割当に関し、CPUコアの共有から占有に変更する。
例えば、切替部113は、呼処理サーバ1が故障した場合、VM属性DB103から呼処理サーバの物理サーバ番号「1」上の仮想マシン番号を全て抽出する。続いて、切替部113は、抽出した仮想マシン番号に対応したVMリソース管理DB105の「仮想マシン状態」を故障中に設定する。その後、切替部113は、故障を検出したVMに割り当てられているCPUコア番号を抽出し、CPUコア管理DB106の「CPUコア状態」を故障中に設定する。
続いて、切替部113は、故障した呼処理サーバ1に対応した待機系の呼処理サーバの物理サーバ番号及び仮想マシン番号を抽出する。具体的には、切替部113は、VM属性DB103を参照して、呼処理サーバ1で動作するVMの仮想マシン番号を抽出する。そして、切替部113は、VMリソース管理DB105を参照し、抽出した仮想マシン番号と対応付けられる物理サーバ番号のうち、呼処理サーバの物理サーバ番号「1」以外の物理サーバ番号を特定する。特定した物理サーバ番号に対応する呼処理サーバが、切替先の待機系物理サーバであり、抽出された仮想マシン番号が、切替先の待機系VMである。
続いて、切替部113は、切り替え先の呼処理サーバ単位に、VMとCPUコアの対応付けリストを作成する。そして、切替部113は、リストに従って呼処理サーバ31〜34のサーバ管理エージェントに対して、VMの切り替えを指示する。
その後、切替部113は、VMへの切り替えが完了した後、生成したリストにしたがって、VMリソース管理DB105において、VMリソース管理データの「仮想マシン状態」を運用中に変更し、「CPUコア割り当て状態」を占有状態に変更し、「割り当てCPUコア番号」を更新する。また、切替部113は、CPUコア管理DB106の「CPUコア状態」を、電源の投入状態にあわせて、運用中へ更新する。
また、切替部113は、故障が復旧した場合、切替時に設定した各DBの情報を切替前の状態に戻すとともに、元に戻ったDBの情報を基にVMとCPUコアとを対応付けたリストを生成して、各呼処理サーバに送信して切り戻しを指示する。各呼処理サーバでは、受信したリストにしたがって、VMの起動、停止、CPUコアの割当変更などを実行して、故障前の状態に戻す。
ここで、故障を契機に待機系に切り替えたときのDBの一例としてVMリソース管理DB105について説明する。図11は、呼処理サーバ1を待機系に切り替えた時のVMリソース管理状況を説明する図である。ここで、上述したように、呼処理サーバ1ではVM#1、VM#2、VM#3、VM#4の4台が動作していたものとする。また、呼処理サーバ31上の待機系VM#1、呼処理サーバ32上の待機系VM#2、呼処理サーバ33上の待機系VM#3、呼処理サーバ34上の待機系VM#4が、運用系と同じ仮想マシン番号が割与えられていることから、切替先に指定される。
このような状態において、図11に示すように、切替部113は、呼処理サーバ31に対応するVMリソース管理データにおいて、運用系のVM#1に対応する仮想マシン番号「1」の「系種別」を「運用中」に変更して、待機系である呼処理サーバ31上の待機系VM#1を運用系に切り替える。また、切替部113は、この仮想マシン番号「1」の「CPUコア割り当て状態」を「占有」に変更して、他のVMに対応付けられるCPUコア1から4のビットマップを「0」に変更することで、4つのCPUコアを占有させる。さらに、切替部113は、待機系で共有していたCPUコア1から4を占有させたことから、他のVMに対応付けられるCPUコア9から12のビットマップを「1」に変更することで、新たに共有させる。
同様に、切替部113は、呼処理サーバ32に対応するVMリソース管理データにおいて、運用系のVM#2に対応する仮想マシン番号「2」の「系種別」を「運用中」に変更して、待機系である呼処理サーバ32上の待機系VM#2を運用系に切り替える。また、切替部113は、この仮想マシン番号「2」の「CPUコア割り当て状態」を「占有」に変更して、他のVMに対応付けられるCPUコア1から4のビットマップを「0」に変更することで、4つのCPUコアを占有させる。さらに、切替部113は、待機系で共有していたCPUコア1から4を占有させたことから、他のVMに対応付けられるCPUコア9から12のビットマップを「1」に変更することで、新たに共有させる。
また、切替部113は、呼処理サーバ33に対応するVMリソース管理データにおいて、運用系のVM#3に対応する仮想マシン番号「3」の「系種別」を「運用中」に変更して、待機系である呼処理サーバ33上の待機系VM#3を運用系に切り替える。また、切替部113は、この仮想マシン番号「3」の「CPUコア割り当て状態」を「占有」に変更して、他のVMに対応付けられるCPUコア1から4のビットマップを「0」に変更することで、4つのCPUコアを占有させる。さらに、切替部113は、待機系で共有していたCPUコア1から4を占有させたことから、他のVMに対応付けられるCPUコア9から12のビットマップを「1」に変更することで、新たに共有させる。
同様に、切替部113は、呼処理サーバ34に対応するVMリソース管理データにおいて、運用系のVM#4に対応する仮想マシン番号「4」の「系種別」を「運用中」に変更して、待機系である呼処理サーバ34上の待機系VM#4を運用系に切り替える。また、切替部113は、この仮想マシン番号「4」の「CPUコア割り当て状態」を「占有」に変更して、他のVMに対応付けられるCPUコア1から4のビットマップを「0」に変更することで、4つのCPUコアを占有させる。さらに、切替部113は、待機系で共有していたCPUコア1から4を占有させたことから、他のVMに対応付けられるCPUコア9から12のビットマップを「1」に変更することで、新たに共有させる。
このような設定にしたがって、各呼処理サーバがVMへのCPUコア割り当てなどを変更することで、運用系と待機系とが切り替わる。図12は、呼処理サーバ1を待機系に切り替えた時の構成図を説明する図である。図12に示すように、呼処理サーバ1が故障してVM#1からVM#4が停止すると、呼処理サーバ31のVM#1が4つのCPUコアを占有して起動し、呼処理サーバ32のVM#2が4つのCPUコアを占有して起動し、呼処理サーバ33のVM#3が4つのCPUコアを占有して起動し、呼処理サーバ34のVM#4が4つのCPUコアを占有して起動する。この結果、停止したVMと同条件で待機系を起動させることができる。
また、呼処理サーバ31から34の他のVMに対して、新たに4つのCPUコア(CPUコア9から12)を共有させることで、待機系で最低限必要なCPUコア数を維持することができ、待機系のサービスも維持することができる。
[VM生成処理]
図13は、VM生成処理の流れを示すシーケンス図である。図13に示すように、運用管理サーバ100の割当部111は、クライアント装置52等からの指示にしたがって、VM属性DB103を更新し(S101)、物理マシン属性DB104を更新する(S102)。なお、割当部111は、必要に応じて他のDBも更新する。
その後、割当部111は、VMとCPUコアの割当とを対応付けたリストを含むVM起動指示を全呼処理サーバに送信する(S103とS104)。
この指示を受信した各呼処理サーバは、ロードモジュールとコンフィグファイル一式などを含むイメージファイルを、運用管理サーバ100からダウンロードする。例えば、呼処理サーバ1の制御部1cは、イメージファイルを運用管理サーバ100からダウンロードし(S105とS106)、呼処理サーバ2の制御部1cは、イメージファイルを運用管理サーバ100からダウンロードする(S107とS108)。同様に、呼処理サーバ31の制御部1cは、イメージファイルを運用管理サーバ100からダウンロードし(S109とS110)、呼処理サーバ34の制御部1cは、イメージファイルを運用管理サーバ100からダウンロードする(S111とS112)。
その後、各呼処理サーバは、ダウンロードが完了すると、完了通知を運用管理サーバ100に送信する。例えば、呼処理サーバ1の制御部1cは、完了通知を運用管理サーバ100に送信し(S113とS114)、呼処理サーバ2の制御部1cは、完了通知を運用管理サーバ100に送信する(S115とS116)。同様に、呼処理サーバ31の制御部1cは、完了通知を運用管理サーバ100に送信し(S117とS118)、呼処理サーバ34の制御部1cは、完了通知を運用管理サーバ100に送信する(S119とS120)。
すると、運用管理サーバ100の割当部111は、各呼処理サーバに、VMの起動および生成指示を送信する(S121とS122)。その後、各呼処理サーバは、VMの生成を実行する。
具体的には、呼処理サーバ1の制御部1cは、サーバ管理エージェントを起動し(S123)、イメージファイルを展開し(S124)、イメージファイルからVMを生成し(S125)、VMとCPUコアの割当を設定する(S126)。ここでは、呼処理サーバ1の制御部1cは、対象となっているVMの台数である4台分S125とS126を繰り返し、処理が終了すると、VM生成および起動の完了通知を運用管理サーバ100に送信する(S127)。その後、運用管理サーバ100の割当部111は、VMリソース管理DB105を更新し(S128)、CPUコア管理DB106を更新する(S129)。
このS123からS129までを含む生成処理が、呼処理サーバ2でもVMの台数である4台分実行され(S130)、呼処理サーバ31ではVMの台数である30台分実行され(S131)、呼処理サーバ34でもVMの台数である30台分実行される(S132)。
[故障検出時の処理]
図14は、故障検出時の処理の流れを示すシーケンス図である。図14に示すように、運用管理サーバ100の監視部112は、各呼処理サーバに故障確認を実行する(S201とS202)。そして、呼処理サーバ1のサーバ管理部1eが故障通知応答する(S203とS204)。
すると、運用管理サーバ100の監視部112は、呼処理サーバ1の故障を検出し(S205)、切替部113は、VM属性DB103を参照して、故障した呼処理サーバ1で動作する対象VMの仮想マシン番号を全て抽出する(S206)。
続いて、切替部113は、VMリソース管理DB105において、抽出した対象VMに対応付ける「仮想マシン状態」を「故障中」に更新するとともに(S207)、CPUコア管理DB106において、該当するCPUコアの「CPUコア状態」を「故障中」に更新する(S208)。
そして、切替部113は、VM属性DB103を参照して、抽出したVMの仮想マシン番号と対応付けられる待機系の呼処理サーバおよび仮想マシン番号を決定する(S209)。
その後、切替部113は、切替情報を示すVMとCPUコアとを対応付けたリストを含む切替指示を、切替先に指定された呼処理サーバ31に送信する(S210とS211)。
呼処理サーバ31のVM制御部1dは、該当VMにCPUコアを割当てる(S212)。具体的には、VM制御部1dは、受信したリストに基づいて運用化されるVMを特定し、当該VMにCPUコアを占有させ、他の待機系VMとの共有を解除する。このとき、VM制御部1dは、新たなCPUコアを共有させる。続いて、VM制御部1dは、受信したリストにしたがって新たに共有させるCPUコアの電源を投入する(S213)。そして、VM制御部1dは、系切替を実行して、該当する待機系VMを運用系に切り替え(S214)、切替完了を運用管理サーバ100に通知する(S215とS216)。
その後、運用管理サーバ100の割当部111は、VMリソース管理DB105を更新し(S217)、CPUコア管理DB106を更新する(S218)。このS210からS218までを含む切替処理が、呼処理サーバ34を含む各切替先サーバで実行される(S219)。
[運用管理サーバの処理]
次に、故障検出時に、運用管理サーバ100が実行する処理を説明する。図15は、運用管理サーバが実行する故障検出時の処理の流れを示すフローチャートである。ここでは、一例として、上述した例と同様、VM#1からVM#4を動作させる呼処理サーバ1が故障したこととする。
図15に示すように、運用管理サーバ100の監視部112が呼処理サーバ1の故障を検出すると(S301:Yes)、切替部113は、各DBを参照して、故障した呼処理サーバ1で実行されるVM#1からVM#4を全て抽出する(S302)。
続いて、切替部113は、各DBにおいて、故障した呼処理サーバ1のVM#1からVM#4の状態を故障中に設定し(S303)、故障した呼処理サーバ1のCPUコアを故障中に設定する(S304)。
その後、切替部113は、故障したVM#1からVM#4の仮想マシン番号と同じ仮想マシン番号が付与されているVMを有する待機系の呼処理サーバ31から34を切替先に決定する(S305)。
そして、切替部113は、切替元の呼処理サーバの物理サーバ番号と仮想マシン番号をキーにしてVMリソース管理DB105やVM属性DB103を検索し、切替先の待機系サーバの物理サーバ番号や仮想マシン番号を抽出する(S306)。
続いて、切替部113は、切替先の待機系サーバである呼処理サーバ31から34について、VMとCPUコアとを対応付けたリストを生成し(S307)、生成したリストにしたがって切替先の各呼処理サーバ31から34に、切替準備を指示する(S308)。
その後、切替部113は、切替準備の完了通知を受信すると(S309:Yes)、切替先の各呼処理サーバ31から34に、切替を指示する(S310)。そして、切替部113は、切替先の各呼処理サーバへの指示が完了すると(S311:Yes)、切替先の各VMについてVMリソース管理DB105を更新し(S312)、CPUコア管理DB106を更新する(S313)。
[効果]
このように、運用管理サーバ100は、運用系のVMでは呼処理サービスのリアルタイム性を重視するため、同じ物理サーバ上に同居する他のVMとはCPUコアの共有はさせず、特定のCPUコアを呼処理プロセスに割り当てる。また、運用管理サーバ100は、待機系のVMについて、全運用系VMに対して同じ物理サーバに配置しないように分散配置する。これにより運用系の物理サーバが1台故障してもサービス停止を回避することができる。
更に、運用管理サーバ100は、1台の物理サーバ内のCPUコアを複数の待機系VMと共有使用させることで、物理サーバ台数を削減することができる。また、運用管理サーバ100は、待機系が故障切り替えによって運用化された後も、サービス低下をさせないようにするために、1台以上の仮想マシン分のCPUコアリソースは予備として確保しておく。また、予備確保したCPUコアは電源をオフにしておき消費電力を削減する。また、運用管理サーバ100は、物理サーバを修復・切り戻す事によって定常状態へ復旧させることができる。
また、運用管理サーバ100は、待機系VMにCPUコアリソースを共有利用させることにより、余剰のCPUコアリソースを効率的に利用することが可能になる。この結果、待機系サーバは運用系サーバと同等な台数を必要とせず、待機系サーバの数を減らすことができ、不要な物理リソースの削減が実現できる。例えば、上記例で説明すると、従来では、運用系サーバと待機系サーバでは合計60台が必要であったが、本実施例により34台に削減することができ、約43%の削減効果がある。
また、一般的に、待機系のVMは、運用系のVMの故障に備え、ある状態変化のポイントで運用系から送られてくる複製データを受信して、メモリあるいはディスクに格納する処理に必要となるCPU使用率は僅か10%程度である。そこで、運用管理サーバ100は、待機系VMとしての処理を行うための必要最低限の物理リソースを稼働させることにより、CPUコアリソースへの供給電力消費を抑えることが可能になる。例えば、上記例で説明すると、従来では待機系のCPUコアリソースの稼動数が64コアであったが、本実施例により32コアに削減することができ、約50%の削減効果がある。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
例えば、上記実施例では、切替先のVMとして異なる物理サーバ上のVMを選択する例を説明したが、これに限定されるものではなく、同じ物理サーバ上で動作する複数のVMを切替先として選択することができる。また、VMの数や必要とするCPUコア数も一例であり、任意に変更することができる。また、上記実施例では、リアルタイム性を有する呼処理を例にして説明したが、これに限定されるものではなく、通常のデータ通信などにも適用することができる。
[システム]
また、図示した装置の各構成は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、任意の単位で分散または統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
[ハードウェア]
運用管理サーバ100と各呼処理サーバは、基本的に同じハードウェア構成を有するので、ここではサーバ200として説明する。なお、各サーバで異なる点については、具体的に説明する。
図16は、ハードウェア構成例を示す図である。図16に示すように、サーバ200は、NIC200a、NIC200b、ディスク200c、メモリ200d、プロセッサ200eを有する。また、図16に示した各部は、バス等で相互に接続される。なお、運用管理サーバ100の場合は、NIC200bは有していなくてもよい。
NIC200aは、サービス用スイッチ50と接続されるネットワークインタフェースカードであり、ネットワークNを介して各種情報の送受信を実行する。NIC200bは、監視用スイッチ51と接続されるネットワークインタフェースカードであり、呼処理サーバ間で各種情報の送受信を実行する。
ディスク200cは、各種プログラムやDBを記憶するハードディスクなどである。例えば、ディスク200cは、図4等に示した機能を動作させるプログラム、DB、テーブルなどを記憶する。
プロセッサ200eは、図4等に示した各処理部と同様の処理を実行するプログラムをディスク200c等から読み出してメモリ200dに展開することで、図4等で説明した各機能を実行するプロセスを動作させる。
例えば、このプロセスは、運用管理サーバ100が有する各処理部と同様の機能を実行する。具体的には、プロセッサ200eは、割当部111、監視部112、切替部113と同様の機能を有するプログラムをディスク200c等から読み出す。そして、プロセッサ200eは、割当部111、監視部112、切替部113と同様の処理を実行するプロセスを実行する。
このようにサーバ200は、プログラムを読み出して実行することで運用管理方法を実行する情報処理装置として動作する。また、サーバ200は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、サーバ200によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。なお、各呼処理サーバについても同様である。
100 運用管理サーバ
101 通信部
102 記憶部
103 VM属性DB
104 物理マシン属性DB
105 VMリソース管理DB
106 CPUコア管理DB
110 制御部
111 割当部
112 監視部
113 切替部

Claims (6)

  1. 第1のサーバ群に属する物理サーバが有する第1のプロセッサの各コアを、前記物理サーバの第1の仮想マシンごとに割り当てる第1割当部と、
    前記第1のサーバ群の待機系である第2のサーバ群に属する物理サーバが有する第2のプロセッサの複数のコアの一部を、前記待機系である複数の第2の仮想マシンに割り当てる第2割当部と、
    を有することを特徴とする運用管理装置。
  2. 前記第1のサーバ群の前記第1の仮想マシンで実行されている処理を前記複数の第2の仮想マシンが実行する場合に、前記複数の第2の仮想マシンごとに、前記第2のプロセッサの各コアを割り当てるように、前記複数の第2の仮想マシンに対するコアの割当を変更する割当変更部をさらに有することを特徴とする請求項1に記載の運用管理装置。
  3. 前記第2割当部は、前記複数の第2の仮想マシンに割り当てられる前記複数のコアの一部以外のコアへの電力供給を停止することを特徴とする請求項1に記載の運用管理装置。
  4. 複数の前記第1の仮想マシンで実行されている処理を前記待機系に切り替える場合、前記複数の第2の仮想マシンの中から、異なる物理サーバで動作する複数の仮想マシンを切替先に選択する選択部と、
    前記選択部によって選択された前記複数の仮想マシン各々に対して、当該仮想マシンが動作する物理サーバの第2のプロセッサのコアを割当てるように、前記複数の仮想マシンに対するコアの割当を変更する割当変更部とをさらに有することを特徴とする請求項1に記載の運用管理装置。
  5. コンピュータに、
    第1のサーバ群に属する物理サーバが有する第1のプロセッサの各コアを、前記物理サーバの第1の仮想マシンごとに割り当て、
    前記第1のサーバ群の待機系である第2のサーバ群に属する物理サーバが有する第2のプロセッサの複数のコアの一部を、前記待機系である複数の第2の仮想マシンに割り当てる、
    処理を実行させることを特徴とする運用管理プログラム。
  6. 第1の物理サーバと第2の物理サーバと運用管理装置とを有する情報処理システムにおいて、
    前記運用管理装置は、
    第1のサーバ群に属する前記第1の物理サーバが有する第1のプロセッサの各コアを、前記第1の物理サーバの第1の仮想マシンごとに割り当てる第1の割当情報を前記第1の物理サーバに送信する第1送信部と、
    前記第1のサーバ群の待機系である第2のサーバ群に属する前記第2の物理サーバが有する第2のプロセッサの複数のコアの一部を、前記待機系である複数の第2の仮想マシンに割り当てる第2の割当情報を前記第2の物理サーバに送信する第2送信部と、を有し、
    前記第1の物理サーバは、
    前記運用管理装置から前記第1の割当情報を受信する受信部と、
    受信された前記第1の割当情報にしたがって、各第1の仮想マシンに、前記第1のプロセッサの各コアを割当てる割当部と、を有し
    前記第2の物理サーバは、
    前記運用管理装置から前記第2の割当情報を受信する受信部と、
    受信された前記第2の割当情報にしたがって、前記待機系である複数の第2の仮想マシンに、前記第2のプロセッサの複数のコアの一部を割当てる割当部と、
    を有することを特徴とする情報処理システム。
JP2015142459A 2015-07-16 2015-07-16 運用管理装置、運用管理プログラムおよび情報処理システム Pending JP2017027166A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015142459A JP2017027166A (ja) 2015-07-16 2015-07-16 運用管理装置、運用管理プログラムおよび情報処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015142459A JP2017027166A (ja) 2015-07-16 2015-07-16 運用管理装置、運用管理プログラムおよび情報処理システム

Publications (1)

Publication Number Publication Date
JP2017027166A true JP2017027166A (ja) 2017-02-02

Family

ID=57945923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015142459A Pending JP2017027166A (ja) 2015-07-16 2015-07-16 運用管理装置、運用管理プログラムおよび情報処理システム

Country Status (1)

Country Link
JP (1) JP2017027166A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019160060A1 (ja) * 2018-02-19 2019-08-22 日本電信電話株式会社 仮想リソース管理装置、仮想リソース割り当て方法、および仮想リソース割り当てプログラム
WO2019160030A1 (ja) * 2018-02-19 2019-08-22 日本電信電話株式会社 サービス提供システム、資源割り当て方法、及び資源割り当てプログラム
WO2021166229A1 (ja) * 2020-02-21 2021-08-26 日本電信電話株式会社 呼制御装置、呼処理継続方法、および、呼制御プログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019160060A1 (ja) * 2018-02-19 2019-08-22 日本電信電話株式会社 仮想リソース管理装置、仮想リソース割り当て方法、および仮想リソース割り当てプログラム
WO2019160030A1 (ja) * 2018-02-19 2019-08-22 日本電信電話株式会社 サービス提供システム、資源割り当て方法、及び資源割り当てプログラム
JP2019144727A (ja) * 2018-02-19 2019-08-29 日本電信電話株式会社 仮想リソース管理装置、仮想リソース割り当て方法、および仮想リソース割り当てプログラム
US11640314B2 (en) 2018-02-19 2023-05-02 Nippon Telegraph And Telephone Corporation Service provision system, resource allocation method, and resource allocation program
WO2021166229A1 (ja) * 2020-02-21 2021-08-26 日本電信電話株式会社 呼制御装置、呼処理継続方法、および、呼制御プログラム
US11825017B2 (en) 2020-02-21 2023-11-21 Nippon Telegraph And Telephone Corporation Call control apparatus, call processing continuation method and call control program
JP7389387B2 (ja) 2020-02-21 2023-11-30 日本電信電話株式会社 呼制御装置、呼処理継続方法、および、呼制御プログラム

Similar Documents

Publication Publication Date Title
CN110113441B (zh) 实现负载均衡的计算机设备、系统和方法
US10541862B2 (en) VNF processing policy determining method, apparatus, and system
EP3200397A1 (en) Virtual network policy configuration method and system, as well as virtual network element and network management system thereof
CN109669762B (zh) 云计算资源管理方法、装置、设备及计算机可读存储介质
US20160036924A1 (en) Providing Higher Workload Resiliency in Clustered Systems Based on Health Heuristics
US20100058342A1 (en) Provisioning system, method, and program
US10038593B2 (en) Method and system for recovering virtual network
CN113366802B (zh) 在kubernetes系统中运行的状态控制器及其操作方法
JP2018519736A (ja) Vnfフェイルオーバの方法及び装置
US10884880B2 (en) Method for transmitting request message and apparatus
JP2013218687A (ja) サーバー監視システム及びその方法
CN108989476B (zh) 一种地址分配方法以及装置
US20230359372A1 (en) Mirrored Memory Configuration Method and Apparatus, and Computer Storage Medium
US11917001B2 (en) Efficient virtual IP address management for service clusters
CN104506654A (zh) 云计算系统及动态主机配置协议服务器备份方法
JP2017027166A (ja) 運用管理装置、運用管理プログラムおよび情報処理システム
JP2015158773A (ja) 仮想装置の動作検証装置,仮想装置の動作検証システム及びプログラム
US9529680B2 (en) Virtual resource-based backup
US10637748B2 (en) Method and apparatus for establishing interface between VNFMS, and system
US11153173B1 (en) Dynamically updating compute node location information in a distributed computing environment
CN116095145B (zh) 一种vpc集群的数据控制方法和系统
CN108268300B (zh) 一种虚拟机的迁移方法及装置
CN111045778B (zh) 一种虚拟机的创建方法、装置、服务器及存储介质
CN114615268B (zh) 基于Kubernetes集群的服务网络、监控节点、容器节点及设备
CN109731345B (zh) 语音处理方法及装置、电子设备、存储介质