JP5702747B2 - サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム - Google Patents

サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム Download PDF

Info

Publication number
JP5702747B2
JP5702747B2 JP2012050608A JP2012050608A JP5702747B2 JP 5702747 B2 JP5702747 B2 JP 5702747B2 JP 2012050608 A JP2012050608 A JP 2012050608A JP 2012050608 A JP2012050608 A JP 2012050608A JP 5702747 B2 JP5702747 B2 JP 5702747B2
Authority
JP
Japan
Prior art keywords
unit
physical server
virtual machine
resource
service order
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012050608A
Other languages
English (en)
Other versions
JP2013186644A (ja
Inventor
清水 雅史
雅史 清水
学 西尾
学 西尾
彦俊 中里
彦俊 中里
正勝 藤原
正勝 藤原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012050608A priority Critical patent/JP5702747B2/ja
Publication of JP2013186644A publication Critical patent/JP2013186644A/ja
Application granted granted Critical
Publication of JP5702747B2 publication Critical patent/JP5702747B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Computer And Data Communications (AREA)

Description

本発明は、ネットワークを構成するネットワーク装置(NE:Network Element)に対してコマンドの投入処理を行う、サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラムに関する。
インターネットが広く普及した今日では、VPN(Virtual Private Network)サービス,広域LAN(Local Area Network)サービスといった企業ユーザ向けサービスや、ISP(Internet Service Provider)接続サービス,PCC(PCコミュニケータ)サービスといった個人ユーザ向けサービスなど、さまざまな通信サービスが提供されている。ここで、これらの通信サービスを実現するためには、通信サービスの申込(SO:Service Order)があった拠点に配設されるネットワーク装置(例えば、ルータ等)の設定を行う必要がある。以下では、通信サービスの申込(SO)により設定を行うネットワーク装置やそのネットワーク装置の設備情報などが示される情報を「SOデータ」と呼ぶ。また、ネットワーク装置を設定する設定情報を「コマンド」と呼び、ネットワーク装置を設定する処理を「コマンドの投入処理」や「コマンド処理」と呼ぶ場合がある。
従来、通信サービスの申し込みに伴い、コマンドの投入処理(コマンド処理)を行うシステムとして、サービスオーダーシステム(SOシステム)が知られている。SOシステムは、SOデータを顧客管理システム(上位システム)から受け取り、受け取ったSOデータを参照し、通信サービスの対象となるネットワーク装置に対してコマンドの投入処理を行う。以下では、コマンドの投入対象となるネットワーク装置を「投入対象のネットワーク装置」と呼ぶ場合がある。
ここで、SOシステムでは、複数のコマンドの投入処理(コマンド処理)が同一の投入対象のネットワーク装置に対して要求された場合に、これらのコマンド処理を同時に実行しない仕組み(競合制御機能)が必要となる。それは、コマンド処理に失敗した場合に、SOシステム内で複雑な切り戻し処理を発生させないためである。
競合制御機能を備えたSOシステムの構成例を図11に示す。SOシステム(サービスオーダーシステム)901は、特定のネットワーク装置903のコマンド処理を担当するSO装置(サービスオーダー装置)905が複数とならないように、ネットワーク装置903をエリア単位(エリアA,エリアB,・・・)に分割する構成が採用される。例えば、エリアAを担当するSO装置905は、エリアAに属するネットワーク装置903のコマンド処理を行うが、エリアBに属するネットワーク装置903のコマンド処理を行わない。
また、SOシステム901が処理を行うコマンドは、膨大な数に上る。その要因として、通信サービスが多様化していることや通信サービスの加入者が増大していることなどが挙げられる。それに伴い、SOシステム901では、膨大な数のコマンドを特定のネットワーク装置903に対して迅速に投入し、申し込みがあった通信サービスに対応するようにネットワーク装置903の設定を行うことが求められる。従来、SOシステム901のSO装置905において、効率よく平等にコマンドを投入する技術がある(特許文献1参照)。
特開2010−267165号公報
しかしながら、特許文献1に記載された技術は、SO装置905単体として効率よく平等にコマンドを投入する機能が具備されているが、SOシステム901あたりのハードウェア性能は有限であるため、コマンドの投入量の増加によってSOシステム901の性能要件を超える場合には、特許文献1に記載された技術では対応することができないことが想定される。例えば、SOデータの一時的な増加に伴いSO装置905の負荷が性能要件を超える場合や、通信サービス加入者の増加に伴いエリア内のSO装置905の負荷が性能要件を超える場合である。
前者の場合、顧客管理システム904に対してSOデータの投入規制をかける等の工夫によって、SO装置905の性能要件を超えない範囲での処理を行うことが想定される。これにより、SO装置905のレスポンス低下を回避することは可能であるが、大量のSOデータの処理完了までに時間がかかるという問題がある。
また、後者の場合、エリアをさらに複数に分割し、SO装置905が管理するネットワーク装置903を再配備することで、SO装置905の性能要件を超えないようにする必要がある。すなわち、新たにSO装置905を増設し、コマンドの投入処理が増加するSO装置905が担当しているネットワーク装置903の一部を新たなSO装置905の担当とする。ここで、SO装置905は、運用系サーバ1台と予備系サーバ1台とを最小構成の1セットとする構成であり、1セットあたりに定める性能条件を超える場合に、運用系サーバと予備系サーバとの1セットを1単位としてSO装置905の増設を行う。これにより、SO装置905のレスポンス低下を回避することは可能であるが、SO装置905が保持するネットワーク装置903の情報を、移行先である新たなSO装置905に引き継ぐ収納替え作業による業務的負担が大きいという問題がある。
つまり、負荷の増大によりSOシステム901の性能要件を超えそうになった場合に、性能を動的に向上させて、一時的な負荷増大に対しては投入規制の時間をできるだけ短く、またエリア内の負荷増大に対しては収納替え作業による業務負担を軽減する仕組みが必要となる。
本発明は、前記問題に鑑みてなされたものであり、競合制御機能が実現されると共に、コマンド処理の増加に対する拡張性を持たせることができる、サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラムを提供することを課題とする。
前記課題を解決するため、本発明に係るサービスオーダーシステムは、複数のネットワーク装置と、前記複数のネットワーク装置に接続され、当該ネットワーク装置の設定を行うためのコマンドの投入処理を行うサービスオーダー装置とで構成されるサービスオーダーシステムであって、前記サービスオーダー装置が、リソースが互いに独立して割り当てられた複数の物理サーバ部と、前記物理サーバ部を管理する物理サーバ管理部とを備え、前記物理サーバ部が、前記物理サーバ部上に仮想的に設けられると共に前記リソースの一部が割り当てられて稼働し、前記ネットワーク装置に対して前記コマンドの投入処理を行う仮想マシン部を有しており、前記物理サーバ管理部が、前記ネットワーク装置の識別情報と当該ネットワーク装置に対して前記コマンドの投入処理を行う前記仮想マシン部の識別情報とを対応付けた競合制御用情報、前記仮想マシン部と前記仮想マシン部に割り当てられたリソースの使用率の上限を示す仮想マシンリソース上限閾値とを対応付けた仮想マシン状態管理情報、及び前記物理サーバ部と前記物理サーバ部に割り当てられたリソースの使用率の上限を示す物理サーバリソース上限閾値とを対応付けた物理サーバ状態管理情報が格納される物理サーバ管理用記憶部と、投入処理を行う前記コマンドを特定するSO(Service Order)データを外部装置から受信し、前記競合制御用情報を参照して前記SOデータを対象の前記仮想マシン部に振り分ける競合制御部と、前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシン状態管理情報の前記仮想マシンリソース上限閾値を超えているか否かを監視する仮想マシン負荷監視部と、前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバ状態管理情報の前記物理サーバリソース上限閾値を超えているか否かを監視する物理サーバ負荷監視部と、前記仮想マシン負荷監視部が、前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシンリソース上限閾値を超えていると判定した場合に、当該仮想マシン部に対してリソースの増強を指示する仮想マシン負荷分散制御部と、前記物理サーバ負荷監視部が、前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバリソース上限閾値を超えていると判定した場合に、当該物理サーバ部で稼働する仮想マシン部の一部に対して、他の物理サーバ部に移行することを指示する物理サーバ負荷分散制御部とを有することを特徴とする。
ここで、前記物理サーバリソースは、CPU、メモリ、HDD、及びネットワークカードの内、少なくとも何れか1つであることが好ましい。
このようにすることで、本発明に係るサービスオーダーシステムは、競合制御部がSOデータを仮想マシン部単位に振り分けを行う。そして、特定の仮想マシン部の負荷が増大するとリソースの増強を行い、また、仮想マシン部が稼働する物理サーバ部の負荷が増大すると仮想マシン部の一部を他の物理サーバ部に移行する。したがって、本発明に係るサービスオーダーシステムは、競合制御機能が実現されると共に、コマンド処理の増加に対する拡張性を持たせることができる。
本発明に係るサービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラムによれば、競合制御機能が実現されると共に、コマンド処理の増加に対する拡張性を持たせることができる。
実施形態に係るSOシステムの構成図である。 実施形態に係るSO装置の物理サーバ部の構成図である。 実施形態に係るSO装置の物理サーバ管理部の構成図である。 実施形態に係るSO装置の構成の具体例を示す図である。 実施形態に係るSO装置におけるSOデータの振り分け処理を示すシーケンス図である。 実施形態に係るSO装置における仮想マシン部及び物理サーバ部の負荷監視処理を示すシーケンス図である。 実施形態に係るSO装置における仮想マシン部の負荷が増大した場合のリソース増強処理(スケールアップ処理)を示すシーケンス図である。 実施形態に係るSO装置における物理サーバ部の負荷が増大した場合の仮想マシン部の移行処理(スケールアウト処理)を示すシーケンス図である。 実施形態に係るSO装置が実行するスケールアウト処理における移行先の物理サーバ部を決定するためのフローチャートである。 実施形態に係るSO装置が実行する仮想マシン部のリソース増強処理(スケールアップ処理)や仮想マシン部の移行処理(スケールアウト処理)が完了した様子を説明するための図である。 従来例としてのSOシステムの構成図である。
[発明の概要]
本発明は、競合制御機能が実現されると共に、コマンド処理の増加に対する拡張性を持たせることができるサービスオーダーシステムを実現するものである。
具体的には、ネットワーク装置とネットワーク装置に対してコマンドを投入する仮想マシン部との関係を「多数:1」又は「1:1」(「1:多数」又は「多数:多数」としない)とし、SOデータを仮想マシン部単位に振り分けを行うことで競合制御機能を確保する。
また、SOデータの一時的な増加により特定の仮想マシン部の負荷が増加した場合には、その仮想マシン部のリソースを増強(スケールアップ)し、一方、複数の仮想マシン部が稼働する特定の物理サーバ部の負荷が増大した場合には、一部の仮想マシン部を他の物理サーバ部に移行(スケールアウト)することで、コマンド処理の増加に対する拡張性を持たせる。
以下、図面を参照して、本発明の実施の形態につき詳細に説明する。
なお、各図は、本発明を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本発明は、図示例のみに限定されるものではない。また、各図において、共通する構成要素や同様な構成要素については、同一の符号を付し、それらの重複する説明を省略する。
[実施の形態]
以下、図1を参照して、実施形態に係るSOシステム(サービスオーダーシステム)1の構成について説明する。図1は、実施形態に係るSOシステム1の構成図である。
≪サービスオーダーシステムの構成≫
SOシステム1は、ネットワーク2を構成する#1〜#N(Nは正の整数)のネットワーク装置3(図1では「#1ネットワーク装置3」等のように記載)と、上位システムとしての顧客管理システム4と、ネットワーク装置3及び顧客管理システム4と通信可能に接続されるSO装置(サービスオーダー装置)5とで構成される。次に、SOシステム1を構成する各装置について説明する。
<ネットワーク装置>
ネットワーク装置3は、自身が受信したデータを他のネットワーク装置3に転送することで拠点間のデータ通信を実現する。ネットワーク装置3は、例えば、ルータである。ネットワーク装置3の設定は、コマンドを投入することにより行う。ネットワーク装置3に投入するコマンドは、例えば、Cisco(登録商標)ルータのコマンドで、Configurationモードで設定する「password」や「ip address」等である。
コマンドは、同じネットワーク装置3に同時(または、ほぼ同時)に複数投入した場合、相互の干渉するおそれがあるため、排他的に実行する必要がある。つまり、ネットワーク装置3において、1つのコマンドの実行が完了してから、次のコマンドを実行する必要がある。また、このコマンドは、他のコマンドと順番が前後してしまうと、想定した実行結果と異なる結果となる場合がある。そのため、コマンドを投入する際には、投入順序を守る必要がある。
<顧客管理システム>
外部装置としての顧客管理システム4は、申し込みがあった通信サービスに基づいて、設定を行うネットワーク装置3を識別するネットワーク装置識別情報(例えば、アドレス情報)やそのネットワーク装置3の設備情報などが示されるSOデータをSO装置5に出力する。1つの通信サービスの申し込みにより、複数のネットワーク装置3の設定を行う場合には、顧客管理システム4は、設定対象数分のSOデータをSOデータ群として出力する。
顧客管理システム4は、例えば、SO装置5に対してSOデータを出力するコンピュータとして実現される。顧客管理システム4は、FTP(File Transfer Protocol)やSSH(Secure Shell)などのプロトコルを用いてSOデータの送受信を行う。なお、顧客管理システム4は「外部装置」の一例である。
<サービスオーダー装置>
SO装置5は、顧客管理システム4から設定対象数分のSOデータ群を受信し、設定対象のネットワーク装置3に対してSOデータに基づくコマンドの投入処理を実行する。
SO装置5は、#1〜#M(Mは正の整数)の物理サーバ部10(図1では「#1物理サーバ部10」等のように記載)と、物理サーバ部10を管理する物理サーバ管理部50とで構成される。ここで、#1〜#Mの物理サーバ部10は、例えば、M個のブレードで構成されるブレードサーバであってもよいし、異なる場所に設置されるM個の独立したサーバが互いにネットワーク2を介して通信可能に接続される構成であってもよい。
<物理サーバ部>
図2を参照して、実施形態に係るSO装置5の物理サーバ部10の構成について説明する。図2は、実施形態に係るSO装置5の物理サーバ部10の構成図である。ここで、#1〜#Mの物理サーバ部10の構成は、同様である。
物理サーバ部10は、制御部20と、記憶部30と、通信部40とで構成される。制御部20は、複数のCPU(Central Processing Unit)で構成されるCPU群によるプログラム実行処理や、専用回路等により実現される。記憶部30は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体から構成される。通信部40は、複数のネットワークカード等により実現される。以下では、制御部20を実現するCPU等、記憶部30を構成するメモリやHDD等、通信部40を実現するネットワークカード等をリソースと呼ぶことにする。以下、各構成を説明する。
(制御部)
制御部20は、#n〜#(n+i)の仮想マシン部21(図2では「#n仮想マシン部21」等のように記載)と、リソース増強処理部24と、物理サーバリソース通知部25と、仮想マシン移行処理部26とで構成される。ここで仮想マシン部21の#(番号)は、SO装置5(図1参照)全体を通して一意の番号が付与される。例えば、#1の物理サーバ部10の制御部20では、#1〜#3の仮想マシン部21が稼働し、#2の物理サーバ部10の制御部20では、#4〜#7の仮想マシン部21が稼働する。
(仮想マシン部)
仮想マシン部21は、SOデータ処理部22と、仮想マシンリソース通知部23とで構成される。なお、図示を省略しているが、#(n+i)の仮想マシン部21を含む全ての仮想マシン部21は同様の構成である。
SOデータ処理部22は、特定のネットワーク装置3に対して、SOデータに基づくコマンドの投入処理を実行する。
仮想マシンリソース通知部23は、仮想マシン部21がコマンド処理を実行するために確保されたリソースの内、仮想マシン部21が実際に使用しているリソースの使用状況に関する情報(CPU使用率やメモリ使用率など)を仮想マシン負荷監視部73(後記する図3参照)に通知する。以下では、この情報を「仮想マシンリソース使用情報」と呼ぶ場合がある。通知した仮想マシンリソース使用情報は、特定の仮想マシン部21が実行するコマンド処理の増加に伴い特定の仮想マシン部21の負荷が増大した場合に、リソースの増強(スケールアップ)を行うか否かの判定に用いられる。
(リソース増強処理部)
リソース増強処理部24は、特定の仮想マシン部21が実行するコマンド処理の増加に伴い特定の仮想マシン部21の負荷が増大した場合に、リソースの増強(スケールアップ)を行う。詳細は後記する。
(物理サーバリソース通知部)
物理サーバリソース通知部25は、物理サーバ部10が備えるリソースの内、実際に使用するリソース(#n〜#(n+i)の仮想マシン部21が実際に使用しているリソースを含む)の使用状況に関する情報(CPU使用率やメモリ使用率など)を物理サーバ負荷監視部74(後記する図3参照)に通知する。以下では、この情報を「物理サーバリソース使用情報」と呼ぶ場合がある。通知した物理サーバリソース使用情報は、不特定多数の仮想マシン部21が実行するコマンド処理の増加に伴い物理サーバ部10の負荷が増大した場合に、一部の仮想マシン部21の移行(スケールアウト)を行うか否かの判定に用いられる。
(仮想マシン移行処理部)
仮想マシン移行処理部26は、不特定多数の仮想マシン部21が実行するコマンド処理の増加に伴い物理サーバ部10の負荷が増大した場合に、一部の仮想マシン部21の移行(スケールアウト)を行う。詳細は後記する。
(記憶部)
記憶部30には、#n〜#(n+i)の仮想マシン用領域31が確保される。仮想マシン用領域31は、仮想マシン部21を稼働し、コマンド処理を実行するために使用可能な領域(Byte)である。ここで、仮想マシン用領域31の#(番号)は、仮想マシン部21の#(番号)に対応している。
(通信部)
通信部40には、#n〜#(n+i)の仮想マシン用部分41が確保される。仮想マシン用部分41は、コマンド処理を実行するために使用可能なネットワークカード(数)や通信帯域(bit/sec)である。ここで、仮想マシン用部分41の#(番号)は、仮想マシン部21の#(番号)に対応している。
<物理サーバ管理部>
図3を参照して、実施形態に係るSO装置5の物理サーバ管理部50の構成について説明する。図3は、実施形態に係るSO装置5の物理サーバ管理部50の構成図である。物理サーバ管理部50は、物理サーバ部10と同一装置内に配設してもよいし、物理サーバ部10が配設される装置と通信可能に接続される装置に配設してもよい。
物理サーバ管理部50は、物理サーバ管理用記憶部60と、物理サーバ管理用制御部70とで構成される。
(物理サーバ管理用記憶部)
物理サーバ管理用記憶部60は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等の記憶媒体から構成される。ここで、本実施形態では、物理サーバ管理用記憶部60と物理サーバ部10の記憶部30(図2参照)とを別々の構成としているが、同一の装置として構成してもよい。
物理サーバ管理用記憶部60には、競合制御用テーブル(競合制御用情報)61と、仮想マシン状態管理テーブル(仮想マシン状態管理情報)62と、物理サーバ状態管理テーブル(物理サーバ状態管理情報)63とが格納される。
競合制御用テーブル(競合制御用情報)61には、ネットワーク装置3を識別するネットワーク装置識別情報と、ネットワーク装置3のコマンド処理を一意に行う仮想マシン部21を識別する仮想マシン識別情報とが対応付けて格納される。ここで、ネットワーク装置識別情報は、例えば、ネットワーク装置3のアドレス情報であり、仮想マシン識別情報は、例えば、仮想マシン部21のアドレス情報である。
仮想マシン状態管理テーブル(仮想マシン状態管理情報)62には、仮想マシン部21を識別する仮想マシン識別情報と、仮想マシン部21がコマンド処理を実行するために使用可能なリソース(CPU、メモリ、HDD、ネットワークカード)の上限閾値(%、数など)とが対応付けて格納される。以下では、仮想マシン部21がコマンド処理を実行するために使用可能なリソースの上限閾値を「仮想マシンリソース上限閾値」と呼ぶ場合がある。仮想マシンリソース上限閾値は、仮想マシン部21が安定して稼働できるように設定する。
物理サーバ状態管理テーブル(物理サーバ状態管理情報)63には、物理サーバ部10を識別する物理サーバ識別情報と、物理サーバ部10が使用可能なリソース(CPU、メモリ、HDD、ネットワークカード)の上限閾値(%、数など)とが対応付けて格納される。以下では、物理サーバ部10が使用可能なリソースの上限閾値を「物理サーバリソース上限閾値」と呼ぶ場合がある。物理サーバリソース上限閾値は、物理サーバ部10が安定して稼働できるように設定する。
(物理サーバ管理用制御部)
物理サーバ管理用制御部70は、CPU(Central Processing Unit)によるプログラム実行処理や、専用回路等により実現される。ここで、本実施形態では、物理サーバ管理用制御部70と物理サーバ部10の制御部20(図2参照)とを別々の構成としているが、同一の装置として構成してもよい。
物理サーバ管理用制御部70は、競合制御部71と、仮想マシン負荷監視部73及び物理サーバ負荷監視部74を管理する負荷監視部72と、仮想マシン負荷分散制御部76及び物理サーバ負荷分散制御部77を管理する負荷分散制御部75とで構成される。さらに、負荷監視部72は、仮想マシン負荷監視部73と、物理サーバ負荷監視部74とで構成される。また、負荷分散制御部75は、仮想マシン負荷分散制御部76と、物理サーバ負荷分散制御部77とで構成される。
競合制御部71は、顧客管理システム4(図1参照)から受信したSOデータ群をネットワーク装置3単位に振り分ける処理を行う。具体的には、競合制御部71は、顧客管理システム4から受信したSOデータに格納されるネットワーク装置3のアドレス情報を基にして、競合制御用テーブル61を参照し、設定対象となるネットワーク装置3のコマンド処理を行う仮想マシン部21のアドレス情報を取得する。そして、競合制御部71は、取得したアドレス情報に示す仮想マシン部21にSOデータを渡す。
仮想マシン負荷監視部73は、特定のネットワーク装置3へのコマンド投入数が増大することによる特定の仮想マシン部21の負荷の増大を監視する。具体的には、仮想マシン負荷監視部73は、仮想マシン部21の仮想マシンリソース通知部23(図2参照)から仮想マシンリソース使用情報を定期的に取得し、取得した仮想マシンリソース使用情報が仮想マシン状態管理テーブル62に格納される仮想マシンリソース上限閾値を超えているか否かを判定する。仮想マシンリソース上限閾値を超えていた場合に、仮想マシン負荷分散制御部76が処理を行う。
物理サーバ負荷監視部74は、不特定多数のネットワーク装置3へのコマンド投入数が増大することによる特定の物理サーバ部10の負荷の増大を監視する。具体的には、物理サーバ負荷監視部74は、物理サーバリソース通知部25(図2参照)から物理サーバリソース使用情報を定期的に取得し、取得した物理サーバリソース使用情報が物理サーバ状態管理テーブル63に格納される物理サーバリソース上限閾値を超えているか否かを判定する。物理サーバリソース上限閾値を超えていた場合に、物理サーバ負荷分散制御部77が処理を行う。
仮想マシン負荷分散制御部76は、仮想マシンリソース使用情報が仮想マシンリソース上限閾値を超えていると判定された仮想マシン部21のリソース増強(スケールアップ)を行う。具体的には、仮想マシン負荷分散制御部76は、上限閾値を超えていると判定された仮想マシン部21に割り当てたリソースの再計算を行い、リソース増強処理部24(図2参照)に対して再計算したリソースの増強を要求する。なお、仮想マシン負荷分散制御部76は、リソース増強を要求する場合、競合制御部71に対してSOデータの投入規制を事前に要求する。これにより、上限閾値を超えていると判定された仮想マシン部21は、リソースの再割当が実行される。
物理サーバ負荷分散制御部77は、物理サーバリソース使用情報が物理サーバリソース上限閾値を超えていると判定された物理サーバ部10で稼働する仮想マシン部21の一部を他の物理サーバ部10へ動的に移行する。具体的には、物理サーバ負荷分散制御部77は、上限閾値を超えていると判定された物理サーバ部10に配置されている仮想マシン部21の内の一部を他の物理サーバ部10に再配置するためのリソースの再計算を行い、仮想マシン移行処理部26(図2参照)に対して再計算により移行対象となった仮想マシン部21の移行処理を要求する。なお、物理サーバ負荷分散制御部77は、移行処理を要求する場合、競合制御部71に対してSOデータの投入規制を事前に要求する。これにより、移行対象の仮想マシン部21が他の物理サーバ部10に移行される。移行先の物理サーバ部10の選択については、動作で詳細を説明する。
以上で、SOシステム(サービスオーダーシステム)1の構成の説明を終了する。
≪サービスオーダーシステムの動作≫
図4は、図1に示すSO装置5の具体例として、#1〜#4の物理サーバ部10で構成されるSO装置5を示す図である。以下では、図4を適宜参照し、実施形態に係るSOシステム1の動作概要について説明する。
#1の物理サーバ部10では、#1のネットワーク装置3に対してコマンド処理を行う#1の仮想マシン部21と、#2のネットワーク装置3に対してコマンド処理を行う#2の仮想マシン部21とが稼働している。また、#2の物理サーバ部10では、#3のネットワーク装置3に対してコマンド処理を行う#3の仮想マシン部21と、#4のネットワーク装置3に対してコマンド処理を行う#4の仮想マシン部21とが稼働している。#3の物理サーバ部10では、仮想マシン部21が現段階では稼働していない。また、#4の物理サーバ部10では、#1〜#4の仮想マシン部21が機器の故障等により稼働できない場合に稼働する予備系の仮想マシン部21が、例えば、即時稼働できる状態で待機している。
<SOデータの振り分け処理>
顧客管理システム4から受信したSOデータの振り分け処理について説明する。図5は、図4のSO装置5のSOデータの振り分け処理を示すシーケンス図である。
最初に、顧客管理システム4からSOデータが送信され(ステップS1)、SO装置5の競合制御部71が受信する。続いて、競合制御部71は、受信したSOデータに含まれるネットワーク装置3のアドレス情報(識別情報)に基づき振り分け先の#1〜#4の仮想マシン部21を指定し(ステップS2)、指定した仮想マシン部21に対してSOデータを送信する(ステップS3)。仮想マシン部21にSOデータが振り分けられると、仮想マシン部21は、記憶部30の仮想マシン用領域31にSOデータを格納し、SOデータを受け取ったことによる受取完了通知を競合制御部71に対して送信する(ステップS4)。そして、競合制御部71は、顧客管理システム4に対して受取完了通知を送信する(ステップS5)。
続いて、顧客管理システム4からSOデータ実行要求が送信され(ステップS6)、SO装置5の競合制御部71が受信する。続いて、競合制御部71は、受信したSOデータ実行要求に含まれるネットワーク装置3のアドレス情報(識別情報)に基づき振り分け先の#1〜#4の仮想マシン部21を指定し(ステップS7)、指定した仮想マシン部21に対してSOデータ実行要求を送信する(ステップS8)。仮想マシン部21にSOデータ実行要求が送られると、仮想マシン部21(SOデータ処理部22)は、ステップS3で送信されたSOデータを参照し(ステップS9)、ネットワーク装置3を設定する設定情報(コマンド)を特定し、#1〜#4のネットワーク装置3の内、投入対象のネットワーク装置3に対してコマンドの投入処理を実行する(ステップS10)。また、コマンドの投入処理の実行を開始したことによる処理開始通知を競合制御部71に対して送信する(ステップS11)。そして、競合制御部71は、顧客管理システム4に対して処理開始通知を送信する(ステップS12)。
<負荷監視処理>
次に、仮想マシン部21及び物理サーバ部10の負荷監視処理について説明する。図6は、図4のSO装置5において、#1〜#4の仮想マシン部21及び#1〜#3の物理サーバ部10の負荷監視処理を示すシーケンス図である。
最初に、オペレータから仮想マシン部21及び物理サーバ部10の監視実行の指示が入力されると(ステップS21)、負荷監視部72は、監視対象とする仮想マシン部21及び物理サーバ部10を指定する(ステップS22)。ここでは、監視対象として、#1〜#4の仮想マシン部21及び#1〜#2の物理サーバ部10が指定される。続いて、負荷監視部72は、#1〜#4の仮想マシン部21(仮想マシンリソース通知部23)及び#1〜#2の物理サーバリソース通知部25に対して、負荷情報の要求(ステップS23)を開始し、応答として#1〜#4の仮想マシン部21及び#1〜#2の物理サーバリソース通知部25は、負荷情報を送信する(ステップS24)。ステップS23の負荷情報の要求、及びそれに対するステップS24の負荷情報の送信は、その後定期的に行われる。また、負荷監視部72は、負荷監視処理を開始したことをオペレータに対して通知する(ステップS25)。
<リソース増強処理(スケールアップ処理)>
次に、特定の仮想マシン部21の負荷が増大したことによるリソース増強処理(スケールアップ処理)について説明する。図7は、図4のSO装置5において、#1の仮想マシン部21の負荷が増大した場合におけるリソース増強処理(スケールアップ処理)を示すシーケンス図である。
ステップS24(図6参照)で負荷監視部72が#1の仮想マシン部21から受信した負荷情報(仮想マシンリソース使用情報)が閾値を超えていた場合を想定する。
負荷分散制御部75(仮想マシン負荷分散制御部76)は、#1の仮想マシン部21に割り当てたリソースの再計算を行う(ステップS41)と共に、競合制御部71に対してSOデータの投入規制を要求し(ステップS42)、応答として、競合制御部71から投入規制要求受取を受信する(ステップS43)。
続いて、負荷分散制御部75(仮想マシン負荷分散制御部76)は、リソース増強処理部24に対して、ステップS41で再計算した#1仮想マシン部21に割り当てたリソースの増強要求を行い(ステップS44)、リソース増強処理部24は、#1仮想マシン部21のリソースの再割当を実行する(ステップS45)。これにより、#1の仮想マシン部21のリソースが増強(スケールアップ)される。リソース増強処理部24は、リソースの再割当の実行が終了したら、負荷分散制御部75に対して処理結果通知を送信する(ステップS46)。
続いて、負荷分散制御部75は、競合制御部71に対してSOデータの投入規制解除を要求し(ステップS47)、応答として、競合制御部71から投入規制解除要求受取を受信する(ステップS48)。
<仮想マシン部の移行処理(スケールアウト処理)>
次に、特定の物理サーバ部10の負荷が増大したことによる仮想マシン部21の移行処理(スケールアウト)について説明する。図8は、図4のSO装置5において、#2の物理サーバ部10の負荷が増大した場合における#4の仮想マシン部21の移行処理(スケールアウト処理)を示すシーケンス図である。
ステップS24(図6参照)で負荷監視部72が#2の物理サーバリソース通知部25から受信した負荷情報(物理サーバリソース使用情報)が閾値を超えていた場合を想定する。
負荷分散制御部75(物理サーバ負荷分散制御部77)は、#2の物理サーバ部10に配置されている#3〜#4の仮想マシン部21のうちの一部を他の物理サーバ部10に再配置するためのリソースの再計算を行う(ステップS61)。ここでは、#4の仮想マシン部21を#3の物理サーバ部10に移行する再計算が行われたとする。また、負荷分散制御部75は、競合制御部71に対してSOデータの投入規制を要求し(ステップS62)、応答として、競合制御部71から投入規制要求受取を受信する(ステップS63)。
続いて、負荷分散制御部75は、仮想マシン移行処理部26に対して、ステップS61で再計算した移行処理の要求を行い(ステップS64)、仮想マシン移行処理部26は、#2の物理サーバ部10で稼働する#4の仮想マシン部21を#3の物理サーバ部10へ移行する処理を実行する(ステップS65)。これにより、#4の仮想マシン部21が#3の物理サーバ部10に移行(スケールアウト)される。仮想マシン移行処理部26は、移行処理が終了したら、負荷分散制御部75に対して処理結果通知を送信する(ステップS66)。
続いて、負荷分散制御部75は、競合制御部71に対してSOデータの投入規制解除を要求し(ステップS67)、応答として、競合制御部71から投入規制解除要求受取を受信する(ステップS68)。
(スケールアウト処理における移行先の物理サーバ部の決定)
次に、図8のスケールアウト処理における移行先の物理サーバ部10の決定(ステップS61)について説明する。図9は、スケールアウト処理における移行先の物理サーバ部10を決定するためのフローチャートである。なお、図9に示すフローチャートは、スケールアウト処理の例示であり、他の方法により移行先の物理サーバ部10を決定することもできる。
ステップS24で物理サーバリソース通知部25から受信した負荷情報(物理サーバリソース使用情報)を入力データとする(ステップS410)。また、物理サーバ負荷分散制御部77は、変数MAXに初期値(例えば「最小値」)を設定し、変数MINに初期値(例えば「最大値」)を設定する。
次に、物理サーバ負荷分散制御部77は、#1〜#Mの物理サーバ部10の中から任意の1つの物理サーバ部10(以下「第1の物理サーバ部10」と呼ぶ)を選択し、ステップS430〜ステップS480の処理を行う。第1の物理サーバ部10の処理が終了したら、他の「第2の物理サーバ部10」、「第3の物理サーバ部10」、・・・を残りの物理サーバ部10の中から選択し、ステップS430〜ステップS480の処理を行う。つまり、ステップS420のループ処理は、物理サーバ部10単位に繰り返し行う(ステップS420)。
次に、物理サーバ負荷分散制御部77は、選択した1つの物理サーバ部10が備えるリソースの中から任意の1つのリソース(以下、「第1のリソース」と呼ぶ)を選択し、ステップS440〜ステップS460の処理を行う。第1のリソースの処理が終了したら、他の「第2のリソース」、「第3のリソース」、・・・を選択し、ステップS440〜ステップS460の処理を行う。つまり、ステップS430のループ処理は、使用リソース単位に繰り返し行う(ステップS430)。ここでは、第1のリソースとしてCPUが選択され、第2のリソースとしてメモリが選択されたとする。
次に、物理サーバ負荷分散制御部77は、物理サーバリソース使用情報に含まれるリソースの使用率(ここでは、CPU使用率)を変数Kに設定する(ステップS440)。次に、物理サーバ負荷分散制御部77は、ステップS440で設定した変数Kと変数MAXを比較し(ステップS450)、変数Kが変数MAXよりも大きい場合(ステップS450“Yes”)に、変数MAXを変数Kに置き換える(ステップS460)。一方、変数Kが変数MAXよりも大きくない場合(ステップS450“No”)に、変数MAXを変数Kに置き換える処理は行わない。
次に、物理サーバ負荷分散制御部77は、第2のリソースとしてメモリを選択し、ステップS440〜ステップS460の処理を行う。つまり、ステップS430のループ処理が終了した時点で、第1の物理サーバ部10のリソースの内、負荷が最も高いリソースのリソース使用率(以下、「サーバ毎リソース使用率」と呼ぶ)が求められる。
次に、物理サーバ負荷分散制御部77は、ステップS420で設定した変数MAXと変数MINとを比較し(ステップS470)、変数MAXが変数MINよりも小さい場合(ステップS470“Yes”)に、変数MINを変数MAXに置き換える(ステップS480)。一方、変数MAXが変数MINよりも小さくない場合(ステップS470“No”)に、変数MINを変数MAXに置き換える処理は行わない。
次に、物理サーバ負荷分散制御部77は、第2の物理サーバ部10を選択し、ステップS430〜ステップS480の処理を行う。つまり、ステップS420のループ処理が終了した時点で、各々の物理サーバ部10の中で、負荷が最も低いサーバ毎リソース使用率及び負荷が最も低いサーバ毎リソース使用率を有する物理サーバ部10が求められる。そして、当該物理サーバ部10が移行先として指定される。
仮想マシン部21のリソース増強処理(スケールアップ処理)や仮想マシン部21の移行処理(スケールアウト処理)が完了した様子を図10に示す。
#1の物理サーバ部10で稼働している#1の仮想マシン部21のリソースが増強され、#2の物理サーバ部10で稼働していた#4の仮想マシン部21が#3の物理サーバ部10に移行されている。
以上で、SOシステム(サービスオーダーシステム)1の動作の説明を終了する。
以上のように、実施形態に係るSOシステム(サービスオーダーシステム)1は、競合制御部71がSOデータを仮想マシン部21単位に振り分けを行う。そして、特定の仮想マシン部21の負荷が増大するとリソースの増強を行い、また、仮想マシン部21が稼働する物理サーバ部10の負荷が増大すると仮想マシン部21の一部を他の物理サーバ部10に移行する。そのため、実施形態に係るSOシステム(サービスオーダーシステム)1は、競合制御機能が実現されると共に、コマンド処理の増加に対する拡張性を持たせることができる。以下では、実施形態に係るSOシステム(サービスオーダーシステム)1の効果を、拡張性、可溶性、経済性、実装容易性の観点からより詳細に説明する。
(拡張性)
拡張性が高いシステムとは、処理能力が不足している場合に、迅速にシステムを拡張可能なことである。加えて、構築初期から処理能力の高いシステムを用意する必要がなく、システム負荷に応じて経済的な構成を段階的に提供可能なことである。
この点、実施形態に係るSOシステム(サービスオーダーシステム)1は、SOデータの一時的な増加により特定の仮想マシン部21の負荷が増加した場合には、その仮想マシン部21のリソースを増強(スケールアップ)し、一方、複数の仮想マシン部21を搭載する特定の物理サーバ部10の負荷が増大した場合には、一部の仮想マシン部21を他の物理サーバ部10に移行(スケールアウト)する。そのため、迅速なリソースの増設を実現できる。また、SOシステム1の構築処理は、仮想マシン部21に求められる性能要件は必ずしも高くないと考えられるため、必要最小限の物理サーバ部10に必要な数の仮想マシン部21を配置することでスモールスタートが可能となる。その後の加入者の増加に応じて、仮想マシン部21や物理サーバ部10を増設することで、動的な増設と経済的な構成を段階的に提供可能となる。したがって、拡張性は担保されていると言える。
(可用性)
可用性が高いシステムとは、故障自身の発生が少なく、加えて、故障時には迅速にシステムを修復可能なことである。
この点、実施形態に係るSOシステム(サービスオーダーシステム)1は、図4に示すように、仮想マシン部21の現用系・予備系構成を組むため、従来と同様の可用性を担保できる。また、SOシステム1の性能を迅速に向上するための動的スケールアップ処理や動的スケールアウト処理実行中にSOデータの投入異常を起こすことが懸念されるが、処理開始前にSOデータの投入規制処理(図7のステップS42や図8のステップS62)を盛り込む工夫によって可用性の担保が可能となる。
(保守性)
保守性の高いシステムとは、システムに問題が発生した場合に、影響箇所の特定を迅速に行えることである。
この点、実施形態に係るSOシステム(サービスオーダーシステム)1は、ネットワーク装置3と仮想マシン部21との対応関係は、図3に示す競合用テーブル(競合用情報)により明示的であり、SOシステム1で問題が発生したときの仮想マシン部21の特定は容易に行える。一方、物理サーバ部10の負荷状況に応じて特定の仮想マシン部21の搭載先が変動することにより、ネットワーク装置3とそれを管理する仮想マシン部21が搭載される物理サーバ部10とが物理的に遠い場所に配置される状況も想定される。この点については、動的スケールアウト処理における移行先の物理サーバ部10の決定において、ネットワーク装置3との位置関係(距離)を考慮することなどにより保守性の担保が可能となる。
(実装容易性)
実装容易性の高いシステムとは、システムを構築する開発コストなどが低いことである。
この点、アプリケーションレベルでSOデータの振り分け処理を行う競合制御部71(図3参照)を新規に開発する必要がある。振り分けロジックとしては、設定対象となるネットワーク装置3の識別情報と、そのネットワーク装置3のコマンド処理を行う仮想マシン部21との対応関係を競合用制御テーブル61(図3参照)として保持し、その情報に基づき振り分ける機能で実現することから、市販のアプリケーションレベルのロードバランサと同等機能で実現可能である。このように、開発コストのインパクトは低いので、実装容易性は担保されていると言える。
1 SOシステム(サービスオーダーシステム)
2 ネットワーク
3 ネットワーク装置
4 顧客管理システム(外部装置)
5 SO装置(サービスオーダー装置)
10 物理サーバ部
20 制御部
21 仮想マシン部
22 SOデータ処理部
23 仮想マシンリソース通知部
24 リソース増強処理部
25 物理サーバリソース通知部
26 仮想マシン移行処理部
30 記憶部
31 仮想マシン用領域
40 通信部
41 仮想マシン用部分
50 物理サーバ管理部
60 物理サーバ管理用記憶部
61 競合制御用テーブル(競合制御用情報)
62 仮想マシン状態管理テーブル(仮想マシン状態管理情報)
63 物理サーバ状態管理テーブル(物理サーバ状態管理情報)
70 物理サーバ管理用制御部
71 競合制御部
72 負荷監視部
73 仮想マシン負荷監視部
74 物理サーバ負荷監視部
75 負荷分散制御部
76 仮想マシン負荷分散制御部
77 物理サーバ負荷分散制御部

Claims (5)

  1. 複数のネットワーク装置と、前記複数のネットワーク装置に接続され、当該ネットワーク装置の設定を行うためのコマンドの投入処理を行うサービスオーダー装置と、で構成されるサービスオーダーシステムであって、
    前記サービスオーダー装置は、
    リソースが互いに独立して割り当てられた複数の物理サーバ部と、前記物理サーバ部を管理する物理サーバ管理部とを備え、前記物理サーバ部は、前記物理サーバ部上に仮想的に設けられると共に前記リソースの一部が割り当てられて稼働し、前記ネットワーク装置に対して前記コマンドの投入処理を行う仮想マシン部を有しており、
    前記物理サーバ管理部は、
    前記ネットワーク装置の識別情報と当該ネットワーク装置に対して前記コマンドの投入処理を行う前記仮想マシン部の識別情報とを対応付けた競合制御用情報、
    前記仮想マシン部と前記仮想マシン部に割り当てられたリソースの使用率の上限を示す仮想マシンリソース上限閾値とを対応付けた仮想マシン状態管理情報、及び
    前記物理サーバ部と前記物理サーバ部に割り当てられたリソースの使用率の上限を示す物理サーバリソース上限閾値とを対応付けた物理サーバ状態管理情報が格納される物理サーバ管理用記憶部と、
    投入処理を行う前記コマンドを特定するSO(Service Order)データを外部装置から受信し、前記競合制御用情報を参照して前記SOデータを対象の前記仮想マシン部に振り分ける競合制御部と、
    前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシン状態管理情報の前記仮想マシンリソース上限閾値を超えているか否かを監視する仮想マシン負荷監視部と、
    前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバ状態管理情報の前記物理サーバリソース上限閾値を超えているか否かを監視する物理サーバ負荷監視部と、
    前記仮想マシン負荷監視部が、前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシンリソース上限閾値を超えていると判定した場合に、当該仮想マシン部に対してリソースの増強を指示する仮想マシン負荷分散制御部と、
    前記物理サーバ負荷監視部が、前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバリソース上限閾値を超えていると判定した場合に、当該物理サーバ部で稼働する仮想マシン部の一部に対して、他の物理サーバ部に移行することを指示する物理サーバ負荷分散制御部と、
    を有することを特徴とするサービスオーダーシステム。
  2. 前記リソースは、CPU、メモリ、HDD、及びネットワークカードの内、少なくとも何れか1つである、
    ことを特徴とする請求項1に記載されたサービスオーダーシステム。
  3. 複数のネットワーク装置と、前記複数のネットワーク装置に接続され、当該ネットワーク装置の設定を行うためのコマンドの投入処理を行うサービスオーダー装置と、で構成されるサービスオーダーシステムの前記サービスオーダー装置であって、
    前記サービスオーダー装置は、
    リソースが互いに独立して割り当てられた複数の物理サーバ部と、前記物理サーバ部を管理する物理サーバ管理部とを備え、前記物理サーバ部は、前記物理サーバ部上に仮想的に設けられると共に前記リソースの一部が割り当てられて稼働し、前記ネットワーク装置に対して前記コマンドの投入処理を行う仮想マシン部を有しており、
    前記物理サーバ管理部は、
    前記ネットワーク装置の識別情報と当該ネットワーク装置に対して前記コマンドの投入処理を行う前記仮想マシン部の識別情報とを対応付けた競合制御用情報、
    前記仮想マシン部と前記仮想マシン部に割り当てられたリソースの使用率の上限を示す仮想マシンリソース上限閾値とを対応付けた仮想マシン状態管理情報、及び
    前記物理サーバ部と前記物理サーバ部に割り当てられたリソースの使用率の上限を示す物理サーバリソース上限閾値とを対応付けた物理サーバ状態管理情報が格納される物理サーバ管理用記憶部と、
    投入処理を行う前記コマンドを特定するSO(Service Order)データを外部装置から受信し、前記競合制御用情報を参照して前記SOデータを対象の前記仮想マシン部に振り分ける競合制御部と、
    前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシン状態管理情報の前記仮想マシンリソース上限閾値を超えているか否かを監視する仮想マシン負荷監視部と、
    前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバ状態管理情報の前記物理サーバリソース上限閾値を超えているか否かを監視する物理サーバ負荷監視部と、
    前記仮想マシン負荷監視部が、前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシンリソース上限閾値を超えていると判定した場合に、当該仮想マシン部に対してリソースの増強を指示する仮想マシン負荷分散制御部と、
    前記物理サーバ負荷監視部が、前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバリソース上限閾値を超えていると判定した場合に、当該物理サーバ部で稼働する仮想マシン部の一部に対して、他の物理サーバ部に移行することを指示する物理サーバ負荷分散制御部と、
    を有することを特徴とするサービスオーダー装置。
  4. 複数のネットワーク装置に接続され、前記ネットワーク装置の設定を行うためのコマンドの投入処理を行うサービスオーダー装置のサービスオーダー方法であって、
    前記サービスオーダー装置は、
    リソースが互いに独立して割り当てられた複数の物理サーバ部と、前記物理サーバ部を管理する物理サーバ管理部とを備え、前記物理サーバ部は、前記物理サーバ部上に仮想的に設けられると共に前記リソースの一部が割り当てられて稼働し、前記ネットワーク装置に対して前記コマンドの投入処理を行う仮想マシン部を有しており、
    前記物理サーバ管理部は、
    前記ネットワーク装置の識別情報と当該ネットワーク装置に対して前記コマンドの投入処理を行う前記仮想マシン部の識別情報とを対応付けた競合制御用情報、
    前記仮想マシン部と前記仮想マシン部に割り当てられたリソースの使用率の上限を示す仮想マシンリソース上限閾値とを対応付けた仮想マシン状態管理情報、及び
    前記物理サーバ部と前記物理サーバ部に割り当てられたリソースの使用率の上限を示す物理サーバリソース上限閾値とを対応付けた物理サーバ状態管理情報が格納される物理サーバ管理用記憶部を有し、
    投入処理を行う前記コマンドを特定するSO(Service Order)データを外部装置から受信し、前記競合制御用情報を参照して前記SOデータを対象の前記仮想マシン部に振り分け、
    前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシン状態管理情報の前記仮想マシンリソース上限閾値を超えているか否かを監視し、
    前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバ状態管理情報の前記物理サーバリソース上限閾値を超えているか否かを監視し、
    監視する前記仮想マシン部に割り当てられたリソースの使用率が前記仮想マシンリソース上限閾値を超えている場合に、当該仮想マシン部に対してリソースの増強を指示し、
    監視する前記物理サーバ部に割り当てられたリソースの使用率が前記物理サーバリソース上限閾値を超えている場合に、当該物理サーバ部で稼働する仮想マシン部の一部に対して、他の物理サーバ部に移行することを指示する、
    ことを特徴とするサービスオーダー方法。
  5. 複数のネットワーク装置に接続されるサービスオーダー装置の物理サーバ部を管理する物理サーバ管理部としてのコンピュータに、請求項4に記載のサービスオーダー方法を実行させるためのサービスオーダープログラム。
JP2012050608A 2012-03-07 2012-03-07 サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム Expired - Fee Related JP5702747B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012050608A JP5702747B2 (ja) 2012-03-07 2012-03-07 サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012050608A JP5702747B2 (ja) 2012-03-07 2012-03-07 サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム

Publications (2)

Publication Number Publication Date
JP2013186644A JP2013186644A (ja) 2013-09-19
JP5702747B2 true JP5702747B2 (ja) 2015-04-15

Family

ID=49388025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012050608A Expired - Fee Related JP5702747B2 (ja) 2012-03-07 2012-03-07 サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム

Country Status (1)

Country Link
JP (1) JP5702747B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335208B (zh) * 2014-06-18 2019-01-25 上海诺基亚贝尔股份有限公司 确定虚拟环境中物理计算资源冲突概率的方法与设备
JP6353417B2 (ja) * 2015-08-10 2018-07-04 日本電信電話株式会社 品質制御装置、および、品質制御方法
JP6438900B2 (ja) * 2016-02-04 2018-12-19 日本電信電話株式会社 装置監視制御システム及び装置監視制御方法
JP6741941B2 (ja) * 2016-08-16 2020-08-19 富士通株式会社 仮想マシン管理プログラム、仮想マシン管理方法、及び、仮想マシン管理装置
WO2023021582A1 (ja) * 2021-08-17 2023-02-23 日本電信電話株式会社 監視装置、方法、及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2435362B (en) * 2006-02-20 2008-11-26 Cramer Systems Ltd Method of configuring devices in a telecommunications network
EP2477089A4 (en) * 2009-09-09 2013-02-20 Hitachi Ltd OPERATING MANAGEMENT PROCESS FOR AN INFORMATION PROCESSING SYSTEM AND INFORMATION PROCESSING SYSTEM
JP5351839B2 (ja) * 2010-06-22 2013-11-27 日本電信電話株式会社 オーダ処理方法、プログラムおよびネットワークシステム

Also Published As

Publication number Publication date
JP2013186644A (ja) 2013-09-19

Similar Documents

Publication Publication Date Title
US10171567B2 (en) Load balancing computer device, system, and method
EP3405878B1 (en) Virtual network, hot swapping, hot scaling, and disaster recovery for containers
JP5088366B2 (ja) 仮想計算機制御プログラム、仮想計算機制御システムおよび仮想計算機移動方法
EP3115897B1 (en) Intelligent load balancer selection in a multi-load balancer environment
JP6729399B2 (ja) システム、仮想化制御装置、仮想化制御装置の制御方法及びプログラム
JP5702747B2 (ja) サービスオーダーシステム、サービスオーダー装置、サービスオーダー方法、及びサービスオーダープログラム
US20110239216A1 (en) Service providing system, a virtual machine server, a service providing method, and a program thereof
WO2013163865A1 (zh) 虚拟机热迁移和部署的方法、服务器及集群系统
JP6548540B2 (ja) 管理システムおよび管理システムの制御方法
JP5904285B2 (ja) 通信システム、仮想ネットワーク管理装置、通信ノード、通信方法及びプログラム
JP5575953B1 (ja) 情報システム間サービス提供装置、情報システム間サービス提供方法および情報システム間サービス提供プログラム
WO2016121879A1 (ja) 仮想化制御装置、配置先選択方法及びプログラム
WO2020235055A1 (ja) 仮想マシン監視装置、仮想マシン監視方法およびプログラム
WO2019159875A1 (ja) 配置構成装置、および、配置構成方法
KR20160025926A (ko) 가상 응용서버들로 부하를 분산하는 장치 및 방법
JP5758358B2 (ja) 仮想マシンシステム及びその高速ライブマイグレーション方法
JP6288633B2 (ja) ネットワーク制御方法
JP2016220126A (ja) ネットワーク処理システム、ネットワークシステムの管理方法及び通信装置
US12058001B2 (en) Control device, control method, control program and control system
JP6277069B2 (ja) 仮想機器管理装置、仮想機器管理方法及び仮想機器管理プログラム
JP2013161283A (ja) サーバ、物理ノード、負荷分散方法およびプログラム
JP6075882B2 (ja) 分散処理システム、および、分散処理方法
JP5504651B2 (ja) 仮想マシンシステム、情報処理装置、リソース管理方法、プログラム及び記録媒体
CN107454011A (zh) 一种报文转发方法、装置及系统
JP6657910B2 (ja) 帯域設定方法、帯域設定プログラム、情報処理装置及び情報処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140117

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140502

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150220

R150 Certificate of patent or registration of utility model

Ref document number: 5702747

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees