JP5675471B2 - Data center system management method, data center system, and management apparatus - Google Patents
Data center system management method, data center system, and management apparatus Download PDFInfo
- Publication number
- JP5675471B2 JP5675471B2 JP2011083781A JP2011083781A JP5675471B2 JP 5675471 B2 JP5675471 B2 JP 5675471B2 JP 2011083781 A JP2011083781 A JP 2011083781A JP 2011083781 A JP2011083781 A JP 2011083781A JP 5675471 B2 JP5675471 B2 JP 5675471B2
- Authority
- JP
- Japan
- Prior art keywords
- data center
- components
- communication
- degree
- application system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007726 management method Methods 0.000 title claims description 131
- 230000008878 coupling Effects 0.000 claims description 126
- 238000010168 coupling process Methods 0.000 claims description 126
- 238000005859 coupling reaction Methods 0.000 claims description 126
- 238000004891 communication Methods 0.000 claims description 116
- 238000000034 method Methods 0.000 claims description 71
- 238000012545 processing Methods 0.000 claims description 43
- 230000005012 migration Effects 0.000 claims description 31
- 238000013508 migration Methods 0.000 claims description 31
- 230000004044 response Effects 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 2
- 238000005315 distribution function Methods 0.000 claims description 2
- 238000010835 comparative analysis Methods 0.000 claims 6
- 239000000470 constituent Substances 0.000 claims 3
- 238000010586 diagram Methods 0.000 description 36
- 230000008569 process Effects 0.000 description 28
- 238000012795 verification Methods 0.000 description 26
- 238000012544 monitoring process Methods 0.000 description 19
- 238000009434 installation Methods 0.000 description 4
- 230000008520 organization Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000001276 controlling effect Effects 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 241000700605 Viruses Species 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Computer And Data Communications (AREA)
Description
本発明は、データセンタシステム管理方法、データセンタシステム、及び管理装置に関するものである。 The present invention relates to a data center system management method, a data center system, and a management apparatus.
近年、企業や組織のデータセンタにおいて、コンピューティングリソースの有効利用やコスト低減、リソースのオンデマンドでの利用等を実現するために、仮想化技術を活用して物理的なリソースを集約し、論理化するクラウドコンピューティング基盤(以下、単にクラウドと呼称する)の構築が進展している。クラウドにおいては、例えば企業等の組織のビジネスユニット(以下、クラウド利用者と呼称する)は、セルフサービスポータルと呼ばれるポータル画面にアクセスして仮想マシン等の論理リソースの割り当てを申請し、割り当てられた論理リソースを用いてアプリケーションシステムを構築及び運用管理する(以下、テナント管理と呼称する)。一方、例えば企業等の組織のIT部門、あるいはベンダ(以下、クラウド管理者と呼称する)は、クラウド基盤の構築及び運用管理、論理リソースのクラウド利用者への割り当て等を行う(以下、クラウド管理と呼称する)。このように、クラウドの運用管理と論理リソースの利用及び運用管理を分離することで、クラウド利用者は論理リソースの物理的な場所及び状態を意識することなく論理リソースの利用及び運用管理に専念し、クラウド管理者は論理リソースを用いて構築及び運用されているアプリケーションシステムの詳細を知ることなく、クラウドの運用管理に専念することが可能になると期待されている。またクラウドにおいては、仮想化技術によって、仮想マシンをある物理ホストコンピュータ上から他の物理ホストコンピュータ上に移動させることが可能である。これにより、クラウド管理者はクラウドにおける負荷、リソースについて利用の平準化を柔軟に行うことが出来るようになった。さらに、非特許文献1に記載の通り、ホストコンピュータの負荷等の状況に応じて仮想マシンを自動的に移動させる技術も開発されている。また特許文献1においては、複数の仮想マシンを移動させる技術も提案されている。
In recent years, in order to achieve effective use of computing resources, cost reduction, and on-demand use of resources in enterprise and organization data centers, physical resources are aggregated by using virtualization technology and logical Construction of a cloud computing platform (hereinafter simply referred to as cloud) is progressing. In the cloud, for example, a business unit of an organization such as a company (hereinafter referred to as a cloud user) accesses a portal screen called a self-service portal and applies for allocation of a logical resource such as a virtual machine. Application systems are constructed and managed using logical resources (hereinafter referred to as tenant management). On the other hand, for example, an IT department of an organization such as a company or a vendor (hereinafter referred to as a cloud administrator) performs construction and operation management of a cloud infrastructure, allocation of logical resources to a cloud user, etc. (hereinafter referred to as cloud management). Called). In this way, by separating cloud operation management from logical resource use and operation management, cloud users can concentrate on logical resource use and operation management without being aware of the physical location and status of logical resources. Cloud administrators are expected to be able to concentrate on cloud operation management without knowing the details of application systems built and operated using logical resources. In the cloud, a virtual machine can be moved from one physical host computer to another physical host computer by virtualization technology. As a result, the cloud administrator can flexibly level the usage of resources and loads in the cloud. Furthermore, as described in Non-Patent
一方、一つのデータセンタに配置できる物理的なリソースに限りがある場合、クラウドは複数のデータセンタにまたがって構築される構成になり得る。また実際のアプリケーションシステムは、一般に、複数の仮想マシン、物理的なホストコンピュータに加えて、負荷分散装置、ファイアウォール、及び侵入防御システム等の、通信を制御するための要素(以下、ミドルボックスと呼称する)から構成される。ミドルボックスは仮想化されているとは限らず、また、データセンタにおいてアプリケーションシステム間で共有されている場合がある。このような現状により、クラウド利用者がアプリケーションシステムをクラウド上に構築する場合、データセンタのリソースの空き状況によっては、アプリケーションシステムを構成する個々の構成要素を異なるデータセンタに配置しなければならない場合があり得る。また、アプリケーションシステムが当初は同じデータセンタ内で構成された場合においても、非特許文献1、特許文献1等の文献に記載の方法は仮想マシンが構成するアプリケーションシステムあるいは仮想マシン間の関係を考慮せずに仮想マシンを移動するため、あるアプリケーションシステムを構成する個々の仮想マシンが異なるデータセンタに再配置される状況が起こり得る。データセンタが互いに地理的に離れた位置に存在する場合、個々の仮想マシンあるいはホストコンピュータの間の通信が比較的遅延の大きいデータセンタ間ネットワークを往復するため、クラウド利用者が意識しないうちにアプリケーションシステムのパフォーマンスが低下する、あるいは、法規制等によって許可されていない地域にデータが転送され得る、という課題がある。さらに、データセンタ毎に複数のアプリケーションシステムがミドルボックスを共有する場合、クラウド利用者が複数のデータセンタにまたがるアプリケーションシステムにおいてどのミドルボックスを利用すべきか判断できず、アプリケーションシステムの設計、構築、及び運用が複雑化する場合があるという課題がある。
On the other hand, when the physical resources that can be arranged in one data center are limited, the cloud can be configured to be constructed across a plurality of data centers. An actual application system generally includes elements for controlling communication such as a load balancer, a firewall, and an intrusion prevention system in addition to a plurality of virtual machines and physical host computers (hereinafter referred to as a middle box). ). The middle box is not necessarily virtualized and may be shared between application systems in the data center. Under these circumstances, when cloud users build application systems on the cloud, depending on the availability of data center resources, the individual components that make up the application system must be located in different data centers. There can be. Further, even when the application system is initially configured in the same data center, the methods described in documents such as Non-Patent
以上のような、アプリケーションシステムを構成する個々の仮想マシンが複数のデータセンタをまたがって設置されることに起因する、パフォーマンス、コンプライアンスの課題、及び、ミドルボックス利用の課題に対応するために、様々な方法が提案されている。例えば、クラウド利用者に仮想マシンを配置する場所(いずれのデータセンタか、あるいはどの地域か、等)、使用するミドルボックスを指定させる方法が実運用されている。例えば非特許文献2には、クラウド利用者が仮想マシンの場所を指定することができると記載されている。また、非特許文献3には、クラウド利用者がどのデータセンタのどの負荷分散装置を使うか指定することができると記載されている。別の方法として、アプリケーションの状態を考慮して仮想マシンを移動する方法も提案されている。例えば特許文献2及び特許文献3においては、アプリケーションのマイグレーション時に、アプリケーションが必要とするサーバリソース、ネットワークリソース、あるいはストレージリソースに応じて、アプリケーションを実行するのに適切なデータセンタを自動的に発見する方法が記載されている。特許文献4には、システム全体のマイグレーションポリシーに加えて個々のアプリケーション固有のポリシーを考慮して仮想マシン配置の最適化を行う方法が記載されている。
In order to respond to the performance, compliance issues, and middlebox usage issues caused by the installation of individual virtual machines that make up the application system across multiple data centers. Have been proposed. For example, a method of allowing a cloud user to specify a location (a data center or a region) where a virtual machine is arranged and a middle box to be used is actually used. For example, Non-Patent
非特許文献2あるいは非特許文献3で開示されている手法では、クラウド利用者が特定の仮想マシンの配置場所やミドルボックスの具体的な場所を指定することはできるが、それら制限事項や他の構成要素との関係を踏まえた上でアプリケーションシステム全体の配置を複数のデータセンタにまたがって最適化する手段を提供していない。そのため、全体の最適化のためにはアプリケーションシステムを構成する全ての構成要素の場所を指定する必要があり煩雑である。
In the method disclosed in
特許文献2及び特許文献3で開示されている手法においても同様に、アプリケーション単体の移動先となるデータセンタを発見することはできるが、複数の仮想マシン、複数の物理ホストコンピュータ、それらの上で稼動する複数のアプリケーション、及びミドルボックスから構成されるアプリケーションシステムについては考慮しておらず、個々の構成要素の関係を踏まえて仮想マシンを移動することが出来ない。
Similarly, in the methods disclosed in
特許文献4で開示されている手法においては、アプリケーション固有のポリシー適用事例として、サイト間でのアプリケーションの移動が述べられているが、アプリケーション間の連携の有無のみでサイト間の移動の可否を決定しており、複数のアプリケーションが連携するアプリケーションシステムをデータセンタ間にまたがって構成できない。
In the method disclosed in
以上のことから、これまでのデータセンタ連携管理においては、アプリケーションシステムの構成を複数のデータセンタにまたがって適切に最適化できないという課題があった。 From the above, in the conventional data center linkage management, there has been a problem that the configuration of the application system cannot be appropriately optimized across a plurality of data centers.
前記の課題及び他の課題を解決するための、本発明の一実施態様は、外部装置に接続されて当該外部装置にデータ処理サービスを提供するアプリケーションシステムが構築されている第一のデータセンタと、前記第一のデータセンタと同等の構成を有する第二のデータセンタとを少なくとも備えているデータセンタシステムの管理方法であって、前記アプリケーションシステムは互いに通信可能に接続されている複数の構成要素を有し、前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての移動候補となる第一の構成要素を選択するステップと、前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、前記移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価するステップと、前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、前記移動候補として選定するステップと、前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出するステップと、変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記複数の構成要素との間に設定されている前記結合度を維持できるかどうかを評価するステップと、前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定するステップと、前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼するステップとを含むデータセンタシステムの管理方法である。 In order to solve the above-described problems and other problems, an embodiment of the present invention includes a first data center in which an application system connected to an external device and providing a data processing service to the external device is constructed. the second and the data center a management method of a data center system comprising at least, the application system a plurality of components that are communicatively connected to each other with a configuration equivalent to the first data center And selecting a first component to be a movement candidate as a candidate to move to the second data center from among the plurality of components of the application system of the first data center When, an index indicating the requirements of communication between the plurality of components included in the application system That the coupling degree, and setting for each of the plurality of components, wherein said coupling degree that is set for said first component is a movement candidates, and the first data center the second A step of comparing and evaluating communication line information between data centers, which is information relating to a communication state of a communication line between data centers, and the result of the comparison and evaluation, the degree of coupling is superior to the communication line information between data centers. Determining the second component that is the component that needs to be moved to the second data center together with the first component, and selecting the candidate as the movement candidate, a portion of the plurality of components included in the application system of the first data center after moving to the second data center, the first Detase Detecting a change in communication line status between the data center and the second data center as the communication line information between the data centers, and regarding the communication line information between the data centers after the change, in the application system, Evaluating whether the degree of coupling set between the plurality of components in the first data center and the plurality of components in the second data center can be maintained; and Whether it is possible to move the first and second components of the application system in the second data center to the first data center, Resource conditions and previous information about the plurality of components included in the application system in a first data center If it is determined that it is impossible to move to the first data center and the data center is a data center other than the first data center and the second data center. Te, select the data center is a line situation capable of maintaining cohesion regarding the determination by said first and second components, the acceptance determination of the first and second components in the data center A data center system management method including a step of requesting implementation.
本発明の一態様によれば、複数のデータセンタにまたがるアプリケーションシステムについて、その詳細な構成を知ることなく、アプリケーションシステム内の特定の構成要素が具備すべき性能上の要件、あるいは構成要素間で維持すべき要件を満たしつつ、当該構成要素をデータセンタ間で移動させることが可能となる。さらに、構成要素間の実際の通信状況を踏まえてリソースの負荷および利用率の平準化を行うことが可能となる。 According to an aspect of the present invention, performance requirements that a specific component in an application system should have, or between components without knowing the detailed configuration of an application system that spans multiple data centers. The component can be moved between data centers while satisfying the requirements to be maintained. Furthermore, it becomes possible to level the resource load and the utilization rate based on the actual communication status between the components.
以下、添付図面を参照しながら本発明の一実施形態を説明する。なお、この実施形態により本発明が限定されるものではない。 Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.
図1は、本発明の一実施例によるデータセンタシステム1000のシステム構成例を示している。本実施例においてデータセンタシステム1000は、データセンタ1、データセンタ2、クラウド利用端末3、クラウド管理端末4、クライアント端末5、及び通信ネットワーク6から構成され、データセンタ1、データセンタ2、クラウド利用端末3、クラウド管理端末4、及びクライアント端末5は通信ネットワーク6を介して接続される。データセンタ1とデータセンタ2とは、それぞれホストコンピュータ10、管理サーバ11、監視サーバ12、ミドルボックス13、ルーティング機器14、及び通信ネットワーク15から構成され、ホストコンピュータ10、管理サーバ11、監視サーバ12、ミドルボックス13、ルーティング機器14は通信ネットワーク15を介して接続される。クラウド利用端末3、クラウド管理端末4、及びクライアント端末5はデータセンタ1又はデータセンタ2内の通信ネットワーク15に接続されていてもよい。
FIG. 1 shows a system configuration example of a
クラウド利用者は、クラウド利用端末3を用いてデータセンタ1あるいはデータセンタ2の管理サーバ11にアクセスする。クラウド管理者は、クラウド管理端末4を用いてデータセンタ1あるいはデータセンタ2の管理サーバ11にアクセスする。エンドユーザは、外部装置であるクライアント端末3を用いてデータセンタ1あるいはデータセンタ2のホストコンピュータ10あるいはホストコンピュータ10上に構築されている仮想マシンにアクセスし、ホストコンピュータ10あるいは仮想マシン上のアプリケーションを利用する。
The cloud user accesses the
通信ネットワーク6及び通信ネットワーク15は、公衆網、インターネット、ISDN、専用線、LAN等の有線網、あるいは移動体通信用基地局、通信用人工衛星等の設備を利用した無線網等によって実現できる。通信ネットワーク4及び通信ネットワーク15において各機器は、個々の機器に予め付与された識別情報によって識別され、これによって各機器は他の機器に接続して通信を行う。
The communication network 6 and the
ミドルボックス13(通信サービス装置)は、例えば負荷分散装置、ファイアウォール、侵入検知システム、侵入防御システム等の、各機器間で行われる通信に対して通信制御ポリシーやセキュリティポリシーを適用するために設置される装置である。ミドルボックス13は別個のハードウェアとして実装されていても、ソフトウェアとして実装されてホストコンピュータ10あるいはホストコンピュータ10上に構築された仮想マシンで動作していてもよい。ルーティング機器14は通信ネットワーク間を接続して通信を制御するためのものであり、本実施例においては通信ネットワーク6と通信ネットワーク15を接続する。
The middle box 13 (communication service device) is installed to apply a communication control policy and a security policy to communication performed between devices such as a load balancer, a firewall, an intrusion detection system, and an intrusion prevention system. It is a device. The
次に、本実施例のホストコンピュータ10について説明する。図2はホストコンピュータ10のハードウェア及びソフトウェアの構成の一例を示している。ホストコンピュータ10は、CPU(Central Processing Unit)、MPU(MicroProcessing Unit)等のプロセッサからなる制御部100、記憶部101、通信ネットワーク15に接続するためのネットワークインタフェース部102、表示部103、入力部104、及びこれらを接続するデータバス105によって構成することができる。
Next, the
記憶部101は、RAM(Random Access Memory)等の半導体メモリを含む揮発性記憶装置、あるいはハードディスクドライブ(以下「HDD」)、SSD(Solid State Drive)等の読み書き可能な不揮発性記憶装置、光磁気メディア等の読み出し専用不揮発性記憶装置等から構成できる。表示部103はCRTディスプレイ、液晶ディスプレイ等の表示装置によって、入力部104はキーボード、マウス、ペンタブレット等の入力装置によって構成できる。
The
ホストコンピュータ10において、例えばソフトウェアの実行に伴う演算処理は制御部100によって実行される。制御部100が実行するプログラム、及びプログラムが使用するデータは、記憶部101に格納されていても良いし、通信ネットワーク15あるいは通信ネットワーク15上を伝播する搬送波やデジタル信号を介して他の機器から導入されても良い。またホストコンピュータ10は、表示部33あるいは入力部34を省略した構成にすることもできる。
In the
記憶部101に格納されている仮想マシンモニタプログラム160は、一つ以上の仮想マシン161をホストコンピュータ10上で動作させるために実装されている仮想化プログラムである。仮想マシンモニタプログラム160は、例えば制御部100、記憶部101、及びネットワークインタフェース部102を論理的に分割することで、ホストコンピュータ10上でホストコンピュータ10と同様に振る舞う一つ以上の仮想マシン161が動作することを可能とする。また仮想マシンモニタプログラム160は、管理サーバ11より仮想マシン161の移動指示を受け、移動先のホストコンピュータ10上の仮想マシンモニタプログラム160との間で仮想マシン161の移動処理を行う。仮想マシンモニタプログラム160の構成及び動作、仮想マシン161の移動処理については、前記した先行技術文献に記載の公知技術を使うことができる。
The virtual
なお、記憶部101には、一般的なコンピュータのデータ入出力処理、メモリ管理等の基本機能を提供するオペレーティングシステム(OS)も格納され、制御部100によって実行される。この構成は、後述する管理サーバ11、監視サーバ12、ミドルボックス13、クラウド利用端末3、クラウド管理端末4、及びクライアント端末6についても同様である。
The
アプリケーションプログラム162はクライアント端末5に対して何らかのデータ処理機能を提供するためのプログラムであり、例えばウェブサーバあるいはメールサーバ、アプリケーションサーバ、データベース等の各機能を実現するプログラムの形態をとることが可能である。
The
図3はホストコンピュータ10のハードウェア及びソフトウェアの他の構成例を示している。図3に例示するホストコンピュータ10は、図2の構成例と同様に、CPU等からなる制御部100、記憶部101、通信ネットワーク15に接続するためのネットワークインタフェース部102、表示部103、入力部104、及びこれらを接続するデータバス105によって構成できる。ホストコンピュータ10は、表示部103あるいは入力部104を省略した構成にすることもできる。本構成によるホストコンピュータ10は、図2の構成例とは異なり、ホストコンピュータ10が仮想マシンモニタプログラム160を介することなくアプリケーションプログラム162を実行する。
FIG. 3 shows another configuration example of the hardware and software of the
本実施例においては以降、アプリケーションプログラム162を実行する仮想マシン161、ホストコンピュータ10、あるいは後述するミドルボックス13を、特に個々の構成上の違いを意識する必要が無い限り、「ノード」(後述するアプリケーションシステム2000の構成要素)と総称する。また本実施例において、クラウド利用者はデータセンタ1又は2に、複数のノードから構成されるアプリケーションシステムを構築することが出来る。
In the present embodiment, the
次に、本実施例の管理サーバ11について説明する。図4は管理サーバ11のハードウェア及びソフトウェアの構成例を示している。管理サーバ11は、図2あるいは図3に例示したホストコンピュータ10と同様に、CPU等からなる制御部110、記憶部111、通信ネットワーク114に接続するためのネットワークインタフェース部112、表示部113、入力部114、及びこれらを接続するデータバス115によって構成できる。また管理サーバ11は、表示部113あるいは入力部114を省略した構成にすることもできる。
Next, the
記憶部111には、本実施例の管理サーバ11としての機能を実現するためのプログラムとそれらのプログラムが使用するテーブル類が格納されている。
The
まずテーブル類について説明する。なお、各テーブルの構成例については後述する。結合度定義テーブル170は、ノード間の結合度を定義するためのテーブルであり、結合度と結合度に紐付く関連情報との対応関係が格納されている。結合度はノード間の結びつきの強さを表す指標であり、本実施例においては、例えばノード間で実行される通信に必要となる帯域と応答速度とによって定義される。結合度と帯域及び応答速度との定量的な対応関係は、あらかじめクラウド利用者が決定してもよいし、クラウド管理者が事前に決定したものをクラウド利用者が利用してもよい。本実施例においてクラウド利用者は、クラウド利用端末3を介して後述の結合度設定プログラム177にアクセスし、アプリケーションシステムの個々のノード間の結合度を、結合度定義テーブル170で定義された結合度を用いて指定する。
First, the tables will be described. A configuration example of each table will be described later. The coupling degree definition table 170 is a table for defining the coupling degree between nodes, and stores the correspondence between the coupling degree and related information associated with the coupling degree. The degree of coupling is an index representing the strength of connection between nodes. In this embodiment, the degree of coupling is defined by, for example, a bandwidth and response speed required for communication executed between nodes. The quantitative correspondence between the degree of coupling, the bandwidth, and the response speed may be determined by the cloud user in advance, or the cloud user may use what is determined in advance by the cloud administrator. In this embodiment, the cloud user accesses the later-described degree-of-
重み定義テーブル171は、各ノードに割り当てられる重み情報を定義するためのテーブルである。重みは、現在ノードが設置されている場所に対するノードの結びつきの強さを表す指標である。重みの定義は、クラウド利用者が決定してもよいし、クラウド管理者が事前に決定したものをクラウド利用者が利用してもよい。本実施例においては、重みは、現在の場所からのノードの移動の可否あるいは移動範囲を決定するための閾値として表現される。例えば、重みが小さくなるほど、ノードの移動範囲は同一ラック内、同一データセンタ内、同一地域内、等に広がる。一方でノードが物理的なホストコンピュータ10である場合、仮想マシン161のように簡単に移動できるものではないため、ノードの重みは非常に大きくなる。また、ノードに含まれるデータの種類によっては、他の場所へのノードの移動が設置場所において適用される法令によって規制され得るため、ノードの重みは同様に非常に大きい。
The weight definition table 171 is a table for defining weight information assigned to each node. The weight is an index representing the strength of the connection of the node to the place where the node is currently installed. The definition of the weight may be determined by the cloud user, or the cloud user may use what is determined in advance by the cloud administrator. In this embodiment, the weight is expressed as a threshold value for determining whether or not a node can move from the current location or a moving range. For example, as the weight becomes smaller, the movement range of nodes spreads within the same rack, within the same data center, within the same region, and so on. On the other hand, when the node is the
ノード管理テーブル179は、クラウド利用者とアプリケーションシステム、アプリケーションシステムに含まれるノード、当該ノードが本来設置されていた場所、当該ノードの現在の設置場所、の対応関係が格納される。ノードが本来設置されていた場所は、当該ノードが最初に配置された場所を指し示す。ノードを移動させた場合、ノードの現在の場所は当該移動先を指し示す。 The node management table 179 stores the correspondence relationship between the cloud user and the application system, the node included in the application system, the location where the node was originally installed, and the current installation location of the node. The location where the node was originally installed indicates the location where the node was originally placed. When a node is moved, the current location of the node indicates the destination.
結合度管理テーブル172には、クラウド利用者とアプリケーションシステム、アプリケーションシステムに含まれるノード、当該ノードと他ノードとの間の結合度、他ノードがミドルボックス13である場合にはミドルボックス13に対する要件、の対応関係が格納される。前記ノードがミドルボックス13に対して要求する要件は後述するサービスプロファイル175として定義される。本テーブルの内容は、クラウド利用者がクラウド利用端末3を介して後述の結合度設定プログラム177に登録した結果をもとに、結合度設定プログラム177によって設定される。本実施例においてクラウド管理プログラム178は、後述のように、本テーブルに記載の結合度、あるいはミドルボックス13への要件を踏まえてノードの移動の可否を判定する。
The coupling degree management table 172 includes a cloud user and an application system, a node included in the application system, a coupling degree between the node and another node, and requirements for the
ノード重み情報管理テーブル173には、クラウド利用者とアプリケーションシステム、アプリケーションシステムに含まれるノード、ノードの重み情報との対応関係が格納されている。本テーブルの内容は、クラウド利用者がクラウド利用端末3を介して、後述する結合度設定プログラム177に登録した結果をもとに、結合度設定プログラム177によって設定される。本実施例においてクラウド管理プログラム178は、後述のように、本テーブルに記載されている重みを踏まえてノードの移動の可否あるいは移動可能範囲を決定する。
The node weight information management table 173 stores correspondence relationships between cloud users, application systems, nodes included in application systems, and node weight information. The contents of this table are set by the coupling
ミドルボックス管理テーブル174には、ミドルボックス13と、当該ミドルボックス13がサポートしている外部要件との対応関係が格納される。ミドルボックス13がサポートする外部要件は、後述するサービスプロファイル175として定義される。本テーブルの内容は、クラウド管理者がクラウド管理端末4を介して事前に設定する。また本テーブルにおけるサービスプロファイル175の内容は、クラウド管理者がクラウド管理端末4を介して事前に設定してもよいし、ミドルボックス13のベンダから提供されてもよい。
The middle box management table 174 stores a correspondence relationship between the
サービスプロファイル175(サービス要件情報)には、アプリケーションシステムに含まれているミドルボックス13がサポートしている機能、性能、他ノードとの連携のためのインタフェース等の情報が格納される。サービスプロファイル175は、クラウド利用者がミドルボックス13に対する要件を定義するため、あるいは、ミドルボックス13がサポートしている機能等を定義するために用いられる。サービスプロファイル175はXML等の公知技術を用いて記述することができる。
The service profile 175 (service requirement information) stores information such as functions supported by the
ノード移動要求プロファイル176には、移動候補の仮想マシン161の数や、個々の仮想マシン161が必要とするリソース量、他ノードとの間で必要となる結合度、他ノードがミドルボックス13の場合は当該ノードがミドルボックス13に求める要件、等の情報が格納される。ミドルボックス13に対する要件はミドルボックス13について記述されたサービスプロファイル175として定義される。クラウド管理者がデータセンタ1、2間で仮想マシン161を移動させる際には、移動元のデータセンタ1又は2のクラウド管理プログラム178が移動先のデータセンタ1又は2のクラウド管理プログラム178に対してノード移動要求プロファイル176を送信し、移動先のデータセンタ1又は2のクラウド管理プログラム178は仮想マシン161を受け入れ可能かどうかを判定するためにノード移動要求プロファイル176を用いる。
The node
次に、管理サーバの機能を実現するためのプログラムについて説明する。まず、結合度設定プログラム177は、クラウド利用端末3を介してクラウド利用者に、ノード間の結合度や、データセンタ1又は2に対するノードの重みを設定するためのインタフェースを提供するプログラムである。本実施例において結合度設定プログラム177は、クラウド利用者が入力した結合度情報及びノード重み情報をクラウド利用端末3経由で受け取り、結合度管理テーブル172及びノード重み情報管理テーブル173に保存する。
Next, a program for realizing the function of the management server will be described. First, the coupling
次に、クラウド管理プログラム178は、ホストコンピュータ10間の仮想マシン161の移動を管理するためのプログラムであり、ノード間の結合度及び各ノードの重みを基に、データセンタ間での仮想マシン161の移動の可否を判定する。移動の可否の判定に当たって、クラウド管理プログラム178は、データセンタ間の回線状況、移動先データセンタのリソース空き状況、移動先データセンタ内の回線状況、及び移動先データセンタにあるミドルボックス13のサービスレベルについても考慮する。
Next, the
具体的には、クラウド管理者がデータセンタ1のホストコンピュータ10からデータセンタ2のホストコンピュータ10に仮想マシン161を移動させる場合、クラウド管理者はクラウド管理端末4を介して、データセンタ1のクラウド管理プログラム178に対して移動候補である仮想マシン161を指定する。次いでクラウド管理プログラム178は、各ノードについて設定された重み情報を基に、クラウド管理者が指定した仮想マシン161がデータセンタ2に移動可能かどうかを判定する。またクラウド管理プログラムは、当該仮想マシン161と同じアプリケーションシステムに属する他の仮想マシン161との結合度とデータセンタ1、2間の回線状況を基に、当該仮想マシン161をデータセンタ2に移動可能かどうか、当該仮想マシン161と共に移動する必要のある仮想マシン161があるかどうかを判定する。さらにクラウド管理プログラム178は、データセンタ2のクラウド管理プログラム178に対して仮想マシン161群の受け入れが可能かどうかを、ノード移動要求プロファイル176を用いて問い合わせ、移動の可否を決定する。
Specifically, when the cloud administrator moves the
本実施例においてクラウド管理プログラム178は、クラウド管理者の最終的な判断をもって仮想マシン161を他のデータセンタに移動する指示を仮想マシンモニタプログラム160に発行する。クラウド管理プログラム178は、クラウド管理者の判断を介さずに自動的に仮想マシンモニタプログラム160に移動指示を発行するように構成してもよい。
In this embodiment, the
一方データセンタ2で稼働しているクラウド管理プログラム178は、データセンタ1のクラウド管理プログラム178より仮想マシン161群の受け入れの問い合わせをノード移動要求プロファイル176として受け取り、プロファイル176内に記載の要求リソース量あるいは要求結合度を、データセンタ2のホストコンピュータ10の空き状況やホストコンピュータ10間のリンクの空き状況と比較する。さらにクラウド管理プログラム178は、データセンタ2のミドルボックス13が、当該仮想マシン161が必要とするサービスレベルを満たすことが出来るかどうかを、ミドルボックス13がサポートするサービス内容が記述されているサービスプロファイル175と仮想マシン161が要求するサービスプロファイル175とを比較して判定し、受け入れ可否をデータセンタ1のクラウド管理プログラム178に返す。なお、以上の結合土設定プログラム177及びクラウド管理プログラム178によるデータ処理については、関連する処理フロー例等により後述する。
On the other hand, the
次に、本実施例の監視サーバ12について説明する。図5は監視サーバ12のハードウェア及びソフトウェアの構成例を示している。監視サーバ12は、ホストコンピュータ10あるいは管理サーバ11と同様に、CPU等からなる制御部120、記憶部121、通信ネットワーク15に接続するためのネットワークインタフェース部122、表示部123、入力部124、及びこれらを接続するデータバス125によって構成できる。また監視サーバ12は、表示部123や入力部124を省略した構成にすることもできる。
Next, the monitoring
記憶部121には、制御部120によって実行されることにより監視サーバ12の機能を実現するネットワーク監視プログラム180及びノード監視プログラム181が格納されている。ネットワーク監視プログラム180は、データセンタ1又は2内の通信ネットワーク15上に設けられている各機器から通信量、稼動状況、障害情報等の情報を収集するためのプログラムである。各機器からの情報の収集は、例えばSNMP(Simple Network Monitoring Protocol)、各機器に固有の情報取得インタフェース等の公知技術を用いて実現できる。本実施例においてネットワーク監視プログラム180は、各ノード間の通信状況と、ノードとミドルボックス13との間の通信状況、データセンタ間の帯域状況を、ノード、ミドルボックス13、ルーティング装置14より収集する。またネットワーク監視プログラム180は、管理サーバ11にあるクラウド管理プログラム178からの問い合わせに応じて、収集した情報をクラウド管理プログラム178に送信する。
The
ノード監視プログラム181は、各ノードのリソース空き状況を監視するためのプログラムである。各機器からの情報の収集は、例えばSNMPや各機器に固有の情報取得インタフェース等の公知技術を用いて実現できる。またノード監視プログラム181は、管理サーバ11にあるクラウド管理プログラム178からの問い合わせに応じて、収集した情報をクラウド管理プログラム178に送信する。
The
次に、本実施例のミドルボックス13について説明する。図6はミドルボックス13のハードウェア及びソフトウェアの構成例を示している。ミドルボックス13は、ホストコンピュータ10あるいは管理サーバ11と同様に、CPU等からなる制御部130、記憶部131、通信ネットワーク15に接続するためのネットワークインタフェース部132、表示部133、入力部134、及びこれらを接続するデータバス135によって構成することができる。またミドルボックス13は、表示部133、入力部134を省略した構成にすることもできる。
Next, the
記憶部131には、制御部130によって実行されることによりミドルボックス13の機能を実現するプログラム、例えば侵入検知プログラム182、ファイアウォールプログラム183が格納されている。侵入検知プログラム182、ファイアウォールプログラム183としては、一般に通信ネットワーク15を介したデータ処理においてセキュリティを確保するために使用されるプログラムを適用することができる。ミドルボックス13は、図2に例示したホストコンピュータ11と同様に、仮想マシン161を備え、個々の仮想マシン161上でウイルス検出プログラム182等のプログラムが実行されるように構成してもよい。
The
次に、本実施例のクラウド利用端末3、クラウド管理端末4、クライアント端末5として好適に適用されるコンピュータ3000について説明する。図7はコンピュータ3000のハードウェア及びソフトウェアの構成例を示している。コンピュータ3000は、ホストコンピュータ10あるいは管理サーバ11と同様に、CPU等からなる制御部3030、記憶部3031、通信ネットワーク15に接続するためのネットワークインタフェース部3032、表示部3033、入力部3034、及びこれらを接続するデータバス3035によって構成することができる。
Next, a computer 3000 that is suitably applied as the
記憶部3031には、制御部3030によって実行されることによりクラウド利用端末3、クラウド管理端末4、あるいはクライアント端末5の機能を実現するプログラム、例えばユーザインタフェースプログラム184、アプリケーションプログラム1854が格納されている。ユーザインタフェースプログラム184は、クラウド利用端末3、クラウド管理端末4、あるいはクライアント端末5として機能するコンピュータ3000と他のノードとのデータ入出力のためのユーザインタフェースを提供するプログラムであり、例えばWWWブラウザプログラムである。アプリケーションプログラム185は、クラウド利用端末3、クラウド管理端末4、あるいはクライアント端末5としてのその他の機能を提供するためのプログラムである。
The
次に、本実施例におけるアプリケーションシステム2000の構成について説明する。図8は、アプリケーションシステム2000の論理構成例を示している。クラウド利用者が例えばデータセンタ1内に構築するアプリケーションシステム2000は、複数のノード及び複数のミドルボックス13から構成され得る。例えば一般的なウェブアプリケーションサービスシステムの場合、ウェブサーバを稼動させるノード群、アプリケーションサーバを稼動させるノード群、データベースを稼動させるノード群、及び、ファイアウォールや負荷分散装置等のミドルボックスから構成され得る。図8に示す構成例においては、アプリケーションシステム2000は複数の仮想マシン202〜207と複数のホストコンピュータ208、209とから構成される。クライアント端末200からのアクセスは負荷分散装置201によってウェブサーバを担う仮想マシン202〜204に振り分けられる。ウェブサーバである仮想マシン202及び仮想マシン203は、アプリケーションサーバを担う仮想マシン205及び仮想マシン206とそれぞれ接続され、仮想マシン205及び仮想マシン206は、データベースを担うホストコンピュータ208及びホストコンピュータ209とそれぞれ接続されている。
Next, the configuration of the
一方でウェブサーバを担う仮想マシン204は、アプリケーションサーバを担う仮想マシン207と、仮想マシン207はデータベースを担うホストコンピュータ209と接続されている。またホストコンピュータ208及びホストコンピュータ209は互いに接続され、データベース間の同期が行われている。
On the other hand, the
次に、アプリケーションシステム2000におけるノードの移動について説明する。図9は、クラウド管理者がデータセンタ1で稼働中の、図8の構成を有するアプリケーションシステム2000内の仮想マシン207を、データセンタ2に移動させようとする際に、本実施例に開示の方法で移動が行われた場合の最終的な論理構成の例を示している。ここで、クラウド管理者が指定した仮想マシン207と仮想マシン204との間、仮想マシン204と負荷分散装置201との間は結合度が高く、仮想マシン207とホストコンピュータ209との間の結合度がデータセンタ1、2間の回線状況に比べて低いと判定される場合、仮想マシン204は仮想マシン207と共に移動される。また、データセンタ2の負荷分散装置210がデータセンタ1において仮想マシン204が利用していた負荷分散装置201と同じサービスプロファイル175をサポートする場合、仮想マシン204はデータセンタ2の負荷分散装置210を利用することが出来る。仮想マシン207をデータセンタ1からデータセンタ2へ移動させた場合、図9に記載のように、アプリケーションシステム2000がサービスレベルを維持したまま、データセンタ1とデータセンタ2にまたがって構成される。ここで、クライアント端末200から負荷分散装置201及び負荷分散装置210へのアクセスの振り分けは、DNSやグローバルロードバランシング等の公知技術を用いて実現できる。
Next, movement of a node in the
次に、本実施例において使用されるテーブル類について説明する。図4に例示する管理サーバ11に関して説明したように、テーブル類は管理サーバ11の記憶部111に格納されている。まず、結合度定義テーブル170について説明する。図8は、結合度定義テーブル170の一例を示す図である。結合度定義テーブル170には、結合度300、帯域301、及び応答速度302の項目が関連づけられて記憶されている。結合度300は、ノード間の結合度を示す値であり、図10の例では1〜5の数値指標で示される。帯域301は、ノード間において当該結合度を満たすために必要とする帯域幅である。応答速度302は、ノード間において当該結合度を満たすために必要とする平均応答速度である。
Next, tables used in this embodiment will be described. As described with reference to the
次に、重み定義テーブル171について説明する。図11は、重み定義テーブル171の一例を示す図である。重み定義テーブル171は、重み400、移動範囲401、及びデータセンタ402の項目が関連づけられて記憶されている。重み400は、ノードの物理的な設置場所に対するノードの結びつきの強さを示す値であり、0〜5の数値指標で示される。移動範囲401は、重み400の値を持つノードが移動可能な範囲を示す指標である。データセンタ402は、移動範囲401に含まれるデータセンタ(DC)を一意に識別するための識別情報である。
Next, the weight definition table 171 will be described. FIG. 11 is a diagram illustrating an example of the weight definition table 171. The weight definition table 171 stores the items of the
次に、ノード管理テーブル179について説明する。図12は、ノード管理テーブル179の一例を示す図である。ノード管理テーブル179は、利用者ID450、システムID451、ノードID452、場所453、及び現在場所454の項目が関連づけられて記憶されている。利用者ID450は、データセンタシステム1000において、クラウド利用者を一意に識別するための識別情報である。システムID451は、クラウド利用者が構築するアプリケーションシステム2000を一意に識別するための識別情報である。ノードID452は、各ノードを一意に識別するための識別情報である。図12で、符号「VM」はノードが仮想マシン161であることを、符号「Host」はノードが物理的なホストコンピュータ10であることを示す。場所453は、ノードが本来設置された場所を一意に識別するための識別情報である。現在場所454は、本実施例に開示の方法でノードが他のデータセンタに移動した場合に、現在のノードの場所を一意に識別するための識別情報である。
Next, the node management table 179 will be described. FIG. 12 is a diagram illustrating an example of the node management table 179. The node management table 179 stores items of
次に、結合度管理テーブル172について説明する。図13は、結合度管理テーブル172の一例を示す図である。結合度管理テーブル172には、利用者ID500、システムID501、ノードID502、関連ノードID503、結合度504、及びサービスプロファイル505の項目が関連づけられて記録されている。利用者ID500は、データセンタシステム1000において、クラウド利用者を一意に識別するための識別情報であり、ノード管理テーブル179の利用者ID450と同じである。システムID501は、クラウド利用者が構築するアプリケーションシステム2000を一意に識別するための識別情報であり、ノード管理テーブル179のシステムID451と同じである。ノードID502は、各ノードを一意に識別するための識別情報であり、ノード管理テーブル179のノードID452と同じである。関連ノードID503は、各ノードと同じアプリケーションシステム2000に属する他ノードや、各ノードが利用するミドルボックス13を一意に識別するための識別情報である。結合度504は、ノードID502と関連ノードID503で示されるノード間の結合度を示す値であり、結合度定義テーブル170の結合度300と同じである。サービスプロファイル505は、関連ノードID503がミドルボックス13である場合に、移動対象であるノードが関連しているミドルボックス13に要求するサービスプロファイル175の識別情報である。
Next, the coupling degree management table 172 will be described. FIG. 13 is a diagram illustrating an example of the association degree management table 172. In the association degree management table 172, items of a
次に、ノード重み情報管理テーブル173について説明する。図14は、ノード重み情報管理テーブル173の一例を示す図である。ノード重み情報管理テーブル173には、利用者ID600、システムID601、ノードID602、及び重み603の項目が対応付けて記録されている。利用者ID600は、データセンタシステム1000において、クラウド利用者を一意に識別するための識別情報であり、ノード管理テーブル179の利用者ID450と同じである。システムID601は、クラウド利用者が構築するアプリケーションシステム2000を一意に識別するための識別情報であり、ノード管理テーブル179のシステムID451と同じである。ノードID602は、各ノードを一意に識別するための識別情報であり、ノード管理テーブル179のノードID452と同じである。重み603は各ノードの重みを示す値であり、重み定義テーブル171の重み400と同じである。
Next, the node weight information management table 173 will be described. FIG. 14 is a diagram illustrating an example of the node weight information management table 173. In the node weight information management table 173, items of
次に、ミドルボックス管理テーブル174について説明する。図15は、ミドルボックス管理テーブル174の一例を示す図である。ミドルボックス管理テーブル174には、ミドルボックスID700とサービスプロファイルID701とが対応付けられて記録されている。ミドルボックスID700は、データセンタシステム1000において、ミドルボックス13を一意に識別するための識別情報である。サービスプロファイルID701は、ミドルボックス13がサポートしている機能等を記述したサービスプロファイル175の識別情報であり、結合度管理テーブル172のサービスプロファイル505と同じである。
Next, the middle box management table 174 will be described. FIG. 15 is a diagram illustrating an example of the middle box management table 174. In the middle box management table 174, a
次に、サービスプロファイル175について説明する。図16は、サービスプロファイル175の一例を示す図である。本実施例においては、サービスプロファイル175を公知技術であるXMLのような構造化言語を用いて記載することができる。サービスプロファイル175には、サービスプロファイルID800に対応付けて対象ノードに提供されるサービス内容が記述されている。サービス内容は、機能801、性能802の項目に分類して記述されている。サービスプロファイルID800は、データセンタシステム1000において、サービスプロファイル175を一意に識別するための識別情報であり、ミドルボックス管理テーブル174のサービスプロファイルID701と同じである。機能801は、ミドルボックス13の機能を記載するための記述子である。図16の例では、対応するミドルボックス13がレイヤー4に対応する負荷分散機能及びヘルスチェック機能を有していることを示す。性能802は、ミドルボックス13の性能を記載するための記述子である。
Next, the
次に、ノード移動要求プロファイル176について説明する。図17は、ノード移動要求プロファイル176の一例を示す図である。本実施例においては、ノード移動要求プロファイル176を公知技術であるXMLのような構造化言語を用いて記載することができる。ノード移動要求プロファイル176には、ノード数811、ノードID812、関連ノード数813、関連ノードID814、リソース815、結合度816、帯域817、応答速度818、及びサービスプロファイルID819の項目が記録される。
Next, the node
ノード数811は、ノード移動要求プロファイル176において移動先データセンタに受け入れを求めるノード数を記載するための記述子である。ノードID812は、移動先データセンタに受け入れを求める各ノードを一意に識別する識別子を記載するための記述子である。関連ノード数813は、ノードID812で識別されるノードとの間で何らかの結合度を持つノード数を記載するための記述子である。関連ノードID814は、ノードID812で識別されるノードが関連しているノードの識別子を記載するための記述子である。リソース815は、ノードID812で識別されるノードが必要とするCPU、メモリ、HDD等の補助記憶装置、ネットワークインタフェース等に関するリソース値を記載するための記述子であり、例えばCPUのクロック速度、及びメモリ、補助記憶装置の記憶容量が含まれる。結合度816は、ノードID812で識別されるノードと関連ノードID814で識別されるノードとの間で満たすべき結合度を結合度定義テーブル170の定義に従って記載するための記述子である。帯域817は、結合度定義テーブル170において、結合度列300が結合度816に合致するレコードにおける、帯域列301の値である。応答速度818は、結合度定義テーブル170において、結合度列300が結合度816に合致するレコードにおける、応答速度302の値である。ノード移動要求プロファイル176において、結合度816だけでなく対応する帯域817及び応答速度818を記載するのは、データセンタ1とデータセンタ2とが同じ事業者によって運営されているとは限らず、両者が同じ結合度定義テーブル170を保有していない可能性があるためである。サービスプロファイルID819は、関連ノードID814で識別されるノードがミドルボックス13である場合に、当該ミドルボックス13に求められる要件が記載されたサービスプロファイル175の識別子を記載するための記述子である。
The number of
次に、本実施例においてクラウド管理者に提供されるユーザインタフェースについて説明する。図18は、クラウド管理プログラム178がクラウド管理者に提供する、ノードの移動管理のためのインタフェースの一例を示すための図であり、クラウド管理者にノード移動の最終確認を求める画面例である。このユーザインタフェースは、管理サーバ11で稼働しているクラウド管理プログラム178が、クラウド管理端末4の表示部1033を通じてユーザに提供する。画面900は、クラウド管理者が指定した移動候補のノードの表示部位901、クラウド管理プログラム178が本実施例に記載の方法を用いて判定した移動候補ノードの表示部位902、クラウド管理プログラム178が本実施例に記載の方法で判定したミドルボックス13の変更内容の表示部位903を含む。なお、画面900には図18に例示している表示内容以外の表示内容を表示させてもよい。また画面900は、図18に例示する画面構成例以外の画面構成を有するようにしてもよい。
Next, a user interface provided to the cloud administrator in this embodiment will be described. FIG. 18 is a diagram for illustrating an example of an interface for node movement management provided to the cloud administrator by the
次に、以上の構成を有する本実施例のデータセンタシステム1000において実行されるデータ処理について説明する。まず、データ処理の前提となる重み及び結合度を設定するために実行されるデータ処理フローについて説明する。図19は、本実施例における、アプリケーションシステム2000を構成しているノードの重み及びノード間の結合度の設定手順の一例を示すフローチャートである。なお、以降参照するフローチャートにおいて、各処理ステップに付した参照符号に含まれる「S」の記号は「ステップ」を示す。
Next, data processing executed in the
まず、クラウド利用端末3を用いて、設定開始を通知する指令が結合度設定プログラム177に送信される(S1001)。具体的には、クラウド利用者によりクラウド利用端末3からユーザインタフェースを通じて管理サーバ11の結合度設定プログラム177に設定開始指令が入力される。
First, using the
次に、結合度設定プログラム177が提供するインタフェースを介して、アプリケーションシステム2000に含まれる個々のノードの重み情報が、結合度設定プログラム177に入力される(S1002)。
Next, the weight information of each node included in the
次いで、結合度設定プログラム177が提供するインタフェースを介して、アプリケーションシステム2000に含まれる個々のノード間の結合度が、結合度設定プログラム177に入力される(S1003)。
Next, the coupling degree between individual nodes included in the
次に、結合度設定プログラム177が提供するインタフェースを介して、ミドルボックス13に求める要件がサービスプロファイル175として、結合度設定プログラム177に入力される(S1004)。
Next, requirements required for the
結合度設定プログラム177は、S1002においてクラウド利用者がクラウド利用端末3を通じて設定した情報を基に、ノード重み情報管理テーブル173にノードの重み情報を格納する。また結合度設定プログラム177は、S1003においてクラウド利用者がクラウド利用端末3を通じて指定した情報を基に、結合度管理テーブル172にノード間の結合度情報を格納する。関連ノードがミドルボックス13である場合は、S1004においてクラウド利用者がクラウド利用端末3を通じて指定したサービスプロファイル175の識別情報を結合度管理テーブル172に格納する(S1005)。
The
以上の重み及び結合度設定処理フローにより、アプリケーションシステム200に含まれるノードについての移動可否判定に使用するデータが収集される。
Through the above-described weight and coupling degree setting processing flow, data used for determining whether or not a node included in the
次に、アプリケーションシステム2000に含まれるいずれかのノードを移動する場合に実行されるノード移動全体処理について説明する。図20は、本実施例における、ノードの移動全体手順の一例を示すフローチャートである。
Next, the entire node movement process executed when moving any node included in the
まず、クラウド管理プログラム178は、移動候補となるノードと移動先の指定をクラウド管理端末4から受領する(S1101)。クラウド管理者がクラウド管理端末4から移動手続きの開始を指示するきっかけは、例えばあるノードの負荷が高くなることで監視サーバ12がクラウド管理者に警告を発する事象等があり得る。
First, the
クラウド管理プログラム178は、ステップ1101において指定されたノードを起点としてノード移動可否検証フローを実施する。当該フローについては後述する(S1102)。
The
クラウド管理プログラム178はステップ1102において実施したノード移動可否検証フローの結果を評価する(S1103)。移動可能ノード有りと判定された場合(S1103、Yes)、クラウド管理プログラム178はクラウド管理端末4に対して、ステップ1101において指定されたノードの移動が可能である旨を通知する(S1104)。ステップ1102において当該ノードと共に移動させる必要のある他ノードが発見された場合、クラウド管理プログラム178は当該他ノードを併せてクラウド管理端末4を通じてクラウド管理者に提示する。ステップ1102において当該ノードの移動に伴いミドルボックス13の変更が必要になると判定された場合、クラウド管理プログラム178は当該変更を併せてクラウド管理端末4を通じてクラウド管理者に提示する。画面例は図15で示した通りである。
The
クラウド管理者がノード移動実施の判定を行い、クラウド管理端末4を通じてその旨を入力した場合(S1105、Yes)、S1106において、クラウド管理プログラム178は仮想マシン161が稼動しているホストコンピュータ10の仮想マシンモニタプログラム160に対して、移動先のデータセンタ2のホストコンピュータ10の仮想マシンモニタプログラム160との間で仮想マシン161の移動手続きを行うよう指示し、完了通知を受け取る(S1106)。
When the cloud administrator determines that the node has been moved and inputs that fact through the cloud management terminal 4 (Yes in S1105), in S1106, the
次いで、クラウド管理プログラム178は、ノード管理テーブル179において、ノードID列452が移動を完了したノードに合致するレコードについて、現在場所454列を移動先のデータセンタ2に更新して処理を終了する(S1107)。
Next, the
一方、S1103において、移動可能ノード無しと判定された場合(S1103、No)、クラウド管理プログラム178はクラウド管理端末4を通じてクラウド管理者に対して、S1101においてクラウド管理者が指定したノードの移動が不可である旨を通知し(S1108)、S1101に戻って異なる移動候補の仮想マシン、あるいはクラウド管理端末4を通じて、異なる移動先を選択させる画面をクラウド管理者に提示する。
On the other hand, if it is determined in S1103 that there is no movable node (S1103, No), the
ステップ1105において、クラウド管理者がクラウド管理端末4を通じてノードの移動を取りやめる旨通知した場合(S1105、No)、クラウド管理プログラム178は、S1101に戻って異なる移動候補の仮想マシン、あるいは異なる移動先を選択させる画面を、クラウド管理端末4を通じてクラウド管理者に提示する。
In
以上のノード移動全体フローにより、種々の制約条件を考慮したデータセンタ1、2間のノードの移動処理を実行させることができる。
According to the overall node movement flow described above, the node movement process between the
次に、ノード移動全体処理におけるノード移動可否検証処理について説明する。図21は、本実施例における、ノード移動可否検証処理の詳細処理手順の一例を示すフローチャートである。 Next, the node movement availability verification process in the entire node movement process will be described. FIG. 21 is a flowchart illustrating an example of a detailed processing procedure of node movement availability verification processing in the present embodiment.
まず、クラウド管理プログラム178は監視サーバ12に対してデータセンタ1とデータセンタ2との間の回線状況を問い合わせる。監視サーバ12はネットワーク監視プログラム180により収集したデータセンタ1、2間の帯域及び応答速度をクラウド管理プログラム178に通知する(S1201)。
First, the
クラウド管理プログラム178は、空の検証済みノードリスト及び移動候補ノードリストを作成する(S1202)。これらのリストは、ノード移動可否検証フローにおいて使用する一時的なリストである。検証済みノードリスト及び移動候補ノードリストは、キューやリストといった一般的な公知のデータ構造でよい。
The
次に、クラウド管理プログラム178は、本ステップがノード移動全体フローを開始して以降に1回目に実行されている場合、S1101においてクラウド管理者が選択したノードについて、ノードの重み及び関連ノードとの間の結合度検証フローを実施する(S1203)。当該フローについては後述する。本ステップがノード移動全体フローを開始して2回目以降に実行されている場合、後述するS1207で選択されたノードについて、ノードの重み及び関連ノードとの間の結合度検証フローを実施する。
Next, when this step is executed for the first time since the start of the entire node movement flow, the
クラウド管理プログラム178は、S1203における重み及び結合度検証フローの実行結果に基づいて、ノードの移動可否を判定する(S1204)。重み及び結合度検証の結果、ノードが移動可能と判定された場合(S1204、Yes)、クラウド管理プログラム178は当該ノードを検証済みノードリストに追加する(S1205)。重み及び結合度検証の結果、ノードが移動不可と判定された場合(S1205、No)、クラウド管理プログラム178は、処理をS1206に進める。
The
クラウド管理プログラム178は、移動候補ノードリストと検証済みノードリストを比較し、移動候補ノードリストに含まれていて検証済みノードリストに含まれていないノードの有無、すなわち、未検証の移動候補ノードの有無を判定する(S1206)。未検証の移動候補ノードが有る場合(S1206、Yes)、クラウド管理プログラム178は、処理をS1207に進める。未検証の移動候補ノードが無い場合(S1206、No)、クラウド管理プログラム178は、処理をS1208に進める。
The
S1207において、クラウド管理プログラム178は、移動候補ノードリストの中から検証済みノードリストに含まれていない移動候補ノードを一つ選択してS1203〜S1206の処理を繰り返し実行する。
In S1207, the
次に、S1206で未検証の移動候補ノードがないと判定された場合(S1206、No)、クラウド管理プログラム178は、移動候補ノードリストを参照し、移動候補があるかどうかを評価する(S1208)。移動候補があると判定された場合は(S1208、Yes)クラウド管理プログラム178は、処理をS1209に進める。移動候補が無いと判定された場合は(S1208、No)、クラウド管理プログラム178は、本処理を終了してノード移動全体フローに戻る。
Next, when it is determined in S1206 that there is no unverified movement candidate node (S1206, No), the
S1209において、クラウド管理プログラム178は、ミドルボックス13への要求サービスレベルを確定する。具体的には、クラウド管理プログラム178は、管理サーバ11の結合度管理テーブル172から、ノードID列502が移動候補ノードリストに含まれるノードのIDに合致する全てのレコードのうち、当該レコードにおいてサービスプロファイル列505に値を含むレコードを取得する。さらにクラウド管理プログラム178は、取得したレコードのサービスプロファイル列505に含まれる値に合致するサービスプロファイルID701をサービスプロファイルID記述子800に持つサービスプロファイル175を取得する。
In step S1209, the
次に、ステップ1210において、クラウド管理プログラム178は、移動先であるデータセンタ2に設けられている管理サーバ11に、以下の問い合わせを行う(S1210)。具体的には、クラウド管理プログラム178は、管理サーバ11の結合度管理テーブル172から、ノードID列502が移動候補ノードリストに含まれるノードのIDに合致する全てのレコードを取得して、ノード移動要求プロファイル176を作成する。ノード移動要求プロファイル175の作成においては、クラウド管理プログラム178は、結合度504に対応する帯域301と応答速度302を、管理サーバ11の結合度定義テーブル170から取得する。さらにクラウド管理プログラム178は、ノード移動要求プロファイル176とS1209において取得したサービスプロファイル175を、データセンタ2の管理サーバ11で稼働しているクラウド管理プログラム178に送信する。ノード移動要求プロファイル176やサービスプロファイル175の送信については、SOAPやHTTP等の通信プロトコルに関する公知技術を活用できる。
Next, in step 1210, the
次に、データセンタ2の管理サーバ11で稼働しているクラウド管理プログラム178は、受け入れ可否判定フローを実施する(S1211)。当該フローについては後述する。
Next, the
次いで、クラウド管理プログラム178は、ステップ1210における受け入れ可否判定フローの実行結果を評価する(S1212)。データセンタ2のクラウド管理プログラム178による受け入れ可否判定の結果、受け入れ可能と判定された場合(S1212、Yes)、クラウド管理プログラム178は、作成した移動候補ノードリストを確定してノード移動全体フローに戻る(S1213)。受け入れ可否判定の結果、受け入れ不可と判定された場合(S1212、No)、クラウド管理プログラム178は移動候補無しと判定してノード移動全体フローに戻る。
Next, the
以上のノード移動可否検証処理によれば、各ノードの重みと他のノードとの関連性を考慮して、データセンタ間で移動可能なノード候補を選定することができる。 According to the above node moveability verification process, node candidates that can move between data centers can be selected in consideration of the weight of each node and the relevance between other nodes.
次に、ノード移動可否検証処理において実行される、重み及び結合度検証処理について説明する。図22は、本実施例における、ノードの重み及び結合度検証の詳細処理手順の一例を示すフローチャートである。 Next, the weight and connection degree verification process executed in the node movement availability verification process will be described. FIG. 22 is a flowchart illustrating an example of a detailed processing procedure of node weight and coupling degree verification in the present embodiment.
クラウド管理プログラム178は、ノード重み情報管理テーブル173から、ノードID列602がノード移動可否検証処理フローのS1203において指定されたノードのIDに合致するレコードの重み列603の値を取得する。さらにクラウド管理プログラム178は、重み定義テーブル171から、重み列400が当該重み値に合致するレコードのデータセンタ列402の値を取得する(S1301)。
The
次に、クラウド管理プログラム178は、S1203において指定されたノードとその移動先の妥当性を検証するために、S1203で指定された移動先がS1301において取得した値に含まれるかどうかを比較評価する(S1302)。移動先検証の結果、移動先が適切であると判定された場合(S1302、Yes)、クラウド管理プログラム178は、S1203で指定されたノードを移動候補ノードリストに追加する(S1303)。移動先検証の結果、移動先が適切ではないと判定された場合(S1302、No)、クラウド管理プログラム178は、当該ノードを移動不可と判定してノード移動可否検証フローに戻る。
Next, the
S1304において、クラウド管理プログラム178は、結合度管理テーブル172から、ノードID列502がS1203において指定されたノードのIDに合致する全てのレコードの関連ノード列503の値を取得し、関連ノードリストを作成する。
In S1304, the
次に、クラウド管理プログラム178は、関連ノードリストと検証済みノードリストとを比較し、検証済みノードリストに含まれていないノードを関連ノードリストより一つずつ選択して以降のS1306〜S1309を繰り返し処理する(S1305)。
Next, the
次に、クラウド管理プログラム178は、結合度管理テーブル172から、ノードID列502及び関連ノードID列503が、S1203で指定されたノード及びS1305で選択した関連ノードに合致するレコードを取得し、結合度列504の値を取得する(S1306)。
Next, the
次に、クラウド管理プログラム178は、結合度定義テーブル170から、結合度列300の値がS1306において取得した結合度値に合致するレコードを取得し、帯域列301及び応答速度列302の値を取得する(1307)。
Next, the
次いで、クラウド管理プログラム178は、S1307において取得した帯域値及び応答速度値が、S1201において取得したデータセンタ1、2間の帯域及び応答速度を双方共に上回るかどうかを比較する(S1308)。比較の結果、結合度がデータセンタ間回線状況と同等かあるいはそれを上回ると判定された場合(S1308、Yes)、クラウド管理プログラム178は処理をS1309に進める。比較の結果、結合度がデータセンタ間回線状況を下回ると判定された場合(S1308、No)、クラウド管理プログラム178は処理をS1310に進める。
Next, the
次に、クラウド管理プログラム178は、結合度管理テーブル172から、関連ノードID列503がS1305で選択した関連ノードのIDに合致するレコードを取得し、当該レコードがサービスプロファイル列505に値を持つかどうかを判定することで、S1305で選択した関連ノードがミドルボックス13であるかどうかを判定する。S1305で選択した関連ノードがミドルボックス13ではなく、且つ、移動候補ノードリストに含まれていなければ、当該関連ノードを移動候補ノードリストに追加する(S1309)。
Next, the
S1310において、クラウド管理プログラム178は、S1304において作成した関連ノードリストのうち、検証済みノードリストに含まれていない全てのノードについてS1306〜S1309の処理を実施したかどうかを評価する。実施したと判定された場合(S1310、Yes)、本処理はノード移動可否検証フローに戻る。まだ実施していない関連ノードがあると判定された場合(S1310、No)、クラウド管理プログラム178、処理をS1305に戻す。
In S1310, the
以上の重み及び結合度検証処理によれば、各ノードについて、そのノードの重み及び他ノードとの関連性の点から、他のデータセンタへの移動候補となりうるかを検証することができる。 According to the weight and coupling degree verification process described above, it is possible to verify whether each node can be a candidate for movement to another data center in terms of the weight of the node and the relevance with another node.
次に、ノード移動可否検証処理において実行される、受入可否検証処理について説明する。図23は、本実施例における、移動先データセンタ2の管理サーバ11で稼働しているクラウド管理プログラム178による、移動候補ノードの受け入れ可否検証の詳細処理手順の一例を示すフローチャートである。
Next, the acceptance / rejection verification process executed in the node movement availability verification process will be described. FIG. 23 is a flowchart illustrating an example of a detailed processing procedure for verifying whether a migration candidate node can be accepted by the
まず、データセンタ2のクラウド管理プログラム178は、データセンタ1のクラウド管理プログラム178より移動要求を受信する(S1401)。移動要求にはノード移動要求プロファイル176と、ミドルボックス13に求めるサービスプロファイル175が含まれる。
First, the
データセンタ2のクラウド管理プログラム178は、データセンタ2の監視サーバ12のネットワーク監視プログラム180及びノード監視プログラム181に問い合わせ、データセンタ2のホストコンピュータ10の空きリソースや、ホストコンピュータ10間のデータ通信における帯域及び応答速度を取得する(S1402)。
The
次に、データセンタ2のクラウド管理プログラム178は、S1402において取得したホストコンピュータ10のリソース空き状況やホストコンピュータ10間のデータ通信における帯域、及び応答速度が、S1401において受信したノード移動要求プロファイル176内のリソース記述子815や帯域記述子817、応答速度記述子818に記載された値を満たすかどうかを比較することで、移動候補のノードがデータセンタ2においてデータセンタ1と同じ結合度を維持可能かどうか判定する(S1403)。判定の結果、移動候補ノードの結合度が維持可能と判定された場合(S1403、Yes)、クラウド管理プログラム178は、処理をS1404に進める。判定の結果、結合度が維持不可と判定された場合(S1403、No)、受け入れ不可として、クラウド管理プログラム178は処理をS1408に進める。
Next, the
データセンタ2のクラウド管理プログラム178は、ミドルボックス管理テーブル174において、サービスプロファイル列701を参照し、データセンタ2内の既存のミドルボックス13がサポートしているサービスプロファイル175の一覧を取得する(S1404)。
The
次に、データセンタ2のクラウド管理プログラム178は、S1404において取得したサービスプロファイル175の一覧においてサービスプロファイルID800が指し示すサービスプロファイル175の中から、S1401においてデータセンタ1の管理サーバ11から受信した要求サービスプロファイル175を満たすものがあるかどうかを、個々の記述子の値を比較することで判定する(S1405)。これにより、クラウド管理プログラム178は、データセンタ2のミドルボックス13が、移動候補のノードに対してデータセンタ1のミドルボックス13と同じサービスレベルを提供可能かどうか判定する(S1406)。
Next, the
データセンタ2のクラウド管理プログラム178は、S1405において候補となるサービスプロファイルが見つかったと判定し場合(S1406、Yes)、処理をS1407に進める。候補となるサービスプロファイル175が見つからないと判定された場合(S1406、No)、受け入れ不可としてクラウド管理プログラム178は処理をS1408に進める。
If the
S1407において、データセンタ2のクラウド管理プログラム178は、移動候補のノードを受け入れるためのリソースを確保するため、データセンタ2内のホストコンピュータ10のリソースを予約する。リソースの予約管理については、仮想マシンモニタプログラム160、クラウド管理プログラム178、外部の管理プログラムのいずれかが行ってよい。
In S1407, the
次いで、データセンタ2のクラウド管理プログラム178は、データセンタ1のクラウド管理プログラム178に受け入れ可否の結果を通知する(S1408)。データセンタ1のクラウド管理プログラム178は当該結果をもってノード移動可否検証フローに処理を戻す。
Next, the
以上の受入可否検証処理によれば、移動先のデータセンタにおいて、ホストコンピュータ10等のリソース、及びミドルボックス13が提供するサービスの点から移動対象であるノードを受け入れることができるか判定することができる。
According to the acceptability verification process described above, it is possible to determine whether or not the node that is the migration target can be accepted in terms of the resources provided by the
次に、再構成処理について説明する。図24は、本実施例における、ノード移動後のアプリケーションシステム再構成の詳細処理手順の一例を示すフローチャートである。ここでは、データセンタ1からデータセンタ2へのノード移動後に、データセンタ1、2間の回線状況が変化したことに伴って、データセンタ1及びデータセンタ2にまたがったアプリケーションシステム2000のノードを再配置する例を示す。
Next, the reconstruction process will be described. FIG. 24 is a flowchart illustrating an example of a detailed processing procedure of application system reconfiguration after moving a node in the present embodiment. Here, after the node movement from the
まず、データセンタ1のクラウド管理プログラム178はデータセンタ1とデータセンタ2との間の回線状況の変化を認識する(S1501)。具体的には、クラウド管理プログラム178が監視サーバ12のネットワーク監視プログラム180に定期的に問い合わせてもよいし、ネットワーク監視プログラム180がクラウド管理プログラム178に定期的、あるいは変更発生時に通知してもよい。
First, the
次いで、データセンタ1のクラウド管理プログラム178は、ノード管理テーブル179において場所453がデータセンタ1を示すレコードのうち、現在場所454がデータセンタ2を示すレコードのノードID列452の値を取得する。次いでクラウド管理プログラム178は、結合度管理テーブル172のノードID列502あるいは関連ノードID列503が取得した値と合致するレコードの結合度列504の値を取得する(S1502)。さらにクラウド管理プログラム178は、S1501において認識したデータセンタ1、2間の回線状況が取得した結合度値を上回るかどうかを判定する(S1503)。判定の手法は、図22に例示した重み及び結合度検証フローのS1307〜S1308と同じである。判定の結果、回線状況が結合度値を下回ると判定された場合(S1503、No)、S1504に進む。結合度が維持可能と判定された場合(S1503、Yes)、再構成の必要無しとして本フローを終了する。
Next, the
S1504において、データセンタ1のクラウド管理プログラム178は、データセンタ1の監視サーバ12のネットワーク監視プログラム180及びノード監視プログラム181に問い合わせ、ノードの空きリソースやノード間の帯域及び応答速度を取得する(S1504)。
In S1504, the
次いで、データセンタ1のクラウド管理プログラム178は、S1504において取得したノードのリソース状況やノード間の回線状況を、当該アプリケーションシステム2000を構成するデータセンタ1のノードとデータセンタ2のノードとの間の結合度と比較することで、データセンタ2に移動したノードをデータセンタ1に戻せるかどうかを判定する(S1505)。判定の結果、データセンタ2のノードがデータセンタ1に戻せると判定された場合(S1505、Yes)、クラウド管理プログラム178は処理をS1506に進める。判定の結果、データセンタ2のノードがデータセンタ1に戻せないと判定された場合(S1505、No)、受け入れ不可としてクラウド管理プログラム178は、処理をS1508に進める。
Next, the
S1506において、データセンタ1のクラウド管理プログラム178はデータセンタ2のノードを戻すためのリソースを確保するため、データセンタ1内のホストコンピュータ10のリソースを予約する。
In S1506, the
次いで、データセンタ1のクラウド管理プログラム178は、データセンタ2のクラウド管理プログラム178に対して、ノードを戻すための移動を通知する(S1507)。
Next, the
データセンタ1のクラウド管理プログラム178とデータセンタ2のクラウド管理プログラム178とは、移動対象のノードが稼動する仮想マシンモニタプログラム160、及び移動先の仮想マシンモニタプログラム160に移動を指示して処理を終了する(S1508)。
The
一方、データセンタ2のノードがデータセンタ1に戻せないと判定された場合、S1509において、データセンタ1のクラウド管理プログラム178は、データセンタ2以外の他のデータセンタであって、当該アプリケーションシステム2000のノード間の結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタのクラウド管理プログラム178に移動を問い合わせる。以降の処理は前述のノード移動可否検証フローのS1210以降と同じである。
On the other hand, if it is determined that the node of the
以上の処理によれば、移動先のノードに関して回線状況が変化した場合に、結合度を維持したまま当該ノードの再配置を実行することができる。 According to the above processing, when the line status changes with respect to the destination node, it is possible to perform the rearrangement of the node while maintaining the degree of coupling.
以上、本発明の第一の実施例を説明した。第一の実施例によると、データセンタシステム1000はノード間の関係を結合度という抽象化された指標で管理し、ノードとミドルボックス13との関係を結合度及びサービスプロファイル175という指標で管理する。これにより、クラウド管理者がクラウド利用者のアプリケーションシステム2000の構成を知ることなく、アプリケーションシステム2000のサービスレベルに影響が出ない範囲で、データセンタにまたがったアプリケーションシステム2000を構築可能となる。また、データセンタ間の回線状況変化に応じてアプリケーションシステム2000を再構成できる。結果として、リソースの負荷や利用率の平準化と、クラウド管理及びクラウド利用との適切な分離を両立できる。
The first embodiment of the present invention has been described above. According to the first embodiment, the
次に、本発明を適用する図1に例示したデータセンタ連携システム1000の二つ目の実施例について説明する。以下、特に説明の無い箇所は実施例1と同じ構成を有するものとする。
Next, a second embodiment of the data
本実施例は、データセンタシステム1000がノード間の結合度を導出するという点で実施例1とは異なる。この構成により、本実施例においては、クラウド利用者は事前にノード間の結合度を設定する必要が無くなる。さらに、例えばノード間の実質的な回線利用状況を用いて結合度を算出することにより、クラウド管理プログラム178が回線状況の実態に合わせて仮想マシン161の移動を判定することが可能となる。
The present embodiment is different from the first embodiment in that the
図25は、実施例2における、クラウド管理プログラム178による結合度導出の詳細処理手順の一例を示すフローチャートである。本フローは、結合度設定プログラム177が提供するインタフェースを介して、クラウド利用者が後述するパラメータを更新したことをきっかけに実施してもよいし、クラウド管理者がパラメータを更新したことをきっかけに実施してもよいし、結合度設定プログラム177が定期的にその時点でのパラメータを用いて実施してもよい。
FIG. 25 is a flowchart illustrating an example of a detailed processing procedure for deriving the degree of coupling by the
まず、結合度設定プログラム177は監視サーバ12上のネットワーク監視プログラム180に対して、ノード間の回線状況を問い合わせる(S1601)。本実施例においては、回線状況としてノード間の使用帯域と応答速度の実測値を用いるものとする。
First, the connection
次いで、結合度設定プログラム177は以下の計算式に従って結合度を算出する(S1602)。
Next, the coupling
ノードmn間の結合度=C1(ノードmn間の単位時間当たりの通信流量/アプリケーションシステム内の全ノード間の単位時間当たりの平均流量)+C2(ノードmn間の平均応答速度/アプリケーションシステム内の全ノード間の平均応答速度)
ここで、C1及びC2は係数であり、流量と応答速度のどちらを重要視するかを調整するために利用することができるパラメータである。パラメータC1、C2は、クラウド利用者が事前に定義してもよいし、クラウド管理者が事前に定義してもよい。
Degree of coupling between nodes mn = C1 (communication flow rate per unit time between nodes mn / average flow rate per unit time between all nodes in the application system) + C2 (average response speed between nodes mn / total in the application system) Average response speed between nodes)
Here, C1 and C2 are coefficients, and are parameters that can be used to adjust which of flow rate and response speed is important. The parameters C1 and C2 may be defined in advance by the cloud user or may be defined in advance by the cloud administrator.
次に、結合度設定プログラム177は、S1602において算出した結合度を結合度管理テーブル172の結合度列504に格納する(S1603)。
Next, the coupling
図24は、実施例2における、クラウド利用者による結合度設定の詳細処理手順の一例を示すフローチャートである。 FIG. 24 is a flowchart illustrating an example of a detailed processing procedure for setting a degree of coupling by a cloud user according to the second embodiment.
まず、クラウド利用者の操作に従って、管理サーバ11がクラウド利用端末3からの指示を受領する(S1701)。
First, according to the operation of the cloud user, the
次に、クラウド利用端末3から受領した指示に基づいて、結合度設定プログラム177が提供するインタフェースを介して、アプリケーションシステム2000に含まれる個々のノード間の結合度を算出するためのパラメータ指定をクラウド利用端末3から受け付ける(S1702)。ここで、パラメータは上述の計算式における係数C1、C2や、ミドルボックス13に求める要件に相当するサービスプロファイル175である。
Next, on the basis of the instruction received from the
次いで、結合度設定プログラム177は、S1702においてクラウド利用者から指定されたサービスプロファイル175を基に、結合度管理テーブル172のサービスプロファイル列505を更新する(S1703)。
Next, the association
最後に、結合度設定プログラム177は、S1702においてクラウド利用者により設定された係数を基に、図25の結合度導出処理フローを実行する(S1704)。
Finally, the coupling
以上、本発明の第二の実施例を説明した。この第二の実施例によると、データセンタシステム1000がノード間の結合度を導出することで、クラウド利用者は事前にノード間の結合度を設定する必要が無くなる。さらに、例えばノード間の実質的な回線利用状況を用いて結合度を算出することにより、利用実態に合わせてリソース利用の平準化を行うことができる。
The second embodiment of the present invention has been described above. According to the second embodiment, the
なお、以上説明した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその等価物も含まれる。 The embodiment of the invention described above is for facilitating the understanding of the present invention, and does not limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and equivalents thereof are also included in the present invention.
1 データセンタ1
2 データセンタ2
3 クラウド利用端末
4 クラウド管理端末
5 クライアント端末
6 通信ネットワーク
10 ホストコンピュータ
11 管理サーバ
12 監視サーバ
13 ミドルボックス
14 ルーティング装置
15 通信ネットワーク
1
2
DESCRIPTION OF
Claims (10)
前記アプリケーションシステムは互いに通信可能に接続されている複数の構成要素を有し、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての移動候補となる第一の構成要素を選択するステップと、
前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、
前記移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価するステップと、
前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、新たな移動候補として選定するステップと、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出するステップと、
変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記複数の構成要素との間に設定されている前記結合度を維持できるかどうかを評価するステップと、
前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定するステップと、
前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼するステップと、
を含むデータセンタシステムの管理方法。 At least a first data center in which an application system connected to an external device and providing data processing services to the external device is constructed, and a second data center having a configuration equivalent to the first data center A data center system management method comprising:
The application system has a plurality of components that are communicably connected to each other,
Selecting a first component to be a movement candidate as a candidate to move to the second data center from among the plurality of components of the application system of the first data center;
Setting a degree of coupling for each of the plurality of components , which is an index indicating a necessary condition regarding communication between the plurality of components included in the application system;
Between data centers that are information on the degree of coupling set for the first component that is the movement candidate and the communication status of the communication line between the first data center and the second data center Comparing and evaluating communication line information;
As a result of the comparative evaluation, when it is determined that the degree of coupling is superior to the communication line information between the data centers, the component that needs to move to the second data center together with the first component Determining a second component that is and selecting as a new candidate for movement;
After moving some of the plurality of components of the application system of the first data center to the second data center, between the first data center and the second data center Detecting a change in communication line status as communication line information between the data centers;
With respect to said data center communication line information after the change, in the application system, are set between the plurality of components that the plurality of components in said first data center to the second data center Evaluating whether the degree of coupling can be maintained;
Whether it is possible to move the first and second components of the application system in the second data center to the first data center when it is determined that the degree of coupling cannot be maintained. Determining using the resource condition and the degree of coupling for the plurality of components included in the application system in the first data center;
When it is determined that it is difficult to move to the first data center, a said first data center and other data centers other than the second data center, said first and is the determination select data center is a line situation capable of maintaining cohesion regarding second component, comprising the steps of requesting implementation of acceptance determination of the in the data center first and second components,
Management method of data center system including
前記移動候補とされた前記第一及び第二の構成要素について、前記第一のデータセンタについて設定されている重み情報を基に前記第一及び第二の構成要素の前記第二のデータセンタへの移動の可否を決定するステップと、をさらに含む、請求項1に記載のデータセンタシステムの管理方法。 The step of setting the plurality of components and, said first data center and the second data center the weight information indicating correspondence to each of the range that can move the plurality of components of the application system When,
For the first and second components that are the movement candidates, to the second data center of the first and second components based on the weight information set for the first data center The method of managing a data center system according to claim 1, further comprising:
前記比較評価の結果、前記第二のデータセンタ内の前記複数の構成要素間通信回線情報が前記移動候補である前記第一及び第二の構成要素間で設定されている前記結合度より優れているかどうかを評価するステップと、をさらに含む、請求項1に記載のデータセンタシステムの管理方法。 Wherein the coupling degree between one or more of the components included in the moving candidate, the second in a data center communications line information about the communication status is a component communication line between each of said plurality of components A step of comparing and evaluating information;
As a result of the comparative evaluation, the communication line information between the plurality of components in the second data center is superior to the coupling degree set between the first and second components that are the movement candidates. The data center system management method according to claim 1, further comprising a step of evaluating whether or not.
前記移動候補とされている前記第一及び第二の構成要素が、前記第二のデータセンタにおいて前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能かどうか評価するステップと、をさらに含む、請求項1に記載のデータセンタシステムの管理方法。 Of the plurality of components of the application system, service requirement information indicating requirements regarding service contents to be provided by a communication service device that provides a service for communication performed in the application system is set for the communication service device. Steps,
The first and second components that are the movement candidates have the service requirement information having contents equivalent to the service contents received at the first data center in the second data center. The data center system management method according to claim 1, further comprising a step of evaluating whether the communication service device is available.
前記受け入れ可能であるという判定結果を前記第二のデータセンタから前記第一のデータセンタに通知するステップと、をさらに含む、
請求項5に記載のデータセンタシステムの管理方法。 Inter-component communication line information, which is information related to the communication status of communication lines between the plurality of components in the second data center , is set for the first and second components that are the movement candidates. The service requirement information having a content equivalent to the service content received at the first data center by the first and second constituent elements that are superior to the combined degree that is the movement candidate. Determining that the first and second components that are the movement candidates are acceptable to the second data center when it is determined that the communication service apparatus having
Notifying the first data center of the determination result that the data is acceptable from the second data center;
The data center system management method according to claim 5.
前記アプリケーションシステムは互いに通信可能に接続されている複数の構成要素を有し、
各前記データセンタにおいて各前記複数の構成要素と通信可能に接続されて前記アプリケーションシステムを管理する管理装置が、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての第一の移動候補となる第一の構成要素を選択するステップと、
前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、
前記アプリケーションシステムの前記複数の構成要素と、当該複数の構成要素を移動することができる範囲との対応付けをそれぞれ示す重み情報を前記第一のデータセンタ及び前記第二のデータセンタについて設定し、
前記アプリケーションシステムの前記複数の構成要素のうち、当該アプリケーションシステム内で行われる通信についてのサービスを提供する通信サービス装置が有するべきサービス内容に関する要件を示すサービス要件情報を、前記通信サービス装置に関して設定し、
前記第一の移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価し、
前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、第二の移動候補として選定し、
前記第一及び第二の移動候補とされた前記第一及び第二の構成要素について、前記第一のデータセンタについて設定されている重み情報を基に、前記第二のデータセンタへ移動することができる前記第一及び第二の構成要素を第三の移動候補として決定し、
前記第三の移動候補に含まれる一つ以上の前記構成要素間の結合度と、前記第二のデータセンタ内にある各前記構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報とを比較評価し、
前記比較評価の結果、前記第二のデータセンタ内の前記構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れているかどうかを評価し、
前記第三の移動候補とされている前記第一及び第二の構成要素が、前記第二のデータセンタにおいて前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能かどうか評価し、
前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れており、且つ、前記第三の移動候補である前記第一及び第二の構成要素が前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能であると判定された場合に、前記第三の移動候補である前記第一及び第二の構成要素を前記第二のデータセンタに受け入れ可能であると判定し、前記第三の移動候補である前記第一及び第二の構成要素を前記第一のデータセンタから前記第二のデータセンタに移動させ、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出し、
変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記複数の構成要素との間に設定されている前記結合度を維持できるかどうかを評価し、
前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定し、
前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第三の移動候補である前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼する、
データセンタシステム。 A first data center in which an application system connected to an external device and providing a data processing service to the external device is constructed; and a second data center having a configuration equivalent to the first data center. Data center system,
The application system has a plurality of components that are communicably connected to each other,
A management device that is communicably connected to each of the plurality of components in each of the data centers and manages the application system,
From among the plurality of components by the application system has the first data center, comprising: selecting a first component comprising a first migration candidate as a candidate to be moved to the second data center ,
A step of coupling degree is an index showing the requirements of communication between the plurality of components included in the application system, set for each of the plurality of components,
Setting weight information indicating the correspondence between the plurality of components of the application system and the range in which the plurality of components can be moved, for the first data center and the second data center,
Of the plurality of components of the application system, service requirement information indicating requirements regarding service contents to be provided by a communication service device that provides a service for communication performed in the application system is set for the communication service device. ,
Information on the degree of coupling set for the first component that is the first movement candidate and the communication status of the communication line between the first data center and the second data center Compare and evaluate communication line information between data centers,
As a result of the comparative evaluation, when it is determined that the degree of coupling is superior to the communication line information between the data centers, the component that needs to move to the second data center together with the first component Is determined as a second candidate for movement,
The first and second components that are the first and second movement candidates are moved to the second data center based on the weight information set for the first data center. determining the first and second components can as a third movement candidates,
And the degree of coupling between the third one or more of the components included in the candidate travel, between said second component which is information related to a communication environment of the communication line between each of said components in the data center communications Compare and evaluate the line information,
As a result of the comparative evaluation, evaluate whether the inter-component communication line information in the second data center is superior to the coupling degree set for the third movement candidate,
The service requirement information in which the first and second components that are the third movement candidates have contents equivalent to the service contents received at the first data center in the second data center. Evaluating whether the communication service device having
The inter-component communication line information, which is information relating to the communication status of the communication lines between the plurality of components in the second data center , is superior to the coupling degree set for the third movement candidate. And the communication service apparatus having the service requirement information having contents equivalent to the service contents received by the first data center in the first and second constituent elements that are the third movement candidates. Is determined to be usable, the first and second components that are the third movement candidates are determined to be acceptable to the second data center, and the third movement is performed. Moving the candidate first and second components from the first data center to the second data center;
After moving some of the plurality of components of the application system of the first data center to the second data center, between the first data center and the second data center Detecting a change in communication line status as communication line information between the data centers,
With respect to said data center communication line information after the change, in the application system, are set between the plurality of components that the plurality of components in said first data center to the second data center And evaluate whether the degree of coupling can be maintained,
Whether it is possible to move the first and second components of the application system in the second data center to the first data center when it is determined that the degree of coupling cannot be maintained. , determined using the resource condition and the coupling degree of the plurality of components included in the application system at the first data center,
When it is determined that it is difficult to move to the first data center, a said first data center and other data centers other than the second data center, said first and is the determination select data center is a line situation capable of maintaining cohesion on two components, request the implementation of acceptance determination of the first and second components are the said to the data center the third migration candidate To
Data center system.
前記管理装置が、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての第一の移動候補となる第一の構成要素を選択するステップと、
前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、
前記アプリケーションシステムの前記構成要素と、当該複数の構成要素を移動することができる範囲との対応付けをそれぞれ示す重み情報を前記第一のデータセンタ及び前記第二のデータセンタについて設定し、
前記アプリケーションシステムの前記複数の構成要素のうち、当該アプリケーションシステム内で行われる通信についてのサービスを提供する通信サービス装置が有するべきサービス内容に関する要件を示すサービス要件情報を、前記通信サービス装置に関して設定し、
前記第一の移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価し、
前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、第二の移動候補として選定し、
前記第一及び第二の移動候補とされた前記第一及び第二の構成要素について、前記第一のデータセンタについて設定されている重み情報を基に、前記第二のデータセンタへ移動することができる前記第一及び第二の構成要素を第三の移動候補として決定し、
前記第三の移動候補に含まれる一つ以上の前記構成要素間の結合度と、前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報とを比較評価し、
前記比較評価の結果、前記第二のデータセンタ内の前記構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れているかどうかを評価し、
前記第三の移動候補とされている前記第一及び第二の構成要素が、前記第二のデータセンタにおいて前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能かどうか評価し、
前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れており、且つ、前記第三の移動候補である前記第一及び第二の構成要素が前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能であると判断された場合に、前記第三の移動候補である前記第一及び第二の構成要素を前記第二のデータセンタに受け入れ可能であると判断し、前記第三の移動候補である前記第一及び第二の構成要素を前記第一のデータセンタから前記第二のデータセンタに移動させるべく指示し、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出し、
変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記構成要素との間に設定されている前記結合度を維持できるかどうかを評価し、
前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定し、
前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第三の移動候補である前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼する、
データセンタシステムの管理装置。 A first data center having a plurality of components connected so as to be communicable with each other, an application system connected to an external device and providing a data processing service to the external device; and the first data center A data center system comprising a second data center having a configuration equivalent to the data center, and a management device for managing the application system connected to each component in the data center in a communicable manner,
The management device is
From among the plurality of components by the application system has the first data center, comprising: selecting a first component comprising a first migration candidate as a candidate to be moved to the second data center ,
Setting a degree of coupling for each of the plurality of components , which is an index indicating a necessary condition regarding communication between the plurality of components included in the application system;
And said component of said application system, the settings for the first data center and the second data center the weight information indicating correspondence to each of the range that can move the plurality of components,
Of the plurality of components of the application system, service requirement information indicating requirements regarding service contents to be provided by a communication service device that provides a service for communication performed in the application system is set for the communication service device. ,
Information on the degree of coupling set for the first component that is the first movement candidate and the communication status of the communication line between the first data center and the second data center Compare and evaluate communication line information between data centers,
As a result of the comparative evaluation, when it is determined that the degree of coupling is superior to the communication line information between the data centers, the component that needs to move to the second data center together with the first component determining a second component is, then selected as the second movement candidates,
The first and second components that are the first and second movement candidates are moved to the second data center based on the weight information set for the first data center. determining the first and second components can as a third movement candidates,
Wherein the coupling degree between one or more of the components included in the third migration candidate components is information related to a communication environment of the communication line between each of said plurality of components in said second data center Compare and evaluate communication line information between
As a result of the comparative evaluation, evaluate whether the inter-component communication line information in the second data center is superior to the coupling degree set for the third movement candidate,
The service requirement information in which the first and second components that are the third movement candidates have contents equivalent to the service contents received at the first data center in the second data center. Evaluating whether the communication service device having
The inter-component communication line information, which is information relating to the communication status of the communication lines between the plurality of components in the second data center , is superior to the coupling degree set for the third movement candidate. And the communication service apparatus having the service requirement information having contents equivalent to the service contents received by the first data center in the first and second constituent elements that are the third movement candidates. Is determined to be usable, the first and second components that are the third movement candidates are determined to be acceptable to the second data center, and the third movement is performed. Directing the candidate first and second components to move from the first data center to the second data center;
After moving some of the plurality of components of the application system of the first data center to the second data center, between the first data center and the second data center Detecting a change in communication line status as communication line information between the data centers,
Regarding the communication line information between the data centers after the change, in the application system, it is set between the plurality of components in the first data center and the components in the second data center. Evaluate whether the degree of binding can be maintained,
Whether it is possible to move the first and second components of the application system in the second data center to the first data center when it is determined that the degree of coupling cannot be maintained. , determined using the resource condition and the coupling degree of the plurality of components included in the application system in the first data center,
When it is determined that it is difficult to move to the first data center, a said first data center and other data centers other than the second data center, said first and is the determination select data center is a line situation capable of maintaining cohesion on two components, request the implementation of acceptance determination of the first and second components are the said to the data center the third migration candidate To
Data center system management device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011083781A JP5675471B2 (en) | 2011-04-05 | 2011-04-05 | Data center system management method, data center system, and management apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011083781A JP5675471B2 (en) | 2011-04-05 | 2011-04-05 | Data center system management method, data center system, and management apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012221049A JP2012221049A (en) | 2012-11-12 |
JP5675471B2 true JP5675471B2 (en) | 2015-02-25 |
Family
ID=47272541
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011083781A Active JP5675471B2 (en) | 2011-04-05 | 2011-04-05 | Data center system management method, data center system, and management apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5675471B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2975518A4 (en) | 2013-03-15 | 2016-11-02 | Nec Corp | Information processing system and method for relocating application |
JP5911448B2 (en) * | 2013-05-10 | 2016-04-27 | 株式会社日立製作所 | Migration support apparatus, migration support method, and program |
JP6173909B2 (en) * | 2013-12-27 | 2017-08-02 | 株式会社日立製作所 | System configuration plan generation method and design support apparatus |
JP6237318B2 (en) | 2014-02-19 | 2017-11-29 | 富士通株式会社 | Management device, workload distribution management method, and workload distribution management program |
JP2016103731A (en) * | 2014-11-28 | 2016-06-02 | 株式会社日立製作所 | Computer system, gateway, and transfer control method |
JP6959519B2 (en) | 2017-11-06 | 2021-11-02 | 富士通株式会社 | Processing distribution program, processing distribution device and processing distribution method |
JP7469655B2 (en) | 2020-07-14 | 2024-04-17 | 富士通株式会社 | CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002268964A (en) * | 2001-03-07 | 2002-09-20 | Kddi Corp | Load distribution control system in network management |
JP5110315B2 (en) * | 2006-05-24 | 2012-12-26 | 日本電気株式会社 | Virtual machine management apparatus, virtual machine management method and program |
JP2008299791A (en) * | 2007-06-04 | 2008-12-11 | Hitachi Ltd | Virtual computer system |
JP2010140134A (en) * | 2008-12-10 | 2010-06-24 | Hitachi Ltd | Virtual machine management method, program, and management server |
JP2011180889A (en) * | 2010-03-02 | 2011-09-15 | Nec Corp | Network resource management system, device, method and program |
JP2011186821A (en) * | 2010-03-09 | 2011-09-22 | Nec Corp | Virtual-environment management system, device, method, and program |
-
2011
- 2011-04-05 JP JP2011083781A patent/JP5675471B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012221049A (en) | 2012-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5675471B2 (en) | Data center system management method, data center system, and management apparatus | |
US10798016B2 (en) | Policy-based scaling of network resources | |
US12118403B2 (en) | System and method for cross region resource management for regional infrastructure resources in a cloud infrastructure environment | |
US8359440B2 (en) | Management server device for managing virtual storage device, and method for managing virtual storage device | |
CN105379185B (en) | For creating and managing the method and system of network group | |
US8825858B1 (en) | Virtual server resource monitoring and management | |
US20150156131A1 (en) | Method and system of geographic migration of workloads between private and public clouds | |
US10326832B2 (en) | Combining application and data tiers on different platforms to create workload distribution recommendations | |
US9354914B2 (en) | Storage system | |
US20130326515A1 (en) | Device, recording medium, and method | |
US9893959B1 (en) | Resource modeling language to specify and control the placement of resources in a cloud environment | |
CN103827825A (en) | Virtual resource object component | |
JP5596716B2 (en) | Resource management apparatus, resource management system, resource management method, and resource management program | |
US9848060B2 (en) | Combining disparate applications into a single workload group | |
US9519441B1 (en) | Automated storage provisioning and management using a centralized database | |
US20220232073A1 (en) | Multichannel virtual internet protocol address affinity | |
JP2015115043A (en) | Management device, management method, and management program | |
US11886927B2 (en) | ICT resource management device, ICT resource management method and ICT resource management program | |
WO2016121879A1 (en) | Virtualization control apparatus, arrangement destination selecting method and program | |
JP6355133B2 (en) | Virtualization infrastructure selection apparatus, method and program thereof | |
JP2015103094A (en) | Virtual resource management device, selection method and selection program | |
AU2019393045B2 (en) | ICT resource management device, ICT resource management method and ICT resource management program | |
CN112199188A (en) | Non-transitory computer-readable recording medium, method and apparatus for information processing | |
JP2014126940A (en) | Cloud configuration management support system, cloud configuration management support method and cloud configuration management support program | |
Salapura et al. | Enabling enterprise-level workloads in the enterprise-class cloud |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140930 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141112 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141224 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5675471 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |