JP5675471B2 - Data center system management method, data center system, and management apparatus - Google Patents

Data center system management method, data center system, and management apparatus Download PDF

Info

Publication number
JP5675471B2
JP5675471B2 JP2011083781A JP2011083781A JP5675471B2 JP 5675471 B2 JP5675471 B2 JP 5675471B2 JP 2011083781 A JP2011083781 A JP 2011083781A JP 2011083781 A JP2011083781 A JP 2011083781A JP 5675471 B2 JP5675471 B2 JP 5675471B2
Authority
JP
Japan
Prior art keywords
data center
components
communication
degree
application system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011083781A
Other languages
Japanese (ja)
Other versions
JP2012221049A (en
Inventor
順史 木下
順史 木下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2011083781A priority Critical patent/JP5675471B2/en
Publication of JP2012221049A publication Critical patent/JP2012221049A/en
Application granted granted Critical
Publication of JP5675471B2 publication Critical patent/JP5675471B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Computer And Data Communications (AREA)

Description

本発明は、データセンタシステム管理方法、データセンタシステム、及び管理装置に関するものである。   The present invention relates to a data center system management method, a data center system, and a management apparatus.

近年、企業や組織のデータセンタにおいて、コンピューティングリソースの有効利用やコスト低減、リソースのオンデマンドでの利用等を実現するために、仮想化技術を活用して物理的なリソースを集約し、論理化するクラウドコンピューティング基盤(以下、単にクラウドと呼称する)の構築が進展している。クラウドにおいては、例えば企業等の組織のビジネスユニット(以下、クラウド利用者と呼称する)は、セルフサービスポータルと呼ばれるポータル画面にアクセスして仮想マシン等の論理リソースの割り当てを申請し、割り当てられた論理リソースを用いてアプリケーションシステムを構築及び運用管理する(以下、テナント管理と呼称する)。一方、例えば企業等の組織のIT部門、あるいはベンダ(以下、クラウド管理者と呼称する)は、クラウド基盤の構築及び運用管理、論理リソースのクラウド利用者への割り当て等を行う(以下、クラウド管理と呼称する)。このように、クラウドの運用管理と論理リソースの利用及び運用管理を分離することで、クラウド利用者は論理リソースの物理的な場所及び状態を意識することなく論理リソースの利用及び運用管理に専念し、クラウド管理者は論理リソースを用いて構築及び運用されているアプリケーションシステムの詳細を知ることなく、クラウドの運用管理に専念することが可能になると期待されている。またクラウドにおいては、仮想化技術によって、仮想マシンをある物理ホストコンピュータ上から他の物理ホストコンピュータ上に移動させることが可能である。これにより、クラウド管理者はクラウドにおける負荷、リソースについて利用の平準化を柔軟に行うことが出来るようになった。さらに、非特許文献1に記載の通り、ホストコンピュータの負荷等の状況に応じて仮想マシンを自動的に移動させる技術も開発されている。また特許文献1においては、複数の仮想マシンを移動させる技術も提案されている。   In recent years, in order to achieve effective use of computing resources, cost reduction, and on-demand use of resources in enterprise and organization data centers, physical resources are aggregated by using virtualization technology and logical Construction of a cloud computing platform (hereinafter simply referred to as cloud) is progressing. In the cloud, for example, a business unit of an organization such as a company (hereinafter referred to as a cloud user) accesses a portal screen called a self-service portal and applies for allocation of a logical resource such as a virtual machine. Application systems are constructed and managed using logical resources (hereinafter referred to as tenant management). On the other hand, for example, an IT department of an organization such as a company or a vendor (hereinafter referred to as a cloud administrator) performs construction and operation management of a cloud infrastructure, allocation of logical resources to a cloud user, etc. (hereinafter referred to as cloud management). Called). In this way, by separating cloud operation management from logical resource use and operation management, cloud users can concentrate on logical resource use and operation management without being aware of the physical location and status of logical resources. Cloud administrators are expected to be able to concentrate on cloud operation management without knowing the details of application systems built and operated using logical resources. In the cloud, a virtual machine can be moved from one physical host computer to another physical host computer by virtualization technology. As a result, the cloud administrator can flexibly level the usage of resources and loads in the cloud. Furthermore, as described in Non-Patent Document 1, a technique for automatically moving a virtual machine according to a situation such as a load on a host computer has been developed. Patent Document 1 also proposes a technique for moving a plurality of virtual machines.

一方、一つのデータセンタに配置できる物理的なリソースに限りがある場合、クラウドは複数のデータセンタにまたがって構築される構成になり得る。また実際のアプリケーションシステムは、一般に、複数の仮想マシン、物理的なホストコンピュータに加えて、負荷分散装置、ファイアウォール、及び侵入防御システム等の、通信を制御するための要素(以下、ミドルボックスと呼称する)から構成される。ミドルボックスは仮想化されているとは限らず、また、データセンタにおいてアプリケーションシステム間で共有されている場合がある。このような現状により、クラウド利用者がアプリケーションシステムをクラウド上に構築する場合、データセンタのリソースの空き状況によっては、アプリケーションシステムを構成する個々の構成要素を異なるデータセンタに配置しなければならない場合があり得る。また、アプリケーションシステムが当初は同じデータセンタ内で構成された場合においても、非特許文献1、特許文献1等の文献に記載の方法は仮想マシンが構成するアプリケーションシステムあるいは仮想マシン間の関係を考慮せずに仮想マシンを移動するため、あるアプリケーションシステムを構成する個々の仮想マシンが異なるデータセンタに再配置される状況が起こり得る。データセンタが互いに地理的に離れた位置に存在する場合、個々の仮想マシンあるいはホストコンピュータの間の通信が比較的遅延の大きいデータセンタ間ネットワークを往復するため、クラウド利用者が意識しないうちにアプリケーションシステムのパフォーマンスが低下する、あるいは、法規制等によって許可されていない地域にデータが転送され得る、という課題がある。さらに、データセンタ毎に複数のアプリケーションシステムがミドルボックスを共有する場合、クラウド利用者が複数のデータセンタにまたがるアプリケーションシステムにおいてどのミドルボックスを利用すべきか判断できず、アプリケーションシステムの設計、構築、及び運用が複雑化する場合があるという課題がある。   On the other hand, when the physical resources that can be arranged in one data center are limited, the cloud can be configured to be constructed across a plurality of data centers. An actual application system generally includes elements for controlling communication such as a load balancer, a firewall, and an intrusion prevention system in addition to a plurality of virtual machines and physical host computers (hereinafter referred to as a middle box). ). The middle box is not necessarily virtualized and may be shared between application systems in the data center. Under these circumstances, when cloud users build application systems on the cloud, depending on the availability of data center resources, the individual components that make up the application system must be located in different data centers. There can be. Further, even when the application system is initially configured in the same data center, the methods described in documents such as Non-Patent Document 1 and Patent Document 1 take into account the relationship between the application system or virtual machine that the virtual machine configures. In other words, a situation may occur in which individual virtual machines constituting an application system are relocated to different data centers. When data centers are located geographically away from each other, communication between individual virtual machines or host computers goes back and forth between networks with relatively large delays. There is a problem that the performance of the system deteriorates or data can be transferred to an area not permitted by laws and regulations. In addition, when multiple application systems share a middle box for each data center, the cloud user cannot determine which middle box should be used in an application system that spans multiple data centers. There is a problem that operation may be complicated.

以上のような、アプリケーションシステムを構成する個々の仮想マシンが複数のデータセンタをまたがって設置されることに起因する、パフォーマンス、コンプライアンスの課題、及び、ミドルボックス利用の課題に対応するために、様々な方法が提案されている。例えば、クラウド利用者に仮想マシンを配置する場所(いずれのデータセンタか、あるいはどの地域か、等)、使用するミドルボックスを指定させる方法が実運用されている。例えば非特許文献2には、クラウド利用者が仮想マシンの場所を指定することができると記載されている。また、非特許文献3には、クラウド利用者がどのデータセンタのどの負荷分散装置を使うか指定することができると記載されている。別の方法として、アプリケーションの状態を考慮して仮想マシンを移動する方法も提案されている。例えば特許文献2及び特許文献3においては、アプリケーションのマイグレーション時に、アプリケーションが必要とするサーバリソース、ネットワークリソース、あるいはストレージリソースに応じて、アプリケーションを実行するのに適切なデータセンタを自動的に発見する方法が記載されている。特許文献4には、システム全体のマイグレーションポリシーに加えて個々のアプリケーション固有のポリシーを考慮して仮想マシン配置の最適化を行う方法が記載されている。   In order to respond to the performance, compliance issues, and middlebox usage issues caused by the installation of individual virtual machines that make up the application system across multiple data centers. Have been proposed. For example, a method of allowing a cloud user to specify a location (a data center or a region) where a virtual machine is arranged and a middle box to be used is actually used. For example, Non-Patent Document 2 describes that a cloud user can specify the location of a virtual machine. Non-Patent Document 3 describes that a cloud user can specify which load distribution device of which data center is used. As another method, a method of moving a virtual machine in consideration of an application state has been proposed. For example, in Patent Literature 2 and Patent Literature 3, when an application is migrated, a data center suitable for executing the application is automatically found according to the server resource, network resource, or storage resource required by the application. A method is described. Patent Document 4 describes a method for optimizing a virtual machine arrangement in consideration of a policy specific to each application in addition to a migration policy for the entire system.

特開2009−116859号公報JP 2009-116859 A 特開2009−134687号公報JP 2009-134687 A 米国特許第7801994号明細書US Patent No. 7801994 特開2009−116852号公報JP 2009-116852 A

"VMware vSphere TM"、http://www.vmware.com/products/drs/"VMware vSphere TM", http://www.vmware.com/products/drs/ "Amazon Elastic Compute Cloud (Amazon EC2)"、 http://aws.amazon.com/jp/ec2/"Amazon Elastic Compute Cloud (Amazon EC2)", http://aws.amazon.com/ec/ec2/ "F5 Load Balancer User Manual"、 http://wiki.gogrid.com/wiki/index.php/F5_Load_Balancer_User_Manual"F5 Load Balancer User Manual", http://wiki.gogrid.com/wiki/index.php/F5_Load_Balancer_User_Manual

非特許文献2あるいは非特許文献3で開示されている手法では、クラウド利用者が特定の仮想マシンの配置場所やミドルボックスの具体的な場所を指定することはできるが、それら制限事項や他の構成要素との関係を踏まえた上でアプリケーションシステム全体の配置を複数のデータセンタにまたがって最適化する手段を提供していない。そのため、全体の最適化のためにはアプリケーションシステムを構成する全ての構成要素の場所を指定する必要があり煩雑である。   In the method disclosed in Non-Patent Document 2 or Non-Patent Document 3, a cloud user can specify a specific virtual machine placement location or a specific location of a middle box. It does not provide means for optimizing the layout of the entire application system across multiple data centers based on the relationship with the components. For this reason, it is necessary to specify the location of all the components constituting the application system in order to optimize the entire system, which is complicated.

特許文献2及び特許文献3で開示されている手法においても同様に、アプリケーション単体の移動先となるデータセンタを発見することはできるが、複数の仮想マシン、複数の物理ホストコンピュータ、それらの上で稼動する複数のアプリケーション、及びミドルボックスから構成されるアプリケーションシステムについては考慮しておらず、個々の構成要素の関係を踏まえて仮想マシンを移動することが出来ない。   Similarly, in the methods disclosed in Patent Document 2 and Patent Document 3, it is possible to find a data center as a migration destination of a single application, but a plurality of virtual machines, a plurality of physical host computers, It does not take into account a plurality of applications that operate, and an application system composed of middle boxes, and a virtual machine cannot be moved based on the relationship between individual components.

特許文献4で開示されている手法においては、アプリケーション固有のポリシー適用事例として、サイト間でのアプリケーションの移動が述べられているが、アプリケーション間の連携の有無のみでサイト間の移動の可否を決定しており、複数のアプリケーションが連携するアプリケーションシステムをデータセンタ間にまたがって構成できない。   In the method disclosed in Patent Document 4, application movement between sites is described as an application example of an application-specific policy, but whether to move between sites is determined only by the presence or absence of cooperation between applications. Therefore, an application system in which a plurality of applications cooperate cannot be configured across data centers.

以上のことから、これまでのデータセンタ連携管理においては、アプリケーションシステムの構成を複数のデータセンタにまたがって適切に最適化できないという課題があった。   From the above, in the conventional data center linkage management, there has been a problem that the configuration of the application system cannot be appropriately optimized across a plurality of data centers.

前記の課題及び他の課題を解決するための、本発明の一実施態様は、外部装置に接続されて当該外部装置にデータ処理サービスを提供するアプリケーションシステムが構築されている第一のデータセンタと、前記第一のデータセンタと同等の構成を有する第二のデータセンタとを少なくとも備えているデータセンタシステムの管理方法であって、前記アプリケーションシステムは互いに通信可能に接続されている複数の構成要素を有し、前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての移動候補となる第一の構成要素を選択するステップと、前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、前記移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価するステップと、前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、前記移動候補として選定するステップと、前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出するステップと、変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記複数の構成要素との間に設定されている前記結合度を維持できるかどうかを評価するステップと、前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定するステップと、前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼するステップとを含むデータセンタシステムの管理方法である。 In order to solve the above-described problems and other problems, an embodiment of the present invention includes a first data center in which an application system connected to an external device and providing a data processing service to the external device is constructed. the second and the data center a management method of a data center system comprising at least, the application system a plurality of components that are communicatively connected to each other with a configuration equivalent to the first data center And selecting a first component to be a movement candidate as a candidate to move to the second data center from among the plurality of components of the application system of the first data center When, an index indicating the requirements of communication between the plurality of components included in the application system That the coupling degree, and setting for each of the plurality of components, wherein said coupling degree that is set for said first component is a movement candidates, and the first data center the second A step of comparing and evaluating communication line information between data centers, which is information relating to a communication state of a communication line between data centers, and the result of the comparison and evaluation, the degree of coupling is superior to the communication line information between data centers. Determining the second component that is the component that needs to be moved to the second data center together with the first component, and selecting the candidate as the movement candidate, a portion of the plurality of components included in the application system of the first data center after moving to the second data center, the first Detase Detecting a change in communication line status between the data center and the second data center as the communication line information between the data centers, and regarding the communication line information between the data centers after the change, in the application system, Evaluating whether the degree of coupling set between the plurality of components in the first data center and the plurality of components in the second data center can be maintained; and Whether it is possible to move the first and second components of the application system in the second data center to the first data center, Resource conditions and previous information about the plurality of components included in the application system in a first data center If it is determined that it is impossible to move to the first data center and the data center is a data center other than the first data center and the second data center. Te, select the data center is a line situation capable of maintaining cohesion regarding the determination by said first and second components, the acceptance determination of the first and second components in the data center A data center system management method including a step of requesting implementation.

本発明の一態様によれば、複数のデータセンタにまたがるアプリケーションシステムについて、その詳細な構成を知ることなく、アプリケーションシステム内の特定の構成要素が具備すべき性能上の要件、あるいは構成要素間で維持すべき要件を満たしつつ、当該構成要素をデータセンタ間で移動させることが可能となる。さらに、構成要素間の実際の通信状況を踏まえてリソースの負荷および利用率の平準化を行うことが可能となる。   According to an aspect of the present invention, performance requirements that a specific component in an application system should have, or between components without knowing the detailed configuration of an application system that spans multiple data centers. The component can be moved between data centers while satisfying the requirements to be maintained. Furthermore, it becomes possible to level the resource load and the utilization rate based on the actual communication status between the components.

図1は、本発明の一実施形態によるデータセンタシステム1000のシステム構成を示す図である。FIG. 1 is a diagram showing a system configuration of a data center system 1000 according to an embodiment of the present invention. 図2は、ホストコンピュータ10のハードウェア及びソフトウェア構成を示す図である。FIG. 2 is a diagram illustrating a hardware and software configuration of the host computer 10. 図3は、ホストコンピュータ10のもう一つのハードウェア及びソフトウェア構成を示す図である。FIG. 3 is a diagram showing another hardware and software configuration of the host computer 10. 図4は、管理サーバ11のハードウェア及びソフトウェア構成を示す図である。FIG. 4 is a diagram illustrating a hardware and software configuration of the management server 11. 図5は、監視サーバ12のハードウェア及びソフトウェア構成を示す図である。FIG. 5 is a diagram illustrating a hardware and software configuration of the monitoring server 12. 図6は、ミドルボックス13のハードウェア及びソフトウェア構成を示す図である。FIG. 6 is a diagram illustrating a hardware and software configuration of the middle box 13. 図7は、コンピュータ3000のハードウェア及びソフトウェア構成を示す図である。FIG. 7 is a diagram illustrating a hardware and software configuration of the computer 3000. 図8は、アプリケーションシステム2000の論理構成を示す図である。FIG. 8 is a diagram showing a logical configuration of the application system 2000. 図9は、アプリケーションシステム2000のもう一つの論理構成を示す図である。FIG. 9 is a diagram showing another logical configuration of the application system 2000. 図10は、結合度定義テーブル170の一例を示す図である。FIG. 10 is a diagram illustrating an example of the combination degree definition table 170. 図11は、重み定義テーブル171の一例を示す図である。FIG. 11 is a diagram illustrating an example of the weight definition table 171. 図12は、ノード管理テーブル179の一例を示す図である。FIG. 12 is a diagram illustrating an example of the node management table 179. 図13は、結合度管理テーブル172の一例を示す図である。FIG. 13 is a diagram illustrating an example of the association degree management table 172. 図14は、ノード重み情報管理テーブル173の一例を示す図である。FIG. 14 is a diagram illustrating an example of the node weight information management table 173. 図15は、ミドルボックス管理テーブル174の一例を示す図である。FIG. 15 is a diagram illustrating an example of the middle box management table 174. 図16は、サービスプロファイル175の一例を示す図である。FIG. 16 is a diagram illustrating an example of the service profile 175. 図17は、ノード移動要求プロファイル176の一例を示す図である。FIG. 17 is a diagram illustrating an example of the node movement request profile 176. 図18は、ノード移動確認画面900の一例を示す図である。FIG. 18 is a diagram illustrating an example of the node movement confirmation screen 900. 図19は、重み及び結合度設定処理手順の一例を示す図である。FIG. 19 is a diagram illustrating an example of a weight and coupling degree setting process procedure. 図20は、ノード移動の全体処理手順の一例を示す図である。FIG. 20 is a diagram illustrating an example of an overall processing procedure for node movement. 図21は、ノード移動可否の検証処理手順の一例を示す図である。FIG. 21 is a diagram illustrating an example of a procedure for verifying whether or not a node can be moved. 図22は、重み及び結合度の検証処理手順の一例を示す図である。FIG. 22 is a diagram illustrating an example of a procedure for verifying the weight and the degree of coupling. 図23は、受け入れ可否の検証処理手順の一例を示す図である。FIG. 23 is a diagram illustrating an example of an acceptance / rejection verification processing procedure. 図24は、アプリケーションシステム2000の再構成処理手順の一例を示す図である。FIG. 24 is a diagram illustrating an example of a reconfiguration processing procedure of the application system 2000. 図25は、実施例2における結合度の導出処理手順の一例を示す図である。FIG. 25 is a diagram illustrating an example of a coupling degree derivation process procedure according to the second embodiment. 図26は、実施例2における結合度関連設定の処理手順の一例を示す図である。FIG. 26 is a diagram illustrating an example of the processing procedure of the association degree related setting in the second embodiment.

以下、添付図面を参照しながら本発明の一実施形態を説明する。なお、この実施形態により本発明が限定されるものではない。   Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings. In addition, this invention is not limited by this embodiment.

図1は、本発明の一実施例によるデータセンタシステム1000のシステム構成例を示している。本実施例においてデータセンタシステム1000は、データセンタ1、データセンタ2、クラウド利用端末3、クラウド管理端末4、クライアント端末5、及び通信ネットワーク6から構成され、データセンタ1、データセンタ2、クラウド利用端末3、クラウド管理端末4、及びクライアント端末5は通信ネットワーク6を介して接続される。データセンタ1とデータセンタ2とは、それぞれホストコンピュータ10、管理サーバ11、監視サーバ12、ミドルボックス13、ルーティング機器14、及び通信ネットワーク15から構成され、ホストコンピュータ10、管理サーバ11、監視サーバ12、ミドルボックス13、ルーティング機器14は通信ネットワーク15を介して接続される。クラウド利用端末3、クラウド管理端末4、及びクライアント端末5はデータセンタ1又はデータセンタ2内の通信ネットワーク15に接続されていてもよい。   FIG. 1 shows a system configuration example of a data center system 1000 according to an embodiment of the present invention. In this embodiment, the data center system 1000 includes a data center 1, a data center 2, a cloud usage terminal 3, a cloud management terminal 4, a client terminal 5 and a communication network 6. The terminal 3, the cloud management terminal 4, and the client terminal 5 are connected via a communication network 6. Each of the data center 1 and the data center 2 includes a host computer 10, a management server 11, a monitoring server 12, a middle box 13, a routing device 14, and a communication network 15, and includes the host computer 10, the management server 11, and the monitoring server 12. The middle box 13 and the routing device 14 are connected via a communication network 15. The cloud usage terminal 3, the cloud management terminal 4, and the client terminal 5 may be connected to the communication network 15 in the data center 1 or the data center 2.

クラウド利用者は、クラウド利用端末3を用いてデータセンタ1あるいはデータセンタ2の管理サーバ11にアクセスする。クラウド管理者は、クラウド管理端末4を用いてデータセンタ1あるいはデータセンタ2の管理サーバ11にアクセスする。エンドユーザは、外部装置であるクライアント端末3を用いてデータセンタ1あるいはデータセンタ2のホストコンピュータ10あるいはホストコンピュータ10上に構築されている仮想マシンにアクセスし、ホストコンピュータ10あるいは仮想マシン上のアプリケーションを利用する。   The cloud user accesses the management server 11 of the data center 1 or the data center 2 using the cloud usage terminal 3. The cloud administrator accesses the management server 11 of the data center 1 or the data center 2 using the cloud management terminal 4. The end user accesses the virtual machine built on the host computer 10 or the host computer 10 of the data center 1 or the data center 2 using the client terminal 3 which is an external device, and the application on the host computer 10 or the virtual machine. Is used.

通信ネットワーク6及び通信ネットワーク15は、公衆網、インターネット、ISDN、専用線、LAN等の有線網、あるいは移動体通信用基地局、通信用人工衛星等の設備を利用した無線網等によって実現できる。通信ネットワーク4及び通信ネットワーク15において各機器は、個々の機器に予め付与された識別情報によって識別され、これによって各機器は他の機器に接続して通信を行う。   The communication network 6 and the communication network 15 can be realized by a public network, the Internet, ISDN, a dedicated line, a wired network such as a LAN, or a wireless network using facilities such as a mobile communication base station and a communication artificial satellite. In the communication network 4 and the communication network 15, each device is identified by identification information given in advance to each device, whereby each device is connected to another device for communication.

ミドルボックス13(通信サービス装置)は、例えば負荷分散装置、ファイアウォール、侵入検知システム、侵入防御システム等の、各機器間で行われる通信に対して通信制御ポリシーやセキュリティポリシーを適用するために設置される装置である。ミドルボックス13は別個のハードウェアとして実装されていても、ソフトウェアとして実装されてホストコンピュータ10あるいはホストコンピュータ10上に構築された仮想マシンで動作していてもよい。ルーティング機器14は通信ネットワーク間を接続して通信を制御するためのものであり、本実施例においては通信ネットワーク6と通信ネットワーク15を接続する。   The middle box 13 (communication service device) is installed to apply a communication control policy and a security policy to communication performed between devices such as a load balancer, a firewall, an intrusion detection system, and an intrusion prevention system. It is a device. The middle box 13 may be implemented as separate hardware, or may be implemented as software and operated by the host computer 10 or a virtual machine constructed on the host computer 10. The routing device 14 is for controlling communication by connecting communication networks. In this embodiment, the routing device 14 connects the communication network 6 and the communication network 15.

次に、本実施例のホストコンピュータ10について説明する。図2はホストコンピュータ10のハードウェア及びソフトウェアの構成の一例を示している。ホストコンピュータ10は、CPU(Central Processing Unit)、MPU(MicroProcessing Unit)等のプロセッサからなる制御部100、記憶部101、通信ネットワーク15に接続するためのネットワークインタフェース部102、表示部103、入力部104、及びこれらを接続するデータバス105によって構成することができる。   Next, the host computer 10 of this embodiment will be described. FIG. 2 shows an example of the hardware and software configuration of the host computer 10. The host computer 10 includes a control unit 100 including a processor such as a CPU (Central Processing Unit) and an MPU (MicroProcessing Unit), a storage unit 101, a network interface unit 102 for connecting to the communication network 15, a display unit 103, and an input unit 104. , And a data bus 105 connecting them.

記憶部101は、RAM(Random Access Memory)等の半導体メモリを含む揮発性記憶装置、あるいはハードディスクドライブ(以下「HDD」)、SSD(Solid State Drive)等の読み書き可能な不揮発性記憶装置、光磁気メディア等の読み出し専用不揮発性記憶装置等から構成できる。表示部103はCRTディスプレイ、液晶ディスプレイ等の表示装置によって、入力部104はキーボード、マウス、ペンタブレット等の入力装置によって構成できる。   The storage unit 101 is a volatile storage device including a semiconductor memory such as a RAM (Random Access Memory), or a readable / writable nonvolatile storage device such as a hard disk drive (hereinafter referred to as “HDD”) or an SSD (Solid State Drive), or a magneto-optical device. It can be composed of a read-only nonvolatile storage device such as a medium. The display unit 103 can be configured by a display device such as a CRT display or a liquid crystal display, and the input unit 104 can be configured by an input device such as a keyboard, a mouse, or a pen tablet.

ホストコンピュータ10において、例えばソフトウェアの実行に伴う演算処理は制御部100によって実行される。制御部100が実行するプログラム、及びプログラムが使用するデータは、記憶部101に格納されていても良いし、通信ネットワーク15あるいは通信ネットワーク15上を伝播する搬送波やデジタル信号を介して他の機器から導入されても良い。またホストコンピュータ10は、表示部33あるいは入力部34を省略した構成にすることもできる。   In the host computer 10, for example, arithmetic processing associated with execution of software is executed by the control unit 100. The program executed by the control unit 100 and the data used by the program may be stored in the storage unit 101, or may be transmitted from the communication network 15 or another device via a carrier wave or a digital signal propagating on the communication network 15. May be introduced. Further, the host computer 10 may be configured such that the display unit 33 or the input unit 34 is omitted.

記憶部101に格納されている仮想マシンモニタプログラム160は、一つ以上の仮想マシン161をホストコンピュータ10上で動作させるために実装されている仮想化プログラムである。仮想マシンモニタプログラム160は、例えば制御部100、記憶部101、及びネットワークインタフェース部102を論理的に分割することで、ホストコンピュータ10上でホストコンピュータ10と同様に振る舞う一つ以上の仮想マシン161が動作することを可能とする。また仮想マシンモニタプログラム160は、管理サーバ11より仮想マシン161の移動指示を受け、移動先のホストコンピュータ10上の仮想マシンモニタプログラム160との間で仮想マシン161の移動処理を行う。仮想マシンモニタプログラム160の構成及び動作、仮想マシン161の移動処理については、前記した先行技術文献に記載の公知技術を使うことができる。   The virtual machine monitor program 160 stored in the storage unit 101 is a virtualization program that is implemented to operate one or more virtual machines 161 on the host computer 10. The virtual machine monitor program 160, for example, logically divides the control unit 100, the storage unit 101, and the network interface unit 102, so that one or more virtual machines 161 that behave in the same manner as the host computer 10 on the host computer 10. It is possible to operate. Further, the virtual machine monitor program 160 receives an instruction to move the virtual machine 161 from the management server 11 and performs a process of moving the virtual machine 161 with the virtual machine monitor program 160 on the destination host computer 10. For the configuration and operation of the virtual machine monitor program 160 and the movement process of the virtual machine 161, known techniques described in the above-mentioned prior art documents can be used.

なお、記憶部101には、一般的なコンピュータのデータ入出力処理、メモリ管理等の基本機能を提供するオペレーティングシステム(OS)も格納され、制御部100によって実行される。この構成は、後述する管理サーバ11、監視サーバ12、ミドルボックス13、クラウド利用端末3、クラウド管理端末4、及びクライアント端末6についても同様である。   The storage unit 101 also stores an operating system (OS) that provides basic functions such as general computer data input / output processing and memory management, and is executed by the control unit 100. This configuration is the same for a management server 11, a monitoring server 12, a middle box 13, a cloud use terminal 3, a cloud management terminal 4, and a client terminal 6 described later.

アプリケーションプログラム162はクライアント端末5に対して何らかのデータ処理機能を提供するためのプログラムであり、例えばウェブサーバあるいはメールサーバ、アプリケーションサーバ、データベース等の各機能を実現するプログラムの形態をとることが可能である。   The application program 162 is a program for providing some data processing function to the client terminal 5, and can take the form of a program for realizing each function such as a web server, a mail server, an application server, and a database. is there.

図3はホストコンピュータ10のハードウェア及びソフトウェアの他の構成例を示している。図3に例示するホストコンピュータ10は、図2の構成例と同様に、CPU等からなる制御部100、記憶部101、通信ネットワーク15に接続するためのネットワークインタフェース部102、表示部103、入力部104、及びこれらを接続するデータバス105によって構成できる。ホストコンピュータ10は、表示部103あるいは入力部104を省略した構成にすることもできる。本構成によるホストコンピュータ10は、図2の構成例とは異なり、ホストコンピュータ10が仮想マシンモニタプログラム160を介することなくアプリケーションプログラム162を実行する。   FIG. 3 shows another configuration example of the hardware and software of the host computer 10. The host computer 10 illustrated in FIG. 3 includes a control unit 100 including a CPU, a storage unit 101, a network interface unit 102 for connecting to the communication network 15, a display unit 103, and an input unit, as in the configuration example of FIG. 104 and a data bus 105 connecting them. The host computer 10 may have a configuration in which the display unit 103 or the input unit 104 is omitted. Unlike the configuration example of FIG. 2, the host computer 10 according to this configuration executes the application program 162 without using the virtual machine monitor program 160.

本実施例においては以降、アプリケーションプログラム162を実行する仮想マシン161、ホストコンピュータ10、あるいは後述するミドルボックス13を、特に個々の構成上の違いを意識する必要が無い限り、「ノード」(後述するアプリケーションシステム2000の構成要素)と総称する。また本実施例において、クラウド利用者はデータセンタ1又は2に、複数のノードから構成されるアプリケーションシステムを構築することが出来る。   In the present embodiment, the virtual machine 161, the host computer 10, or the middle box 13 to be described later is referred to as “node” (described later) unless there is a particular difference in configuration. These are collectively referred to as “components of the application system 2000”. In this embodiment, the cloud user can construct an application system including a plurality of nodes in the data center 1 or 2.

次に、本実施例の管理サーバ11について説明する。図4は管理サーバ11のハードウェア及びソフトウェアの構成例を示している。管理サーバ11は、図2あるいは図3に例示したホストコンピュータ10と同様に、CPU等からなる制御部110、記憶部111、通信ネットワーク114に接続するためのネットワークインタフェース部112、表示部113、入力部114、及びこれらを接続するデータバス115によって構成できる。また管理サーバ11は、表示部113あるいは入力部114を省略した構成にすることもできる。   Next, the management server 11 of this embodiment will be described. FIG. 4 shows a configuration example of hardware and software of the management server 11. Similar to the host computer 10 illustrated in FIG. 2 or 3, the management server 11 includes a control unit 110 including a CPU, a storage unit 111, a network interface unit 112 for connecting to a communication network 114, a display unit 113, an input The unit 114 and the data bus 115 connecting them can be configured. Further, the management server 11 may be configured such that the display unit 113 or the input unit 114 is omitted.

記憶部111には、本実施例の管理サーバ11としての機能を実現するためのプログラムとそれらのプログラムが使用するテーブル類が格納されている。   The storage unit 111 stores programs for realizing the functions as the management server 11 of the present embodiment and tables used by these programs.

まずテーブル類について説明する。なお、各テーブルの構成例については後述する。結合度定義テーブル170は、ノード間の結合度を定義するためのテーブルであり、結合度と結合度に紐付く関連情報との対応関係が格納されている。結合度はノード間の結びつきの強さを表す指標であり、本実施例においては、例えばノード間で実行される通信に必要となる帯域と応答速度とによって定義される。結合度と帯域及び応答速度との定量的な対応関係は、あらかじめクラウド利用者が決定してもよいし、クラウド管理者が事前に決定したものをクラウド利用者が利用してもよい。本実施例においてクラウド利用者は、クラウド利用端末3を介して後述の結合度設定プログラム177にアクセスし、アプリケーションシステムの個々のノード間の結合度を、結合度定義テーブル170で定義された結合度を用いて指定する。   First, the tables will be described. A configuration example of each table will be described later. The coupling degree definition table 170 is a table for defining the coupling degree between nodes, and stores the correspondence between the coupling degree and related information associated with the coupling degree. The degree of coupling is an index representing the strength of connection between nodes. In this embodiment, the degree of coupling is defined by, for example, a bandwidth and response speed required for communication executed between nodes. The quantitative correspondence between the degree of coupling, the bandwidth, and the response speed may be determined by the cloud user in advance, or the cloud user may use what is determined in advance by the cloud administrator. In this embodiment, the cloud user accesses the later-described degree-of-association setting program 177 via the cloud-use terminal 3, and the degree of association between the individual nodes of the application system is determined as the degree of association defined in the degree-of-association definition table 170. Use to specify.

重み定義テーブル171は、各ノードに割り当てられる重み情報を定義するためのテーブルである。重みは、現在ノードが設置されている場所に対するノードの結びつきの強さを表す指標である。重みの定義は、クラウド利用者が決定してもよいし、クラウド管理者が事前に決定したものをクラウド利用者が利用してもよい。本実施例においては、重みは、現在の場所からのノードの移動の可否あるいは移動範囲を決定するための閾値として表現される。例えば、重みが小さくなるほど、ノードの移動範囲は同一ラック内、同一データセンタ内、同一地域内、等に広がる。一方でノードが物理的なホストコンピュータ10である場合、仮想マシン161のように簡単に移動できるものではないため、ノードの重みは非常に大きくなる。また、ノードに含まれるデータの種類によっては、他の場所へのノードの移動が設置場所において適用される法令によって規制され得るため、ノードの重みは同様に非常に大きい。   The weight definition table 171 is a table for defining weight information assigned to each node. The weight is an index representing the strength of the connection of the node to the place where the node is currently installed. The definition of the weight may be determined by the cloud user, or the cloud user may use what is determined in advance by the cloud administrator. In this embodiment, the weight is expressed as a threshold value for determining whether or not a node can move from the current location or a moving range. For example, as the weight becomes smaller, the movement range of nodes spreads within the same rack, within the same data center, within the same region, and so on. On the other hand, when the node is the physical host computer 10, the weight of the node becomes very large because it cannot be moved easily like the virtual machine 161. Also, depending on the type of data contained in the node, the movement of the node to another location can be regulated by laws and regulations applied at the installation location, so the weight of the node is also very large.

ノード管理テーブル179は、クラウド利用者とアプリケーションシステム、アプリケーションシステムに含まれるノード、当該ノードが本来設置されていた場所、当該ノードの現在の設置場所、の対応関係が格納される。ノードが本来設置されていた場所は、当該ノードが最初に配置された場所を指し示す。ノードを移動させた場合、ノードの現在の場所は当該移動先を指し示す。   The node management table 179 stores the correspondence relationship between the cloud user and the application system, the node included in the application system, the location where the node was originally installed, and the current installation location of the node. The location where the node was originally installed indicates the location where the node was originally placed. When a node is moved, the current location of the node indicates the destination.

結合度管理テーブル172には、クラウド利用者とアプリケーションシステム、アプリケーションシステムに含まれるノード、当該ノードと他ノードとの間の結合度、他ノードがミドルボックス13である場合にはミドルボックス13に対する要件、の対応関係が格納される。前記ノードがミドルボックス13に対して要求する要件は後述するサービスプロファイル175として定義される。本テーブルの内容は、クラウド利用者がクラウド利用端末3を介して後述の結合度設定プログラム177に登録した結果をもとに、結合度設定プログラム177によって設定される。本実施例においてクラウド管理プログラム178は、後述のように、本テーブルに記載の結合度、あるいはミドルボックス13への要件を踏まえてノードの移動の可否を判定する。   The coupling degree management table 172 includes a cloud user and an application system, a node included in the application system, a coupling degree between the node and another node, and requirements for the middle box 13 when the other node is the middle box 13. Are stored. The requirements that the node requests to the middle box 13 are defined as a service profile 175 described later. The contents of this table are set by the degree-of-association setting program 177 based on the result registered by the cloud user in the degree-of-association setting program 177 described later via the cloud use terminal 3. In this embodiment, the cloud management program 178 determines whether or not a node can be moved based on the degree of connection described in this table or the requirements for the middle box 13 as described later.

ノード重み情報管理テーブル173には、クラウド利用者とアプリケーションシステム、アプリケーションシステムに含まれるノード、ノードの重み情報との対応関係が格納されている。本テーブルの内容は、クラウド利用者がクラウド利用端末3を介して、後述する結合度設定プログラム177に登録した結果をもとに、結合度設定プログラム177によって設定される。本実施例においてクラウド管理プログラム178は、後述のように、本テーブルに記載されている重みを踏まえてノードの移動の可否あるいは移動可能範囲を決定する。   The node weight information management table 173 stores correspondence relationships between cloud users, application systems, nodes included in application systems, and node weight information. The contents of this table are set by the coupling degree setting program 177 based on the result registered by the cloud user in the coupling degree setting program 177 described later via the cloud utilization terminal 3. In this embodiment, the cloud management program 178 determines whether or not a node can be moved or a movable range based on the weights described in this table, as will be described later.

ミドルボックス管理テーブル174には、ミドルボックス13と、当該ミドルボックス13がサポートしている外部要件との対応関係が格納される。ミドルボックス13がサポートする外部要件は、後述するサービスプロファイル175として定義される。本テーブルの内容は、クラウド管理者がクラウド管理端末4を介して事前に設定する。また本テーブルにおけるサービスプロファイル175の内容は、クラウド管理者がクラウド管理端末4を介して事前に設定してもよいし、ミドルボックス13のベンダから提供されてもよい。   The middle box management table 174 stores a correspondence relationship between the middle box 13 and external requirements supported by the middle box 13. External requirements supported by the middle box 13 are defined as a service profile 175 described later. The contents of this table are set in advance by the cloud administrator via the cloud management terminal 4. The contents of the service profile 175 in this table may be set in advance by the cloud administrator via the cloud management terminal 4 or may be provided from the vendor of the middle box 13.

サービスプロファイル175(サービス要件情報)には、アプリケーションシステムに含まれているミドルボックス13がサポートしている機能、性能、他ノードとの連携のためのインタフェース等の情報が格納される。サービスプロファイル175は、クラウド利用者がミドルボックス13に対する要件を定義するため、あるいは、ミドルボックス13がサポートしている機能等を定義するために用いられる。サービスプロファイル175はXML等の公知技術を用いて記述することができる。   The service profile 175 (service requirement information) stores information such as functions supported by the middle box 13 included in the application system, performance, and interfaces for cooperation with other nodes. The service profile 175 is used for a cloud user to define requirements for the middle box 13 or to define functions supported by the middle box 13. The service profile 175 can be described using a known technique such as XML.

ノード移動要求プロファイル176には、移動候補の仮想マシン161の数や、個々の仮想マシン161が必要とするリソース量、他ノードとの間で必要となる結合度、他ノードがミドルボックス13の場合は当該ノードがミドルボックス13に求める要件、等の情報が格納される。ミドルボックス13に対する要件はミドルボックス13について記述されたサービスプロファイル175として定義される。クラウド管理者がデータセンタ1、2間で仮想マシン161を移動させる際には、移動元のデータセンタ1又は2のクラウド管理プログラム178が移動先のデータセンタ1又は2のクラウド管理プログラム178に対してノード移動要求プロファイル176を送信し、移動先のデータセンタ1又は2のクラウド管理プログラム178は仮想マシン161を受け入れ可能かどうかを判定するためにノード移動要求プロファイル176を用いる。   The node migration request profile 176 includes the number of migration candidate virtual machines 161, the amount of resources required for each virtual machine 161, the degree of connectivity required with other nodes, and the case where the other nodes are the middle box 13. Stores information such as requirements required by the node in the middle box 13. The requirements for the middle box 13 are defined as a service profile 175 described for the middle box 13. When the cloud administrator moves the virtual machine 161 between the data centers 1 and 2, the cloud management program 178 of the migration source data center 1 or 2 moves to the cloud management program 178 of the migration destination data center 1 or 2. The node migration request profile 176 is transmitted, and the cloud management program 178 of the migration destination data center 1 or 2 uses the node migration request profile 176 to determine whether or not the virtual machine 161 can be accepted.

次に、管理サーバの機能を実現するためのプログラムについて説明する。まず、結合度設定プログラム177は、クラウド利用端末3を介してクラウド利用者に、ノード間の結合度や、データセンタ1又は2に対するノードの重みを設定するためのインタフェースを提供するプログラムである。本実施例において結合度設定プログラム177は、クラウド利用者が入力した結合度情報及びノード重み情報をクラウド利用端末3経由で受け取り、結合度管理テーブル172及びノード重み情報管理テーブル173に保存する。   Next, a program for realizing the function of the management server will be described. First, the coupling degree setting program 177 is a program that provides an interface for setting a coupling degree between nodes and a node weight for the data center 1 or 2 to the cloud user via the cloud utilization terminal 3. In this embodiment, the connectivity setting program 177 receives the connectivity information and node weight information input by the cloud user via the cloud usage terminal 3 and stores them in the connectivity management table 172 and the node weight information management table 173.

次に、クラウド管理プログラム178は、ホストコンピュータ10間の仮想マシン161の移動を管理するためのプログラムであり、ノード間の結合度及び各ノードの重みを基に、データセンタ間での仮想マシン161の移動の可否を判定する。移動の可否の判定に当たって、クラウド管理プログラム178は、データセンタ間の回線状況、移動先データセンタのリソース空き状況、移動先データセンタ内の回線状況、及び移動先データセンタにあるミドルボックス13のサービスレベルについても考慮する。   Next, the cloud management program 178 is a program for managing the movement of the virtual machine 161 between the host computers 10, and the virtual machine 161 between data centers is based on the degree of coupling between nodes and the weight of each node. Whether or not to move is determined. In determining whether or not to move, the cloud management program 178 determines the line status between the data centers, the resource availability of the destination data center, the status of the line in the destination data center, and the service of the middle box 13 in the destination data center. Also consider the level.

具体的には、クラウド管理者がデータセンタ1のホストコンピュータ10からデータセンタ2のホストコンピュータ10に仮想マシン161を移動させる場合、クラウド管理者はクラウド管理端末4を介して、データセンタ1のクラウド管理プログラム178に対して移動候補である仮想マシン161を指定する。次いでクラウド管理プログラム178は、各ノードについて設定された重み情報を基に、クラウド管理者が指定した仮想マシン161がデータセンタ2に移動可能かどうかを判定する。またクラウド管理プログラムは、当該仮想マシン161と同じアプリケーションシステムに属する他の仮想マシン161との結合度とデータセンタ1、2間の回線状況を基に、当該仮想マシン161をデータセンタ2に移動可能かどうか、当該仮想マシン161と共に移動する必要のある仮想マシン161があるかどうかを判定する。さらにクラウド管理プログラム178は、データセンタ2のクラウド管理プログラム178に対して仮想マシン161群の受け入れが可能かどうかを、ノード移動要求プロファイル176を用いて問い合わせ、移動の可否を決定する。   Specifically, when the cloud administrator moves the virtual machine 161 from the host computer 10 of the data center 1 to the host computer 10 of the data center 2, the cloud administrator uses the cloud management terminal 4 to move the cloud of the data center 1. A virtual machine 161 that is a migration candidate is designated for the management program 178. Next, the cloud management program 178 determines whether or not the virtual machine 161 designated by the cloud administrator can be moved to the data center 2 based on the weight information set for each node. In addition, the cloud management program can move the virtual machine 161 to the data center 2 based on the degree of coupling with other virtual machines 161 belonging to the same application system as the virtual machine 161 and the line status between the data centers 1 and 2. It is determined whether there is a virtual machine 161 that needs to move with the virtual machine 161. Further, the cloud management program 178 uses the node movement request profile 176 to inquire whether the virtual machine 161 group can be accepted to the cloud management program 178 of the data center 2 and determines whether or not the movement is possible.

本実施例においてクラウド管理プログラム178は、クラウド管理者の最終的な判断をもって仮想マシン161を他のデータセンタに移動する指示を仮想マシンモニタプログラム160に発行する。クラウド管理プログラム178は、クラウド管理者の判断を介さずに自動的に仮想マシンモニタプログラム160に移動指示を発行するように構成してもよい。   In this embodiment, the cloud management program 178 issues an instruction to the virtual machine monitor program 160 to move the virtual machine 161 to another data center with the final judgment of the cloud administrator. The cloud management program 178 may be configured to automatically issue a movement instruction to the virtual machine monitor program 160 without the judgment of the cloud administrator.

一方データセンタ2で稼働しているクラウド管理プログラム178は、データセンタ1のクラウド管理プログラム178より仮想マシン161群の受け入れの問い合わせをノード移動要求プロファイル176として受け取り、プロファイル176内に記載の要求リソース量あるいは要求結合度を、データセンタ2のホストコンピュータ10の空き状況やホストコンピュータ10間のリンクの空き状況と比較する。さらにクラウド管理プログラム178は、データセンタ2のミドルボックス13が、当該仮想マシン161が必要とするサービスレベルを満たすことが出来るかどうかを、ミドルボックス13がサポートするサービス内容が記述されているサービスプロファイル175と仮想マシン161が要求するサービスプロファイル175とを比較して判定し、受け入れ可否をデータセンタ1のクラウド管理プログラム178に返す。なお、以上の結合土設定プログラム177及びクラウド管理プログラム178によるデータ処理については、関連する処理フロー例等により後述する。   On the other hand, the cloud management program 178 operating in the data center 2 receives an inquiry for accepting the virtual machine 161 group from the cloud management program 178 of the data center 1 as the node movement request profile 176, and the requested resource amount described in the profile 176 Alternatively, the requested coupling degree is compared with the availability of the host computer 10 in the data center 2 and the availability of the link between the host computers 10. Further, the cloud management program 178 describes a service profile in which service contents supported by the middle box 13 are described as to whether the middle box 13 of the data center 2 can satisfy the service level required by the virtual machine 161. 175 and the service profile 175 requested by the virtual machine 161 are compared, and the acceptance is returned to the cloud management program 178 of the data center 1. The data processing by the combined soil setting program 177 and the cloud management program 178 will be described later with reference to a related processing flow example.

次に、本実施例の監視サーバ12について説明する。図5は監視サーバ12のハードウェア及びソフトウェアの構成例を示している。監視サーバ12は、ホストコンピュータ10あるいは管理サーバ11と同様に、CPU等からなる制御部120、記憶部121、通信ネットワーク15に接続するためのネットワークインタフェース部122、表示部123、入力部124、及びこれらを接続するデータバス125によって構成できる。また監視サーバ12は、表示部123や入力部124を省略した構成にすることもできる。   Next, the monitoring server 12 of this embodiment will be described. FIG. 5 shows an example of the hardware and software configuration of the monitoring server 12. As with the host computer 10 or the management server 11, the monitoring server 12 includes a control unit 120 including a CPU, a storage unit 121, a network interface unit 122 for connecting to the communication network 15, a display unit 123, an input unit 124, A data bus 125 connecting them can be used. Further, the monitoring server 12 may be configured such that the display unit 123 and the input unit 124 are omitted.

記憶部121には、制御部120によって実行されることにより監視サーバ12の機能を実現するネットワーク監視プログラム180及びノード監視プログラム181が格納されている。ネットワーク監視プログラム180は、データセンタ1又は2内の通信ネットワーク15上に設けられている各機器から通信量、稼動状況、障害情報等の情報を収集するためのプログラムである。各機器からの情報の収集は、例えばSNMP(Simple Network Monitoring Protocol)、各機器に固有の情報取得インタフェース等の公知技術を用いて実現できる。本実施例においてネットワーク監視プログラム180は、各ノード間の通信状況と、ノードとミドルボックス13との間の通信状況、データセンタ間の帯域状況を、ノード、ミドルボックス13、ルーティング装置14より収集する。またネットワーク監視プログラム180は、管理サーバ11にあるクラウド管理プログラム178からの問い合わせに応じて、収集した情報をクラウド管理プログラム178に送信する。   The storage unit 121 stores a network monitoring program 180 and a node monitoring program 181 that are executed by the control unit 120 to realize the function of the monitoring server 12. The network monitoring program 180 is a program for collecting information such as communication volume, operation status, failure information, and the like from each device provided on the communication network 15 in the data center 1 or 2. The collection of information from each device can be realized using a known technique such as SNMP (Simple Network Monitoring Protocol) or an information acquisition interface unique to each device. In this embodiment, the network monitoring program 180 collects the communication status between the nodes, the communication status between the node and the middle box 13, and the bandwidth status between the data centers from the node, the middle box 13 and the routing device 14. . Further, the network monitoring program 180 transmits the collected information to the cloud management program 178 in response to an inquiry from the cloud management program 178 in the management server 11.

ノード監視プログラム181は、各ノードのリソース空き状況を監視するためのプログラムである。各機器からの情報の収集は、例えばSNMPや各機器に固有の情報取得インタフェース等の公知技術を用いて実現できる。またノード監視プログラム181は、管理サーバ11にあるクラウド管理プログラム178からの問い合わせに応じて、収集した情報をクラウド管理プログラム178に送信する。   The node monitoring program 181 is a program for monitoring the resource availability of each node. The collection of information from each device can be realized by using a known technique such as SNMP or an information acquisition interface unique to each device. Further, the node monitoring program 181 transmits the collected information to the cloud management program 178 in response to an inquiry from the cloud management program 178 in the management server 11.

次に、本実施例のミドルボックス13について説明する。図6はミドルボックス13のハードウェア及びソフトウェアの構成例を示している。ミドルボックス13は、ホストコンピュータ10あるいは管理サーバ11と同様に、CPU等からなる制御部130、記憶部131、通信ネットワーク15に接続するためのネットワークインタフェース部132、表示部133、入力部134、及びこれらを接続するデータバス135によって構成することができる。またミドルボックス13は、表示部133、入力部134を省略した構成にすることもできる。   Next, the middle box 13 of the present embodiment will be described. FIG. 6 shows a configuration example of hardware and software of the middle box 13. Similarly to the host computer 10 or the management server 11, the middle box 13 includes a control unit 130 including a CPU, a storage unit 131, a network interface unit 132 for connecting to the communication network 15, a display unit 133, an input unit 134, and A data bus 135 connecting them can be used. Further, the middle box 13 may be configured such that the display unit 133 and the input unit 134 are omitted.

記憶部131には、制御部130によって実行されることによりミドルボックス13の機能を実現するプログラム、例えば侵入検知プログラム182、ファイアウォールプログラム183が格納されている。侵入検知プログラム182、ファイアウォールプログラム183としては、一般に通信ネットワーク15を介したデータ処理においてセキュリティを確保するために使用されるプログラムを適用することができる。ミドルボックス13は、図2に例示したホストコンピュータ11と同様に、仮想マシン161を備え、個々の仮想マシン161上でウイルス検出プログラム182等のプログラムが実行されるように構成してもよい。   The storage unit 131 stores a program that realizes the function of the middle box 13 by being executed by the control unit 130, for example, an intrusion detection program 182 and a firewall program 183. As the intrusion detection program 182 and the firewall program 183, programs generally used for ensuring security in data processing via the communication network 15 can be applied. Similarly to the host computer 11 illustrated in FIG. 2, the middle box 13 may include a virtual machine 161 so that a program such as a virus detection program 182 is executed on each virtual machine 161.

次に、本実施例のクラウド利用端末3、クラウド管理端末4、クライアント端末5として好適に適用されるコンピュータ3000について説明する。図7はコンピュータ3000のハードウェア及びソフトウェアの構成例を示している。コンピュータ3000は、ホストコンピュータ10あるいは管理サーバ11と同様に、CPU等からなる制御部3030、記憶部3031、通信ネットワーク15に接続するためのネットワークインタフェース部3032、表示部3033、入力部3034、及びこれらを接続するデータバス3035によって構成することができる。   Next, a computer 3000 that is suitably applied as the cloud usage terminal 3, the cloud management terminal 4, and the client terminal 5 of the present embodiment will be described. FIG. 7 shows a configuration example of hardware and software of the computer 3000. Similar to the host computer 10 or the management server 11, the computer 3000 includes a control unit 3030 including a CPU, a storage unit 3031, a network interface unit 3032 for connecting to the communication network 15, a display unit 3033, an input unit 3034, and these Can be configured by a data bus 3035 for connecting the two.

記憶部3031には、制御部3030によって実行されることによりクラウド利用端末3、クラウド管理端末4、あるいはクライアント端末5の機能を実現するプログラム、例えばユーザインタフェースプログラム184、アプリケーションプログラム1854が格納されている。ユーザインタフェースプログラム184は、クラウド利用端末3、クラウド管理端末4、あるいはクライアント端末5として機能するコンピュータ3000と他のノードとのデータ入出力のためのユーザインタフェースを提供するプログラムであり、例えばWWWブラウザプログラムである。アプリケーションプログラム185は、クラウド利用端末3、クラウド管理端末4、あるいはクライアント端末5としてのその他の機能を提供するためのプログラムである。   The storage unit 3031 stores a program that implements the functions of the cloud use terminal 3, the cloud management terminal 4, or the client terminal 5 by being executed by the control unit 3030, such as a user interface program 184 and an application program 1854. . The user interface program 184 is a program that provides a user interface for data input / output between the computer 3000 functioning as the cloud usage terminal 3, the cloud management terminal 4, or the client terminal 5 and other nodes, for example, a WWW browser program It is. The application program 185 is a program for providing other functions as the cloud usage terminal 3, the cloud management terminal 4, or the client terminal 5.

次に、本実施例におけるアプリケーションシステム2000の構成について説明する。図8は、アプリケーションシステム2000の論理構成例を示している。クラウド利用者が例えばデータセンタ1内に構築するアプリケーションシステム2000は、複数のノード及び複数のミドルボックス13から構成され得る。例えば一般的なウェブアプリケーションサービスシステムの場合、ウェブサーバを稼動させるノード群、アプリケーションサーバを稼動させるノード群、データベースを稼動させるノード群、及び、ファイアウォールや負荷分散装置等のミドルボックスから構成され得る。図8に示す構成例においては、アプリケーションシステム2000は複数の仮想マシン202〜207と複数のホストコンピュータ208、209とから構成される。クライアント端末200からのアクセスは負荷分散装置201によってウェブサーバを担う仮想マシン202〜204に振り分けられる。ウェブサーバである仮想マシン202及び仮想マシン203は、アプリケーションサーバを担う仮想マシン205及び仮想マシン206とそれぞれ接続され、仮想マシン205及び仮想マシン206は、データベースを担うホストコンピュータ208及びホストコンピュータ209とそれぞれ接続されている。   Next, the configuration of the application system 2000 in the present embodiment will be described. FIG. 8 shows a logical configuration example of the application system 2000. For example, the application system 2000 built in the data center 1 by the cloud user can be configured by a plurality of nodes and a plurality of middle boxes 13. For example, in the case of a general web application service system, it can be configured from a node group that operates a web server, a node group that operates an application server, a node group that operates a database, and a middle box such as a firewall or a load balancer. In the configuration example illustrated in FIG. 8, the application system 2000 includes a plurality of virtual machines 202 to 207 and a plurality of host computers 208 and 209. Access from the client terminal 200 is distributed by the load balancer 201 to the virtual machines 202 to 204 serving as a web server. A virtual machine 202 and a virtual machine 203 that are web servers are connected to a virtual machine 205 and a virtual machine 206 that serve as an application server, respectively. The virtual machine 205 and the virtual machine 206 are connected to a host computer 208 and a host computer 209 that serve as a database, respectively. It is connected.

一方でウェブサーバを担う仮想マシン204は、アプリケーションサーバを担う仮想マシン207と、仮想マシン207はデータベースを担うホストコンピュータ209と接続されている。またホストコンピュータ208及びホストコンピュータ209は互いに接続され、データベース間の同期が行われている。   On the other hand, the virtual machine 204 serving as a web server is connected to a virtual machine 207 serving as an application server, and the virtual machine 207 is connected to a host computer 209 serving as a database. The host computer 208 and the host computer 209 are connected to each other, and synchronization between databases is performed.

次に、アプリケーションシステム2000におけるノードの移動について説明する。図9は、クラウド管理者がデータセンタ1で稼働中の、図8の構成を有するアプリケーションシステム2000内の仮想マシン207を、データセンタ2に移動させようとする際に、本実施例に開示の方法で移動が行われた場合の最終的な論理構成の例を示している。ここで、クラウド管理者が指定した仮想マシン207と仮想マシン204との間、仮想マシン204と負荷分散装置201との間は結合度が高く、仮想マシン207とホストコンピュータ209との間の結合度がデータセンタ1、2間の回線状況に比べて低いと判定される場合、仮想マシン204は仮想マシン207と共に移動される。また、データセンタ2の負荷分散装置210がデータセンタ1において仮想マシン204が利用していた負荷分散装置201と同じサービスプロファイル175をサポートする場合、仮想マシン204はデータセンタ2の負荷分散装置210を利用することが出来る。仮想マシン207をデータセンタ1からデータセンタ2へ移動させた場合、図9に記載のように、アプリケーションシステム2000がサービスレベルを維持したまま、データセンタ1とデータセンタ2にまたがって構成される。ここで、クライアント端末200から負荷分散装置201及び負荷分散装置210へのアクセスの振り分けは、DNSやグローバルロードバランシング等の公知技術を用いて実現できる。   Next, movement of a node in the application system 2000 will be described. FIG. 9 is a diagram that is disclosed in the present embodiment when the cloud administrator tries to move the virtual machine 207 in the application system 2000 having the configuration of FIG. 8 that is operating in the data center 1 to the data center 2. An example of a final logical configuration when movement is performed by the method is shown. Here, the degree of coupling between the virtual machine 207 and the virtual machine 204 specified by the cloud administrator, the degree between the virtual machine 204 and the load balancer 201 is high, and the degree of coupling between the virtual machine 207 and the host computer 209. Is determined to be lower than the line status between the data centers 1 and 2, the virtual machine 204 is moved together with the virtual machine 207. When the load balancer 210 in the data center 2 supports the same service profile 175 as the load balancer 201 used by the virtual machine 204 in the data center 1, the virtual machine 204 uses the load balancer 210 in the data center 2. It can be used. When the virtual machine 207 is moved from the data center 1 to the data center 2, as shown in FIG. 9, the application system 2000 is configured across the data center 1 and the data center 2 while maintaining the service level. Here, the distribution of access from the client terminal 200 to the load balancer 201 and the load balancer 210 can be realized using a known technique such as DNS or global load balancing.

次に、本実施例において使用されるテーブル類について説明する。図4に例示する管理サーバ11に関して説明したように、テーブル類は管理サーバ11の記憶部111に格納されている。まず、結合度定義テーブル170について説明する。図8は、結合度定義テーブル170の一例を示す図である。結合度定義テーブル170には、結合度300、帯域301、及び応答速度302の項目が関連づけられて記憶されている。結合度300は、ノード間の結合度を示す値であり、図10の例では1〜5の数値指標で示される。帯域301は、ノード間において当該結合度を満たすために必要とする帯域幅である。応答速度302は、ノード間において当該結合度を満たすために必要とする平均応答速度である。   Next, tables used in this embodiment will be described. As described with reference to the management server 11 illustrated in FIG. 4, the tables are stored in the storage unit 111 of the management server 11. First, the coupling degree definition table 170 will be described. FIG. 8 is a diagram illustrating an example of the coupling degree definition table 170. In the coupling degree definition table 170, items of coupling degree 300, band 301, and response speed 302 are associated and stored. The degree of coupling 300 is a value indicating the degree of coupling between nodes, and is indicated by numerical indexes 1 to 5 in the example of FIG. A band 301 is a bandwidth necessary for satisfying the degree of coupling between nodes. The response speed 302 is an average response speed required to satisfy the degree of coupling between nodes.

次に、重み定義テーブル171について説明する。図11は、重み定義テーブル171の一例を示す図である。重み定義テーブル171は、重み400、移動範囲401、及びデータセンタ402の項目が関連づけられて記憶されている。重み400は、ノードの物理的な設置場所に対するノードの結びつきの強さを示す値であり、0〜5の数値指標で示される。移動範囲401は、重み400の値を持つノードが移動可能な範囲を示す指標である。データセンタ402は、移動範囲401に含まれるデータセンタ(DC)を一意に識別するための識別情報である。   Next, the weight definition table 171 will be described. FIG. 11 is a diagram illustrating an example of the weight definition table 171. The weight definition table 171 stores the items of the weight 400, the movement range 401, and the data center 402 in association with each other. The weight 400 is a value indicating the strength of the connection of the node to the physical installation location of the node, and is represented by a numerical index from 0 to 5. The movement range 401 is an index indicating a range in which a node having the value of the weight 400 can move. The data center 402 is identification information for uniquely identifying a data center (DC) included in the movement range 401.

次に、ノード管理テーブル179について説明する。図12は、ノード管理テーブル179の一例を示す図である。ノード管理テーブル179は、利用者ID450、システムID451、ノードID452、場所453、及び現在場所454の項目が関連づけられて記憶されている。利用者ID450は、データセンタシステム1000において、クラウド利用者を一意に識別するための識別情報である。システムID451は、クラウド利用者が構築するアプリケーションシステム2000を一意に識別するための識別情報である。ノードID452は、各ノードを一意に識別するための識別情報である。図12で、符号「VM」はノードが仮想マシン161であることを、符号「Host」はノードが物理的なホストコンピュータ10であることを示す。場所453は、ノードが本来設置された場所を一意に識別するための識別情報である。現在場所454は、本実施例に開示の方法でノードが他のデータセンタに移動した場合に、現在のノードの場所を一意に識別するための識別情報である。   Next, the node management table 179 will be described. FIG. 12 is a diagram illustrating an example of the node management table 179. The node management table 179 stores items of user ID 450, system ID 451, node ID 452, location 453, and current location 454 in association with each other. The user ID 450 is identification information for uniquely identifying a cloud user in the data center system 1000. The system ID 451 is identification information for uniquely identifying the application system 2000 constructed by the cloud user. The node ID 452 is identification information for uniquely identifying each node. In FIG. 12, the symbol “VM” indicates that the node is the virtual machine 161, and the symbol “Host” indicates that the node is the physical host computer 10. The location 453 is identification information for uniquely identifying the location where the node was originally installed. The current location 454 is identification information for uniquely identifying the location of the current node when the node moves to another data center by the method disclosed in the present embodiment.

次に、結合度管理テーブル172について説明する。図13は、結合度管理テーブル172の一例を示す図である。結合度管理テーブル172には、利用者ID500、システムID501、ノードID502、関連ノードID503、結合度504、及びサービスプロファイル505の項目が関連づけられて記録されている。利用者ID500は、データセンタシステム1000において、クラウド利用者を一意に識別するための識別情報であり、ノード管理テーブル179の利用者ID450と同じである。システムID501は、クラウド利用者が構築するアプリケーションシステム2000を一意に識別するための識別情報であり、ノード管理テーブル179のシステムID451と同じである。ノードID502は、各ノードを一意に識別するための識別情報であり、ノード管理テーブル179のノードID452と同じである。関連ノードID503は、各ノードと同じアプリケーションシステム2000に属する他ノードや、各ノードが利用するミドルボックス13を一意に識別するための識別情報である。結合度504は、ノードID502と関連ノードID503で示されるノード間の結合度を示す値であり、結合度定義テーブル170の結合度300と同じである。サービスプロファイル505は、関連ノードID503がミドルボックス13である場合に、移動対象であるノードが関連しているミドルボックス13に要求するサービスプロファイル175の識別情報である。   Next, the coupling degree management table 172 will be described. FIG. 13 is a diagram illustrating an example of the association degree management table 172. In the association degree management table 172, items of a user ID 500, a system ID 501, a node ID 502, a related node ID 503, an association degree 504, and a service profile 505 are recorded in association with each other. The user ID 500 is identification information for uniquely identifying a cloud user in the data center system 1000, and is the same as the user ID 450 in the node management table 179. The system ID 501 is identification information for uniquely identifying the application system 2000 constructed by the cloud user, and is the same as the system ID 451 in the node management table 179. The node ID 502 is identification information for uniquely identifying each node, and is the same as the node ID 452 in the node management table 179. The related node ID 503 is identification information for uniquely identifying another node belonging to the same application system 2000 as each node and the middle box 13 used by each node. The degree of association 504 is a value indicating the degree of association between the nodes indicated by the node ID 502 and the related node ID 503, and is the same as the degree of association 300 in the association degree definition table 170. The service profile 505 is identification information of the service profile 175 requested to the middle box 13 to which the node to be moved is related when the related node ID 503 is the middle box 13.

次に、ノード重み情報管理テーブル173について説明する。図14は、ノード重み情報管理テーブル173の一例を示す図である。ノード重み情報管理テーブル173には、利用者ID600、システムID601、ノードID602、及び重み603の項目が対応付けて記録されている。利用者ID600は、データセンタシステム1000において、クラウド利用者を一意に識別するための識別情報であり、ノード管理テーブル179の利用者ID450と同じである。システムID601は、クラウド利用者が構築するアプリケーションシステム2000を一意に識別するための識別情報であり、ノード管理テーブル179のシステムID451と同じである。ノードID602は、各ノードを一意に識別するための識別情報であり、ノード管理テーブル179のノードID452と同じである。重み603は各ノードの重みを示す値であり、重み定義テーブル171の重み400と同じである。   Next, the node weight information management table 173 will be described. FIG. 14 is a diagram illustrating an example of the node weight information management table 173. In the node weight information management table 173, items of user ID 600, system ID 601, node ID 602, and weight 603 are recorded in association with each other. The user ID 600 is identification information for uniquely identifying a cloud user in the data center system 1000, and is the same as the user ID 450 in the node management table 179. The system ID 601 is identification information for uniquely identifying the application system 2000 constructed by the cloud user, and is the same as the system ID 451 in the node management table 179. The node ID 602 is identification information for uniquely identifying each node, and is the same as the node ID 452 in the node management table 179. The weight 603 is a value indicating the weight of each node, and is the same as the weight 400 of the weight definition table 171.

次に、ミドルボックス管理テーブル174について説明する。図15は、ミドルボックス管理テーブル174の一例を示す図である。ミドルボックス管理テーブル174には、ミドルボックスID700とサービスプロファイルID701とが対応付けられて記録されている。ミドルボックスID700は、データセンタシステム1000において、ミドルボックス13を一意に識別するための識別情報である。サービスプロファイルID701は、ミドルボックス13がサポートしている機能等を記述したサービスプロファイル175の識別情報であり、結合度管理テーブル172のサービスプロファイル505と同じである。   Next, the middle box management table 174 will be described. FIG. 15 is a diagram illustrating an example of the middle box management table 174. In the middle box management table 174, a middle box ID 700 and a service profile ID 701 are recorded in association with each other. The middle box ID 700 is identification information for uniquely identifying the middle box 13 in the data center system 1000. The service profile ID 701 is identification information of the service profile 175 describing functions and the like supported by the middle box 13, and is the same as the service profile 505 of the coupling degree management table 172.

次に、サービスプロファイル175について説明する。図16は、サービスプロファイル175の一例を示す図である。本実施例においては、サービスプロファイル175を公知技術であるXMLのような構造化言語を用いて記載することができる。サービスプロファイル175には、サービスプロファイルID800に対応付けて対象ノードに提供されるサービス内容が記述されている。サービス内容は、機能801、性能802の項目に分類して記述されている。サービスプロファイルID800は、データセンタシステム1000において、サービスプロファイル175を一意に識別するための識別情報であり、ミドルボックス管理テーブル174のサービスプロファイルID701と同じである。機能801は、ミドルボックス13の機能を記載するための記述子である。図16の例では、対応するミドルボックス13がレイヤー4に対応する負荷分散機能及びヘルスチェック機能を有していることを示す。性能802は、ミドルボックス13の性能を記載するための記述子である。   Next, the service profile 175 will be described. FIG. 16 is a diagram illustrating an example of the service profile 175. In the present embodiment, the service profile 175 can be described using a structured language such as XML, which is a known technique. The service profile 175 describes service contents provided to the target node in association with the service profile ID 800. The service contents are described by being classified into items of function 801 and performance 802. The service profile ID 800 is identification information for uniquely identifying the service profile 175 in the data center system 1000 and is the same as the service profile ID 701 of the middle box management table 174. A function 801 is a descriptor for describing the function of the middle box 13. The example of FIG. 16 shows that the corresponding middle box 13 has a load distribution function and a health check function corresponding to layer 4. The performance 802 is a descriptor for describing the performance of the middle box 13.

次に、ノード移動要求プロファイル176について説明する。図17は、ノード移動要求プロファイル176の一例を示す図である。本実施例においては、ノード移動要求プロファイル176を公知技術であるXMLのような構造化言語を用いて記載することができる。ノード移動要求プロファイル176には、ノード数811、ノードID812、関連ノード数813、関連ノードID814、リソース815、結合度816、帯域817、応答速度818、及びサービスプロファイルID819の項目が記録される。   Next, the node movement request profile 176 will be described. FIG. 17 is a diagram illustrating an example of the node movement request profile 176. In the present embodiment, the node movement request profile 176 can be described using a structured language such as XML which is a publicly known technique. The node movement request profile 176 records items of a node number 811, a node ID 812, a related node number 813, a related node ID 814, a resource 815, a coupling degree 816, a band 817, a response speed 818, and a service profile ID 819.

ノード数811は、ノード移動要求プロファイル176において移動先データセンタに受け入れを求めるノード数を記載するための記述子である。ノードID812は、移動先データセンタに受け入れを求める各ノードを一意に識別する識別子を記載するための記述子である。関連ノード数813は、ノードID812で識別されるノードとの間で何らかの結合度を持つノード数を記載するための記述子である。関連ノードID814は、ノードID812で識別されるノードが関連しているノードの識別子を記載するための記述子である。リソース815は、ノードID812で識別されるノードが必要とするCPU、メモリ、HDD等の補助記憶装置、ネットワークインタフェース等に関するリソース値を記載するための記述子であり、例えばCPUのクロック速度、及びメモリ、補助記憶装置の記憶容量が含まれる。結合度816は、ノードID812で識別されるノードと関連ノードID814で識別されるノードとの間で満たすべき結合度を結合度定義テーブル170の定義に従って記載するための記述子である。帯域817は、結合度定義テーブル170において、結合度列300が結合度816に合致するレコードにおける、帯域列301の値である。応答速度818は、結合度定義テーブル170において、結合度列300が結合度816に合致するレコードにおける、応答速度302の値である。ノード移動要求プロファイル176において、結合度816だけでなく対応する帯域817及び応答速度818を記載するのは、データセンタ1とデータセンタ2とが同じ事業者によって運営されているとは限らず、両者が同じ結合度定義テーブル170を保有していない可能性があるためである。サービスプロファイルID819は、関連ノードID814で識別されるノードがミドルボックス13である場合に、当該ミドルボックス13に求められる要件が記載されたサービスプロファイル175の識別子を記載するための記述子である。   The number of nodes 811 is a descriptor for describing the number of nodes that are requested to be accepted by the movement destination data center in the node movement request profile 176. The node ID 812 is a descriptor for describing an identifier for uniquely identifying each node that is requested to be accepted by the destination data center. The related node number 813 is a descriptor for describing the number of nodes having some degree of connection with the node identified by the node ID 812. The related node ID 814 is a descriptor for describing the identifier of the node to which the node identified by the node ID 812 is related. The resource 815 is a descriptor for describing resource values related to an auxiliary storage device such as a CPU, memory, HDD, and network interface required by the node identified by the node ID 812. For example, the clock speed of the CPU and the memory The storage capacity of the auxiliary storage device is included. The degree of coupling 816 is a descriptor for describing the degree of coupling that should be satisfied between the node identified by the node ID 812 and the node identified by the related node ID 814 in accordance with the definition of the coupling degree definition table 170. A band 817 is a value of the band column 301 in a record in which the coupling degree column 300 matches the coupling degree 816 in the coupling degree definition table 170. The response speed 818 is a value of the response speed 302 in the record in which the combination degree column 300 matches the combination degree 816 in the combination degree definition table 170. In the node movement request profile 176, not only the degree of coupling 816 but also the corresponding bandwidth 817 and response speed 818 are described because the data center 1 and the data center 2 are not necessarily operated by the same business operator. This is because there is a possibility that the same combination degree definition table 170 is not held. The service profile ID 819 is a descriptor for describing an identifier of the service profile 175 in which requirements required for the middle box 13 are described when the node identified by the related node ID 814 is the middle box 13.

次に、本実施例においてクラウド管理者に提供されるユーザインタフェースについて説明する。図18は、クラウド管理プログラム178がクラウド管理者に提供する、ノードの移動管理のためのインタフェースの一例を示すための図であり、クラウド管理者にノード移動の最終確認を求める画面例である。このユーザインタフェースは、管理サーバ11で稼働しているクラウド管理プログラム178が、クラウド管理端末4の表示部1033を通じてユーザに提供する。画面900は、クラウド管理者が指定した移動候補のノードの表示部位901、クラウド管理プログラム178が本実施例に記載の方法を用いて判定した移動候補ノードの表示部位902、クラウド管理プログラム178が本実施例に記載の方法で判定したミドルボックス13の変更内容の表示部位903を含む。なお、画面900には図18に例示している表示内容以外の表示内容を表示させてもよい。また画面900は、図18に例示する画面構成例以外の画面構成を有するようにしてもよい。   Next, a user interface provided to the cloud administrator in this embodiment will be described. FIG. 18 is a diagram for illustrating an example of an interface for node movement management provided to the cloud administrator by the cloud management program 178, and is an example of a screen for requesting the cloud administrator to finally confirm node movement. This user interface is provided to the user through the display unit 1033 of the cloud management terminal 4 by the cloud management program 178 running on the management server 11. The screen 900 includes a display area 901 of a candidate node specified by the cloud administrator, a display area 902 of a candidate movement node determined by the cloud management program 178 using the method described in the present embodiment, and a cloud management program 178. The display part 903 of the change content of the middle box 13 determined by the method described in the embodiment is included. Note that display content other than the display content illustrated in FIG. 18 may be displayed on the screen 900. The screen 900 may have a screen configuration other than the screen configuration example illustrated in FIG.

次に、以上の構成を有する本実施例のデータセンタシステム1000において実行されるデータ処理について説明する。まず、データ処理の前提となる重み及び結合度を設定するために実行されるデータ処理フローについて説明する。図19は、本実施例における、アプリケーションシステム2000を構成しているノードの重み及びノード間の結合度の設定手順の一例を示すフローチャートである。なお、以降参照するフローチャートにおいて、各処理ステップに付した参照符号に含まれる「S」の記号は「ステップ」を示す。   Next, data processing executed in the data center system 1000 of the present embodiment having the above configuration will be described. First, the data processing flow executed for setting the weight and the degree of coupling that are the premise of data processing will be described. FIG. 19 is a flowchart illustrating an example of a procedure for setting the weights of nodes constituting the application system 2000 and the degree of coupling between nodes in the present embodiment. In the flowcharts referred to hereinafter, the symbol “S” included in the reference numerals attached to the respective processing steps indicates “steps”.

まず、クラウド利用端末3を用いて、設定開始を通知する指令が結合度設定プログラム177に送信される(S1001)。具体的には、クラウド利用者によりクラウド利用端末3からユーザインタフェースを通じて管理サーバ11の結合度設定プログラム177に設定開始指令が入力される。   First, using the cloud usage terminal 3, a command for notifying the start of setting is transmitted to the coupling degree setting program 177 (S1001). Specifically, a setting start command is input by the cloud user from the cloud usage terminal 3 to the coupling degree setting program 177 of the management server 11 through the user interface.

次に、結合度設定プログラム177が提供するインタフェースを介して、アプリケーションシステム2000に含まれる個々のノードの重み情報が、結合度設定プログラム177に入力される(S1002)。   Next, the weight information of each node included in the application system 2000 is input to the coupling degree setting program 177 via the interface provided by the coupling degree setting program 177 (S1002).

次いで、結合度設定プログラム177が提供するインタフェースを介して、アプリケーションシステム2000に含まれる個々のノード間の結合度が、結合度設定プログラム177に入力される(S1003)。   Next, the coupling degree between individual nodes included in the application system 2000 is input to the coupling degree setting program 177 via the interface provided by the coupling degree setting program 177 (S1003).

次に、結合度設定プログラム177が提供するインタフェースを介して、ミドルボックス13に求める要件がサービスプロファイル175として、結合度設定プログラム177に入力される(S1004)。   Next, requirements required for the middle box 13 are input as a service profile 175 to the coupling degree setting program 177 via the interface provided by the coupling degree setting program 177 (S1004).

結合度設定プログラム177は、S1002においてクラウド利用者がクラウド利用端末3を通じて設定した情報を基に、ノード重み情報管理テーブル173にノードの重み情報を格納する。また結合度設定プログラム177は、S1003においてクラウド利用者がクラウド利用端末3を通じて指定した情報を基に、結合度管理テーブル172にノード間の結合度情報を格納する。関連ノードがミドルボックス13である場合は、S1004においてクラウド利用者がクラウド利用端末3を通じて指定したサービスプロファイル175の識別情報を結合度管理テーブル172に格納する(S1005)。   The connectivity setting program 177 stores the node weight information in the node weight information management table 173 based on the information set by the cloud user through the cloud use terminal 3 in S1002. Also, the degree-of-association setting program 177 stores the degree-of-joint information between nodes in the degree-of-association management table 172 based on the information specified by the cloud user through the cloud-use terminal 3 in S1003. When the related node is the middle box 13, the identification information of the service profile 175 designated by the cloud user through the cloud use terminal 3 in S1004 is stored in the association degree management table 172 (S1005).

以上の重み及び結合度設定処理フローにより、アプリケーションシステム200に含まれるノードについての移動可否判定に使用するデータが収集される。   Through the above-described weight and coupling degree setting processing flow, data used for determining whether or not a node included in the application system 200 can be moved is collected.

次に、アプリケーションシステム2000に含まれるいずれかのノードを移動する場合に実行されるノード移動全体処理について説明する。図20は、本実施例における、ノードの移動全体手順の一例を示すフローチャートである。   Next, the entire node movement process executed when moving any node included in the application system 2000 will be described. FIG. 20 is a flowchart illustrating an example of the entire node movement procedure in the present embodiment.

まず、クラウド管理プログラム178は、移動候補となるノードと移動先の指定をクラウド管理端末4から受領する(S1101)。クラウド管理者がクラウド管理端末4から移動手続きの開始を指示するきっかけは、例えばあるノードの負荷が高くなることで監視サーバ12がクラウド管理者に警告を発する事象等があり得る。   First, the cloud management program 178 receives from the cloud management terminal 4 designation of a node as a movement candidate and a movement destination (S1101). The reason for the cloud administrator instructing the start of the movement procedure from the cloud management terminal 4 may be, for example, an event in which the monitoring server 12 issues a warning to the cloud administrator when the load on a certain node increases.

クラウド管理プログラム178は、ステップ1101において指定されたノードを起点としてノード移動可否検証フローを実施する。当該フローについては後述する(S1102)。   The cloud management program 178 executes a node movement availability verification flow starting from the node specified in step 1101. This flow will be described later (S1102).

クラウド管理プログラム178はステップ1102において実施したノード移動可否検証フローの結果を評価する(S1103)。移動可能ノード有りと判定された場合(S1103、Yes)、クラウド管理プログラム178はクラウド管理端末4に対して、ステップ1101において指定されたノードの移動が可能である旨を通知する(S1104)。ステップ1102において当該ノードと共に移動させる必要のある他ノードが発見された場合、クラウド管理プログラム178は当該他ノードを併せてクラウド管理端末4を通じてクラウド管理者に提示する。ステップ1102において当該ノードの移動に伴いミドルボックス13の変更が必要になると判定された場合、クラウド管理プログラム178は当該変更を併せてクラウド管理端末4を通じてクラウド管理者に提示する。画面例は図15で示した通りである。   The cloud management program 178 evaluates the result of the node movement availability verification flow performed in step 1102 (S1103). If it is determined that there is a movable node (S1103, Yes), the cloud management program 178 notifies the cloud management terminal 4 that the node designated in step 1101 can be moved (S1104). If another node that needs to be moved together with the node is found in step 1102, the cloud management program 178 also presents the other node to the cloud administrator through the cloud management terminal 4. When it is determined in step 1102 that the middle box 13 needs to be changed as the node moves, the cloud management program 178 also presents the change to the cloud administrator through the cloud management terminal 4. An example of the screen is as shown in FIG.

クラウド管理者がノード移動実施の判定を行い、クラウド管理端末4を通じてその旨を入力した場合(S1105、Yes)、S1106において、クラウド管理プログラム178は仮想マシン161が稼動しているホストコンピュータ10の仮想マシンモニタプログラム160に対して、移動先のデータセンタ2のホストコンピュータ10の仮想マシンモニタプログラム160との間で仮想マシン161の移動手続きを行うよう指示し、完了通知を受け取る(S1106)。   When the cloud administrator determines that the node has been moved and inputs that fact through the cloud management terminal 4 (Yes in S1105), in S1106, the cloud management program 178 causes the virtual of the host computer 10 on which the virtual machine 161 is operating. The machine monitor program 160 is instructed to perform the migration procedure of the virtual machine 161 with the virtual machine monitor program 160 of the host computer 10 of the destination data center 2, and a completion notification is received (S1106).

次いで、クラウド管理プログラム178は、ノード管理テーブル179において、ノードID列452が移動を完了したノードに合致するレコードについて、現在場所454列を移動先のデータセンタ2に更新して処理を終了する(S1107)。   Next, the cloud management program 178 updates the current location 454 column to the destination data center 2 for the record whose node ID column 452 matches the node whose movement has been completed in the node management table 179 and ends the processing ( S1107).

一方、S1103において、移動可能ノード無しと判定された場合(S1103、No)、クラウド管理プログラム178はクラウド管理端末4を通じてクラウド管理者に対して、S1101においてクラウド管理者が指定したノードの移動が不可である旨を通知し(S1108)、S1101に戻って異なる移動候補の仮想マシン、あるいはクラウド管理端末4を通じて、異なる移動先を選択させる画面をクラウド管理者に提示する。   On the other hand, if it is determined in S1103 that there is no movable node (S1103, No), the cloud management program 178 cannot move the node specified by the cloud administrator in S1101 to the cloud administrator through the cloud management terminal 4. (S1108), the screen returns to S1101, and a screen for selecting a different destination is presented to the cloud administrator through the different migration candidate virtual machines or the cloud management terminal 4.

ステップ1105において、クラウド管理者がクラウド管理端末4を通じてノードの移動を取りやめる旨通知した場合(S1105、No)、クラウド管理プログラム178は、S1101に戻って異なる移動候補の仮想マシン、あるいは異なる移動先を選択させる画面を、クラウド管理端末4を通じてクラウド管理者に提示する。   In step 1105, when the cloud administrator notifies that the movement of the node is canceled through the cloud management terminal 4 (S1105, No), the cloud management program 178 returns to S1101 and selects a different migration candidate virtual machine or a different migration destination. A screen to be selected is presented to the cloud administrator through the cloud management terminal 4.

以上のノード移動全体フローにより、種々の制約条件を考慮したデータセンタ1、2間のノードの移動処理を実行させることができる。   According to the overall node movement flow described above, the node movement process between the data centers 1 and 2 in consideration of various constraint conditions can be executed.

次に、ノード移動全体処理におけるノード移動可否検証処理について説明する。図21は、本実施例における、ノード移動可否検証処理の詳細処理手順の一例を示すフローチャートである。   Next, the node movement availability verification process in the entire node movement process will be described. FIG. 21 is a flowchart illustrating an example of a detailed processing procedure of node movement availability verification processing in the present embodiment.

まず、クラウド管理プログラム178は監視サーバ12に対してデータセンタ1とデータセンタ2との間の回線状況を問い合わせる。監視サーバ12はネットワーク監視プログラム180により収集したデータセンタ1、2間の帯域及び応答速度をクラウド管理プログラム178に通知する(S1201)。   First, the cloud management program 178 inquires the monitoring server 12 about the line status between the data center 1 and the data center 2. The monitoring server 12 notifies the cloud management program 178 of the bandwidth between the data centers 1 and 2 and the response speed collected by the network monitoring program 180 (S1201).

クラウド管理プログラム178は、空の検証済みノードリスト及び移動候補ノードリストを作成する(S1202)。これらのリストは、ノード移動可否検証フローにおいて使用する一時的なリストである。検証済みノードリスト及び移動候補ノードリストは、キューやリストといった一般的な公知のデータ構造でよい。   The cloud management program 178 creates an empty verified node list and a movement candidate node list (S1202). These lists are temporary lists used in the node movement availability verification flow. The verified node list and the movement candidate node list may have a general known data structure such as a queue or a list.

次に、クラウド管理プログラム178は、本ステップがノード移動全体フローを開始して以降に1回目に実行されている場合、S1101においてクラウド管理者が選択したノードについて、ノードの重み及び関連ノードとの間の結合度検証フローを実施する(S1203)。当該フローについては後述する。本ステップがノード移動全体フローを開始して2回目以降に実行されている場合、後述するS1207で選択されたノードについて、ノードの重み及び関連ノードとの間の結合度検証フローを実施する。   Next, when this step is executed for the first time since the start of the entire node movement flow, the cloud management program 178 determines whether the node selected by the cloud administrator in S1101 A flow for verifying the degree of coupling is executed (S1203). This flow will be described later. When this step is executed for the second and subsequent times after starting the entire node movement flow, the node weight and the connection degree verification flow with the related node are executed for the node selected in S1207, which will be described later.

クラウド管理プログラム178は、S1203における重み及び結合度検証フローの実行結果に基づいて、ノードの移動可否を判定する(S1204)。重み及び結合度検証の結果、ノードが移動可能と判定された場合(S1204、Yes)、クラウド管理プログラム178は当該ノードを検証済みノードリストに追加する(S1205)。重み及び結合度検証の結果、ノードが移動不可と判定された場合(S1205、No)、クラウド管理プログラム178は、処理をS1206に進める。   The cloud management program 178 determines whether or not the node can be moved based on the weight and the execution result of the connectivity verification flow in S1203 (S1204). If it is determined that the node is movable as a result of the weight and coupling degree verification (S1204, Yes), the cloud management program 178 adds the node to the verified node list (S1205). If it is determined that the node cannot be moved as a result of the weight and connection degree verification (No in S1205), the cloud management program 178 advances the process to S1206.

クラウド管理プログラム178は、移動候補ノードリストと検証済みノードリストを比較し、移動候補ノードリストに含まれていて検証済みノードリストに含まれていないノードの有無、すなわち、未検証の移動候補ノードの有無を判定する(S1206)。未検証の移動候補ノードが有る場合(S1206、Yes)、クラウド管理プログラム178は、処理をS1207に進める。未検証の移動候補ノードが無い場合(S1206、No)、クラウド管理プログラム178は、処理をS1208に進める。   The cloud management program 178 compares the movement candidate node list with the verified node list, and the presence / absence of a node included in the movement candidate node list but not included in the verified node list, that is, an unverified movement candidate node The presence or absence is determined (S1206). When there is an unverified movement candidate node (S1206, Yes), the cloud management program 178 advances the processing to S1207. When there is no unverified movement candidate node (S1206, No), the cloud management program 178 advances the processing to S1208.

S1207において、クラウド管理プログラム178は、移動候補ノードリストの中から検証済みノードリストに含まれていない移動候補ノードを一つ選択してS1203〜S1206の処理を繰り返し実行する。   In S1207, the cloud management program 178 selects one movement candidate node not included in the verified node list from the movement candidate node list, and repeatedly executes the processing of S1203 to S1206.

次に、S1206で未検証の移動候補ノードがないと判定された場合(S1206、No)、クラウド管理プログラム178は、移動候補ノードリストを参照し、移動候補があるかどうかを評価する(S1208)。移動候補があると判定された場合は(S1208、Yes)クラウド管理プログラム178は、処理をS1209に進める。移動候補が無いと判定された場合は(S1208、No)、クラウド管理プログラム178は、本処理を終了してノード移動全体フローに戻る。   Next, when it is determined in S1206 that there is no unverified movement candidate node (S1206, No), the cloud management program 178 refers to the movement candidate node list and evaluates whether there is a movement candidate (S1208). . When it is determined that there is a movement candidate (S1208, Yes), the cloud management program 178 advances the processing to S1209. If it is determined that there is no movement candidate (S1208, No), the cloud management program 178 ends this processing and returns to the node movement overall flow.

S1209において、クラウド管理プログラム178は、ミドルボックス13への要求サービスレベルを確定する。具体的には、クラウド管理プログラム178は、管理サーバ11の結合度管理テーブル172から、ノードID列502が移動候補ノードリストに含まれるノードのIDに合致する全てのレコードのうち、当該レコードにおいてサービスプロファイル列505に値を含むレコードを取得する。さらにクラウド管理プログラム178は、取得したレコードのサービスプロファイル列505に含まれる値に合致するサービスプロファイルID701をサービスプロファイルID記述子800に持つサービスプロファイル175を取得する。   In step S1209, the cloud management program 178 determines the requested service level for the middle box 13. Specifically, the cloud management program 178 uses the service in the record out of all the records whose node ID column 502 matches the ID of the node included in the movement candidate node list from the connectivity management table 172 of the management server 11. Records including values in the profile column 505 are acquired. Further, the cloud management program 178 acquires a service profile 175 having, in the service profile ID descriptor 800, a service profile ID 701 that matches a value included in the service profile column 505 of the acquired record.

次に、ステップ1210において、クラウド管理プログラム178は、移動先であるデータセンタ2に設けられている管理サーバ11に、以下の問い合わせを行う(S1210)。具体的には、クラウド管理プログラム178は、管理サーバ11の結合度管理テーブル172から、ノードID列502が移動候補ノードリストに含まれるノードのIDに合致する全てのレコードを取得して、ノード移動要求プロファイル176を作成する。ノード移動要求プロファイル175の作成においては、クラウド管理プログラム178は、結合度504に対応する帯域301と応答速度302を、管理サーバ11の結合度定義テーブル170から取得する。さらにクラウド管理プログラム178は、ノード移動要求プロファイル176とS1209において取得したサービスプロファイル175を、データセンタ2の管理サーバ11で稼働しているクラウド管理プログラム178に送信する。ノード移動要求プロファイル176やサービスプロファイル175の送信については、SOAPやHTTP等の通信プロトコルに関する公知技術を活用できる。   Next, in step 1210, the cloud management program 178 makes the following inquiry to the management server 11 provided in the data center 2 that is the movement destination (S1210). Specifically, the cloud management program 178 acquires all the records in which the node ID column 502 matches the node ID included in the migration candidate node list from the connectivity management table 172 of the management server 11, and moves the node. A request profile 176 is created. In creating the node movement request profile 175, the cloud management program 178 acquires the bandwidth 301 and the response speed 302 corresponding to the coupling degree 504 from the coupling degree definition table 170 of the management server 11. Further, the cloud management program 178 transmits the node movement request profile 176 and the service profile 175 acquired in S1209 to the cloud management program 178 running on the management server 11 of the data center 2. For the transmission of the node movement request profile 176 and the service profile 175, a known technique relating to a communication protocol such as SOAP or HTTP can be used.

次に、データセンタ2の管理サーバ11で稼働しているクラウド管理プログラム178は、受け入れ可否判定フローを実施する(S1211)。当該フローについては後述する。   Next, the cloud management program 178 running on the management server 11 of the data center 2 executes an acceptance / rejection determination flow (S1211). This flow will be described later.

次いで、クラウド管理プログラム178は、ステップ1210における受け入れ可否判定フローの実行結果を評価する(S1212)。データセンタ2のクラウド管理プログラム178による受け入れ可否判定の結果、受け入れ可能と判定された場合(S1212、Yes)、クラウド管理プログラム178は、作成した移動候補ノードリストを確定してノード移動全体フローに戻る(S1213)。受け入れ可否判定の結果、受け入れ不可と判定された場合(S1212、No)、クラウド管理プログラム178は移動候補無しと判定してノード移動全体フローに戻る。   Next, the cloud management program 178 evaluates the execution result of the acceptability determination flow in step 1210 (S1212). As a result of the acceptability determination by the cloud management program 178 of the data center 2, when it is determined that the acceptance is possible (S1212, Yes), the cloud management program 178 determines the created migration candidate node list and returns to the overall node migration flow. (S1213). As a result of acceptability determination, if it is determined that acceptance is not possible (No in S1212), the cloud management program 178 determines that there is no migration candidate and returns to the overall node migration flow.

以上のノード移動可否検証処理によれば、各ノードの重みと他のノードとの関連性を考慮して、データセンタ間で移動可能なノード候補を選定することができる。   According to the above node moveability verification process, node candidates that can move between data centers can be selected in consideration of the weight of each node and the relevance between other nodes.

次に、ノード移動可否検証処理において実行される、重み及び結合度検証処理について説明する。図22は、本実施例における、ノードの重み及び結合度検証の詳細処理手順の一例を示すフローチャートである。   Next, the weight and connection degree verification process executed in the node movement availability verification process will be described. FIG. 22 is a flowchart illustrating an example of a detailed processing procedure of node weight and coupling degree verification in the present embodiment.

クラウド管理プログラム178は、ノード重み情報管理テーブル173から、ノードID列602がノード移動可否検証処理フローのS1203において指定されたノードのIDに合致するレコードの重み列603の値を取得する。さらにクラウド管理プログラム178は、重み定義テーブル171から、重み列400が当該重み値に合致するレコードのデータセンタ列402の値を取得する(S1301)。   The cloud management program 178 acquires, from the node weight information management table 173, the value of the record weight column 603 in which the node ID column 602 matches the node ID specified in S1203 of the node movement availability verification processing flow. Further, the cloud management program 178 acquires the value of the data center column 402 of the record whose weight column 400 matches the weight value from the weight definition table 171 (S1301).

次に、クラウド管理プログラム178は、S1203において指定されたノードとその移動先の妥当性を検証するために、S1203で指定された移動先がS1301において取得した値に含まれるかどうかを比較評価する(S1302)。移動先検証の結果、移動先が適切であると判定された場合(S1302、Yes)、クラウド管理プログラム178は、S1203で指定されたノードを移動候補ノードリストに追加する(S1303)。移動先検証の結果、移動先が適切ではないと判定された場合(S1302、No)、クラウド管理プログラム178は、当該ノードを移動不可と判定してノード移動可否検証フローに戻る。   Next, the cloud management program 178 compares and evaluates whether the destination specified in S1203 is included in the value acquired in S1301 in order to verify the validity of the node specified in S1203 and its destination. (S1302). If it is determined as a result of the movement destination verification that the movement destination is appropriate (S1302, Yes), the cloud management program 178 adds the node specified in S1203 to the movement candidate node list (S1303). As a result of the verification of the movement destination, when it is determined that the movement destination is not appropriate (S1302, No), the cloud management program 178 determines that the node cannot be moved, and returns to the node movement availability verification flow.

S1304において、クラウド管理プログラム178は、結合度管理テーブル172から、ノードID列502がS1203において指定されたノードのIDに合致する全てのレコードの関連ノード列503の値を取得し、関連ノードリストを作成する。   In S1304, the cloud management program 178 acquires the value of the related node column 503 of all the records in which the node ID column 502 matches the ID of the node specified in S1203 from the association degree management table 172, and stores the related node list. create.

次に、クラウド管理プログラム178は、関連ノードリストと検証済みノードリストとを比較し、検証済みノードリストに含まれていないノードを関連ノードリストより一つずつ選択して以降のS1306〜S1309を繰り返し処理する(S1305)。   Next, the cloud management program 178 compares the related node list with the verified node list, selects nodes that are not included in the verified node list one by one from the related node list, and repeats subsequent steps S1306 to S1309. Process (S1305).

次に、クラウド管理プログラム178は、結合度管理テーブル172から、ノードID列502及び関連ノードID列503が、S1203で指定されたノード及びS1305で選択した関連ノードに合致するレコードを取得し、結合度列504の値を取得する(S1306)。   Next, the cloud management program 178 obtains a record in which the node ID column 502 and the related node ID column 503 match the node specified in S1203 and the related node selected in S1305 from the coupling degree management table 172, and combines them. The value of the degree column 504 is acquired (S1306).

次に、クラウド管理プログラム178は、結合度定義テーブル170から、結合度列300の値がS1306において取得した結合度値に合致するレコードを取得し、帯域列301及び応答速度列302の値を取得する(1307)。   Next, the cloud management program 178 acquires a record in which the value of the coupling degree column 300 matches the coupling degree value acquired in S1306 from the coupling degree definition table 170, and acquires the values of the band column 301 and the response speed column 302. (1307).

次いで、クラウド管理プログラム178は、S1307において取得した帯域値及び応答速度値が、S1201において取得したデータセンタ1、2間の帯域及び応答速度を双方共に上回るかどうかを比較する(S1308)。比較の結果、結合度がデータセンタ間回線状況と同等かあるいはそれを上回ると判定された場合(S1308、Yes)、クラウド管理プログラム178は処理をS1309に進める。比較の結果、結合度がデータセンタ間回線状況を下回ると判定された場合(S1308、No)、クラウド管理プログラム178は処理をS1310に進める。   Next, the cloud management program 178 compares whether the bandwidth value and response speed value acquired in S1307 exceed both the bandwidth and response speed between the data centers 1 and 2 acquired in S1201 (S1308). As a result of the comparison, when it is determined that the degree of coupling is equal to or exceeding the inter-data center line status (S1308, Yes), the cloud management program 178 advances the process to S1309. As a result of the comparison, when it is determined that the degree of coupling is below the inter-data center line status (S1308, No), the cloud management program 178 advances the process to S1310.

次に、クラウド管理プログラム178は、結合度管理テーブル172から、関連ノードID列503がS1305で選択した関連ノードのIDに合致するレコードを取得し、当該レコードがサービスプロファイル列505に値を持つかどうかを判定することで、S1305で選択した関連ノードがミドルボックス13であるかどうかを判定する。S1305で選択した関連ノードがミドルボックス13ではなく、且つ、移動候補ノードリストに含まれていなければ、当該関連ノードを移動候補ノードリストに追加する(S1309)。   Next, the cloud management program 178 acquires a record in which the related node ID column 503 matches the ID of the related node selected in S1305 from the association degree management table 172, and whether the record has a value in the service profile column 505. By determining whether or not the related node selected in S1305 is the middle box 13. If the related node selected in S1305 is not the middle box 13 and is not included in the movement candidate node list, the related node is added to the movement candidate node list (S1309).

S1310において、クラウド管理プログラム178は、S1304において作成した関連ノードリストのうち、検証済みノードリストに含まれていない全てのノードについてS1306〜S1309の処理を実施したかどうかを評価する。実施したと判定された場合(S1310、Yes)、本処理はノード移動可否検証フローに戻る。まだ実施していない関連ノードがあると判定された場合(S1310、No)、クラウド管理プログラム178、処理をS1305に戻す。   In S1310, the cloud management program 178 evaluates whether or not the processing of S1306 to S1309 has been performed on all nodes that are not included in the verified node list in the related node list created in S1304. If it is determined that the process has been performed (S1310, Yes), the process returns to the node movement availability verification flow. When it is determined that there is a related node that has not been implemented yet (S1310, No), the cloud management program 178 and the process are returned to S1305.

以上の重み及び結合度検証処理によれば、各ノードについて、そのノードの重み及び他ノードとの関連性の点から、他のデータセンタへの移動候補となりうるかを検証することができる。   According to the weight and coupling degree verification process described above, it is possible to verify whether each node can be a candidate for movement to another data center in terms of the weight of the node and the relevance with another node.

次に、ノード移動可否検証処理において実行される、受入可否検証処理について説明する。図23は、本実施例における、移動先データセンタ2の管理サーバ11で稼働しているクラウド管理プログラム178による、移動候補ノードの受け入れ可否検証の詳細処理手順の一例を示すフローチャートである。   Next, the acceptance / rejection verification process executed in the node movement availability verification process will be described. FIG. 23 is a flowchart illustrating an example of a detailed processing procedure for verifying whether a migration candidate node can be accepted by the cloud management program 178 running on the management server 11 of the migration destination data center 2 in the present embodiment.

まず、データセンタ2のクラウド管理プログラム178は、データセンタ1のクラウド管理プログラム178より移動要求を受信する(S1401)。移動要求にはノード移動要求プロファイル176と、ミドルボックス13に求めるサービスプロファイル175が含まれる。   First, the cloud management program 178 of the data center 2 receives a movement request from the cloud management program 178 of the data center 1 (S1401). The movement request includes a node movement request profile 176 and a service profile 175 required for the middle box 13.

データセンタ2のクラウド管理プログラム178は、データセンタ2の監視サーバ12のネットワーク監視プログラム180及びノード監視プログラム181に問い合わせ、データセンタ2のホストコンピュータ10の空きリソースや、ホストコンピュータ10間のデータ通信における帯域及び応答速度を取得する(S1402)。   The cloud management program 178 of the data center 2 makes an inquiry to the network monitoring program 180 and the node monitoring program 181 of the monitoring server 12 of the data center 2, and in the free resources of the host computer 10 of the data center 2 and data communication between the host computers 10. The bandwidth and response speed are acquired (S1402).

次に、データセンタ2のクラウド管理プログラム178は、S1402において取得したホストコンピュータ10のリソース空き状況やホストコンピュータ10間のデータ通信における帯域、及び応答速度が、S1401において受信したノード移動要求プロファイル176内のリソース記述子815や帯域記述子817、応答速度記述子818に記載された値を満たすかどうかを比較することで、移動候補のノードがデータセンタ2においてデータセンタ1と同じ結合度を維持可能かどうか判定する(S1403)。判定の結果、移動候補ノードの結合度が維持可能と判定された場合(S1403、Yes)、クラウド管理プログラム178は、処理をS1404に進める。判定の結果、結合度が維持不可と判定された場合(S1403、No)、受け入れ不可として、クラウド管理プログラム178は処理をS1408に進める。   Next, the cloud management program 178 of the data center 2 indicates that the resource availability of the host computer 10 acquired in S1402, the bandwidth in the data communication between the host computers 10 and the response speed in the node movement request profile 176 received in S1401. By comparing whether or not the values described in the resource descriptor 815, the bandwidth descriptor 817, and the response speed descriptor 818 are satisfied, the movement candidate node can maintain the same degree of coupling as the data center 1 in the data center 2. It is determined whether or not (S1403). As a result of the determination, when it is determined that the combination degree of the movement candidate nodes can be maintained (S1403, Yes), the cloud management program 178 advances the process to S1404. As a result of the determination, when it is determined that the degree of coupling cannot be maintained (S1403, No), the cloud management program 178 advances the processing to S1408 as being unacceptable.

データセンタ2のクラウド管理プログラム178は、ミドルボックス管理テーブル174において、サービスプロファイル列701を参照し、データセンタ2内の既存のミドルボックス13がサポートしているサービスプロファイル175の一覧を取得する(S1404)。   The cloud management program 178 of the data center 2 refers to the service profile column 701 in the middle box management table 174, and acquires a list of service profiles 175 supported by the existing middle box 13 in the data center 2 (S1404). ).

次に、データセンタ2のクラウド管理プログラム178は、S1404において取得したサービスプロファイル175の一覧においてサービスプロファイルID800が指し示すサービスプロファイル175の中から、S1401においてデータセンタ1の管理サーバ11から受信した要求サービスプロファイル175を満たすものがあるかどうかを、個々の記述子の値を比較することで判定する(S1405)。これにより、クラウド管理プログラム178は、データセンタ2のミドルボックス13が、移動候補のノードに対してデータセンタ1のミドルボックス13と同じサービスレベルを提供可能かどうか判定する(S1406)。   Next, the cloud management program 178 of the data center 2 receives the requested service profile received from the management server 11 of the data center 1 in S1401 from the service profiles 175 indicated by the service profile ID 800 in the list of service profiles 175 acquired in S1404. It is determined by comparing the values of the individual descriptors whether or not there are those satisfying 175 (S1405). As a result, the cloud management program 178 determines whether or not the middle box 13 of the data center 2 can provide the same service level as the middle box 13 of the data center 1 to the migration candidate node (S1406).

データセンタ2のクラウド管理プログラム178は、S1405において候補となるサービスプロファイルが見つかったと判定し場合(S1406、Yes)、処理をS1407に進める。候補となるサービスプロファイル175が見つからないと判定された場合(S1406、No)、受け入れ不可としてクラウド管理プログラム178は処理をS1408に進める。   If the cloud management program 178 of the data center 2 determines that a candidate service profile has been found in S1405 (S1406, Yes), the process proceeds to S1407. If it is determined that a candidate service profile 175 is not found (No in S1406), the cloud management program 178 advances the processing to S1408 as being unacceptable.

S1407において、データセンタ2のクラウド管理プログラム178は、移動候補のノードを受け入れるためのリソースを確保するため、データセンタ2内のホストコンピュータ10のリソースを予約する。リソースの予約管理については、仮想マシンモニタプログラム160、クラウド管理プログラム178、外部の管理プログラムのいずれかが行ってよい。   In S1407, the cloud management program 178 of the data center 2 reserves resources of the host computer 10 in the data center 2 in order to secure resources for accepting the migration candidate nodes. The resource reservation management may be performed by any of the virtual machine monitor program 160, the cloud management program 178, and an external management program.

次いで、データセンタ2のクラウド管理プログラム178は、データセンタ1のクラウド管理プログラム178に受け入れ可否の結果を通知する(S1408)。データセンタ1のクラウド管理プログラム178は当該結果をもってノード移動可否検証フローに処理を戻す。   Next, the cloud management program 178 of the data center 2 notifies the cloud management program 178 of the data center 1 of the acceptability result (S1408). The cloud management program 178 of the data center 1 returns the processing to the node movement availability verification flow with the result.

以上の受入可否検証処理によれば、移動先のデータセンタにおいて、ホストコンピュータ10等のリソース、及びミドルボックス13が提供するサービスの点から移動対象であるノードを受け入れることができるか判定することができる。   According to the acceptability verification process described above, it is possible to determine whether or not the node that is the migration target can be accepted in terms of the resources provided by the host computer 10 and the service provided by the middle box 13 in the destination data center. it can.

次に、再構成処理について説明する。図24は、本実施例における、ノード移動後のアプリケーションシステム再構成の詳細処理手順の一例を示すフローチャートである。ここでは、データセンタ1からデータセンタ2へのノード移動後に、データセンタ1、2間の回線状況が変化したことに伴って、データセンタ1及びデータセンタ2にまたがったアプリケーションシステム2000のノードを再配置する例を示す。   Next, the reconstruction process will be described. FIG. 24 is a flowchart illustrating an example of a detailed processing procedure of application system reconfiguration after moving a node in the present embodiment. Here, after the node movement from the data center 1 to the data center 2, the node of the application system 2000 across the data center 1 and the data center 2 is re-established as the line status between the data centers 1 and 2 changes. An example of arrangement will be shown.

まず、データセンタ1のクラウド管理プログラム178はデータセンタ1とデータセンタ2との間の回線状況の変化を認識する(S1501)。具体的には、クラウド管理プログラム178が監視サーバ12のネットワーク監視プログラム180に定期的に問い合わせてもよいし、ネットワーク監視プログラム180がクラウド管理プログラム178に定期的、あるいは変更発生時に通知してもよい。   First, the cloud management program 178 of the data center 1 recognizes a change in the line status between the data center 1 and the data center 2 (S1501). Specifically, the cloud management program 178 may periodically make an inquiry to the network monitoring program 180 of the monitoring server 12, or the network monitoring program 180 may notify the cloud management program 178 periodically or when a change occurs. .

次いで、データセンタ1のクラウド管理プログラム178は、ノード管理テーブル179において場所453がデータセンタ1を示すレコードのうち、現在場所454がデータセンタ2を示すレコードのノードID列452の値を取得する。次いでクラウド管理プログラム178は、結合度管理テーブル172のノードID列502あるいは関連ノードID列503が取得した値と合致するレコードの結合度列504の値を取得する(S1502)。さらにクラウド管理プログラム178は、S1501において認識したデータセンタ1、2間の回線状況が取得した結合度値を上回るかどうかを判定する(S1503)。判定の手法は、図22に例示した重み及び結合度検証フローのS1307〜S1308と同じである。判定の結果、回線状況が結合度値を下回ると判定された場合(S1503、No)、S1504に進む。結合度が維持可能と判定された場合(S1503、Yes)、再構成の必要無しとして本フローを終了する。   Next, the cloud management program 178 of the data center 1 acquires the value of the node ID column 452 of the record in which the current location 454 indicates the data center 2 among the records in which the location 453 indicates the data center 1 in the node management table 179. Next, the cloud management program 178 acquires the value of the combination degree column 504 of the record that matches the value acquired by the node ID column 502 or the related node ID column 503 of the combination degree management table 172 (S1502). Furthermore, the cloud management program 178 determines whether or not the line status between the data centers 1 and 2 recognized in S1501 exceeds the acquired coupling degree value (S1503). The determination method is the same as S1307 to S1308 in the weight and coupling degree verification flow illustrated in FIG. As a result of the determination, if it is determined that the line status is below the coupling degree value (S1503, No), the process proceeds to S1504. If it is determined that the degree of coupling can be maintained (S1503, Yes), this flow ends with no need for reconfiguration.

S1504において、データセンタ1のクラウド管理プログラム178は、データセンタ1の監視サーバ12のネットワーク監視プログラム180及びノード監視プログラム181に問い合わせ、ノードの空きリソースやノード間の帯域及び応答速度を取得する(S1504)。   In S1504, the cloud management program 178 of the data center 1 inquires of the network monitoring program 180 and the node monitoring program 181 of the monitoring server 12 of the data center 1, and acquires free resources of nodes, bandwidth between nodes, and response speed (S1504). ).

次いで、データセンタ1のクラウド管理プログラム178は、S1504において取得したノードのリソース状況やノード間の回線状況を、当該アプリケーションシステム2000を構成するデータセンタ1のノードとデータセンタ2のノードとの間の結合度と比較することで、データセンタ2に移動したノードをデータセンタ1に戻せるかどうかを判定する(S1505)。判定の結果、データセンタ2のノードがデータセンタ1に戻せると判定された場合(S1505、Yes)、クラウド管理プログラム178は処理をS1506に進める。判定の結果、データセンタ2のノードがデータセンタ1に戻せないと判定された場合(S1505、No)、受け入れ不可としてクラウド管理プログラム178は、処理をS1508に進める。   Next, the cloud management program 178 of the data center 1 determines the node resource status and the node status between nodes acquired in S1504 between the nodes of the data center 1 and the data center 2 constituting the application system 2000. It is determined whether or not the node moved to the data center 2 can be returned to the data center 1 by comparing with the degree of coupling (S1505). As a result of the determination, when it is determined that the node of the data center 2 can be returned to the data center 1 (S1505, Yes), the cloud management program 178 advances the processing to S1506. As a result of the determination, when it is determined that the node of the data center 2 cannot be returned to the data center 1 (S1505, No), the cloud management program 178 advances the processing to S1508 as being unacceptable.

S1506において、データセンタ1のクラウド管理プログラム178はデータセンタ2のノードを戻すためのリソースを確保するため、データセンタ1内のホストコンピュータ10のリソースを予約する。   In S1506, the cloud management program 178 of the data center 1 reserves resources of the host computer 10 in the data center 1 in order to secure resources for returning the nodes of the data center 2.

次いで、データセンタ1のクラウド管理プログラム178は、データセンタ2のクラウド管理プログラム178に対して、ノードを戻すための移動を通知する(S1507)。   Next, the cloud management program 178 of the data center 1 notifies the cloud management program 178 of the data center 2 of the movement for returning the node (S1507).

データセンタ1のクラウド管理プログラム178とデータセンタ2のクラウド管理プログラム178とは、移動対象のノードが稼動する仮想マシンモニタプログラム160、及び移動先の仮想マシンモニタプログラム160に移動を指示して処理を終了する(S1508)。   The cloud management program 178 of the data center 1 and the cloud management program 178 of the data center 2 execute processing by instructing the migration to the virtual machine monitor program 160 on which the node to be moved and the destination virtual machine monitor program 160 are moved. The process ends (S1508).

一方、データセンタ2のノードがデータセンタ1に戻せないと判定された場合、S1509において、データセンタ1のクラウド管理プログラム178は、データセンタ2以外の他のデータセンタであって、当該アプリケーションシステム2000のノード間の結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタのクラウド管理プログラム178に移動を問い合わせる。以降の処理は前述のノード移動可否検証フローのS1210以降と同じである。   On the other hand, if it is determined that the node of the data center 2 cannot be returned to the data center 1, in S1509, the cloud management program 178 of the data center 1 is a data center other than the data center 2 and the application system 2000 A data center having a line status that can maintain the degree of coupling between the nodes is selected, and the cloud management program 178 of the data center is inquired about migration. The subsequent processing is the same as that after S1210 in the above-described node movement availability verification flow.

以上の処理によれば、移動先のノードに関して回線状況が変化した場合に、結合度を維持したまま当該ノードの再配置を実行することができる。   According to the above processing, when the line status changes with respect to the destination node, it is possible to perform the rearrangement of the node while maintaining the degree of coupling.

以上、本発明の第一の実施例を説明した。第一の実施例によると、データセンタシステム1000はノード間の関係を結合度という抽象化された指標で管理し、ノードとミドルボックス13との関係を結合度及びサービスプロファイル175という指標で管理する。これにより、クラウド管理者がクラウド利用者のアプリケーションシステム2000の構成を知ることなく、アプリケーションシステム2000のサービスレベルに影響が出ない範囲で、データセンタにまたがったアプリケーションシステム2000を構築可能となる。また、データセンタ間の回線状況変化に応じてアプリケーションシステム2000を再構成できる。結果として、リソースの負荷や利用率の平準化と、クラウド管理及びクラウド利用との適切な分離を両立できる。   The first embodiment of the present invention has been described above. According to the first embodiment, the data center system 1000 manages the relationship between nodes with an abstracted index called the degree of coupling, and manages the relationship between the node and the middle box 13 with the index called the degree of coupling and the service profile 175. . As a result, it becomes possible for the cloud administrator to know the configuration of the application system 2000 of the cloud user, and to construct the application system 2000 across the data center as long as the service level of the application system 2000 is not affected. In addition, the application system 2000 can be reconfigured according to changes in the line status between data centers. As a result, it is possible to achieve both leveling of resource load and utilization rate and appropriate separation between cloud management and cloud usage.

次に、本発明を適用する図1に例示したデータセンタ連携システム1000の二つ目の実施例について説明する。以下、特に説明の無い箇所は実施例1と同じ構成を有するものとする。   Next, a second embodiment of the data center linkage system 1000 illustrated in FIG. 1 to which the present invention is applied will be described. In the following, parts not specifically described shall have the same configuration as in the first embodiment.

本実施例は、データセンタシステム1000がノード間の結合度を導出するという点で実施例1とは異なる。この構成により、本実施例においては、クラウド利用者は事前にノード間の結合度を設定する必要が無くなる。さらに、例えばノード間の実質的な回線利用状況を用いて結合度を算出することにより、クラウド管理プログラム178が回線状況の実態に合わせて仮想マシン161の移動を判定することが可能となる。   The present embodiment is different from the first embodiment in that the data center system 1000 derives the degree of coupling between nodes. With this configuration, in this embodiment, the cloud user does not need to set the degree of coupling between nodes in advance. Further, for example, by calculating the degree of coupling using the substantial line usage status between nodes, the cloud management program 178 can determine the movement of the virtual machine 161 according to the actual status of the line status.

図25は、実施例2における、クラウド管理プログラム178による結合度導出の詳細処理手順の一例を示すフローチャートである。本フローは、結合度設定プログラム177が提供するインタフェースを介して、クラウド利用者が後述するパラメータを更新したことをきっかけに実施してもよいし、クラウド管理者がパラメータを更新したことをきっかけに実施してもよいし、結合度設定プログラム177が定期的にその時点でのパラメータを用いて実施してもよい。   FIG. 25 is a flowchart illustrating an example of a detailed processing procedure for deriving the degree of coupling by the cloud management program 178 in the second embodiment. This flow may be executed when the cloud user updates the parameters described later via the interface provided by the coupling degree setting program 177, or when the cloud administrator updates the parameters. It may be implemented, or the coupling degree setting program 177 may be implemented periodically using the parameters at that time.

まず、結合度設定プログラム177は監視サーバ12上のネットワーク監視プログラム180に対して、ノード間の回線状況を問い合わせる(S1601)。本実施例においては、回線状況としてノード間の使用帯域と応答速度の実測値を用いるものとする。   First, the connection degree setting program 177 inquires of the network monitoring program 180 on the monitoring server 12 about the line status between nodes (S1601). In the present embodiment, it is assumed that the bandwidth used between nodes and the measured value of the response speed are used as the line status.

次いで、結合度設定プログラム177は以下の計算式に従って結合度を算出する(S1602)。   Next, the coupling degree setting program 177 calculates the coupling degree according to the following calculation formula (S1602).

ノードmn間の結合度=C1(ノードmn間の単位時間当たりの通信流量/アプリケーションシステム内の全ノード間の単位時間当たりの平均流量)+C2(ノードmn間の平均応答速度/アプリケーションシステム内の全ノード間の平均応答速度)
ここで、C1及びC2は係数であり、流量と応答速度のどちらを重要視するかを調整するために利用することができるパラメータである。パラメータC1、C2は、クラウド利用者が事前に定義してもよいし、クラウド管理者が事前に定義してもよい。
Degree of coupling between nodes mn = C1 (communication flow rate per unit time between nodes mn / average flow rate per unit time between all nodes in the application system) + C2 (average response speed between nodes mn / total in the application system) Average response speed between nodes)
Here, C1 and C2 are coefficients, and are parameters that can be used to adjust which of flow rate and response speed is important. The parameters C1 and C2 may be defined in advance by the cloud user or may be defined in advance by the cloud administrator.

次に、結合度設定プログラム177は、S1602において算出した結合度を結合度管理テーブル172の結合度列504に格納する(S1603)。   Next, the coupling degree setting program 177 stores the coupling degree calculated in S1602 in the coupling degree column 504 of the coupling degree management table 172 (S1603).

図24は、実施例2における、クラウド利用者による結合度設定の詳細処理手順の一例を示すフローチャートである。   FIG. 24 is a flowchart illustrating an example of a detailed processing procedure for setting a degree of coupling by a cloud user according to the second embodiment.

まず、クラウド利用者の操作に従って、管理サーバ11がクラウド利用端末3からの指示を受領する(S1701)。   First, according to the operation of the cloud user, the management server 11 receives an instruction from the cloud use terminal 3 (S1701).

次に、クラウド利用端末3から受領した指示に基づいて、結合度設定プログラム177が提供するインタフェースを介して、アプリケーションシステム2000に含まれる個々のノード間の結合度を算出するためのパラメータ指定をクラウド利用端末3から受け付ける(S1702)。ここで、パラメータは上述の計算式における係数C1、C2や、ミドルボックス13に求める要件に相当するサービスプロファイル175である。   Next, on the basis of the instruction received from the cloud usage terminal 3, the parameter designation for calculating the degree of coupling between individual nodes included in the application system 2000 is performed via the interface provided by the degree of coupling setting program 177. Accept from the use terminal 3 (S1702). Here, the parameters are the coefficients C1 and C2 in the above calculation formula, and the service profile 175 corresponding to the requirements required for the middle box 13.

次いで、結合度設定プログラム177は、S1702においてクラウド利用者から指定されたサービスプロファイル175を基に、結合度管理テーブル172のサービスプロファイル列505を更新する(S1703)。   Next, the association degree setting program 177 updates the service profile column 505 of the association degree management table 172 based on the service profile 175 designated by the cloud user in S1702 (S1703).

最後に、結合度設定プログラム177は、S1702においてクラウド利用者により設定された係数を基に、図25の結合度導出処理フローを実行する(S1704)。   Finally, the coupling degree setting program 177 executes the coupling degree derivation process flow of FIG. 25 based on the coefficient set by the cloud user in S1702 (S1704).

以上、本発明の第二の実施例を説明した。この第二の実施例によると、データセンタシステム1000がノード間の結合度を導出することで、クラウド利用者は事前にノード間の結合度を設定する必要が無くなる。さらに、例えばノード間の実質的な回線利用状況を用いて結合度を算出することにより、利用実態に合わせてリソース利用の平準化を行うことができる。   The second embodiment of the present invention has been described above. According to the second embodiment, the data center system 1000 derives the degree of coupling between nodes, thereby eliminating the need for the cloud user to set the degree of coupling between nodes in advance. Further, for example, by calculating the degree of coupling using the substantial line usage status between the nodes, the resource usage can be leveled according to the actual usage.

なお、以上説明した発明の実施の形態は、本発明の理解を容易にするためのものであり、本発明を限定するものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその等価物も含まれる。   The embodiment of the invention described above is for facilitating the understanding of the present invention, and does not limit the present invention. The present invention can be changed and improved without departing from the gist thereof, and equivalents thereof are also included in the present invention.

1 データセンタ1
2 データセンタ2
3 クラウド利用端末
4 クラウド管理端末
5 クライアント端末
6 通信ネットワーク
10 ホストコンピュータ
11 管理サーバ
12 監視サーバ
13 ミドルボックス
14 ルーティング装置
15 通信ネットワーク
1 Data center 1
2 Data center 2
DESCRIPTION OF SYMBOLS 3 Cloud utilization terminal 4 Cloud management terminal 5 Client terminal 6 Communication network 10 Host computer 11 Management server 12 Monitoring server 13 Middle box 14 Routing apparatus 15 Communication network

Claims (10)

外部装置に接続されて当該外部装置にデータ処理サービスを提供するアプリケーションシステムが構築されている第一のデータセンタと、前記第一のデータセンタと同等の構成を有する第二のデータセンタとを少なくとも備えているデータセンタシステムの管理方法であって、
前記アプリケーションシステムは互いに通信可能に接続されている複数の構成要素を有し、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての移動候補となる第一の構成要素を選択するステップと、
前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、
前記移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価するステップと、
前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、新たな移動候補として選定するステップと、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出するステップと、
変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記複数の構成要素との間に設定されている前記結合度を維持できるかどうかを評価するステップと、
前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定するステップと、
前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼するステップと、
を含むデータセンタシステムの管理方法。
At least a first data center in which an application system connected to an external device and providing data processing services to the external device is constructed, and a second data center having a configuration equivalent to the first data center A data center system management method comprising:
The application system has a plurality of components that are communicably connected to each other,
Selecting a first component to be a movement candidate as a candidate to move to the second data center from among the plurality of components of the application system of the first data center;
Setting a degree of coupling for each of the plurality of components , which is an index indicating a necessary condition regarding communication between the plurality of components included in the application system;
Between data centers that are information on the degree of coupling set for the first component that is the movement candidate and the communication status of the communication line between the first data center and the second data center Comparing and evaluating communication line information;
As a result of the comparative evaluation, when it is determined that the degree of coupling is superior to the communication line information between the data centers, the component that needs to move to the second data center together with the first component Determining a second component that is and selecting as a new candidate for movement;
After moving some of the plurality of components of the application system of the first data center to the second data center, between the first data center and the second data center Detecting a change in communication line status as communication line information between the data centers;
With respect to said data center communication line information after the change, in the application system, are set between the plurality of components that the plurality of components in said first data center to the second data center Evaluating whether the degree of coupling can be maintained;
Whether it is possible to move the first and second components of the application system in the second data center to the first data center when it is determined that the degree of coupling cannot be maintained. Determining using the resource condition and the degree of coupling for the plurality of components included in the application system in the first data center;
When it is determined that it is difficult to move to the first data center, a said first data center and other data centers other than the second data center, said first and is the determination select data center is a line situation capable of maintaining cohesion regarding second component, comprising the steps of requesting implementation of acceptance determination of the in the data center first and second components,
Management method of data center system including
前記結合度は、前記通信回線についての通信帯域、及び応答速度が含まれている、請求項1に記載のデータセンタシステムの管理方法。   The data center system management method according to claim 1, wherein the coupling degree includes a communication band and a response speed for the communication line. 前記アプリケーションシステムの前記複数の構成要素と、当該複数の構成要素を移動することができる範囲との対応付けをそれぞれ示す重み情報を前記第一のデータセンタ及び前記第二のデータセンタについて設定するステップと、
前記移動候補とされた前記第一及び第二の構成要素について、前記第一のデータセンタについて設定されている重み情報を基に前記第一及び第二の構成要素の前記第二のデータセンタへの移動の可否を決定するステップと、をさらに含む、請求項1に記載のデータセンタシステムの管理方法。
The step of setting the plurality of components and, said first data center and the second data center the weight information indicating correspondence to each of the range that can move the plurality of components of the application system When,
For the first and second components that are the movement candidates, to the second data center of the first and second components based on the weight information set for the first data center The method of managing a data center system according to claim 1, further comprising:
前記移動候補に含まれる一つ以上の前記構成要素間の結合度と、前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報とを比較評価するステップと、
前記比較評価の結果、前記第二のデータセンタ内の前記複数の構成要素間通信回線情報が前記移動候補である前記第一及び第二の構成要素間で設定されている前記結合度より優れているかどうかを評価するステップと、をさらに含む、請求項1に記載のデータセンタシステムの管理方法。
Wherein the coupling degree between one or more of the components included in the moving candidate, the second in a data center communications line information about the communication status is a component communication line between each of said plurality of components A step of comparing and evaluating information;
As a result of the comparative evaluation, the communication line information between the plurality of components in the second data center is superior to the coupling degree set between the first and second components that are the movement candidates. The data center system management method according to claim 1, further comprising a step of evaluating whether or not.
前記アプリケーションシステムの前記複数の構成要素のうち、当該アプリケーションシステム内で行われる通信についてのサービスを提供する通信サービス装置が有するべきサービス内容に関する要件を示すサービス要件情報を、前記通信サービス装置に関して設定するステップと、
前記移動候補とされている前記第一及び第二の構成要素が、前記第二のデータセンタにおいて前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能かどうか評価するステップと、をさらに含む、請求項1に記載のデータセンタシステムの管理方法。
Of the plurality of components of the application system, service requirement information indicating requirements regarding service contents to be provided by a communication service device that provides a service for communication performed in the application system is set for the communication service device. Steps,
The first and second components that are the movement candidates have the service requirement information having contents equivalent to the service contents received at the first data center in the second data center. The data center system management method according to claim 1, further comprising a step of evaluating whether the communication service device is available.
前記通信サービス装置の前記サービス内容には、負荷分散機能、ファイアウォール機能、あるいは侵入検知機能を含む、通信制御ポリシー又はセキュリティポリシーを通信に対して適用する機能が含まれている、請求項5に記載のデータセンタシステムの管理方法。   6. The service content of the communication service device includes a function of applying a communication control policy or a security policy to communication, including a load distribution function, a firewall function, or an intrusion detection function. Data center system management method. 前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報が、前記移動候補である前記第一及び第二の構成要素について設定されている前記結合度より優れており、且つ、前記移動候補である前記第一及び第二の構成要素が前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能であると判定された場合に、前記移動候補である前記第一及び第二の構成要素を前記第二のデータセンタに受け入れ可能であると判定するステップと、
前記受け入れ可能であるという判定結果を前記第二のデータセンタから前記第一のデータセンタに通知するステップと、をさらに含む、
請求項5に記載のデータセンタシステムの管理方法。
Inter-component communication line information, which is information related to the communication status of communication lines between the plurality of components in the second data center , is set for the first and second components that are the movement candidates. The service requirement information having a content equivalent to the service content received at the first data center by the first and second constituent elements that are superior to the combined degree that is the movement candidate. Determining that the first and second components that are the movement candidates are acceptable to the second data center when it is determined that the communication service apparatus having
Notifying the first data center of the determination result that the data is acceptable from the second data center;
The data center system management method according to claim 5.
前記アプリケーションシステムの前記複数の構成要素間で設定されている前記結合度を、前記複数の構成要素間の通信回線における実際の通信状況をもとに算出するステップ、を含む請求項1に記載のデータセンタシステムの管理方法。 2. The step of calculating the degree of coupling set between the plurality of components of the application system based on an actual communication state in a communication line between the plurality of components. Data center system management method. 外部装置に接続されて当該外部装置にデータ処理サービスを提供するアプリケーションシステムが構築されている第一のデータセンタと、前記第一のデータセンタと同等の構成を有する第二のデータセンタとを備えているデータセンタシステムであって、
前記アプリケーションシステムは互いに通信可能に接続されている複数の構成要素を有し、
各前記データセンタにおいて各前記複数の構成要素と通信可能に接続されて前記アプリケーションシステムを管理する管理装置が、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての第一の移動候補となる第一の構成要素を選択するステップと、
前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、
前記アプリケーションシステムの前記複数の構成要素と、当該複数の構成要素を移動することができる範囲との対応付けをそれぞれ示す重み情報を前記第一のデータセンタ及び前記第二のデータセンタについて設定し、
前記アプリケーションシステムの前記複数の構成要素のうち、当該アプリケーションシステム内で行われる通信についてのサービスを提供する通信サービス装置が有するべきサービス内容に関する要件を示すサービス要件情報を、前記通信サービス装置に関して設定し、
前記第一の移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価し、
前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、第二の移動候補として選定し、
前記第一及び第二の移動候補とされた前記第一及び第二の構成要素について、前記第一のデータセンタについて設定されている重み情報を基に、前記第二のデータセンタへ移動することができる前記第一及び第二の構成要素を第三の移動候補として決定し、
前記第三の移動候補に含まれる一つ以上の前記構成要素間の結合度と、前記第二のデータセンタ内にある各前記構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報とを比較評価し、
前記比較評価の結果、前記第二のデータセンタ内の前記構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れているかどうかを評価し、
前記第三の移動候補とされている前記第一及び第二の構成要素が、前記第二のデータセンタにおいて前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能かどうか評価し、
前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れており、且つ、前記第三の移動候補である前記第一及び第二の構成要素が前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能であると判定された場合に、前記第三の移動候補である前記第一及び第二の構成要素を前記第二のデータセンタに受け入れ可能であると判定し、前記第三の移動候補である前記第一及び第二の構成要素を前記第一のデータセンタから前記第二のデータセンタに移動させ、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出し
変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記複数の構成要素との間に設定されている前記結合度を維持できるかどうかを評価し
前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定し
前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第三の移動候補である前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼する、
データセンタシステム。
A first data center in which an application system connected to an external device and providing a data processing service to the external device is constructed; and a second data center having a configuration equivalent to the first data center. Data center system,
The application system has a plurality of components that are communicably connected to each other,
A management device that is communicably connected to each of the plurality of components in each of the data centers and manages the application system,
From among the plurality of components by the application system has the first data center, comprising: selecting a first component comprising a first migration candidate as a candidate to be moved to the second data center ,
A step of coupling degree is an index showing the requirements of communication between the plurality of components included in the application system, set for each of the plurality of components,
Setting weight information indicating the correspondence between the plurality of components of the application system and the range in which the plurality of components can be moved, for the first data center and the second data center,
Of the plurality of components of the application system, service requirement information indicating requirements regarding service contents to be provided by a communication service device that provides a service for communication performed in the application system is set for the communication service device. ,
Information on the degree of coupling set for the first component that is the first movement candidate and the communication status of the communication line between the first data center and the second data center Compare and evaluate communication line information between data centers,
As a result of the comparative evaluation, when it is determined that the degree of coupling is superior to the communication line information between the data centers, the component that needs to move to the second data center together with the first component Is determined as a second candidate for movement,
The first and second components that are the first and second movement candidates are moved to the second data center based on the weight information set for the first data center. determining the first and second components can as a third movement candidates,
And the degree of coupling between the third one or more of the components included in the candidate travel, between said second component which is information related to a communication environment of the communication line between each of said components in the data center communications Compare and evaluate the line information,
As a result of the comparative evaluation, evaluate whether the inter-component communication line information in the second data center is superior to the coupling degree set for the third movement candidate,
The service requirement information in which the first and second components that are the third movement candidates have contents equivalent to the service contents received at the first data center in the second data center. Evaluating whether the communication service device having
The inter-component communication line information, which is information relating to the communication status of the communication lines between the plurality of components in the second data center , is superior to the coupling degree set for the third movement candidate. And the communication service apparatus having the service requirement information having contents equivalent to the service contents received by the first data center in the first and second constituent elements that are the third movement candidates. Is determined to be usable, the first and second components that are the third movement candidates are determined to be acceptable to the second data center, and the third movement is performed. Moving the candidate first and second components from the first data center to the second data center;
After moving some of the plurality of components of the application system of the first data center to the second data center, between the first data center and the second data center Detecting a change in communication line status as communication line information between the data centers,
With respect to said data center communication line information after the change, in the application system, are set between the plurality of components that the plurality of components in said first data center to the second data center And evaluate whether the degree of coupling can be maintained,
Whether it is possible to move the first and second components of the application system in the second data center to the first data center when it is determined that the degree of coupling cannot be maintained. , determined using the resource condition and the coupling degree of the plurality of components included in the application system at the first data center,
When it is determined that it is difficult to move to the first data center, a said first data center and other data centers other than the second data center, said first and is the determination select data center is a line situation capable of maintaining cohesion on two components, request the implementation of acceptance determination of the first and second components are the said to the data center the third migration candidate To
Data center system.
互いに通信可能に接続されている複数の構成要素を有し、外部装置に接続されて当該外部装置にデータ処理サービスを提供するアプリケーションシステムが構築されている第一のデータセンタと、前記第一のデータセンタと同等の構成を有する第二のデータセンタとを備えているデータセンタシステムで各前記データセンタにおいて各前記構成要素と通信可能に接続されて前記アプリケーションシステムを管理する管理装置であって、
前記管理装置が、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の中から、前記第二のデータセンタに移動する候補としての第一の移動候補となる第一の構成要素を選択するステップと、
前記アプリケーションシステムに含まれる前記複数の構成要素間の通信に関する必要条件を示す指標である結合度を、前記複数の構成要素の各々について設定するステップと、
前記アプリケーションシステムの前記構成要素と、当該複数の構成要素を移動することができる範囲との対応付けをそれぞれ示す重み情報を前記第一のデータセンタ及び前記第二のデータセンタについて設定し、
前記アプリケーションシステムの前記複数の構成要素のうち、当該アプリケーションシステム内で行われる通信についてのサービスを提供する通信サービス装置が有するべきサービス内容に関する要件を示すサービス要件情報を、前記通信サービス装置に関して設定し、
前記第一の移動候補である前記第一の構成要素について設定されている前記結合度と、前記第一のデータセンタと前記第二のデータセンタとの間の通信回線の通信状況に関する情報であるデータセンタ間通信回線情報とを比較評価し、
前記比較評価の結果、前記結合度が前記データセンタ間通信回線情報より優れていると判定された場合に、前記第一の構成要素と共に前記第二のデータセンタに移動する必要のある前記構成要素である第二の構成要素を決定し、第二の移動候補として選定し
前記第一及び第二の移動候補とされた前記第一及び第二の構成要素について、前記第一のデータセンタについて設定されている重み情報を基に、前記第二のデータセンタへ移動することができる前記第一及び第二の構成要素を第三の移動候補として決定し、
前記第三の移動候補に含まれる一つ以上の前記構成要素間の結合度と、前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報とを比較評価し、
前記比較評価の結果、前記第二のデータセンタ内の前記構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れているかどうかを評価し、
前記第三の移動候補とされている前記第一及び第二の構成要素が、前記第二のデータセンタにおいて前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能かどうか評価し、
前記第二のデータセンタ内にある各前記複数の構成要素間の通信回線の通信状況に関する情報である構成要素間通信回線情報が前記第三の移動候補について設定されている前記結合度より優れており、且つ、前記第三の移動候補である前記第一及び第二の構成要素が前記第一のデータセンタで受けていたサービス内容と同等の内容を有する前記サービス要件情報を持つ前記通信サービス装置を利用可能であると判断された場合に、前記第三の移動候補である前記第一及び第二の構成要素を前記第二のデータセンタに受け入れ可能であると判断し、前記第三の移動候補である前記第一及び第二の構成要素を前記第一のデータセンタから前記第二のデータセンタに移動させるべく指示し、
前記第一のデータセンタの前記アプリケーションシステムが有する前記複数の構成要素の一部を前記第二のデータセンタに移動した後に、前記第一のデータセンタと前記第二のデータセンタとの間での通信回線状況の変化を前記データセンタ間通信回線情報として検出し
変化後の前記データセンタ間通信回線情報に関して、前記アプリケーションシステムにおいて、前記第一のデータセンタにある前記複数の構成要素と前記第二のデータセンタにある前記構成要素との間に設定されている前記結合度を維持できるかどうかを評価し
前記結合度を維持できないと判定した場合に、前記第二のデータセンタにある前記アプリケーションシステムの前記第一及び第二の構成要素を、前記第一のデータセンタに移動することができるかどうかを、前記第一のデータセンタにおいて前記アプリケーションシステムに含まれる前記複数の構成要素についてのリソース条件及び前記結合度を用いて判定し
前記第一のデータセンタに移動することができないと判定した場合に、前記第一のデータセンタ及び前記第二のデータセンタ以外の他のデータセンタであって、当該判定された前記第一及び第二の構成要素に関する結合度を維持可能な回線状況であるデータセンタを選択し、当該データセンタに前記第三の移動候補である前記第一及び第二の構成要素の受け入れ可否判定の実施を依頼する、
データセンタシステムの管理装置。
A first data center having a plurality of components connected so as to be communicable with each other, an application system connected to an external device and providing a data processing service to the external device; and the first data center A data center system comprising a second data center having a configuration equivalent to the data center, and a management device for managing the application system connected to each component in the data center in a communicable manner,
The management device is
From among the plurality of components by the application system has the first data center, comprising: selecting a first component comprising a first migration candidate as a candidate to be moved to the second data center ,
Setting a degree of coupling for each of the plurality of components , which is an index indicating a necessary condition regarding communication between the plurality of components included in the application system;
And said component of said application system, the settings for the first data center and the second data center the weight information indicating correspondence to each of the range that can move the plurality of components,
Of the plurality of components of the application system, service requirement information indicating requirements regarding service contents to be provided by a communication service device that provides a service for communication performed in the application system is set for the communication service device. ,
Information on the degree of coupling set for the first component that is the first movement candidate and the communication status of the communication line between the first data center and the second data center Compare and evaluate communication line information between data centers,
As a result of the comparative evaluation, when it is determined that the degree of coupling is superior to the communication line information between the data centers, the component that needs to move to the second data center together with the first component determining a second component is, then selected as the second movement candidates,
The first and second components that are the first and second movement candidates are moved to the second data center based on the weight information set for the first data center. determining the first and second components can as a third movement candidates,
Wherein the coupling degree between one or more of the components included in the third migration candidate components is information related to a communication environment of the communication line between each of said plurality of components in said second data center Compare and evaluate communication line information between
As a result of the comparative evaluation, evaluate whether the inter-component communication line information in the second data center is superior to the coupling degree set for the third movement candidate,
The service requirement information in which the first and second components that are the third movement candidates have contents equivalent to the service contents received at the first data center in the second data center. Evaluating whether the communication service device having
The inter-component communication line information, which is information relating to the communication status of the communication lines between the plurality of components in the second data center , is superior to the coupling degree set for the third movement candidate. And the communication service apparatus having the service requirement information having contents equivalent to the service contents received by the first data center in the first and second constituent elements that are the third movement candidates. Is determined to be usable, the first and second components that are the third movement candidates are determined to be acceptable to the second data center, and the third movement is performed. Directing the candidate first and second components to move from the first data center to the second data center;
After moving some of the plurality of components of the application system of the first data center to the second data center, between the first data center and the second data center Detecting a change in communication line status as communication line information between the data centers,
Regarding the communication line information between the data centers after the change, in the application system, it is set between the plurality of components in the first data center and the components in the second data center. Evaluate whether the degree of binding can be maintained,
Whether it is possible to move the first and second components of the application system in the second data center to the first data center when it is determined that the degree of coupling cannot be maintained. , determined using the resource condition and the coupling degree of the plurality of components included in the application system in the first data center,
When it is determined that it is difficult to move to the first data center, a said first data center and other data centers other than the second data center, said first and is the determination select data center is a line situation capable of maintaining cohesion on two components, request the implementation of acceptance determination of the first and second components are the said to the data center the third migration candidate To
Data center system management device.
JP2011083781A 2011-04-05 2011-04-05 Data center system management method, data center system, and management apparatus Active JP5675471B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011083781A JP5675471B2 (en) 2011-04-05 2011-04-05 Data center system management method, data center system, and management apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011083781A JP5675471B2 (en) 2011-04-05 2011-04-05 Data center system management method, data center system, and management apparatus

Publications (2)

Publication Number Publication Date
JP2012221049A JP2012221049A (en) 2012-11-12
JP5675471B2 true JP5675471B2 (en) 2015-02-25

Family

ID=47272541

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011083781A Active JP5675471B2 (en) 2011-04-05 2011-04-05 Data center system management method, data center system, and management apparatus

Country Status (1)

Country Link
JP (1) JP5675471B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2975518A4 (en) 2013-03-15 2016-11-02 Nec Corp Information processing system and method for relocating application
JP5911448B2 (en) * 2013-05-10 2016-04-27 株式会社日立製作所 Migration support apparatus, migration support method, and program
JP6173909B2 (en) * 2013-12-27 2017-08-02 株式会社日立製作所 System configuration plan generation method and design support apparatus
JP6237318B2 (en) 2014-02-19 2017-11-29 富士通株式会社 Management device, workload distribution management method, and workload distribution management program
JP2016103731A (en) * 2014-11-28 2016-06-02 株式会社日立製作所 Computer system, gateway, and transfer control method
JP6959519B2 (en) 2017-11-06 2021-11-02 富士通株式会社 Processing distribution program, processing distribution device and processing distribution method
JP7469655B2 (en) 2020-07-14 2024-04-17 富士通株式会社 CONTAINER PLACEMENT DESTINATION DECISION PROGRAM AND CONTAINER PLACEMENT DESTINATION DECISION METHOD

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002268964A (en) * 2001-03-07 2002-09-20 Kddi Corp Load distribution control system in network management
JP5110315B2 (en) * 2006-05-24 2012-12-26 日本電気株式会社 Virtual machine management apparatus, virtual machine management method and program
JP2008299791A (en) * 2007-06-04 2008-12-11 Hitachi Ltd Virtual computer system
JP2010140134A (en) * 2008-12-10 2010-06-24 Hitachi Ltd Virtual machine management method, program, and management server
JP2011180889A (en) * 2010-03-02 2011-09-15 Nec Corp Network resource management system, device, method and program
JP2011186821A (en) * 2010-03-09 2011-09-22 Nec Corp Virtual-environment management system, device, method, and program

Also Published As

Publication number Publication date
JP2012221049A (en) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5675471B2 (en) Data center system management method, data center system, and management apparatus
US10798016B2 (en) Policy-based scaling of network resources
US12118403B2 (en) System and method for cross region resource management for regional infrastructure resources in a cloud infrastructure environment
US8359440B2 (en) Management server device for managing virtual storage device, and method for managing virtual storage device
CN105379185B (en) For creating and managing the method and system of network group
US8825858B1 (en) Virtual server resource monitoring and management
US20150156131A1 (en) Method and system of geographic migration of workloads between private and public clouds
US10326832B2 (en) Combining application and data tiers on different platforms to create workload distribution recommendations
US9354914B2 (en) Storage system
US20130326515A1 (en) Device, recording medium, and method
US9893959B1 (en) Resource modeling language to specify and control the placement of resources in a cloud environment
CN103827825A (en) Virtual resource object component
JP5596716B2 (en) Resource management apparatus, resource management system, resource management method, and resource management program
US9848060B2 (en) Combining disparate applications into a single workload group
US9519441B1 (en) Automated storage provisioning and management using a centralized database
US20220232073A1 (en) Multichannel virtual internet protocol address affinity
JP2015115043A (en) Management device, management method, and management program
US11886927B2 (en) ICT resource management device, ICT resource management method and ICT resource management program
WO2016121879A1 (en) Virtualization control apparatus, arrangement destination selecting method and program
JP6355133B2 (en) Virtualization infrastructure selection apparatus, method and program thereof
JP2015103094A (en) Virtual resource management device, selection method and selection program
AU2019393045B2 (en) ICT resource management device, ICT resource management method and ICT resource management program
CN112199188A (en) Non-transitory computer-readable recording medium, method and apparatus for information processing
JP2014126940A (en) Cloud configuration management support system, cloud configuration management support method and cloud configuration management support program
Salapura et al. Enabling enterprise-level workloads in the enterprise-class cloud

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141202

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141224

R150 Certificate of patent or registration of utility model

Ref document number: 5675471

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150