JP6548540B2 - 管理システムおよび管理システムの制御方法 - Google Patents

管理システムおよび管理システムの制御方法 Download PDF

Info

Publication number
JP6548540B2
JP6548540B2 JP2015187460A JP2015187460A JP6548540B2 JP 6548540 B2 JP6548540 B2 JP 6548540B2 JP 2015187460 A JP2015187460 A JP 2015187460A JP 2015187460 A JP2015187460 A JP 2015187460A JP 6548540 B2 JP6548540 B2 JP 6548540B2
Authority
JP
Japan
Prior art keywords
processing system
adjustment
amount
processing
virtual machines
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015187460A
Other languages
English (en)
Other versions
JP2016115333A (ja
Inventor
加藤 数則
数則 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to DE102015015196.7A priority Critical patent/DE102015015196A1/de
Priority to KR1020150173725A priority patent/KR101959601B1/ko
Priority to CN201510907666.XA priority patent/CN105700908B/zh
Priority to US14/966,792 priority patent/US10013271B2/en
Publication of JP2016115333A publication Critical patent/JP2016115333A/ja
Application granted granted Critical
Publication of JP6548540B2 publication Critical patent/JP6548540B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/60Software deployment
    • G06F8/65Updates
    • G06F8/656Updates while running
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5061Partitioning or combining of resources
    • G06F9/5077Logical partitioning of resources; Management or configuration of virtualized resources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2209/00Indexing scheme relating to G06F9/00
    • G06F2209/50Indexing scheme relating to G06F9/50
    • G06F2209/5022Workload threshold

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Debugging And Monitoring (AREA)
  • Business, Economics & Management (AREA)
  • Computer And Data Communications (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Health & Medical Sciences (AREA)

Description

本発明は、処理システムの切り替え時における、処理システムを構成するリソースのリソース量調整技術に関する。
近年、インターネット上にあるサーバーで動作する各種アプリケーションを利用することができるサービスとして、クラウドサービスがある。IaaSやPaaSなどのクラウドサービスでは、クラウドサービスベンダーが、ネットワークを介して、仮想マシンやストレージなどのリソースをシステム管理者に提供する。仮想マシンとは、仮想化技術によって、サーバーを物理的な構成にとらわれずに論理的な単位で分割し、それぞれが独立したオペレーティングシステムをもって動作する論理的なコンピュータである。システム管理者は、クラウドサービスベンダーによって提供される仮想マシンやストレージなどのリソースを用いて、独自のサービスを提供するためのシステムを構築することができる。
クラウドサービスを用いて構築されるシステムは、システム管理者の任意の設定に従い、受け付けるリクエストの量やそれらの処理のための負荷に応じて、自動的にリソース量を調整することができる。例えば、特許文献1には、プログラムの実行に必要なリソースを自動的に割り当て、プログラムの実行を開始した後に、割り当てられた資源を変更するというオートスケール機能が記載されている。
このようなリソース量の調整処理は、クラウドサービスで用意されているリソースマネージャによって実行される。リクエストの量とは、単位時間当たりにロードバランサーが受け付けるリクエストの数であり、処理のための負荷とは、仮想マシンでの処理にかかる負荷であり、仮想マシンのCPU使用率やメモリ使用率、レスポンスの応答時間などを指す。リソース量の調整には、仮想マシンの台数を増やすスケールアウトと、仮想マシンに対するハードウェア資源の割り当てを増やすスケールアップなどが含まれる。さらに、リソース量の調整には、仮想マシンの台数を減らすスケールインと、仮想マシンに対するハードウェア資源の割り当てを減らすスケールダウンも含まれる。ハードウェア資源は、CPUやメモリ、ストレージなどである。また、ロードバランサーも、受け付けるリクエストの量に基づき、自動的にスケールアウトなどすることができる。
また、近年、上述したクラウドサービスを用いて構築されるシステムをバージョンアップする際などに、Blue−Greenデプロイメントと呼ばれる技術が利用されることがある。ここで、システムのバージョンアップとは、例えば、システム内の仮想マシンで実行されるアプリケーションのバージョンアップが含まれる。バージョンアップ後のシステムは、提供できる機能が追加されたり、管理するデータの種類や形式が変更されたりする。
ここで、Blue−Greenデプロイメントについて説明する。
まず、クラウドサービス上では、外部ネットワークからのリクエストを受付けて処理を行っている本番環境としての処理システムが動作している。処理システムは、少なくとも、リクエストを処理する1以上の仮想マシンと、それらにリクエストを分散させる負荷分散装置として機能するロードバランサーとで構成される。そして、該処理システムをバージョンアップさせたい場合には、現行のバージョンの該処理システムとは異なるバージョンアップ後の処理システムをクラウドサービス上に更に構築する。その後、バージョンアップさせたいタイミングになったら、クラウドサービス上で外部ネットワークからのリクエストの送信対象を示す接続先の設定の変更などを行い、本番環境となる処理システムを切り替える。ここでは、本番環境がバージョンアップ後の処理システムに切り替えられる。この切り替えによって、システムのバージョンアップが実現される。
ここで、前述した現行のバージョンのシステムが動作する処理システム、つまり切り替え前の処理システムは、Blue環境と呼ばれる。一方で、前述したバージョンアップ後のシステムが構築された処理システム、つまり切り替え後の処理システムは、Green環境と呼ばれる。以降、Blue環境を第1の処理システムと、Green環境を第2の処理システムと呼ぶ場合もある。
なお、Blue−Greenデプロイメントによる処理システムの切り替えは、上述したシステムのバージョンアップ以外にも利用され得る。例えば、障害やバグが発生した処理システム(ここでは、第1の処理システム)から正常な別の処理システム(ここでは、第2の処理システム)にリクエストを処理する環境を切り替える場合などである。
特表2013−543171号公報
ここで、前述したようなシステムは、例えば、一日に数回のバージョンアップを予定していることがある。このようなシステムの場合、次のバージョンアップ時期が近いため、リクエストの量の推移などを考慮しつつ、前述した処理システムの切り替えを行うことは難しい。
また、システム運用上、新しいバージョンのシステムのリリース日程を大きく後ろにずらすことができない場合もある。したがって、外部ネットワークから大量のリクエストを受け付けており、第1の処理システムにかかる処理の負荷が大きい時であっても、バージョンアップなどのために、それらのリクエストの処理システムの切り替え処理を実行しなければならない場合がある。
第1の処理システムにかかるリクエストに係る処理の負荷が大きい時には、前述したリソースマネージャが、該第1の処理システム内でリクエストを処理するロードバランサーなどに対して大量のリソースが提供されるように調整処理を行っている。一方、バージョンアップのための切り替えを見越して事前に用意された第2の処理システムでは、まだ外部ネットワークからのリクエストを受け付けて処理していないため、リソースマネージャによるリソースの調整処理が行われていない。
また、システム管理者がシステムの維持コストの節約を考慮する場合には、事前に用意する第2の処理システムは比較的少ないリソース量で構成されていることがある。このような状況下で前述した切り替え処理を行うと、第2の処理システムは一気に大量のリクエストを受け付けることになる。すると、リソースマネージャによるリソースの調整処理が間に合わない場合には第2の処理システムでのリクエストの処理が滞ることが考えられる。
本発明は、上述した第1の処理システムから第2の処理システムへの切り替え処理の際に、第2の処理システムでのリクエストの処理が滞らないようにすることを目的とする。
上記課題を解決するために、本発明の管理システムは、リクエストを処理する1以上の仮想マシンと、該仮想マシンにリクエストを分散させる負荷分散装置とを少なくとも備える処理システムを複数有する管理システムであって、所定のネットワークシステムからのリクエストを処理する処理システムを、前記複数の処理システムに含まれる第1の処理システムから第2の処理システムへ切り替えるための指示に応じて、該第1の処理システムを実現するために使用されているリソースの量の調整に関する情報を取得する取得手段と、前記取得手段が取得した情報に基づく前記第2の処理システムのリソースの量の調整指示として、前記第2の処理システムの仮想マシンの台数を増やすための指示を行う調整指示手段と、を有し、前記調整指示手段による前記調整指示に応じて、所定のネットワークシステムからのリクエストを処理する処理システムが、前記第1の処理システムから前記第2の処理システムへ切り替わることを特徴とする。
本発明によれば、上述した第1の処理システムから第2の処理システムへの切り替え処理の際に、第2の処理システムでのリクエストの処理が滞らないようにすることができる。
本発明の実施形態に係るシステム構成の概略を示す図である。 情報処理装置のハードウェアの構成例を示す図である。 管理システム100の構成例を示す図である。 リソースマネージャ303の構成例を示す図である。 リソース情報管理テーブルを示す図である。 監視状態管理テーブルを示す図である。 オートスケール状態管理テーブルを示す図である。 スタック情報管理テーブルを示す図である。 スタックテンプレートの一例を示す図である。 スタックテンプレートの一例を示す図である。 スタックテンプレートの一例を示す図である。 本番環境の切り替え処理の流れを示すフローチャートである。 Green環境のリソース量調整処理の流れを示すフローチャートである。 スタックテンプレートの一例を示す図である。 移行方法テーブルを示す図である。
以下、本発明を実施するための最良の形態について図面を用いて説明する。
本発明では、クラウドサービスを用いて構築されるネットワークシステムとして、複数の顧客や各顧客が保有するネットワークデバイスを、ネットワークを介して遠隔地から管理する管理システムを例に挙げて説明する。管理システムでは、顧客ごとの顧客ネットワーク環境に存在するネットワークデバイスから機器情報や、ログ情報や障害情報などの稼働情報を収集して、分析することにより様々なデバイス管理サービスを提供する。具体的には、管理システムは、ネットワークデバイスの稼働状況のレポーティングサービスや、故障したネットワークデバイスの保守に必要なサービスを提供している。管理システムは、サービスを提供するために、例えば、管理対象となるネットワークデバイスの新規登録や、レポート作成、ネットワークデバイスのログ情報の登録などのリクエストを、ネットワークなどを介して受け付けるように構成されている。
また、顧客のデバイス等の管理を顧客から業務委託される顧客管理者がいる場合もある。この場合、顧客管理者は、管理システムを利用して、顧客それぞれが保有するデバイスを管理し、その顧客に対して様々なサービスを提供する。管理システムの利用者には、顧客管理者と顧客とを含む。
(実施例1)
図1は、システム全体の構成の概略を示す図である。ネットワークデバイスや顧客情報を管理する管理システム100と、ネットワークデバイスが設置されている複数の顧客環境130とがインターネットを介して接続されている。また、管理システム100を管理するためのシステム管理者用のコンピュータ110や、ネットワークデバイスの販売会社の担当者(顧客管理者)用のコンピュータ120が、同様に管理システム100とネットワークを介して接続されている。
管理システム100は、IaaSやPaaSなどのクラウドサービスによって提供されるプラットフォームやリソースを利用して構築される、ネットワークデバイスやそれらを保有する顧客を管理するためのサービスを提供するシステムである。クラウドサービスは、リソースとして、例えばインターネット上のデータセンターに存在するサーバーコンピュータ上で動作する複数の仮想マシンやストレージなどを提供する。仮想マシンとは、仮想化技術によって、サーバーを物理的な構成にとらわれずに論理的な単位で分割し、それぞれが独立したオペレーティングシステムをもって動作する論理的なコンピュータである。複数の仮想マシン上で様々なアプリケーションプログラムを実行することで、管理システム100としての様々な管理サービスが実現される。サービス内容としては、具体的には、顧客環境130に設置されたネットワークデバイスの機器情報を収集した場合に、当該顧客の情報と関連付けて管理するサービスがある。ほかに、顧客環境130に設置されたネットワークデバイスのログ情報や障害情報などの稼働情報を収集して、分析することで、顧客や販売会社の担当者のためにレポーティングを行うといったサービスがある。ほかにも、故障したネットワークデバイスの保守に必要な情報を販売会社の担当者のために電子メールなどで通知するといったサービスもある。なお、ネットワークデバイスには、プリンターやネットワークカメラなどの画像処理装置などが含まれる。プリンターには、トナーなどを利用した電子写真方式のものや、インクを利用して印刷を行うインクジェット方式のものが存在する。管理システム100は、それぞれの方式によって特有な稼働情報(例えば、トナー使用量やインク使用量)を収集して、異なる管理サービスを提供することも可能である。
コンピュータ110は、システム管理者が利用するコンピュータであり、管理システム100が提供する管理者用の管理画面を、インストールされているウェブブラウザなどを用いて表示できる。システム管理者はコンピュータ110に表示される管理画面を介して、管理システム100に対する各種設定などを行うためのリクエストの送信を指示できる。例えば、システム管理者は、前述したBlue−GreenデプロイメントのためのGreen環境の生成のためのリクエストや、Blue環境からGreen環境へリクエスト処理システムを切り替えるためのリクエストの送信を指示できる。処理システムは、少なくとも、リクエストを処理する1以上の仮想マシンと、それらにリクエストを分散させる負荷分散装置として機能するロードバランサーとを備える。
コンピュータ120は、ネットワークデバイスの販売会社の担当者が利用するコンピュータであり、管理システム100が提供する担当者用の画面を、ウェブブラウザなどを用いて表示できる。管理システム100が提供する担当者用の画面には、顧客環境130に設置されたネットワークデバイスのログ情報や障害情報などの稼働情報を確認できる画面などがある。他にも、担当者用の画面としては、顧客環境130に設置されたネットワークデバイスの監視設定を行うための画面も表示できる。
顧客環境130は、管理システム100が管理する顧客ごとにネットワーク上に存在するネットワーク環境を示す。顧客環境130には、顧客が保有する1以上のネットワークデバイスと、ネットワークデバイスと管理システム100との通信を中継する中継装置がLAN(Local Area Network)により接続されている。中継装置は、ネットワーク上のネットワークデバイスを探索して、発見した場合に管理システム100に該ネットワークデバイスの機器情報を通知するためのリクエストを生成して送信するための機能をもつ。また、前記中継装置は、ネットワークデバイスから収集した稼働情報を、管理システム100に通知するためのリクエストを生成して送信するための機能をもつ。なお、コンピュータ120や顧客環境130は、それぞれ複数存在してもよい。
図2は、情報処理装置のハードウェアの構成例を示す図である。本実施例における情報処理装置としては、管理システム100を実現するためのデータセンター上に存在するサーバーコンピュータ、コンピュータ110、コンピュータ120、顧客環境130内に存在する中継装置としてのコンピュータなどがある。
情報処理装置は、ROM253に格納されているプログラムを実行するCPU251を備え、内部バス256を介して各デバイスを総括的に制御する。内部バス256には、RAM252、ROM253、記憶装置254、ネットワークI/F255、入出力I/F257が接続されている。また入出力I/F257は、例えばP/S2やUniversal Serial Bus(USB I/F)、アナログやデジタルのディスプレイI/Fを備える。入出力I/F257により、情報処理装置に対して、不図示のキーボードやマウス、CRTや液晶ディスプレイなどを接続することができる。情報処理装置はネットワークI/F255によりLAN、イントラネット環境、インターネットを介した通信を行う。それにより、情報処理装置は、ネットワークデバイスや、他の情報処理装置と通信を行うことができる。CPU251は、RAM252やROM253と共にプログラムの実行処理を行う。さらに、CPU251は、仮想化技術を実現するためのプログラムを実行することも可能である。また、CPU251は、記憶装置254等の記録媒体にデータを記録する処理を行う。記憶装置254は外部記憶装置として機能し、様々な情報を記憶するほか、RAM252に代わって、各種システム情報及び処理情報を保存することも可能である。
図3は、管理システム100の構成例を示す図である。管理システム100は、コンピュータ110を操作するシステム管理者によって構築、管理され、顧客管理者が操作するコンピュータ120、顧客環境130内のネットワークデバイスおよび中継装置から送られるリクエストを処理してサービスを提供する。
図3(A)は、Green環境350が生成される前の管理システム100を表す図である。図3(A)において、管理システム100は、システムマネージャ300と、DNS301と、データベース302と、リソースマネージャ303と、Blue環境330とで構成される。一方、図3(B)は、Green環境350が生成された後の管理システム100を示す図である。図3(B)の管理システム100の構成は、図3(A)の管理システム100の構成に、Green環境350が追加される。Green環境350は、動作確認やテストが行われた後に、Blue環境330と代わって本番環境となる。本番環境の切り替え処理について、図10を用いて後述する。
DNS301には、それぞれの仮想マシンやロードバランサーのIPアドレスなどのアドレス情報とホスト名が登録されている。システム管理者用のコンピュータ110や顧客管理者用のコンピュータ120、顧客環境130内のコンピュータやネットワークデバイスは、インターネットなどのネットワークを経由して、DNS301と通信を行う。前記コンピュータやネットワークデバイスは、DNS301に、リクエストの接続先となる処理システム内のロードバランサーのホスト名に該当するアドレス情報を問合せて、DNS301から返ってきたアドレス情報にリクエストを送る。受け付けたリクエストに対して、DNS301は、DNS名に紐づくDNSレコードを使って、リクエストの接続先となる処理システム内のロードバランサーを示すホスト名またはアドレス情報を返す。管理システム100を構成する仮想マシンは、それぞれ、固有のIPアドレスなどのアドレス情報を持つ。したがって、ロードバランサーを構成する仮想マシンのアドレス情報によって、該ロードバランサーのアドレス情報は特定され得る。
データベース302には、本管理システムを実現するためのプログラムや、サービスを提供するための各種データ、後述する図5〜8、13の各テーブルなどが格納されている。
システムマネージャ300は、管理システム100内の処理システムの設定に関するリクエストなどをシステム管理者用のコンピュータ110から受け付ける。システムマネージャ300は、システム管理者からのリクエストに基づいて、リソースマネージャ303への指示を行う。例えば、システムマネージャ300は、処理システムを構成するリソースと当該リソースを用いた処理システムの生成を指示したり、リソース量を調整するための調整指示をしたりする。
リソースマネージャ303は、システムマネージャ300の指示に基づいて、処理システムを構成するリソースを生成または削除したり、管理システム100内のリソース量の調整処理を実行したりする。リソース量の調整には、仮想マシンの台数を増やすスケールアウトと、仮想マシンに対するハードウェア資源の割り当てを増やすスケールアップなどが含まれる。さらに、リソース量の調整には、仮想マシンの台数を減らすスケールインと、仮想マシンに対するハードウェア資源の割り当てを減らすスケールダウンも含まれる。ハードウェア資源は、CPU(コア数)やメモリ(サイズ)、ストレージ(サイズ)などである。
リソースマネージャ303は、Blue環境330に対するリクエストの量を監視して、自動でリソース量を調整することもできる。リクエストの量とは、単位時間当たりにBlue環境330内のロードバランサー331が受け付けるリクエストの数である。また、リソースマネージャ303は、Blue環境330にかかる処理負荷を監視して、自動でリソース量を調整するようにしてもよい。処理負荷とは、仮想マシンでの処理にかかる負荷であり、仮想マシンのCPU使用率やメモリ使用率、レスポンスの応答時間などを指す。監視されるリクエスト量や処理負荷が予め設定された条件に合致した場合にリソースマネージャ303により実行されるリソース量の調整のことを、オートスケールという。
また、リソースマネージャ303は、システムマネージャ300の指示に従って、DNS301に登録されているDNSレコードを書き換えるなどして、本番環境を切り替える。本番環境を切り替える方法については、図4における切り替え部405の説明部分で詳細に述べる。
Blue環境330は、現行バージョンのアプリケーションが動作する処理システムであり、ロードバランサー331と、仮想マシン332および334と、キュー333とを有する。Green環境350で動作するアプリケーションは、Blue環境330で動作するアプリケーションと比較して少なくとも一つの機能が追加または拡張されバージョンアップされている。Green環境350は、ロードバランサー351と、仮想マシン352および354と、キュー353とを含む処理システムである。なお、ロードバランサー331、351、仮想マシン332、334、352、354などは、それぞれの環境において、複数あっても良い。
Blue環境330において、ロードバランサー331は、受け付けたリクエストを仮想マシン332に分散させる負荷分散装置である。仮想マシン332は、Blue環境330におけるリクエスト処理システムであって、リクエストを受け付けて処理するWebサーバーなどである。キュー333は、仮想マシン332により処理されたリクエストに対応するメッセージを管理するためのキューである。仮想マシン334は、Blue環境330におけるバッチ処理システムであって、キュー333内のメッセージキューを処理(バッチ処理)するバッチサーバーなどである。仮想マシン332におけるリクエスト処理と、仮想マシン334におけるバッチ処理とは、非同期に実行される。
Green環境350において、ロードバランサー351は、受け付けたリクエストを仮想マシン352に分散させる負荷分散装置である。仮想マシン352は、Green環境350におけるリクエスト処理システムであって、リクエストを受け付けて処理するWebサーバーなどである。キュー353は、仮想マシン352により処理されたリクエストに対応するメッセージを管理するためのキューである。仮想マシン354は、Green環境350におけるバッチ処理システムであって、キュー353内のメッセージキューを処理(バッチ処理)するバッチサーバーなどである。仮想マシン352におけるリクエスト処理と、仮想マシン354におけるバッチ処理とは、非同期に実行される。
なお、管理システム100は、Green環境350を複数有することも可能である。本番環境を切り換える際には、複数用意されているGreen環境のうちの一つを選択するといったことも可能である。
図4は、本発明の実施形態に係るリソースマネージャ303の構成例を示す図である。リソースマネージャ303は、リソース生成部401と、リソース監視部402と、オートスケール管理部403と、スタック受け付け部404と、切り替え部405とを有する。
リソース生成部401は、管理システム100のリソースに対するシステム管理者からの要求を受信し、要求に基づいて仮想マシンやサーバーコンポーネントを生成する。システム管理者は、仮想マシン332、334、352および354を生成し利用可能にするようリソース生成部401に要求できる。リソース生成部401は、システム管理者からの要求を様々な方法で受信する。例えば、リソース生成部401は、管理システム100が提供するGUIやAPIなどを用いてシステム管理者からの要求を受信するようにしてもよい。システム管理者からの要求は、仮想マシン332、334、352および354の数やタイプなどを含む。
仮想マシン332、334、352および354は、システム管理者が選択可能なOS、アプリケーションサーバー、およびシステムやアプリケーション構成などを含むことができる。サーバーコンポーネントは、ロードバランサー331および351や、キュー333および353などを含むが、それらに限定されない。管理システム100が、システム管理者の要求を満たす仮想マシン332、334、352および354を生成した後、システム管理者は、仮想マシン332、334、352および354の設定を変更することができる。例えば、システム管理者は、仮想マシン332、334、352および354に関連する記憶装置またはネットワーク帯域幅の量もしくはタイプを変更することができる。
リソース監視部402は、仮想マシン332、334、352および354やサーバーコンポーネントの状態や性能などをモニタリングする。例えば、リソース監視部402は、ロードバランサーにおいては単位時間あたりのリクエスト数を、仮想マシンにおいてはCPU使用率やメモリ使用率などを、キューにおける未処理メッセージ数などを、監視項目としてモニタリングする。リソース監視部402は、Blue環境330やGreen環境350に接続し、前記監視項目の情報を取得する。その際、リソース監視部402は、管理システム100内のネットワーク(不図示)を経由して、Blue環境330やGreen環境350に接続する。
モニタリングの結果、システム管理者によって予め定められた条件(後述の図9Bで示すスタックテンプレート内の定義)に合致する場合に、リソース監視部402はAlarmイベントを発信する。オートスケール管理部403は、Alarmイベントを受信し、そのAlarmイベントに応じて仮想マシンやサーバーコンポーネントなどを生成する。
オートスケール管理部403は、仮想マシン332、334、352および354やサーバーコンポーネントのオートスケールを管理する。オートスケール管理部403は、オートスケールの対象となる仮想マシン332、334、352および354やサーバーコンポーネントをグループ単位で管理する。このグループをオートスケールグループと呼ぶこととする。例えば、オートスケール管理部403は、複数台存在する仮想マシン332を1つのオートスケールグループとして管理する。
オートスケール管理部403は、オートスケールグループに属する仮想マシン332、334、352および354をロードバランサー331および351に接続し、オートスケールグループは、ロードバランサー331および351に関連付けられる。ロードバランサー331および351は、外部からのリクエストを仮想マシンに分散して送信し、仮想マシン332および352は受信したリクエストを処理する。
オートスケール管理部403は、オートスケールグループに属し稼働している仮想マシンやサーバーコンポーネントの台数が、必要台数として設定された台数になるようにコントロールする。必要台数はシステム管理者からの要求によって決まる。なお、必要台数は予めクラウドサービス提供者によって設定されても良い。
オートスケール管理部403は、稼働台数が必要台数より少なければ、リソース生成部401に仮想マシンなどの生成を要求し、生成された仮想マシンなどを該当するオートスケールグループに追加する。オートスケールグループがロードバランサー331または351に関連付けられている場合には、オートスケール管理部403は、追加された仮想マシンを該当するロードバランサー331または351に接続する。
一方、稼働台数が必要台数より多ければ、オートスケール管理部403は、仮想マシンをオートスケールグループから削除し、リソース生成部401に仮想マシンを停止するよう要求する。オートスケールグループがロードバランサー331または351に関連付けられている場合には、オートスケール管理部403は、削除しようとする仮想マシンと該当するロードバランサー331または351との接続を解除するよう要求する。ロードバランサー331または351は、削除しようとする仮想マシンへリクエストを送信するのを止め、処理中のリクエストがなくなった後にロードバランサー331または351との接続を解除する。オートスケール管理部403は、仮想マシン332および352がロードバランサー331または351との接続が解除された後に、リソース生成部401に仮想マシンを停止するよう要求する。
また、リソース監視部402がAlarmイベントを発信するときに、オートスケールグループの必要台数を設定する処理のことをオートスケールポリシーと呼ぶこととする。システム管理者は、例えば、必要台数を1台増やす、1台減らす、または、必要台数を20に設定するなどの指定し、リソース監視部402は、システム管理者の要求に応じてリソース量の調整を行う。また、オートスケール管理部403は、オートスケール状態の情報を管理する。オートスケール状態の情報は、仮想マシンの台数およびスペックや、最後に実行されたオートスケールの操作などを含む。
スタック受け付け部404は、コンピュータ110でAPIなどを用いて、仮想マシンやサーバーコンポーネントなどの生成または削除の要求をシステム管理者から受け付ける。その際、スタック受け付け部404は、スタックテンプレートを受信し、スタックテンプレートに記載された仮想マシンやサーバーコンポーネントの生成をリソース生成部401に要求する。スタックテンプレートは、仮想マシンやサーバーコンポーネントの生成についてシステム管理者からの要求を記載したテンプレートである。スタックテンプレートについて、図9を用いて後述する。スタックとは、同一のスタックテンプレートで生成される仮想マシンやサーバーコンポーネントの集合を指す。ここでは、Blue環境の仮想マシンやサーバーコンポーネントの生成と、Green環境の仮想マシンやサーバーコンポーネントの生成とが、それぞれ一つのスタックテンプレートに記載される。
スタック受け付け部404は、上述したようなスタックテンプレートを受信し、リソース生成部401に対して仮想マシンやサーバーコンポーネントを生成するよう要求する。また、スタック受け付け部404は、リソース監視部402に監視条件を追加し、オートスケール管理部403にオートスケールに関する情報を登録する。ここでの処理により、図3(B)に示すGreen環境350が生成されることになる。
切り替え部405は、システム管理者からの環境を切り替える指示があった場合に、Blue環境とGreen環境のスタックID801の指定を受け付けて、Blue環境のリソース量の調整に関する情報を取得し、Green環境へ反映させる。Green環境のリソース調整処理が終了すると、切り替え部405は、DNS301の設定を変更することで、本番環境をBlue環境からGreen環境へ切り替える。
切り替え部405は、本番環境をBlue環境からGreen環境へ切り替える。本番環境の切り替えは、例えば、DNS301のレコードをBlue環境のものからGreen環境のものに変更することによって実現される。例えば、サービスのホスト名が、www.a−service.comである場合、Blue環境が本番環境である間は、下記のレコードが登録されている。
www.a−service.com CNAME lb−R01.cloudservice.com
ここで、lb−R01.cloudservice.comは、Blue環境のロードバランサーのホスト名である。このロードバランサーのホスト名を、切り替え時に、Green環境のロードバランサーのホスト名であるlb−R02.cloudservice.comに書き換える。DNS301のレコードは下記のように変更される。
www.a−service.com CNAME lb−R02.cloudservice.com
このように変更することにより、管理システム100の外部から接続するコンピュータ120などからのアクセスURLを変更することなく、切り替え部405は、接続先のサービスをBlue環境からGreen環境に切り替えることができる。
また、リソースマネージャ303は、システムマネージャ300の指示に従って、DNS301に登録されているDNSレコードを書き換える。DNSレコードが書き換えられることによって、顧客管理者用のコンピュータ120、顧客環境130内のコンピュータやネットワークデバイスなど所定のネットワークシステムからのリクエストの接続先が変更されて、本番環境が切り替えられる。
なお、リクエストの接続先を変更する方法としては、上記の方法の他にも、ロードバランサーやリバースプロキシをアクセスポイントとして用意するという方法、システムにアクセスするためのURLを書き換えるという方法などがある。
図5は、本発明の実施形態に係るリソース情報管理テーブルを示す図である。テーブルの右端の数字はレコード番号を示しており、図6〜8、13の各テーブルにおいても同様である。リソース情報管理テーブルの項目は、リソースID501と、タイプ702と、タグ503とを含む。リソース生成部401は、例えば、レコード511乃至523で示されるように、リソース情報を管理する。リソースとは、クラウドサービスによって提供されるリソースのことであり、仮想マシン332、334、352および354やサーバーコンポーネントを含む。
リソースID501は、リソース生成部401が生成したリソースを識別する識別子である。タイプ702は、リソース生成部401が生成したリソースのタイプを示す。リソースのタイプは、例えば、仮想マシンや、ロードバランサー、キューなどを含む。タグ503は、キーや値の組でリソースに付加する情報である。“Role”属性は、処理システム内における仮想マシンやサーバーコンポーネントの役割を示し、“Web”や“Batch”などの値を設定する。また、“Version”属性は、管理システム100を識別するためのキーであり、Blue環境であるかGreen環境であるかなどのバージョンを示す。これらは、以降で説明する本番環境の切り替え時に参照する。
図6は、本発明の実施形態に係る監視状態管理テーブルを示す図である。リソース監視部402は、例えば、レコード611乃至618で示されるように、リソースの監視状態の情報を管理する。監視状態管理テーブルの項目は、監視条件名601と、監視リソース602と、監視項目603と、前回測定値604と、継続回数605とを含む。
監視条件名601は、監視条件を識別する名前である。後述するスタック受け付け部404が生成した監視条件の場合は、監視条件名601の文字列の先頭にスタックID801が付加される。監視リソース602は、リソース監視部402が監視する監視リソースの情報である。監視項目603は、リソース監視部402が監視する監視項目の情報である。例えば、レコード611では、リソース監視部402は、“R04”のキューに格納されているメッセージ数を監視するということを示す。前回測定値604は、該当レコードで示される監視項目について、リソース監視部402が前回の計測時に取得した値である。継続回数605は、連続して同じ監視条件を満たした回数である。例えば、300秒間隔で2回連続して同じ監視条件を満たすとシステム管理者へ通知を行うなどの場合に、継続回数605は使用される。
図7は、本発明の実施形態に係るオートスケール状態管理テーブルを示す図である。オートスケール管理部403は、例えば、レコード711乃至718で示されるように、オートスケールグループまたはサーバーコンポーネントのオートスケールに関する情報を管理する。オートスケール状態管理テーブルの項目は、オートスケール管理ID701と、タイプ702と、必要台数703と、稼働台数704と、スペック705と、最終実行操作706と、タグ707とを含む。
オートスケール管理ID701は、オートスケール状態管理が必要なオートスケールグループのIDやサーバーコンポーネントのリソースIDである。スタック受け付け部404が生成したオートスケールグループの場合は、オートスケール管理IDの文字列の先頭にスタックID801が付加される。タイプ702は、オートスケール管理IDで指定したオートスケール管理対象のリソースのタイプを格納する。例えば、リソースのタイプには、オートスケールグループやロードバランサー、キューなどが含まれる。
必要台数703は、オートスケールグループに必要とされている仮想マシンの台数である。稼働台数704は、オートスケールグループに関連付けられ稼働している仮想マシンの台数である。オートスケール管理部403は、必要台数703と等しくなるように稼働台数704をコントロールする。スペック705は、仮想マシンの処理能力を示す。
最終実行操作706は、オートスケールグループやサーバーコンポーネントなどに対してオートスケール管理部403が最後に実行した操作として保持される制御コマンドである。タグ707は、オートスケール管理ID701で指定したオートスケールグループやサーバーコンポーネントに付加したタグである。“Role”属性と“Version”属性については、タグ503での説明と同様である。
例えば、ロードバランサーやキューなどのサーバーコンポーネントなどは、予めクラウドサービス提供者が設定し、システム管理者に対してマネージドサービスとして提供される場合がある。このような場合、管理システム100は、システム管理者にオートスケールの設定や状態を公開しないこともある。また、システム管理者がオートスケール機能について設定をせずに、管理システム100が自動的にオートスケールの設定や管理をするようにしてもよい。
図8は、本発明の実施形態に係るスタック情報管理テーブルを示す図である。スタック受け付け部404は、スタック作成の要求を受け付けると、スタックを識別するためのスタックID801を生成し、生成した仮想マシンやサーバーコンポーネントやその他の設定情報と関連付けて管理する。スタック受け付け部404は、例えば、レコード811乃至823で示されるように、スタックテンプレートをスタックID801と関連付けて保持する。スタック情報管理テーブルの項目は、スタックID801と、リソースID802とを含む。
スタックID801は、スタック受け付け部404が発行するスタックの識別子である。リソースID802は、スタックに関連付けて生成した仮想マシン332、334、352および354やサーバーコンポーネントのリソースの識別子である。システム管理者がスタックの削除を指定した場合、スタック受け付け部404は、スタック情報管理テーブルを参照して、スタックに関連付けられたリソースを削除するよう要求する。さらに、スタック受け付け部404は、リソース監視部402やオートスケール管理部403が図5乃至図7の各テーブルに登録した各種設定情報を削除するよう要求する。
システム管理者は、複数のスタックを組み合わせて処理システムを構成できる。例えば、システム管理者は、システムのバージョンアップ時に置き換えないデータベースサーバーなどを含むスタックと、バージョンアップ時に置き換えるWebサーバーなどを含むスタックとを組み合わせることができる。
図9A、図9Bおよび図9Cは、本発明の実施形態に係るスタックテンプレートを示す図である。スタック受け付け部404は、システム管理者の操作するコンピュータ110などからスタックテンプレートを受信する。左端の数字は行番号であり、図12のスタックテンプレートにおいても同様である。図9Aはスタックテンプレートの2行目から71行目を示し、図9Bはスタックテンプレートの72行目から140行目を示し、図9Cはスタックテンプレートの141行目から185行目を示す。以降、本実施例に関連する部分を抜粋しながら説明を行う。2行目から185行目では、スタックとして生成する仮想マシンやサーバーコンポーネント、オートスケール機能の設定などを指定する。
図9Aの3行目から25行目では、WebLBというロードバランサーを生成し、タグとして、“Role”属性の値が“Web”であり、“Version”属性の値が“100”であることが指定される。スタック受け付け部404は、リソース生成部401にロードバランサーの生成を要求する。生成されたロードバランサーの情報はリソース情報管理テーブル(図5)に登録され、スタックID801とリソースIDの関連付けはスタック情報管理テーブル(図8)に登録される。
26行目から46行目では、WebAutoScalingGroupという名前のオートスケールグループを設定する。接続対象はロードバランサー:WebLBであり、最小の仮想マシン台数(MinSize)は2であり、最大台数(MaxSize)は10であることが指定される。初期の必要台数(DesiredCapacity)は2であり、仮想マシンの起動設定(LaunchConfigurationName)は“WebLaunchConfig”であることが指定される。タグとして、“Role”属性の値が“Web”であり、“Version”属性の値が“100”であることが指定される。
47行目から53行目では、WebAutoScalingGroupで指定された“WebLaunchConfig”という仮想マシンを起動設定する。OSイメージ(ImageId)として“imageWeb100”を使用し、CPUやメモリなどのスペックを指定するインスタンスタイプ(InstanceType)として“Large”が指定される。
このスタックテンプレートの例では、スタック受け付け部404は、オートスケール管理部403にオートスケールグループS01_WebAutoScalingGroupを登録し、必要台数を2に設定する(文字列の先頭にスタックID801を付加する)。必要台数(=2)に対して稼働台数(=0)であるため、オートスケール管理部403は、必要台数に達するまでWebLaunchConfigに基づいて仮想マシンを生成しオートスケールグループに追加する。
54行目から71行目では、WebAutoScalingGroupのオートスケールグループに関連付けられたオートスケールポリシーを指定する。WebScaleUpPolicyは、必要台数を1台増やす(“ScalingAdjustment”:“1”)、操作を行うように指定されている。また、WebScaleDownPolicyは必要台数を1台減らす(“ScalingAdjustment”:“−1”)操作を行うように指定される。WebScaleUpPolicyは、スタック受け付け部404がスタックテンプレートに基づいて行う仮想サーバー群の設定の指示である。
図9Bの72行目から97行目では、WebAutoScalingGroupのオートスケールグループに関連付けられた監視・通知条件を設定する。
WebCPUAlarmHighでは、“WebAutoScalingGroup”について、監視項目(MetricName)としてCPU使用率(“CPUUtilization”)の平均を監視する。そして、300秒間隔で2回、閾値の90%を超えた場合、AlarmActionで指定した“WebScaleUpPolicy”のオートスケールポリシーが参照され、リソース調整の実行が指定される。
このスタックテンプレートの例では、スタック受け付け部404は、リソース監視部402に監視条件S01_WebCPUAlarmHighなどを登録する。
98行目から113行目では、生成すべきキューが指定される。ここでは、“BatchQueue”という名前のキューを生成することが指定される。タグとして、“Role”属性の値が“Batch”であり、“Version”属性の値が“100”であることが指定される。
このスタックテンプレートの例では、スタック受け付け部404は、リソース生成部401にキューの生成を要求する。生成されたキューの情報はリソース情報管理テーブル(図3)に登録され、スタックID801とリソースIDの関連付けは、スタック情報管理テーブル(図8)に格納される。
114行目から353行目では、BatchAutoScalingGroupという名前のオートスケールグループが指定され、最小の仮想マシン台数(MinSize)が1であり、最大台数(MaxSize)が10であると指定される。初期の必要台数(DesiredCapacity)が1であり、仮想マシンの起動設定(LaunchConfigurationName)が“BatchLaunchConfig”で指定される。タグとして、“Role”属性の値が“Batch”であり、“Version”属性の値が“100”であることが指定される。BatchLaunchConfigは、受け付けたリクエストに対応するキューに積まれた処理を順次実行するバッチ処理システムの設定の指示である。
354行目から140行目では、BatchAutoScalingGroupで指定された“BatchLaunchConfig”という名前の仮想マシンを起動設定する。
図9Cの141行目から158行目では、BatchAutoScalingGroupのオートスケールグループに関連付けられたオートスケールポリシーを指定する。BatchScaleUpPolicyは、必要台数を1台増やす(“ScalingAdjustment”:“1”)操作を行うように指定される。また、BatchScaleDownPolicyは、必要台数を1台減らす(“ScalingAdjustment”:“−1”)操作を行うように指定される。
159行目から184行目では、BatchAutoScalingGroupのオートスケールグループに関連付けられた監視・通知条件が指定される。BatchQueueAlarmHighでは、“BatchQueue”について、監視項目(MetricName)としてメッセージの数(“NumberOfMessages”)の平均を監視する。そして、300秒間隔で2回、閾値の100を超えた場合、AlarmActionで指定した“BatchScaleUpPolicy”のオートスケールポリシーを実行することを設定する。
図10は、本発明の実施形態に係る本番環境の切り替え処理の流れを示すフローチャートである。リソースマネージャ303が、本番環境の切り替え処理を実行する。
S1001で、リソースマネージャ303は、システムマネージャ300からの指示を受けて、Green環境のリソース量調整処理を開始する。S1002で、切り換え対象のBlue環境とGreen環境の指定をシステム管理者から受け付ける。システム管理者は、コンピュータ110を操作することによって切り換え対象のBlue環境とGreen環境とを指定し、切り替え部405は、この指定を含む要求を受信する。
指定方法としては、システム管理者が、Blue環境とGreen環境の各スタックID801を指定してもよいし、タグのKeyとValueで指定してもよい。Keyはタグの属性であり、Valueは属性の値である。スタックID801で指定する場合、例えば、Blue環境のスタックID801をS01、Green環境のスタックID801をS02として、システム管理者はBlue環境とGreen環境を指定する。システム管理者は、一度に複数のスタックを指定しても良い。タグを指定する場合には“Version”のKeyで識別し、例えば、Blue環境を“100”、Green環境を“101”として、システム管理者はBlue環境とGreen環境を指定する。
以降では例として、Blue環境のKeyを“100”、Green環境のKeyを“101”と設定するものとして説明する。またこの場合、オートスケールグループや仮想マシン、サーバーコンポーネントの所属するスタックのIDは、オートスケール管理ID701の文字列の先頭や、スタックID801などから取得され得る。
S1003では、切り替え部405は、指定されたBlue環境とGreen環境のオートスケール状態の情報をオートスケール管理部403から取得する。Green環境の情報として、“Version”属性が“101”で示される。ここではオートスケール状態管理テーブル(図7)より、切り替え部405は、タグの中に「“Version”:“101”」を含むリソース量の調整に関する情報(レコード715乃至718)を取得する。なお、切り替え部405は、指定されたBlue環境の情報のみを取得しても良い。また、Blue環境やGreen環境の情報は、管理システム100内のデータベース302に格納されても良いし、管理システム100の外部の記憶装置に格納されても良い。
続いて、リソースマネージャ303は、Green環境のオートスケールグループまたはサーバーコンポーネントごとにS1004からS1007の処理を繰り返し行う。S1007では、全てのオートスケールグループまたはサーバーコンポーネントに対する処理が終了したらループを抜ける。
S1005では、切り替え部405は、オートスケールポリシーによる自動の調整機能を無効化する。無効化する自動の調整機能は、スケールインまたはスケールダウンのオートスケールポリシーによる自動の調整機能のみであってもよい。オートスケールの設定において、追加または削除する仮想マシンの数(ScalingAdjustment)が負の値であるオートスケールポリシーがスケールインの対象となる。なお、自動の調整機能を無効化するタイミングは、S1005に限らず、Green環境を生成した後からGreen環境のリソース量調整処理が開始されるまでのいずれかのタイミングでもよい。
Blue環境からGreen環境への切り替えの際には、Green環境にかかる負荷が小さい状態で、Green環境の仮想マシンの台数を増やしたり、サーバーコンポーネントをスケールアップさせたりする必要がある。スケールインのオートスケールポリシーを無効化することにより、Green環境のリソースを増やした後にスケールインのAlarmが発生して、Green環境の仮想マシンの台数が減ったり、サーバーコンポーネントがスケールダウンしたりすることを防ぐ。また、オートスケールグループに対してオートスケールポリシーを適用する際に、ある一定時間、オートスケールグループへのオートスケールポリシーの適用を無効にするように設定するようにしても良い。
続いてS1006で、リソース生成部401は、Green環境のリソース量の調整処理を行う。Green環境のリソース量の調整処理について、図11を用いて後述する。
S1007で、全てのオートスケールグループまたはサーバーコンポーネントに対する処理が終了していたら、切り替え部405はS1008へ処理を進める。
S1008で、切り替え部405は、本番環境をBlue環境からGreen環境に切り替える処理を行う。本番環境を切り替える方法については切り替え部405の説明部分で上述した通りである。本番環境を切り替える処理とは、具体的には、DNS301のレコードをBlue環境のものからGreen環境のものに変更する処理などを指す。この処理によって、外部ネットワークからのリクエストを受け付けて処理する本番環境が切り替わる。さらに、本番環境が切り替わった後に、切り替え部405は、S1005で無効化した自動の調整機能を有効化する。
図11(a)は、本発明の実施形態に係るGreen環境のリソース量の調整処理の流れを示すフローチャートであり、「必要台数の適用」の移行方法を用いたGreen環境のリソース量の調整処理の流れを示す。Green環境のリソース量の調整処理は、Green環境のオートスケールグループまたはサーバーコンポーネントごとに実行される。
「必要台数の適用」とは、Blue環境において必要する仮想マシンの台数をGreen環境に適用するという移行方法である。S1101〜1104で、リソースマネージャ303は、「必要台数の適用」の移行方法によって、Green環境のリソース量の調整処理を行う。「必要台数の適用」は、複数の仮想マシンを含むオートスケールグループなどに適用する場合に適している。
S1102では、切り替え部405は、繰り返し対象のオートスケールグループやサーバーコンポーネントなどに設定されている“Role”属性の値が等しいBlue環境のオートスケールグループやサーバーコンポーネントの必要台数703を取得する。
切り替え部405は、オートスケール管理部403よりタグ707にBlue環境を示すタグ(“Version”属性が“100”)が含まれ、“Role”属性の値が等しいオートスケールグループやサーバーコンポーネントを検索する。例えば、オートスケールS02−WebAutoScalingGroupの場合、“Role”属性の値は“Web”である。このため、切り替え部405は、タグに「“Role”:“Web”」と「“Version”:“100”」が含まれ、かつ、タイプ702が同じである、行511のS01−WebAutoScalingGroupを選択する。切り替え部405は、S01−WebAutoScalingGroupの必要台数703の値である「5」を取得する。
続いて、S1103で、リソース生成部401は、Green環境のオートスケールグループやサーバーコンポーネントなどに対して、リソース量の調整を行う。例えば、オートスケールS02−WebAutoScalingGroup(レコード515)の必要台数703が「5」に設定される。つまり、S1102で取得されたBlue環境のオートスケールグループやサーバーコンポーネントの必要台数703に基づいて、Green環境のオートスケールグループやサーバーコンポーネントの必要台数703が設定される。オートスケール管理部403は、オートスケールS02−WebAutoScalingGroupの稼働台数(=2)が、必要台数(=5)に達していないことを検知する。すると、オートスケール管理部403は、オートスケールグループのスタックS02のWebAutoScalingGroupの仮想マシンの起動設定(WebLaunchConfig)に従い生成された仮想マシンをオートスケールグループに追加する。最終的に、稼働台数704が「5」になることにより、Blue環境の必要台数703がGreen環境に適用される。
なお、Blue環境の必要台数703がそのままGreen環境に適用されなくても良い。例えば、Blue環境の必要台数703やGreen環境の仮想マシンのスペック705の情報に基づいて、Green環境の必要台数703が設定されても良い。
なお、現在本番環境であるBlue環境の処理能力にある程度の余裕を持たせるために、Blue環境にかかっている負荷を処理するために必要な台数よりも多くの台数の仮想マシンを稼働させている場合がある。その場合には、切り替え部405は、それらを考慮してGreen環境の必要台数703を設定しても良い。
なお、システムマネージャ300は、本番環境切り替え前の所定期間においてBlue環境が受け付けたリクエスト量に基づいて、本番環境切り替え時のリクエスト量を予測してもよい。例えば、単位時間当たりのリクエスト数を表すグラフを使って、Blue環境でのリソース量調整に関する情報取得時における、リクエスト量の増減を表す傾きを求める。システムマネージャ300は、Blue環境の必要台数に、更にリクエスト数の増減を考慮して、Green環境の必要台数を定めてもよい。後述の応用例においても同様である。
S1104で、切り替え部405は、図10のフローチャートへ戻り、処理を進める。
本実施例では、本番環境を第1の処理システムから第2の処理システムへ切り替える前に、切り替え先の処理システムである第2の処理システムの仮想マシンの台数を、第1の処理システムの仮想マシンの台数と同じにする。本実施例によって、本番環境の切り替えの際に、第2の処理システムでのリクエストの処理が滞らないようにすることができる。
(実施例2)
本実施例においては、実施例1と基本的には同様であるため、その差分のみを説明する。S1006のGreen環境のリソース量の調整処理において、実施例1では「必要台数の適用」の移行方法を用いたが、本実施例では「負荷状態の適用」の移行方法を用いる。本実施例では、監視されるリクエスト量や処理負荷の情報が、Green環境のリソース量調整処理に用いられる。
図11(b)は、本発明の実施形態に係るGreen環境における処理の流れを示すフローチャートであり、「負荷状態の適用」の移行方法によるGreen環境のリソース量の調整処理の流れの例を示す。Green環境のリソース量の調整処理は、Green環境のオートスケールグループまたはサーバーコンポーネントごとに実行される。
「負荷状態の適用」とは、Blue環境の負荷状態の情報をGreen環境に適用するという移行方法である。S1111からS1115で、リソースマネージャ303は、「負荷状態の適用」の移行方法によって、Green環境のリソース量の調整処理を行う。「負荷状態の適用」は、Green環境がBlue環境とサーバー構成や仮想マシンのスペックなどで違いがある場合など、Blue環境の必要台数703をそのまま適用する方法が適当でない場合に適している。「負荷状態の適用」は、必要台数の情報を取得することができない場合にも適用できる。
S1112では、切り替え部405は、Blue環境のオートスケールグループやサーバーコンポーネントの負荷状態を示す情報を取得する。
例えば、オートスケールグループS02−WebAutoScalingGroupの場合、関連付けられているオートスケールポリシーは、WebScaleUpPolicyとWebScaleDownPolicyである。さらに関連する監視条件は、WebCPUAlarmHighとWebCPUAlarmLowであり、切り替え部405はこれら2つの監視条件を検索する。R14のキューでは、2つの監視条件S02−BatchQueueAlarmHighとS02−BatchQueueAlarmLowが関連付けられている。切り替え部405は、これらの監視条件で監視リソース602として指定されているリソースと“Role”属性の値が等しいBlue環境のオートスケールグループやサーバーコンポーネントのオートスケール状態の情報を取得する。
例えば、R14のキューの場合には、リソース情報管理テーブル(図5)のレコード522より、R14のタグ情報より、“Role”属性の値は“Batch”であることがわかる。切り替え部405は、Blue環境で“Role”属性の値が“Batch”であるキューは行514のR04であることを検索し、R04の負荷状態(NumberOfMessages)を取得する。
続いて、S1112で取得したBlue環境のリクエスト量や処理負荷など負荷状態の情報に基づいて、S1113で、切り替え部405は、Green環境のリソース量の調整が必要であるかどうかを判定する。
例えば、キューR14の場合には、切り替え部405は、キューR04の負荷状態を元にS02−BatchQueueAlarmHighまたはS02−BatchQueueAlarmLowの条件に合致するかを判定する。負荷状態を指定間隔で複数回測定する設定である場合には、切り替え部405は、複数回測定するようにしてもよいし、1回の測定で代替えすることもできる。なお、本番環境切り替え時にのみ参照されるオートスケールポリシーが用意されてもよい。
Green環境のリソース量の調整が必要であると判定された場合、S1114に進み、リソース生成部401は、Green環境のリソース量を調整する。なお、Green環境のリソース量の調整が必要でないと判定された場合は、S1115に進む。
S1115で、切り替え部405は、図10のフローチャートへ戻って処理を進める。
なお、リソースマネージャ303は、Blue環境の処理能力にある程度の余裕を持たせるようにして、Green環境の必要台数703やスペック705を設定しても良い。
オートスケールグループの場合には、リソースマネージャ303は、S1113で上限に合致した監視条件に関連付けられたオートスケールポリシーに基づいて、必要台数などを設定する。この時、Blue環境330のロードバランサー331が受け付けるリクエスト量と、Green環境で処理可能なリクエスト量とが一致するように、必要台数703などが設定される。キューなどマネージドサービスとして提供されるサーバーコンポーネントなどでシステム管理者はオートスケールの設定を指定できない場合もある。このような場合は、オートスケール管理部403の内部で管理する設定に基づき、リソースマネージャ303は、必要台数やスペックを計算しサーバーコンポーネントに適用する。 なお、システムマネージャ300は、本番環境切り替え前の所定期間においてBlue環境が受け付けたリクエスト量に基づいて、本番環境切り替え時のリクエスト量を予測してもよい。システムマネージャ300は、Blue環境のロードバランサーが受け付けているリクエスト量に、更にリクエスト量の増減を考慮して、Green環境が処理可能となるリクエスト量を定めてもよい。後述の応用例においても同様である。
本実施例では、本番環境を第1の処理システムから第2の処理システムへ切り替える前に、第1の処理システムの負荷状態の情報を用いて、第2の処理システムのリソース量を増やす。第2の処理システムのリソース量を増やす方法として、第2の処理システムが本番環境である時に実行されるように設定されているオートスケールによるリソース量の調整処理が実行されてもよい。また他の方法として、本番環境の切り替え処理の時に実行されるリソース量の調整処理を設定しておき、そのリソース量の調整処理が実行されてもよい。本実施例によって、第1の処理システムと第2の処理システムとで、サーバー構成や仮想マシンのスペックなどで違いがある場合などにも、本番環境の切り替えの際に、第2の処理システムでのリクエストの処理が滞らないようにすることができる。
(実施例3)
本実施例においては、実施例1と基本的には同様であるため、その差分のみを説明する。S1006のGreen環境のリソース量の調整処理において、実施例1では「必要台数の適用」、実施例2では「負荷状態の適用」の移行方法を用いたが、本実施例では「最終実行操作の適用」の移行方法を用いる。本実施例では、Blue環境のリソース量の調整に関する情報の取得時において、Blue環境で最後に実行されたリソース量の調整処理が、Green環境においても実行される。
図11(c)は、本発明の実施形態に係るGreen環境における処理の流れを示すフローチャートであり、「最終実行操作の適用」の移行方法によるGreen環境のリソース量の調整処理の流れの例を示す。Green環境のリソース量の調整処理は、Green環境のオートスケールグループまたはサーバーコンポーネントごとに実行される。
「最終実行操作の適用」とは、Blue環境のサーバーコンポーネントなどに対して最後に実行された操作として保持される制御コマンドを、Green環境の該当するサーバーコンポーネントなどに対して実行し、適用するという移行方法である。S1121からS1124で、リソースマネージャ303は、「最終実行操作の適用」の移行方法によって、Green環境のリソース量の調整処理を行う。「最終実行操作の適用」は、必要台数の情報や負荷状態の情報を取得することができない場合などにも適用できる。
S1122では、切り替え部405は、“Role”属性が同一である、Blue環境のサーバーコンポーネントに対して、最終実行操作706を取得する。S1122での取得時において、最終実行操作706は、Blue環境のサーバーコンポーネントで最後に実行されたリソース量の調整処理である。切り替え部405は、繰り返し対象のオートスケールグループやサーバーコンポーネントなどに設定されている“Role”属性の値が等しいBlue環境のオートスケールグループやサーバーコンポーネントの最終実行操作706を取得する。切り替え部405は、タグ707にBlue環境を示すタグ(“Version”属性が“100”)が含まれ、“Role”属性の値が等しいオートスケールグループ、サーバーコンポーネントを検索する。
例えば、ロードバランサーR11の場合、切り替え部405は、“Role”属性の値は“Web”であるので、タグに「“Role”:“Web”」と「“Version”:“100”」が含まれ、タイプ702が同じ行512のロードバランサーR01を選択する。そして、切り替え部405は、R1の最終実行操作706の値である「“Change Type=Midium”」を取得する。
続いて、S1123で、オートスケール管理部403は、Green環境のオートスケールグループやサーバーコンポーネントなどに対して、同じオートスケール機能の設定の操作を実行する。
例えば、オートスケール管理部403は、ロードバランサーR11に対して、S815で取得した情報の最終実行操作706「“Change Type=Midium”」を実行する。この操作を受けてロードバランサーR11は、内包する仮想マシンの台数を増やすなどのオートスケールを実行する。
S1124で、切り替え部405は、図10のフローチャートへ戻り、処理を進める。
なお、システムマネージャ300は、本番環境切り替え前の所定期間においてBlue環境が受け付けたリクエスト量に基づいて、本番環境切り替え時のリクエスト量を予測してもよい。システムマネージャ300は、Blue環境で最後に実行されたリソース量の調整処理に、更にリクエスト量の増減を考慮して、Green環境のリソース量の調整処理を実行してもよい。後述の応用例においても同様である。
本実施例では、本番環境の切り替え指示に応じて、第1の処理システムで最後に実行されたリソース量の調整処理と同じ操作を第2の処理システムで実行する。本実施例によって、仮想マシンの台数や負荷状態を示す情報を取得できない場合にも、本番環境の切り替えの際に、第2の処理システムでのリクエストの処理が滞らないようにすることができる。
(応用例1)
S1006のGreen環境のリソース量の調整処理においては、切り替え部405は、実施例1乃至3の移行方法のうち、どの移行方法を用いるかのスタックテンプレートでの任意の設定に従い、切り替えを制御しても良い。この設定は、処理システム内の全てのオートスケールグループやサーバーコンポーネントに共通しても良い。なお、本実施例では、オートスケールグループやサーバーコンポーネントごとに移行方法を設定する場合について述べる。
図12は、本発明の実施形態に係るスタックテンプレートの例を示す図であり、移行方法が記載されている。186行目から199行目では、Blue環境とGreen環境の切り替えにおけるオートスケール状態情報の反映の動作設定を指定している。
186行目から199行目では、本番環境切り替え時におけるGreen環境のリソース量調整処理の際の移行方法に関する設定を指定する。例えば、この設定は、切り替え部405で切り替えの指示を受け付けた場合に参照される。
設定例として、187行目から193行目では、Keyが“Role”の属性の値として“Web”が指定されたオートスケールグループについての動作設定がされている。その移行方法(MigrateMethod)として「必要台数の適用」(“CopyDesiredCapacity”)が指定されている。
切り替え部405は、Green環境のリソース量調整処理のために参照するBlue環境の情報を選択して、移行方法を設定する。まず、切り替え部405は、繰り返し対象のオートスケールグループまたはサーバーコンポーネントについてGreen環境のスタックテンプレートで指定されている移行方法に合致するものを検索する。切り替え部405は、Green環境のスタックテンプレートをスタック受け付け部404から取得する。
オートスケール状態の情報515のオートスケールグループ“S02−WebAutoScalingGroup”は、“Role”属性が“Web”であり、スタックテンプレートの187行目から193行目で指定された1つ目の移行設定に合致する。そして、その移行方法は「必要台数の適用」である。なお、切り替え部405は、スタックテンプレートを参照せずに、予め決められた移行方法を採用するようにしてもよい。
別の設定例として、194行目から198行目では、Keyが“Role”の属性の値として“Batch”が指定されたオートスケールグループについての動作設定がされている。その移行方法(MigrateMethod)として「なし」(“None”)が指定されている。
リソースマネージャ303は、Blue環境の仮想マシン332の必要台数703をGreen環境の仮想マシン352に適用するが、Blue環境の仮想マシン334の必要台数703をGreen環境の仮想マシン354には適用しない。仮想マシン332はWebサーバーなどであり所定のネットワークシステムからの大量のリクエストを処理するため、環境切り替え前にGreen環境の仮想マシン352は必要台数703の分だけ用意される必要がある。しかし、仮想マシン334はバッチサーバーなどでありメッセージキューを受け取ってから処理するため、仮想マシン354はGreen環境のオートスケール機能により台数が増えればよい。所定のネットワークシステムからのリクエスト数に同期してメッセージキューが増えるわけではないからである。したがって、本番環境切り替え前にGreen環境の仮想マシン354を増やす必要はない。
194行目から198行目までの設定によって、システム管理者は、処理システムの切り替え時における、バッチサーバーのサーバー料金を節約することができる。
スタックテンプレートの移行方法に合致しない場合には、切り替え部405は、図13を参照して、仮想マシンやサーバーコンポーネントなどの種別による移行方法を設定する。
図13は、本発明の実施形態に係るサーバーコンポーネント別の移行方法テーブルの例を示す図である。切り替え部405が、例えば、レコード1311、1312で示されるような、移行方法の情報を管理する。タイプ1301は仮想マシンやサーバーコンポーネントなどの種別を示し、移行方法1302はタイプごとの移行方法を示す。例えば、リソースID501がR11であるロードバランサーの移行方法を決定する際に、切り替え部405は、図13の行1311を参照し、移行方法を“最終実行操作の適用”に決定する。また、R14のキューの場合には、切り替え部405は、行1312を参照し、移行方法を“負荷状態の適用”に決定する。なお、移行方法が決まらない場合には、切り替え部405は、移行方法を“None”とする。
本実施例によって、処理システムを構成するリソースのグループごとに移行方法を設定し、本番環境の切り替えの際に、それぞれのグループについて設定された移行方法に則ったリソース量の調整処理が実行される。
(応用例2)
図10、図11のフローチャートで示される処理の一部は、リソースマネージャ303によってではなく、システムマネージャ300によって実行されてもよい。
図10で示されるS1008では、Green環境のリソース量が実際に調整された後に、本番環境がBlue環境からGreen環境へ切り替えられる。システムマネージャ300が、リソースマネージャ303のリソース生成部401に対してリソース量の調整指示を出してから、実際にリソース量が調整されるまでに時間がかかる場合がある。そのため、例えば、システムマネージャ300は、図7における稼働台数704が必要台数703と同じ値になったことを確認してから、本番環境の切り替え指示を出す。
また、切り替え指示が出された後、Green環境のリソース量が調整されるタイミングは、実際に切り替えられた直後でもよい。ただし、オートスケールによってGreen環境のリソース量の調整が間に合う必要がある。
(他の実施例)
本発明は、上述した実施形態を適宜組み合わせることにより構成された装置あるいはシステムやその方法も含まれるものとする。
ここで、本発明は、上述した実施形態の機能を実現する1以上のソフトウェア(プログラム)を実行する主体となる装置あるいはシステムである。また、その装置あるいはシステムで実行される上述した実施形態を実現するための方法も本発明の一つである。また、そのプログラムは、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給され、そのシステム或いは装置の1以上のコンピュータ(CPUやMPU等)によりそのプログラムが読み出され、実行される。つまり、本発明の一つとして、さらにそのプログラム自体、あるいは該プログラムを格納したコンピュータにより読み取り可能な各種記憶媒体も含むものとする。また、上述した実施形態の機能を実現する回路(例えば、ASIC)によっても、本発明は実現可能である。
100 管理システム
300 システムマネージャ

Claims (20)

  1. リクエストを処理する1以上の仮想マシンと、該仮想マシンにリクエストを分散させる負荷分散装置とを少なくとも備える処理システムを複数有する管理システムであって、
    所定のネットワークシステムからのリクエストを処理する処理システムを、前記複数の処理システムに含まれる第1の処理システムから第2の処理システムへ切り替えるための指示に応じて、該第1の処理システムを実現するために使用されているリソースの量の調整に関する情報を取得する取得手段と、
    前記取得手段が取得した情報に基づく前記第2の処理システムのリソースの量の調整指示として、前記第2の処理システムの仮想マシンの台数を増やすための指示を行う調整指示手段と、を有し、
    前記調整指示手段による前記調整指示に応じて、所定のネットワークシステムからのリクエストを処理する処理システムが、前記第1の処理システムから前記第2の処理システムへ切り替わることを特徴とする管理システム。
  2. 前記第1の処理システムおよび前記第2の処理システムはそれぞれ、前記負荷分散装置からリクエストを受け付けて処理する1以上の仮想マシンから構成されるリクエスト処理システムと、前記リクエスト処理システムで処理されたリクエストに対応するメッセージを処理する1以上の仮想マシンから構成されるバッチ処理システムと、を有し、
    前記調整指示手段は、前記取得手段が取得した情報に基づいて、前記第2の処理システムの前記バッチ処理システムではなく、前記第2の処理システムの前記リクエスト処理システムに対する調整指示を行うことを特徴とする請求項1に記載の管理システム。
  3. 前記調整指示手段は、前記取得手段が取得した情報に基づく前記第2の処理システムのリソースの量の調整指示として、更に、前記第2の処理システムの仮想マシンに対するハードウェア資源の割り当てを増やすための指示を行うことを特徴とする請求項1または2に記載の管理システム。
  4. 前記第1の処理システムおよび前記第2の処理システムのそれぞれが使用するリソースは、1以上のサーバーコンピュータにより提供されることを特徴とする請求項1乃至3のいずれか1項に記載の管理システム。
  5. 所定のネットワークシステムからのリクエストを処理する処理システムが、前記第1の処理システムから前記第2の処理システムへ切り替わった後に、受け付けるリクエストの量に応じて前記第2の処理システムのリソースの量を減らす調整を自動で行う調整機能が有効化されることを特徴とする請求項1乃至4のいずれか1項に記載の管理システム。
  6. 前記取得手段が取得する情報は、前記第1の処理システムの仮想マシンの台数、前記第1の処理システムが受け付けるリクエストの量、および、前記第1の処理システムで最後に実行された調整を示す情報のうちの少なくとも1つであることを特徴とする請求項1乃至5のいずれか1項に記載の管理システム。
  7. 前記処理システムは、1以上の仮想マシンと1以上の負荷分散装置の少なくともいずれかから構成される複数のグループに分けられて管理されており、
    前記第2の処理システムが使用するリソースのグループごとに、前記調整指示手段による指示に用いる前記第1の処理システムの情報として、前記第1の処理システムの仮想マシンの台数、前記第1の処理システムが受け付けるリクエストの量、および、前記第1の処理システムで最後に実行された調整を示す情報のうちいずれか1つを設定する設定手段を更に有し、
    前記取得手段は、前記設定手段による設定に従い、前記第1の処理システムの仮想マシンの台数、前記第1の処理システムが受け付けるリクエストの量、および、前記第1の処理システムで最後に実行された調整を示す情報のうちの少なくとも1つを取得し、
    前記調整指示手段は、前記第2の処理システムが使用するリソースのグループごとに、前記取得手段が取得した情報に基づく前記第2の処理システムのリソースの量の調整指示を行うことを特徴とする請求項6に記載の管理システム。
  8. 前記調整指示手段は、前記取得手段により前記第1の処理システムが受け付けるリクエストの量、または、前記第1の処理システムにかかるリクエスト処理のための負荷を示す情報が取得された場合に、当該取得された情報に基づいて、前記第2の処理システムのリソースの量の調整指示を行うことを特徴とする請求項1乃至6のいずれか1項に記載の管理システム。
  9. 前記調整指示手段は、前記取得手段により前記第1の処理システムで最後に実行された調整を示す情報が取得された場合に、前記第2の処理システムのリソースの量を調整指示として、前記取得手段により取得された情報で示される調整を前記第2の処理システムで実行することを指示することを特徴とする請求項1乃至6のいずれか1項に記載の管理システム。
  10. 前記第1の処理システムの仮想マシンで動作するアプリケーションと、前記第2の処理システムの仮想マシンで動作するアプリケーションとのバージョンがそれぞれ異なることを特徴とする請求項1乃至9のいずれか1項に記載の管理システム。
  11. リクエストを処理する1以上の仮想マシンと、該仮想マシンにリクエストを分散させる負荷分散装置とを少なくとも備える処理システムを複数有する管理システムの制御方法であって、
    所定のネットワークシステムからのリクエストを処理する処理システムを、前記複数の処理システムに含まれる第1の処理システムから第2の処理システムへ切り替えるための指示に応じて、該第1の処理システムを実現するために使用されているリソースの量の調整に関する情報を取得する取得工程と、
    前記取得工程で取得された情報に基づく前記第2の処理システムのリソースの量の調整指示として、前記第2の処理システムの仮想マシンの台数を増やすための指示を行う調整指示工程と、を有し、
    前記調整指示工程での前記調整指示に応じて、所定のネットワークシステムからのリクエストを処理する処理システムが、前記第1の処理システムから前記第2の処理システムへ切り替わることを特徴とする制御方法。
  12. 前記第1の処理システムおよび前記第2の処理システムはそれぞれ、前記負荷分散装置からリクエストを受け付けて処理する1以上の仮想マシンから構成されるリクエスト処理システムと、前記リクエスト処理システムで処理されたリクエストに対応するメッセージを処理する1以上の仮想マシンから構成されるバッチ処理システムと、を有し、
    前記調整指示工程では、前記取得工程で取得された情報に基づいて、前記第2の処理システムの前記バッチ処理システムではなく、前記第2の処理システムの前記リクエスト処理システムに対する調整指示が行われることを特徴とする請求項11に記載の制御方法。
  13. 前記調整指示工程では、前記取得工程で取得された情報に基づく前記第2の処理システムのリソースの量の調整指示として、更に、前記第2の処理システムの仮想マシンに対するハードウェア資源の割り当てを増やすための指示が行われることを特徴とする請求項11または12に記載の制御方法。
  14. 前記第1の処理システムおよび前記第2の処理システムのそれぞれが使用するリソースは、1以上のサーバーコンピュータにより提供されることを特徴とする請求項11乃至13のいずれか1項に記載の制御方法。
  15. 所定のネットワークシステムからのリクエストを処理する処理システムが、前記第1の処理システムから前記第2の処理システムへ切り替わった後に、受け付けるリクエストの量に応じて前記第2の処理システムのリソースの量を減らす調整を自動で行う調整機能が有効化されることを特徴とする請求項11乃至14のいずれか1項に記載の制御方法。
  16. 前記取得工程で取得される情報は、前記第1の処理システムの仮想マシンの台数、前記第1の処理システムが受け付けるリクエストの量、および、前記第1の処理システムで最後に実行された調整を示す情報のうちの少なくとも1つであることを特徴とする請求項11乃至15のいずれか1項に記載の制御方法。
  17. 前記処理システムは、1以上の仮想マシンと1以上の負荷分散装置の少なくともいずれかから構成される複数のグループに分けられて管理されており、
    前記第2の処理システムが使用するリソースのグループごとに、前記調整指示工程での指示に用いる前記第1の処理システムの情報として、前記第1の処理システムの仮想マシンの台数、前記第1の処理システムが受け付けるリクエストの量、および、前記第1の処理システムで最後に実行された調整を示す情報のうちいずれか1つを設定する設定工程を更に有し、
    前記取得工程では、前記設定工程での設定に従い、前記第1の処理システムの仮想マシンの台数、前記第1の処理システムが受け付けるリクエストの量、および、前記第1の処理システムで最後に実行された調整を示す情報のうちの少なくとも1つが取得され、
    前記調整指示工程では、前記第2の処理システムが使用するリソースのグループごとに、前記取得工程で取得された情報に基づく前記第2の処理システムのリソースの量の調整指示が行われることを特徴とする請求項16に記載の制御方法。
  18. 前記調整指示工程では、前記取得工程で前記第1の処理システムが受け付けるリクエストの量、または、前記第1の処理システムにかかるリクエスト処理のための負荷を示す情報が取得された場合に、当該取得された情報に基づいて、前記第2の処理システムのリソースの量の調整指示が行われることを特徴とする請求項11乃至16のいずれか1項に記載の制御方法。
  19. 前記調整指示工程では、前記取得工程で前記第1の処理システムで最後に実行された調整を示す情報が取得された場合に、前記第2の処理システムのリソースの量を調整指示として、前記取得工程で取得された情報で示される調整を前記第2の処理システムで実行することが指示されることを特徴とする請求項11乃至16のいずれか1項に記載の制御方法。
  20. 前記第1の処理システムの仮想マシンで動作するアプリケーションと、前記第2の処理システムの仮想マシンで動作するアプリケーションとのバージョンがそれぞれ異なることを特徴とする請求項11乃至19のいずれか1項に記載の制御方法。
JP2015187460A 2014-12-16 2015-09-24 管理システムおよび管理システムの制御方法 Expired - Fee Related JP6548540B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102015015196.7A DE102015015196A1 (de) 2014-12-16 2015-11-24 Verwaltungssystem und Steuerungsverfahren für Verwaltungssystem
KR1020150173725A KR101959601B1 (ko) 2014-12-16 2015-12-08 관리 시스템 및 관리 시스템을 제어하기 위한 방법
CN201510907666.XA CN105700908B (zh) 2014-12-16 2015-12-10 管理系统与管理系统的控制方法
US14/966,792 US10013271B2 (en) 2014-12-16 2015-12-11 Management system and method for controlling management system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014254602 2014-12-16
JP2014254602 2014-12-16

Publications (2)

Publication Number Publication Date
JP2016115333A JP2016115333A (ja) 2016-06-23
JP6548540B2 true JP6548540B2 (ja) 2019-07-24

Family

ID=56141990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187460A Expired - Fee Related JP6548540B2 (ja) 2014-12-16 2015-09-24 管理システムおよび管理システムの制御方法

Country Status (3)

Country Link
JP (1) JP6548540B2 (ja)
KR (1) KR101959601B1 (ja)
CN (1) CN105700908B (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106412075A (zh) * 2016-10-14 2017-02-15 郑州云海信息技术有限公司 一种基于云计算的资源配置方法及装置
JP6783638B2 (ja) * 2016-11-29 2020-11-11 キヤノン株式会社 管理システム、および制御方法
CN108282507B (zh) * 2017-01-06 2021-02-02 阿里巴巴集团控股有限公司 在CaaS环境中进行应用发布的方法、装置以及电子设备
JP6943125B2 (ja) * 2017-10-04 2021-09-29 トヨタ自動車株式会社 情報処理装置、情報処理方法及びプログラム
KR102090561B1 (ko) * 2018-05-24 2020-03-18 주식회사 티맥스소프트 클라우드 환경에서 웹 서버와 was를 오토 스케일하는 방법 및 이를 사용한 was 관리자 서버
JP7102950B2 (ja) * 2018-05-30 2022-07-20 富士通株式会社 情報処理システム、情報処理システムの制御方法及び管理装置の制御プログラム
KR102106223B1 (ko) * 2018-10-16 2020-05-28 부산대학교 산학협력단 오픈스택 기반의 클라우드 오케스트레이션 방법 및 장치
JP7353836B2 (ja) 2019-07-16 2023-10-02 キヤノン株式会社 情報処理装置、方法およびプログラム
CN110471683B (zh) * 2019-08-06 2023-11-24 上海浦东发展银行股份有限公司信用卡中心 一种基于智能dns的容器云应用蓝绿发布方法
KR102537906B1 (ko) * 2022-01-07 2023-05-30 주식회사 저스트큐 위탁 판매를 위한 관리 서버의 오토 스케일링 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5717164B2 (ja) * 2009-10-07 2015-05-13 日本電気株式会社 コンピュータシステム、及びコンピュータシステムのメンテナンス方法
JP5342615B2 (ja) * 2011-08-15 2013-11-13 株式会社日立システムズ 仮想サーバ制御システム及びプログラム
KR101287448B1 (ko) * 2011-10-27 2013-07-18 삼성에스디에스 주식회사 퍼지 제어 기반 가상 머신 스케일링 시스템 및 방법
CN103136030A (zh) * 2011-11-24 2013-06-05 鸿富锦精密工业(深圳)有限公司 虚拟机管理系统及方法
US9372735B2 (en) * 2012-01-09 2016-06-21 Microsoft Technology Licensing, Llc Auto-scaling of pool of virtual machines based on auto-scaling rules of user associated with the pool
TWI456944B (zh) * 2012-05-02 2014-10-11 Quanta Comp Inc 管理方法及其系統
US10057179B2 (en) * 2012-07-20 2018-08-21 Hewlett Packard Enterprise Development Company Lp Policy based scaling of network resources
CN103577122B (zh) * 2013-11-06 2016-08-17 杭州华为数字技术有限公司 分布式应用系统在平台间迁移的实现方法及装置
JP2016218530A (ja) * 2015-05-14 2016-12-22 キヤノン株式会社 リクエスト振り分けシステム、管理システム、およびその制御方法

Also Published As

Publication number Publication date
JP2016115333A (ja) 2016-06-23
KR101959601B1 (ko) 2019-03-18
CN105700908B (zh) 2019-04-12
CN105700908A (zh) 2016-06-22
KR20160073306A (ko) 2016-06-24

Similar Documents

Publication Publication Date Title
JP6548540B2 (ja) 管理システムおよび管理システムの制御方法
US10013271B2 (en) Management system and method for controlling management system
US11310122B2 (en) Portable and flexible deployment of servers
JP7158864B2 (ja) システムおよびそれを用いる方法
JP5539017B2 (ja) クラウドコンピューティングシステム、文書処理方法、及びコンピュータプログラム
JP2016103144A (ja) 仮想マシン配備方法、仮想マシン配備プログラム及び仮想マシン配備システム
US11966768B2 (en) Apparatus and method for multi-cloud service platform
US10389653B2 (en) Request distribution system, management system, and method for controlling the same
CN108111559B (zh) 一种应用软件部署系统及方法
US20150263885A1 (en) Method and apparatus for automatic enablement of network services for enterprises
JP6405255B2 (ja) 通信システム、キュー管理サーバ、及び、通信方法
JP6582445B2 (ja) シンクライアントシステム、接続管理装置、仮想マシン稼働装置、方法、および、プログラム
JP2012043071A (ja) 調整システム、調整装置、調整方法、及びそのプログラム
JP5352367B2 (ja) 仮想マシン起動端末および仮想マシン起動プログラム
EP3037966A1 (en) System backup device and backup method
JP6525761B2 (ja) ウェブサーバ、管理システム、およびその制御方法
JP2016177324A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP7030412B2 (ja) 情報処理システム、及び制御方法
JP2004178290A (ja) 管理サーバ装置,apサーバ,及びプログラムを記憶した記憶媒体
US9154334B2 (en) Apparatus management device, apparatus configuration method, and storage medium
CN111338647B (zh) 一种大数据集群管理方法和装置
JP6568232B2 (ja) 計算機システム、及び、装置の管理方法
JP6551206B2 (ja) ファイル保存システム、サーバー、ファイル保存方法及びファイル保存プログラム
CN117806815B (zh) 数据处理方法、系统、电子设备及存储介质
WO2020066962A1 (ja) 設計管理装置、その制御方法、プログラム、及び、管理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190417

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190625

R151 Written notification of patent or utility model registration

Ref document number: 6548540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees