JP6597324B2 - オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム - Google Patents

オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム Download PDF

Info

Publication number
JP6597324B2
JP6597324B2 JP2016004063A JP2016004063A JP6597324B2 JP 6597324 B2 JP6597324 B2 JP 6597324B2 JP 2016004063 A JP2016004063 A JP 2016004063A JP 2016004063 A JP2016004063 A JP 2016004063A JP 6597324 B2 JP6597324 B2 JP 6597324B2
Authority
JP
Japan
Prior art keywords
threshold
information processing
virtual machines
processing apparatus
threshold value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016004063A
Other languages
English (en)
Other versions
JP2017126144A (ja
Inventor
晴貴 山梨
浩司 中園
沙綾子 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016004063A priority Critical patent/JP6597324B2/ja
Publication of JP2017126144A publication Critical patent/JP2017126144A/ja
Application granted granted Critical
Publication of JP6597324B2 publication Critical patent/JP6597324B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Debugging And Monitoring (AREA)

Description

本発明は、オートスケール技術に関する。
利用者の端末からの要求に応じてサービスを提供するクラウドシステムには、利用者の端末からのアクセス数の増加に応じて、仮想マシンの台数を増やす又は回線を増強するといったオートスケールの機能を備えるものがある。但し、災害などのイベントの発生時に利用者の端末からのアクセス数が急激に増加すると、オートスケールがアクセス数の急激な増加に追従できないことがある。この原因の一つに、アクセスログの解析を行う時間間隔が長いことがある。
一方で、アクセスログの解析を行う時間間隔を短くした場合には、アクセス数が閾値を超えると、閾値を超えたことを通知するためのアラームが短い時間間隔で頻繁に発生する。特に複数の仮想マシンに負荷が分散されているような場合、複数の仮想マシンの各々で頻繁にアラームが発生する。これにより、アラームの発生を監視するサーバ等の処理負荷が増大する。また、アラームの発生によってネットワークトラフィックが増大し、他の通信の通信速度を低下させることもある。
従来技術を利用したとしても、このような問題に対処することはできない。
特開2012−88797号公報 特開2006−302249号公報
本発明の目的は、1つの側面では、アクセス数に応じてオートスケールを実行するシステムにおいて、アクセスログの解析を行う時間間隔を短くした場合に問題が生じることを抑制するための技術を提供することである。
本発明に係る情報処理システムは、負荷分散の対象である複数の仮想マシンを実行する第1の情報処理装置と、第1の情報処理装置に接続された第2の情報処理装置とを有する。そして、複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンは、第1の仮想マシンに対するアクセスの数が第1の閾値を超えた場合、第1の仮想マシンに対するアクセスの数より大きい第2の閾値を、第2の情報処理装置に送信し、複数の仮想マシンの各々は、第2の情報処理装置から第2の閾値を受信した場合、アクセスの数の閾値を第1の閾値から第2の閾値に変更し、アクセスの数の閾値を第2の閾値に変更した後、第1の閾値を含む閾値データを第2の情報処理装置から受信した場合、アクセスの数の閾値を第1の閾値に戻し、第2の情報処理装置は、第1の仮想マシンから受信した第2の閾値を、複数の仮想マシンの各々に送信し、第1の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、第1の情報処理装置において実行される仮想マシンの台数が第2の台数に増やされた場合、第1の閾値を含む閾値データを、複数の仮想マシンの各々に送信する。
1つの側面では、アクセス数に応じてオートスケールを実行するシステムにおいて、アクセスログの解析を行う時間間隔を短くした場合に問題が生じることを抑制できるようになる。
図1は、本実施の形態におけるシステムの概要を示す図である。 図2は、監視サーバの機能ブロック図である。 図3は、閾値管理データ格納部に格納されるデータの一例を示す図である。 図4は、VM管理データ格納部に格納されるデータの一例を示す図である。 図5は、タスク管理データ格納部に格納されるデータの一例を示す図である。 図6は、クラウド管理サーバの機能ブロック図である。 図7は、LB管理データ格納部に格納されるデータの一例を示す図である。 図8は、VMの機能ブロック図である。 図9は、閾値テーブル格納部に格納される閾値テーブルの一例を示す図である。 図10は、閾値格納部に格納されるデータの一例を示す図である。 図11は、アクセスログ格納部に格納されるアクセスログの一例を示す図である。 図12は、初期状態において管理者が指定する閾値をVMに設定する処理の処理フローを示す図である。 図13は、運用中にVMが実行する処理の処理フローを示す図である。 図14は、運用中に監視サーバが実行する処理の処理フローを示す図である。 図15は、運用中にクラウド管理サーバが実行する処理の処理フローを示す図である。 図16は、運用中にVMが実行する処理の処理フローを示す図である。 図17は、閾値テーブル格納部に格納される閾値テーブルの一例を示す図である。 図18は、運用中にシステムにおいて行われる処理の処理フローを示す図である。 図19は、閾値及びアクセス数の変化について説明するための図である。 図20は、コンピュータのハードウエア構成図である。 図21は、運用サーバのハードウエア構成図である。
図1に、第1の実施の形態におけるシステムの概要を示す。例えばインターネットであるネットワーク10には、無線又は有線によってユーザ端末91乃至93が接続される。ユーザ端末91乃至93は、運用サーバ5の処理によって提供されるサービスを利用するユーザの端末であり、スマートフォン又はパーソナルコンピュータ等である。
ロードバランス装置7は、ユーザ端末91乃至93からのアクセスを、運用サーバ5におけるVM(Virtual Machine)1v乃至3vに振り分けることで、VM1v乃至3vの負荷を平準化する。VM1v乃至3vは、ユーザ端末91乃至93からのアクセスに応じた処理を実行する。本実施の形態におけるVMはグループ化されており、同じグループに属する複数のVMは同じ役割を有する。例えば、或る検索サイト用の複数のVMは同じグループに属し、その検索サイトの負荷は、1台のロードバランス装置7によってその複数のVMに分散される。
監視サーバ1は、VM1v乃至3vに設定すべき閾値をVM1v乃至3vに通知する。また、監視サーバ1は、負荷が閾値を超えたVMからアラームを受信した場合、クラウド管理サーバ3にスケールアウト要求を送信する。監視サーバ1からスケールアウト要求を受信した場合、クラウド管理サーバ3は、運用サーバ5にVMを追加配備する。
なお、図1においてユーザ端末の数及びVMの数は3であるが、数に限定は無い。また、監視サーバ1、クラウド管理サーバ3及びロードバランス装置7はVMであってもよい。
図2に、監視サーバ1の機能ブロック図を示す。監視サーバ1は、監視部11と、閾値管理データ格納部12と、VM管理データ格納部13と、タスク管理データ格納部14とを含む。
監視部11は、閾値管理データ格納部12に格納されているデータ、VM管理データ格納部13に格納されているデータ及びタスク管理データ格納部14に格納されているデータに基づき、VM1v乃至3vに設定すべき閾値を管理する処理を実行する。
図3に、閾値管理データ格納部12に格納されるデータの一例を示す。図3の例では、グループの識別情報と、そのグループに属するVMに設定される、監視レベル0の閾値(単位は回数毎秒)とが格納される。本実施の形態においては、監視レベル0以外の監視レベルの閾値は監視レベル0の閾値等を用いて算出される。これについては後で説明する。
図4に、VM管理データ格納部13に格納されるデータの一例を示す。図4の例では、運用サーバ5において実行される各VMについて、VMが属するグループの識別情報と、VMのIPアドレスとが格納される。本実施の形態においては、主に、グループに属するVMの台数を計数するために本データが使用される。
図5に、タスク管理データ格納部14に格納されるデータの一例を示す。図5の例では、タスクの識別情報と、グループの識別情報と、タスクの進捗状況を示す情報とが格納される。本実施の形態におけるタスクとは、クラウド管理サーバ3が実行するスケールアウトである。タスクの進捗状況は、クラウド管理サーバ3からの完了通知によって確認される。
図6に、クラウド管理サーバ3の機能ブロック図を示す。クラウド管理サーバ3は、VM管理部31と、VM管理データ格納部32と、LB(Load Balancer)管理データ格納部33とを含む。VM管理データ格納部32に格納されるデータは、VM管理データ格納部13に格納されるデータと同じである。
VM管理部31は、VM管理データ格納部32に格納されるデータ及びLB管理データ格納部33に格納されているデータに基づき、運用サーバ5において実行されているVM1v乃至3vを管理する処理を実行する。
図7に、LB管理データ格納部33に格納されるデータの一例を示す。図7の例では、グループの識別情報と、グループに属するVMに処理を振り分けるロードバランス装置7の識別情報と、ロードバランス装置7の識別情報と、ロードバランス装置7のIP(Internet Protocol)アドレスとが格納される。
図8に、運用サーバ5において実行されるVM1v乃至3vの機能ブロック図を示す。図8の例では、VMは、処理部51と、閾値テーブル格納部52と、閾値格納部53と、アクセスログ格納部54とを含む。
処理部51は、ユーザ端末91乃至93からのアクセスに応じた処理を実行する。また、処理部51は、閾値テーブル格納部52に格納されるデータ、閾値格納部53に格納されるデータ及びアクセスログ格納部54に格納されるデータに基づき、アクセス数が閾値を超えたことを検出する。なお、本実施の形態における「アクセス数」とは、単位時間あたりのアクセス数のことである。
図9に、閾値テーブル格納部52に格納される閾値テーブルの一例を示す。図9の例では、監視レベルと、閾値とが格納される。監視レベル0の閾値は、監視サーバ1の閾値管理データ格納部12に格納される閾値と同じである。
図10に、閾値格納部53に格納されるデータの一例を示す。図10の例では、実際に設定されている閾値とその監視レベルとが格納される。
図11に、アクセスログ格納部54に格納されるアクセスログの一例を示す。図11の例では、アクセスがあった時刻の情報と、アクセスに関するその他の情報とが格納される。但し、アクセスログは図11のようなデータフォーマットには限られない。
次に、図12乃至図19を用いて、本実施の形態のシステムにおいて行われる処理について説明する。まず、図12を用いて、初期状態において管理者が指定する閾値をVMに設定する処理について説明する。初期状態においては、各VMの閾値テーブル格納部52には閾値テーブルが格納されておらず、また、閾値格納部53には閾値が格納されていないものとする。
監視サーバ1における監視部11は、監視レベル0の閾値の入力を管理者から受け付ける(図12:ステップS1)。ここでは、特定のグループについて閾値が入力されたものとし、監視部11は、入力された閾値を特定のグループの識別情報に対応付けて閾値管理データ格納部12に格納する。
監視部11は、監視レベル0の閾値と特定のグループに属するVMの台数とに基づき、他の監視レベル(ここでは、監視レベル0以外の監視レベル)の閾値を算出する(ステップS3)。特定のグループに属するVMの台数は、VM管理データ格納部13に格納されたデータにより特定される。監視レベル0以外の監視レベルの閾値は、監視レベル0の閾値*(VMの台数+監視レベル)/VMの台数によって算出される。
監視部11は、各監視レベル(ここでは、監視レベル0及び監視レベル0以外の各監視レベル)の閾値を含むデータを、特定のグループに属する各VMに送信する(ステップS7)。各VMの宛先IPアドレスは、VM管理データ格納部13に格納されたデータによって特定される。
特定のグループに属する各VMの処理部51は、各監視レベルの閾値を含むデータを受信し、閾値テーブルを生成する(ステップS9)。そして、処理部51は、生成した閾値テーブルを閾値テーブル格納部52に格納する。
処理部51は、閾値テーブル格納部52から監視レベル0の閾値を読み出して閾値格納部53に格納し、アクセス数が監視レベル0の閾値を超えないか監視する(ステップS11)。本実施の形態においては、アクセスログ格納部54に格納されたアクセスログを予め定められた時間間隔で解析することでアクセス数が算出される。
次に、図13乃至図19を用いて、運用中にシステムにおいて行われる処理について説明する。
まず、或るグループに属するVM(ここでは、VM1vとする)は、監視を実行中である(図13:ステップS12)。
VM1vの処理部51は、監視サーバ1から監視レベルの変更通知を受信したか判定する(ステップS13)。監視レベルの変更通知を受信した場合(ステップS13:Yesルート)、処理部51は、変更後の監視レベルの閾値を変更通知から読み出す。そして、処理部51は、閾値格納部53に格納されている閾値を、変更後の監視レベルの閾値に変更し(ステップS15)、ステップS12の処理に戻る。
一方、監視レベルの変更通知を受信していない場合(ステップS13:Noルート)、処理部51は、VM1vに対するアクセスの数が閾値格納部53に格納されている閾値を超えたか判定する(ステップS17)。
VM1vに対するアクセスの数が閾値格納部53に格納されている閾値を超えていない場合(ステップS17:Noルート)、ステップS12の処理に戻る。一方、VM1vに対するアクセスの数が閾値格納部53に格納されている閾値を超えた場合(ステップS17:Yesルート)、処理部51は、閾値テーブルから、アクセス数以上の閾値のうち最小の閾値に対応する監視レベルを特定する(ステップS19)。
処理部51は、ステップS19において特定した監視レベル及びその監視レベルの閾値を含むアラームを監視サーバ1に送信する(ステップS21)。そして処理を終了する。なお、アラームは閾値を含まなくてもよい。
アラームの送信先である監視サーバ1の処理については、図14を用いて説明する。
まず、監視サーバ1の監視部11は、VM1vからアラームを受信する(図14:ステップS31)。
監視部11は、アラームの送信元のVMが属するグループを、VM管理データ格納部13から特定する(ステップS33)。アラームには送信元のVMのIPアドレスが含まれるので、IPアドレスをキーにしてVM管理データ格納部13からグループを特定することができる。
監視部11は、受信したアラームに含まれる監視レベル及び閾値を含む変更通知を、特定したグループに属する各VMに送信する(ステップS35)。グループに属するVMは、VM管理データ格納部13に格納されたデータによって特定される。変更通知を受信したVMが実行する処理については、図13を用いて説明したとおりである。
監視部11は、特定したグループに属するVMを追加配備することを要求するスケールアウト要求を、クラウド管理サーバ3に送信する(ステップS37)。スケールアウト要求は、特定したグループの識別情報と、追加配備するVMの台数(本実施の形態においては、変更後の監視レベルと変更前の監視レベルとの差によって算出される)とを含む。また、監視部11は、新規のタスクの識別情報に対応付けて、タスクの進捗状況を示す情報「proceeding」をタスク管理データ格納部14に格納する。スケールアウト要求を受信したクラウド管理サーバ3の処理については、後で説明する。
監視部11は、クラウド管理サーバ3から、スケールアウトが完了したことを示す完了通知を受信したか否かによって、スケールアウトが完了したか否かを判定する(ステップS39)。
スケールアウトが完了していない場合(ステップS39:Noルート)、ステップS39の処理に戻る。一方、スケールアウトが完了した場合(ステップS39:Yesルート)、監視部11は、完了通知に含まれる、追加配備されたVMの識別情報と、IPアドレスと、グループの識別情報とを、VM管理データ格納部13に格納する。そして、監視部11は、ステップS33において特定したグループの監視レベル0の閾値と、そのグループにおけるスケールアウト後のVMの台数とに基づき、監視レベル0以外の監視レベルの閾値を算出する(ステップS43)。ステップS43においては、ステップS3で説明した計算方法によって監視レベル0以外の監視レベルの閾値が算出される。そして、監視部11は、タスク管理データ格納部14に格納されている、タスクの進捗状況を示す情報を「proceeding」から「done」に変更する。
監視部11は、各監視レベルの閾値を含むデータを、ステップS33において特定したグループに属する各VM(追加配備されたVMを含む)に送信する(ステップS45)。そして処理は終了する。
ここで、図15を用いて、ステップS37において送信されたスケールアウト要求を受信したクラウド管理サーバ3が実行する処理について説明する。
まず、クラウド管理サーバ3におけるVM管理部31は、スケールアウト要求を監視サーバ1から受信する(図15:ステップS51)。
VM管理部31は、スケールアウト要求に含まれる情報に基づき、ステップS33において特定したグループのVMを指定された台数だけ運用サーバ5に追加配備するための処理を実行する(ステップS53)。ステップS53においては、運用サーバ5において新たにVMを起動する処理、及び、追加配備されたVMに対しても処理を振り分けることをロードバランス装置7(ロードバランス装置7はLB管理データ格納部33に格納されたデータによって特定される)に要求する処理が実行される。追加配備されたVMの閾値は、監視レベル0の閾値に設定され、追加配備されたVMは運用を開始する。
VM管理部31は、スケールアウトが完了すると、スケールアウトが完了したことを示し且つグループの識別情報を含む完了通知を監視サーバ1に送信する(ステップS55)。そして処理は終了する。完了通知は、追加配備されたVMの識別情報と、VMのIPアドレスと、VMが属するグループの識別情報とを含む。
次に、図16及び図17を用いて、ステップS45において送信されたデータを受信したVM(ここでは、VM1vとする)が実行する処理について説明する。
まず、VM1vの処理部51は、各監視レベルの閾値を含むデータを監視サーバ1から受信する(図16:ステップS61)。
処理部51は、ステップS61において受信したデータで、閾値テーブル格納部52に格納されている閾値テーブルを更新する(ステップS63)。処理部51は、閾値テーブル格納部52から監視レベル0の閾値を読み出して閾値格納部53に格納する。そして処理は終了する。
例えば、更新前の閾値テーブルが図9に示したような状態であるとする。すると、更新後の閾値テーブルは、例えば図17に示すようになる。図17に示すように、監視レベル0の閾値は更新前と変わらないが、監視レベル0以外の監視レベルの閾値は、VMの台数が増えたことによって更新前よりも小さくなっている。
次に、図13乃至図17を用いて説明した一連の処理について、図18に示すフローチャートによって説明を追加する。ここでは、監視サーバ1、VM1v及びVM2vの動作を例にして説明を行う。
運用中において、VM1vの処理部51はVM1vのアクセスログ格納部54に格納されたアクセスログを監視し(図18:ステップS71)、また、VM2vの処理部51はVM2vのアクセスログ格納部54に格納されたアクセスログを監視する(ステップS73)。上で述べたように、本実施の形態においては、アクセスログ格納部54に格納されたアクセスログを予め定められた時間間隔で解析することで単位時間当たりのアクセス数が算出される。
ここで、VM1vの処理部51は、アクセス数が監視レベル0の閾値を超えたことを検出する(ステップS75)。
VM1vの処理部51は、閾値テーブルから、アクセス数以上である閾値のうち最小の閾値に対応する監視レベル(以下、新規の監視レベルと呼ぶ)を特定し、新規の監視レベル及び新規の監視レベルの閾値を監視サーバ1に通知する(ステップS77)。
監視サーバ1の監視部11は、VM1vから新規の監視レベル及び新規の監視レベルの閾値を受信する(ステップS79)。
監視部11は、VM1vと同じグループに属する各VMに新規の監視レベル及び新規の監視レベルの閾値を含む変更通知を送信する(ステップS81)。
これに応じ、VM1vの処理部51は変更通知を受信し、閾値格納部53に格納されている閾値を変更通知に含まれる新規の閾値で更新する(ステップS83)。また、VM2vの処理部51は変更通知を受信し、閾値格納部53に格納されている閾値を変更通知に含まれる新規の閾値で更新する(ステップS85)。
一方、監視サーバ1の監視部11は、スケールアウト要求をクラウド管理サーバ3に送信し(ステップS87)、スケールアウトが完了するまで待機する(ステップS89)。
監視部11は、スケールアウト後のVM台数に基づいて算出された、各監視レベルの閾値を含むデータを、スケールアウトの完了後にVM1v及びVM2vに送信する(ステップS91)。
これに応じ、VM1vの処理部51は各監視レベルの閾値を含むデータを受信し、受信したデータによって閾値テーブルを更新する(ステップS93)。また、VM2vの処理部51は各監視レベルの閾値を含むデータを受信し、受信したデータによって閾値テーブルを更新する(ステップS95)。
図19を用いて、閾値及びアクセス数の変化について説明する。まず、或るグループに属するVMが2台である状態において、各VMの監視レベル0の閾値が10に設定されているとする。そして、アクセス数が増加して1VM当たりのアクセス数が18(すなわち、1グループ当たりのアクセス数が36)に達すると、アラームが監視サーバ1に通知される。
すると、監視サーバ1の処理によって各VMの閾値は20に変更される。この状態においてはアラームは発生しない。また、監視サーバ1及びクラウド管理サーバ3の処理によって、2台のVMが追加配備される。破線のVMは、配備中のVMであることを表す。
そして、2台のVMの追加配備が完了すると、1グループ当たりのアクセス数は変わらないが、1VM当たりのアクセス数は9になる。従って、閾値を10に戻したとしてもアラームは発生しない。
以上のように、監視レベル0の閾値を超えるアクセス回数になった場合に、グループ内の全VMの閾値をアラームを発生させない閾値に変更するため、アクセスログの解析を行う時間間隔を短くしたとしてもアラームの大量発生によってシステム内のネットワークに負荷をかけることがない。また、アラームが大量に発生することが無いため、監視サーバ1の負荷が増大することがない。さらに、VMを追加配備した後は閾値を監視レベル0の閾値に戻すため、さらにアクセス数が増大したことを検知できずにVMの処理性能が劣化してしまうことを防げる。
また、本実施の形態のように、アクセスログの監視をVM自身が行うようにすれば、アクセスログを他の装置(例えば監視サーバ1)に送信しなくてもよいため、アクセスログの取得及び解析を行う時間間隔を短くしたとしてもネットワークへの負荷が増大することがない。
また、監視サーバ1において生成した各監視レベルの閾値を各VMに配布するため、各VMに対して監視ツールを導入したりその設定を行わなくてもよい。
以上本発明の一実施の形態を説明したが、本発明はこれに限定されるものではない。例えば、上で説明した監視サーバ1、クラウド管理サーバ3及びVM1v乃至3vの機能ブロック構成は実際のプログラムモジュール構成に一致しない場合もある。
また、上で説明したデータ構造は一例であって、上記のようなデータ構造でなければならないわけではない。さらに、処理フローにおいても、処理結果が変わらなければ処理の順番を入れ替えることも可能である。さらに、並列に実行させるようにしても良い。
また、監視サーバ1から各VMにVM台数の情報を通知することで、閾値テーブルを生成するための閾値を各VMにおいて算出してもよい。
また、監視サーバ1及びクラウド管理サーバ3を複数設け、複数のサーバによって処理を分担してもよい。
なお、上で述べた監視サーバ1、クラウド管理サーバ3及びロードバランス装置7は、コンピュータ装置であって、図20に示すように、メモリ2501とCPU(Central Processing Unit)2503とハードディスク・ドライブ(HDD:Hard Disk Drive)2505と表示装置2509に接続される表示制御部2507とリムーバブル・ディスク2511用のドライブ装置2513と入力装置2515とネットワークに接続するための通信制御部2517とがバス2519で接続されている。オペレーティング・システム(OS:Operating System)及び本実施例における処理を実施するためのアプリケーション・プログラムは、HDD2505に格納されており、CPU2503により実行される際にはHDD2505からメモリ2501に読み出される。CPU2503は、アプリケーション・プログラムの処理内容に応じて表示制御部2507、通信制御部2517、ドライブ装置2513を制御して、所定の動作を行わせる。また、処理途中のデータについては、主としてメモリ2501に格納されるが、HDD2505に格納されるようにしてもよい。本発明の実施例では、上で述べた処理を実施するためのアプリケーション・プログラムはコンピュータ読み取り可能なリムーバブル・ディスク2511に格納されて頒布され、ドライブ装置2513からHDD2505にインストールされる。インターネットなどのネットワーク及び通信制御部2517を経由して、HDD2505にインストールされる場合もある。このようなコンピュータ装置は、上で述べたCPU2503、メモリ2501などのハードウエアとOS及びアプリケーション・プログラムなどのプログラムとが有機的に協働することにより、上で述べたような各種機能を実現する。
また、上で述べた運用サーバ5は、コンピュータ装置であって、図21に示すように、CPU501と、メモリ502と、HDD503とがバス504によって接続されている。その他のハードウエアがバス504に接続されていてもよい。VM1v乃至3vを実現するためのデータ及びプログラムはHDD503に格納されており、メモリ502にロードされてCPU501によって上記プログラムが実行されることによってVM1v乃至3vが実現される。
以上述べた本発明の実施の形態をまとめると、以下のようになる。
本実施の形態の第1の態様に係る情報処理システムは、(A)負荷分散の対象である複数の仮想マシンを実行する第1の情報処理装置と、(B)第1の情報処理装置に接続された第2の情報処理装置とを有する。そして、複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンは、(a1)第1の仮想マシンに対するアクセスの数が第1の閾値を超えた場合、第1の仮想マシンに対するアクセスの数より大きい第2の閾値を、第2の情報処理装置に送信し、複数の仮想マシンの各々は、(a2)第2の情報処理装置から第2の閾値を受信した場合、アクセスの数の閾値を第1の閾値から第2の閾値に変更し、(a3)アクセスの数の閾値を第2の閾値に変更した後、第1の閾値を含む閾値データを第2の情報処理装置から受信した場合、アクセスの数の閾値を第1の閾値に戻し、第2の情報処理装置は、(b1)第1の仮想マシンから受信した第2の閾値を、複数の仮想マシンの各々に送信し、(b2)第1の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、(b3)第1の情報処理装置において実行される仮想マシンの台数が第2の台数に増やされた場合、第1の閾値を含む閾値データを、複数の仮想マシンの各々に送信する。
このようにすれば、例えばアクセス数が増加してから仮想マシンを増設するまでの間に、第1の閾値を超えたことを示すアラームが第2の情報処理装置に対して大量に通知されることがなくなり、また、大量のアラームを第2の情報処理装置が処理する必要が無くなる。すなわち、アクセスログの解析を行う時間間隔を短くした場合に問題が生じることを抑制することができるようになる。さらに、仮想マシンの台数の増加後に閾値は第1の閾値に戻されるので、処理性能の劣化を抑制できるようになる。
また、第2の情報処理装置は、(b4)第1の閾値の監視レベル以外の各監視レベルについて、当該監視レベルと第2の台数との和を第1の閾値に乗じた値を、第2の台数で除することによって閾値を算出する処理をさらに実行してもよい。そして、閾値データは、第1の閾値と、第1の閾値の監視レベル以外の各監視レベルの閾値とを含んでもよい。このようにすれば、仮想マシンの台数の増加後にも適切な閾値を設定できるようになる。
また、2の情報処理装置は、(b5)第1の閾値の監視レベルと第2の閾値の監視レベルとの差に第1の台数を加えることで第2の台数を算出する処理をさらに実行してもよい。このようにすれば、仮想マシンの台数を増やせばアクセスの数が第1の閾値を超えないようになる。
また、第2の閾値は、第1の閾値より大きい閾値のうち最小の閾値であってもよい。これにより、必要最小限の仮想マシンを増やすことになるので、第2の情報処理装置の資源を無駄に消費することが無くなる。
また、本情報処理システムは、(C)第1の情報処理装置において実行される仮想マシンの台数を管理し、且つ、第1の情報処理装置及び第2の情報処理装置に接続された第3の情報処理装置をさらに有してもよい。そして、第1の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理は、(b21)第1の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすことを第3の情報処理装置に要求する処理を含んでもよい。このように、第3の情報処理装置を別に設けることで、第2の情報処理装置の負荷の状態に影響されることなく、仮想マシンの台数の制御を適切に行えるようになる。
本実施の形態の第2の態様に係るオートスケール方法は、(D)他のコンピュータにおいて実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、複数の仮想マシンの各々に送信し、(E)他のコンピュータにおいて実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、(F)他のコンピュータにおいて実行される仮想マシンの台数が第2の台数に増やされた場合、変更前の閾値であり且つ第1の閾値より小さい閾値である第2の閾値を含む閾値データを、複数の仮想マシンの各々に送信する処理を含む。
なお、上記方法による処理をプロセッサに行わせるためのプログラムを作成することができ、当該プログラムは、例えばフレキシブルディスク、CD−ROM、光磁気ディスク、半導体メモリ、ハードディスク等のコンピュータ読み取り可能な記憶媒体又は記憶装置に格納される。尚、中間的な処理結果はメインメモリ等の記憶装置に一時保管される。
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)
負荷分散の対象である複数の仮想マシンを実行する第1の情報処理装置と、
前記第1の情報処理装置に接続された第2の情報処理装置と、
を有し、
前記複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンは、
前記第1の仮想マシンに対するアクセスの数が第1の閾値を超えた場合、前記第1の仮想マシンに対するアクセスの数より大きい第2の閾値を、前記第2の情報処理装置に送信し、
前記複数の仮想マシンの各々は、
前記第2の情報処理装置から前記第2の閾値を受信した場合、アクセスの数の閾値を前記第1の閾値から前記第2の閾値に変更し、
アクセスの数の閾値を前記第2の閾値に変更した後、前記第1の閾値を含む閾値データを前記第2の情報処理装置から受信した場合、アクセスの数の閾値を前記第1の閾値に戻し、
前記第2の情報処理装置は、
前記第1の仮想マシンから受信した前記第2の閾値を、前記複数の仮想マシンの各々に送信し、
前記第1の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
前記第1の情報処理装置において実行される仮想マシンの台数が前記第2の台数に増やされた場合、前記第1の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
情報処理システム。
(付記2)
前記第2の情報処理装置は、
前記第1の閾値の監視レベル以外の各監視レベルについて、当該監視レベルと前記第2の台数との和を前記第1の閾値に乗じた値を、前記第2の台数で除することによって閾値を算出する、
処理をさらに実行し、
前記閾値データは、
前記第1の閾値と、前記第1の閾値の監視レベル以外の各監視レベルの閾値とを含む、
付記1記載の情報処理システム。
(付記3)
前記2の情報処理装置は、
前記第1の閾値の監視レベルと前記第2の閾値の監視レベルとの差に前記第1の台数を加えることで前記第2の台数を算出する、
処理をさらに実行する付記1又は2記載の情報処理システム。
(付記4)
前記第2の閾値は、
前記閾値データに含まれる、前記第1の閾値より大きい閾値のうち最小の閾値である、
付記2又は3記載の情報処理システム。
(付記5)
前記第1の情報処理装置において実行される仮想マシンの台数を管理し、且つ、前記第1の情報処理装置及び前記第2の情報処理装置に接続された第3の情報処理装置
をさらに有し、
前記第1の情報処理装置において実行される仮想マシンの台数を、前記第1の台数から前記第2の台数に増やすための処理は、
前記第1の情報処理装置において実行される仮想マシンの台数を、前記第1の台数から前記第2の台数に増やすことを前記第3の情報処理装置に要求する処理を含む、
付記1乃至4のいずれか1つ記載の情報処理システム。
(付記6)
情報処理装置であって、
他の情報処理装置において実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、前記複数の仮想マシンの各々に送信し、
前記他の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
前記他の情報処理装置において実行される仮想マシンの台数が前記第2の台数に増やされた場合、変更前の閾値であり且つ前記第1の閾値より小さい閾値である第2の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
情報処理装置。
(付記7)
コンピュータが、
他のコンピュータにおいて実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、前記複数の仮想マシンの各々に送信し、
前記他のコンピュータにおいて実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
前記他のコンピュータにおいて実行される仮想マシンの台数が前記第2の台数に増やされた場合、変更前の閾値であり且つ前記第1の閾値より小さい閾値である第2の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
処理を実行するオートスケール方法。
(付記8)
コンピュータに、
他のコンピュータにおいて実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、前記複数の仮想マシンの各々に送信し、
前記他のコンピュータにおいて実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
前記他のコンピュータにおいて実行される仮想マシンの台数が前記第2の台数に増やされた場合、変更前の閾値であり且つ前記第1の閾値より小さい閾値である第2の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
処理を実行させるオートスケールプログラム。
(付記9)
プロセッサとメモリとを含むハードウエアを有し且つ当該ハードウエア上において負荷分散の対象である複数の仮想マシンを実行する情報処理装置であって、
前記複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンは、
前記第1の仮想マシンに対するアクセスの数が第1の閾値を超えた場合、前記第1の仮想マシンに対するアクセスの数より大きい第2の閾値を、前記情報処理装置に接続された他の情報処理装置に送信し、
前記複数の仮想マシンの各々は、
前記他の情報処理装置から前記第2の閾値を受信した場合、アクセスの数の閾値を前記第1の閾値から前記第2の閾値に変更し、
アクセスの数の閾値を前記第2の閾値に変更した後、前記第1の閾値を含む閾値データを前記他の情報処理装置から受信した場合、アクセスの数の閾値を前記第1の閾値に戻す、
ことを特徴とする情報処理装置。
1 監視サーバ 3 クラウド管理サーバ
5 運用サーバ 7 ロードバランス装置
91,92,93 ユーザ端末 10 ネットワーク
1v,2v,3v VM 11 監視部
12 閾値管理データ格納部 13 VM管理データ格納部
14 タスク管理データ格納部 31 VM管理部
32 VM管理データ格納部 33 LB管理データ格納部
51 処理部 52 閾値テーブル格納部
53 閾値格納部 54 アクセスログ格納部

Claims (8)

  1. 負荷分散の対象である複数の仮想マシンを実行する第1の情報処理装置と、
    前記第1の情報処理装置に接続された第2の情報処理装置と、
    を有し、
    前記複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンは、
    前記第1の仮想マシンに対するアクセスの数が第1の閾値を超えた場合、前記第1の仮想マシンに対するアクセスの数より大きい第2の閾値を、前記第2の情報処理装置に送信し、
    前記複数の仮想マシンの各々は、
    前記第2の情報処理装置から前記第2の閾値を受信した場合、アクセスの数の閾値を前記第1の閾値から前記第2の閾値に変更し、
    アクセスの数の閾値を前記第2の閾値に変更した後、前記第1の閾値を含む閾値データを前記第2の情報処理装置から受信した場合、アクセスの数の閾値を前記第1の閾値に戻し、
    前記第2の情報処理装置は、
    前記第1の仮想マシンから受信した前記第2の閾値を、前記複数の仮想マシンの各々に送信し、
    前記第1の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
    前記第1の情報処理装置において実行される仮想マシンの台数が前記第2の台数に増やされた場合、前記第1の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
    情報処理システム。
  2. 前記第2の情報処理装置は、
    前記第1の閾値の監視レベル以外の各監視レベルについて、当該監視レベルと前記第2の台数との和を前記第1の閾値に乗じた値を、前記第2の台数で除することによって閾値を算出する、
    処理をさらに実行し、
    前記閾値データは、
    前記第1の閾値と、前記第1の閾値の監視レベル以外の各監視レベルの閾値とを含む、
    請求項1記載の情報処理システム。
  3. 前記2の情報処理装置は、
    前記第1の閾値の監視レベルと前記第2の閾値の監視レベルとの差に前記第1の台数を加えることで前記第2の台数を算出する、
    処理をさらに実行する請求項1又は2記載の情報処理システム。
  4. 前記第2の閾値は、
    前記閾値データに含まれる、前記第1の閾値より大きい閾値のうち最小の閾値である、
    請求項2又は3記載の情報処理システム。
  5. 前記第1の情報処理装置において実行される仮想マシンの台数を管理し、且つ、前記第1の情報処理装置及び前記第2の情報処理装置に接続された第3の情報処理装置
    をさらに有し、
    前記第1の情報処理装置において実行される仮想マシンの台数を、前記第1の台数から前記第2の台数に増やすための処理は、
    前記第1の情報処理装置において実行される仮想マシンの台数を、前記第1の台数から前記第2の台数に増やすことを前記第3の情報処理装置に要求する処理を含む、
    請求項1乃至4のいずれか1つ記載の情報処理システム。
  6. 情報処理装置であって、
    他の情報処理装置において実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、前記複数の仮想マシンの各々に送信し、
    前記他の情報処理装置において実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
    前記他の情報処理装置において実行される仮想マシンの台数が前記第2の台数に増やされた場合、変更前の閾値であり且つ前記第1の閾値より小さい閾値である第2の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
    情報処理装置。
  7. コンピュータが、
    他のコンピュータにおいて実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、前記複数の仮想マシンの各々に送信し、
    前記他のコンピュータにおいて実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
    前記他のコンピュータにおいて実行される仮想マシンの台数が前記第2の台数に増やされた場合、変更前の閾値であり且つ前記第1の閾値より小さい閾値である第2の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
    処理を実行するオートスケール方法。
  8. コンピュータに、
    他のコンピュータにおいて実行されている複数の仮想マシンのうちいずれかの仮想マシンである第1の仮想マシンから受信した第1の閾値を、前記複数の仮想マシンの各々に送信し、
    前記他のコンピュータにおいて実行される仮想マシンの台数を、第1の台数から第2の台数に増やすための処理を実行し、
    前記他のコンピュータにおいて実行される仮想マシンの台数が前記第2の台数に増やされた場合、変更前の閾値であり且つ前記第1の閾値より小さい閾値である第2の閾値を含む閾値データを、前記複数の仮想マシンの各々に送信する、
    処理を実行させるオートスケールプログラム。
JP2016004063A 2016-01-13 2016-01-13 オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム Active JP6597324B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016004063A JP6597324B2 (ja) 2016-01-13 2016-01-13 オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016004063A JP6597324B2 (ja) 2016-01-13 2016-01-13 オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム

Publications (2)

Publication Number Publication Date
JP2017126144A JP2017126144A (ja) 2017-07-20
JP6597324B2 true JP6597324B2 (ja) 2019-10-30

Family

ID=59364288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016004063A Active JP6597324B2 (ja) 2016-01-13 2016-01-13 オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム

Country Status (1)

Country Link
JP (1) JP6597324B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7011162B2 (ja) * 2018-02-05 2022-01-26 富士通株式会社 性能調整プログラム、および性能調整方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006099156A (ja) * 2004-09-28 2006-04-13 Sony Corp 情報処理装置および方法、並びにプログラム
JP4409498B2 (ja) * 2005-03-23 2010-02-03 株式会社日立製作所 管理コンピュータの制御方法、及びサーバの制御方法
JP2007249445A (ja) * 2006-03-15 2007-09-27 Hitachi Ltd クラスタシステムの負荷分散制御方法およびその装置

Also Published As

Publication number Publication date
JP2017126144A (ja) 2017-07-20

Similar Documents

Publication Publication Date Title
US10728175B2 (en) Adaptive service chain management
EP3281360B1 (en) Virtualized network function monitoring
US8656406B2 (en) Load balancer and load balancing system
EP3467652B1 (en) Data balancing method and device
JP2016103179A (ja) 計算機リソースの割り当て方法及び計算機システム
US20150263960A1 (en) Method and apparatus for cloud bursting and cloud balancing of instances across clouds
US20180285169A1 (en) Information processing system and computer-implemented method
JP6520512B2 (ja) 情報処理装置、優先度算出プログラムおよびデータセンタシステム
Dörterler et al. Multi-objective virtual machine placement optimization for cloud computing
JP2013187656A (ja) 分散型クラウドインフラのための網制御システム及び経路管理サーバ及び網制御方法及びプログラム
CN114564313A (zh) 负载调整方法、装置、电子设备及存储介质
JP6597324B2 (ja) オートスケール方法、オートスケールプログラム、情報処理装置及び情処理システム
JP2019028673A (ja) 管理装置および管理方法
JP2014167713A (ja) 情報処理装置、情報処理システム、情報処理装置管理プログラム及び情報処理装置管理方法
JP6186287B2 (ja) システムの管理サーバ及び制御方法
Zhu et al. Optimization model for primary and backup resource allocation with workload-dependent failure probability
JP2020038506A (ja) 情報処理システム、情報処理方法、及び、プログラム
JP2009087213A (ja) 計算機余力算出装置、計算機余力算出方法
US10476947B1 (en) Methods for managing web applications and devices thereof
JP6219771B2 (ja) 負荷分散装置、負荷分散方法、および、負荷分散システム
JP6131979B2 (ja) システム
CN115150216B (zh) 流量转发系统、方法和vBRAS的控制面设备
Qurani et al. Load Balancing for Virtual Resources Management in Data Center
EP4274176A1 (en) Data preservation for node evacuation in unstable nodes within a mesh
JP6834604B2 (ja) ネットワークリソース管理装置、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190702

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190916

R150 Certificate of patent or registration of utility model

Ref document number: 6597324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150