JP4824806B2 - Load management apparatus, information processing system, and load management method - Google Patents

Load management apparatus, information processing system, and load management method Download PDF

Info

Publication number
JP4824806B2
JP4824806B2 JP2009228703A JP2009228703A JP4824806B2 JP 4824806 B2 JP4824806 B2 JP 4824806B2 JP 2009228703 A JP2009228703 A JP 2009228703A JP 2009228703 A JP2009228703 A JP 2009228703A JP 4824806 B2 JP4824806 B2 JP 4824806B2
Authority
JP
Japan
Prior art keywords
load
state
unit
server group
time zone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009228703A
Other languages
Japanese (ja)
Other versions
JP2011076469A (en
Inventor
友雄 三崎
和彦 松政
真也 沖
敏宏 幸田
甫 小林
諭 岡野
毅 保呂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nomura Research Institute Ltd
Original Assignee
Nomura Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nomura Research Institute Ltd filed Critical Nomura Research Institute Ltd
Priority to JP2009228703A priority Critical patent/JP4824806B2/en
Publication of JP2011076469A publication Critical patent/JP2011076469A/en
Application granted granted Critical
Publication of JP4824806B2 publication Critical patent/JP4824806B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Power Sources (AREA)

Description

本発明は、並列処理における負荷管理装置、方法およびその装置を備える情報処理システムに関する。   The present invention relates to a load management apparatus and method in parallel processing, and an information processing system including the apparatus.

地球温暖化と言う問題が、昨今聞かれる。地球温暖化対策の一つとしては電力需要を減らすことがある。電力は一般的に水力発電、太陽光発電、風力発電、地熱発電などの自然由来の発電や、原子力を使う原子力発電や、ガス、石油、石炭などを燃料として燃やし発電を行う火力発電によって供給されている。この中でも特に火力発電は地球温暖化を進める大きな要因となっている。電力需要を減らせば火力発電の発電量も減らすことができるので、その分地球温暖化も抑止されうる。   The problem of global warming has been heard recently. One measure against global warming is to reduce demand for electricity. Electricity is generally supplied by hydropower, solar power, wind power, geothermal power, and other natural power generation, nuclear power generation using nuclear power, and thermal power generation that uses gas, oil, coal, etc. as fuel to generate power. ing. Of these, thermal power generation is a major factor in promoting global warming. Decreasing power demand can reduce the amount of thermal power generation, so global warming can be suppressed accordingly.

IT(Information Technology)やICT(Information and Communication Technology)の分野でも、コンピュータやネットワーク機器、データセンタ機器が消費する電力を低減する必要性が指摘され始めている。   In the fields of IT (Information Technology) and ICT (Information and Communication Technology), the necessity of reducing the power consumed by computers, network devices, and data center devices has begun to be pointed out.

近年のインターネットの普及により、多くのデータセンタは、ネットワーク接続型の形態を有しており、インターネットなどの外部のネットワークからの仕事要求を受けて処理を行う。これらのデータセンタのなかには、一度に多くのアクセスを処理するために複数の並列に配置されたサーバを備える構成を採用したものがある(特許文献1参照)。   With the spread of the Internet in recent years, many data centers have a network connection type, and perform processing in response to a job request from an external network such as the Internet. Some of these data centers employ a configuration including a plurality of servers arranged in parallel in order to process many accesses at once (see Patent Document 1).

このようなデータセンタを管理する運用管理システムとしては、株式会社野村総合研究所が提供する千手(登録商標)や株式会社日立製作所が提供するOpenTP1(登録商標)や富士通株式会社が提供するシステムウォーカーがある。
また、ネットワーク接続装置の消費電力低減装置が知られている(特許文献2参照)。
As an operation management system for managing such a data center, Sente (registered trademark) provided by Nomura Research Institute, Ltd., OpenTP1 (registered trademark) provided by Hitachi, Ltd., and a system provided by Fujitsu Ltd. There is a walker.
Further, a power consumption reduction device for a network connection device is known (see Patent Document 2).

特開2008−225793号公報JP 2008-225793 A 特開2007−97126号公報JP 2007-97126 A

城田 真琴、クラウドの衝撃、東洋経済新報社、2009年Makoto Shirota, Cloud Impact, Toyo Keizai Inc., 2009

現行の運用管理システムはロードバランサを備え、アクセス数が少ない場合でも個々のサーバに要求を分散させる。アクセス数によっては一部のサーバに要求が振られない場合もあり、そのようなサーバはアイドル状態で要求を待ち受けることになる。しかしながら、ユーザからのアクセスがなく仕事が発生していないアイドル状態でも、基本OS(operating system)機能とネットワークモニタリング等のタスクとが稼動しており相当の電力が消費されている。サーバ機器にもよるが、アイドル状態の消費電力は、概ね最大性能発揮時の消費電力の30%から70%であると考えられる。省エネの観点から見ると、サーバをアイドル状態に置いておくことは電力の無駄使いと言える。   The current operation management system has a load balancer and distributes requests to individual servers even when the number of accesses is small. Depending on the number of accesses, a request may not be distributed to some servers, and such a server waits for a request in an idle state. However, even in an idle state where there is no access from the user and no work is occurring, a basic OS (operating system) function and tasks such as network monitoring are operating, and considerable power is consumed. Although depending on the server device, the power consumption in the idle state is considered to be approximately 30% to 70% of the power consumption when the maximum performance is exhibited. From the viewpoint of energy saving, it can be said that leaving the server in an idle state is a waste of electric power.

また、近年クラウドと呼ばれるデータセンタサービスの形態が現れたが(非特許文献1参照)、上述の課題はこのクラウドにおいても生じうる。   In recent years, a form of data center service called a cloud has appeared (see Non-Patent Document 1), but the above-described problem can also occur in this cloud.

本発明はこうした課題に鑑みてなされたものであり、その目的は、要求の並列処理において消費電力を低減できる負荷管理装置の提供にある。   The present invention has been made in view of such problems, and an object thereof is to provide a load management apparatus capable of reducing power consumption in parallel processing of requests.

本発明のある態様は負荷管理装置に関する。この負荷管理装置は、ネットワークからの情報処理装置に対する要求の負荷を取得する負荷取得部と、過去に要求された負荷をもとに今後発生する負荷を予測する負荷予測部と、負荷予測部によって予測された負荷が所定の値より少ない場合、情報処理装置に含まれる少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する状態設定部と、を備える。   One embodiment of the present invention relates to a load management apparatus. The load management device includes a load acquisition unit that acquires a load of a request for an information processing device from a network, a load prediction unit that predicts a future load based on a load requested in the past, and a load prediction unit. A state setting unit that sets at least one request processing unit included in the information processing apparatus to a second state of power saving rather than a first state capable of accepting a request when the predicted load is less than a predetermined value; Is provided.

「要求」は、例えば情報処理装置に対する処理の要求であってもよい。
「負荷」は、例えば要求の量を示す値であってもよい。
The “request” may be a processing request for the information processing apparatus, for example.
The “load” may be a value indicating a request amount, for example.

この態様によると、過去に要求された負荷をもとに予測された負荷が少ない場合、少なくともひとつの要求処理ユニットを省電力の第2状態に設定することで、消費電力を低減できる。   According to this aspect, when the load predicted based on the load requested in the past is small, the power consumption can be reduced by setting at least one request processing unit to the second state of power saving.

本発明の別の態様は、情報処理システムである。この情報処理システムは、ネットワークからの要求を処理する情報処理装置と、情報処理装置を管理する負荷管理装置と、を備える。情報処理装置は、それぞれが要求の処理単位である複数の要求処理ユニットを含む。負荷管理装置は、ネットワークからの情報処理装置に対する要求の負荷を取得する負荷取得部と、過去に要求された負荷をもとに今後発生する負荷を予測する負荷予測部と、負荷予測部によって予測された負荷が所定の値より少ない場合、情報処理装置に含まれる少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する状態設定部と、を含む。   Another aspect of the present invention is an information processing system. The information processing system includes an information processing apparatus that processes a request from a network, and a load management apparatus that manages the information processing apparatus. The information processing apparatus includes a plurality of request processing units, each of which is a request processing unit. The load management device is predicted by a load acquisition unit that acquires a requested load for an information processing device from a network, a load prediction unit that predicts a future load based on a load requested in the past, and a load prediction unit A state setting unit configured to set at least one request processing unit included in the information processing apparatus to a second state of power saving rather than a first state capable of accepting a request when the applied load is less than a predetermined value; Including.

なお、以上の構成要素の任意の組み合わせや、本発明の構成要素や表現を装置、方法、システム、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で相互に置換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements, or those obtained by replacing the constituent elements and expressions of the present invention with each other between apparatuses, methods, systems, computer programs, recording media storing computer programs, and the like are also included in the present invention. It is effective as an embodiment of

本発明によれば、要求の並列処理において消費電力を低減できる。   According to the present invention, power consumption can be reduced in parallel processing of requests.

第1の実施の形態に係る情報処理システムおよびその周辺を示す概略図である。1 is a schematic diagram showing an information processing system and its surroundings according to a first embodiment. 図1におけるアクセスの流れを説明するための説明図である。It is explanatory drawing for demonstrating the flow of access in FIG. 図1のロードバランサの機能および構成を示すブロック図である。It is a block diagram which shows the function and structure of the load balancer of FIG. 図3の接続テーブルを示すデータ構造図である。It is a data structure figure which shows the connection table of FIG. 図3の第1サーバ群状態テーブルを示すデータ構造図である。It is a data structure figure which shows the 1st server group state table of FIG. 図1の負荷管理装置およびその周辺の機能および構成を示すブロック図である。It is a block diagram which shows the load management apparatus of FIG. 1, and its periphery function and structure. 図6の負荷履歴テーブルを示すデータ構造図である。It is a data structure figure which shows the load history table of FIG. 図8(a)〜(d)は、ステータス画面の代表画面図である。8A to 8D are representative screen diagrams of the status screen. 警告画面の代表画面図である。It is a typical screen figure of a warning screen. 状態設定画面の代表画面図である。It is a typical screen figure of a state setting screen. 図1の負荷管理装置における一連の処理を時系列に沿って示すチャートである。It is a chart which shows a series of processes in the load management apparatus of FIG. 1 along a time series. 図1の情報処理システムが証券会社のインターネット株取引システムを提供するデータセンタとして使用される場合の、負荷履歴テーブルの一例を示すデータ構造図である。FIG. 2 is a data structure diagram illustrating an example of a load history table when the information processing system of FIG. 1 is used as a data center that provides a securities company's Internet stock trading system. 図1の情報処理システムが検索サービスを提供するデータセンタとして使用される場合の、負荷履歴テーブルの一例を示すデータ構造図である。FIG. 2 is a data structure diagram illustrating an example of a load history table when the information processing system of FIG. 1 is used as a data center that provides a search service. 第2の実施の形態に係る負荷管理装置を有するクラウドコンピューティングシステムを示す概略図である。It is the schematic which shows the cloud computing system which has the load management apparatus which concerns on 2nd Embodiment. 図14の負荷管理装置およびその周辺の機能および構成を示すブロック図である。It is a block diagram which shows the load management apparatus of FIG. 14, and its periphery function and structure. 図14の負荷履歴テーブルを示すデータ構造図である。It is a data structure figure which shows the load history table of FIG. 図14のリソース状態テーブルを示すデータ構造図である。It is a data structure figure which shows the resource state table of FIG. 図14の電気料金テーブルを示すデータ構造図である。It is a data structure figure which shows the electricity bill table of FIG. 図14の表示制御部によってディスプレイに表示されるステータス画面の代表画面図である。It is a typical screen figure of the status screen displayed on a display by the display control part of FIG. オーバヘッドと性能のかねあいを説明するための、各サーバ群の稼働率を示すグラフである。It is a graph which shows the operation rate of each server group for demonstrating the balance between overhead and performance. 本発明のある実施の形態を大学の共用データセンタに適用した場合の負荷履歴テーブルを示すデータ構造図である。It is a data structure figure which shows the load history table at the time of applying one embodiment of this invention to the shared data center of a university.

以下、本発明を好適な実施の形態をもとに図面を参照しながら説明する。各図面に示される同一または同等の構成要素、部材、処理には、同一の符号を付するものとし、適宜重複した説明は省略する。   The present invention will be described below based on preferred embodiments with reference to the drawings. The same or equivalent components, members, and processes shown in the drawings are denoted by the same reference numerals, and repeated descriptions are omitted as appropriate.

(第1の実施の形態)
第1の実施の形態に係る負荷管理装置は、複数の並列に配置されたサーバ群でユーザからのアクセスを処理している情報処理システムの管理サーバとして好適に利用される。負荷管理装置は、ネットワークから情報処理システム宛に到来する要求の負荷を過去の運用実績から予測し、その予測値が少ない場合は不必要なサーバ群のOSを休眠させたり、サーバ群の電源自体をオフにする。そして残りのサーバ群に要求を割り当てる。これにより無駄な待機電力を削り情報処理システム全体の消費電力を低減できる。
(First embodiment)
The load management device according to the first embodiment is suitably used as a management server of an information processing system that processes access from a user with a plurality of servers arranged in parallel. The load management apparatus predicts a load of a request coming from the network to the information processing system from past operation results, and when the predicted value is small, sleeps an unnecessary OS of the server group, or power supply itself of the server group Turn off. Requests are then assigned to the remaining servers. As a result, useless standby power can be reduced and the power consumption of the entire information processing system can be reduced.

図1は、第1の実施の形態に係る情報処理システム2およびその周辺を示す概略図である。情報処理システム2は、ネットワーク接続型のデータセンタであり、例えば証券会社のインターネット株取引システムを提供するデータセンタである。情報処理システム2はネットワーク4と接続され、同じくネットワーク4に接続されている少なくともひとつのユーザ端末6から要求を受ける。ここで要求とは、例えばネットワーク4のユーザからのアクセスである。アクセスとは、ユーザ端末6と情報処理システム2のひとつのサーバ群とが接続を確立して一連の情報をやりとりすることである。異なるユーザ端末からのアクセスは異なるアクセスであり、同じユーザ端末からでも異なるアクセスがなされうる。
ネットワーク4は、例えばLAN(Local Area Network)・WAN(Wide Area Network)・インターネットである。ユーザ端末6は、ユーザが使用するコンピュータであり、例えば有線でネットワーク4に接続された家庭用デスクトップコンピュータや、無線でネットワーク4に接続されたラップトップコンピュータである。
FIG. 1 is a schematic diagram showing an information processing system 2 according to the first embodiment and its surroundings. The information processing system 2 is a network connection type data center, for example, a data center that provides an Internet stock trading system of a securities company. The information processing system 2 is connected to the network 4 and receives a request from at least one user terminal 6 that is also connected to the network 4. Here, the request is an access from a user of the network 4, for example. Access means that the user terminal 6 and one server group of the information processing system 2 establish a connection and exchange a series of information. Accesses from different user terminals are different accesses, and different accesses can be made from the same user terminal.
The network 4 is, for example, a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. The user terminal 6 is a computer used by the user, for example, a home desktop computer connected to the network 4 by wire or a laptop computer connected to the network 4 by wireless.

情報処理システム2は、負荷管理装置10と、情報処理装置20と、ロードバランサ30と、を備える。
ロードバランサ30は、ネットワーク4と接続され、また情報処理装置20に含まれる個々のサーバ群とバスBUSを介して接続される。ロードバランサ30は、データの流れの観点からは情報処理装置20とネットワーク4との間に位置し、ネットワーク4からの情報処理装置20に対するアクセスを仲介する。
ロードバランサ30はさらに、情報処理装置20に含まれる複数のサーバ群のうちアクセスを受付可能な状態(以下、稼動状態と称する)に設定されたサーバ群に、ユーザからのアクセスを割り当てる。
The information processing system 2 includes a load management device 10, an information processing device 20, and a load balancer 30.
The load balancer 30 is connected to the network 4 and is connected to individual server groups included in the information processing apparatus 20 via the bus BUS. The load balancer 30 is located between the information processing apparatus 20 and the network 4 from the viewpoint of data flow, and mediates access to the information processing apparatus 20 from the network 4.
The load balancer 30 further assigns access from the user to a server group set in a state where access can be accepted (hereinafter referred to as an operating state) among a plurality of server groups included in the information processing apparatus 20.

負荷管理装置10は、情報処理装置20およびロードバランサ30を管理する管理サーバである。負荷管理装置10は以下で説明する負荷予測機能などの他に、例えば株式会社野村総合研究所が提供する先手(登録商標)と同様のサーバ運用管理のための機能を搭載する。   The load management device 10 is a management server that manages the information processing device 20 and the load balancer 30. In addition to the load prediction function described below, for example, the load management apparatus 10 includes a function for server operation management similar to the predecessor (registered trademark) provided by Nomura Research Institute, Ltd., for example.

負荷管理装置10は、ネットワーク4からの負荷をロードバランサ30から取得して記録する一方、過去に要求された負荷をもとに今後発生する負荷を予測し、その予測された負荷が所定のモード切替値Moより少なくなると省電力モードに入る。この省電力モードでは負荷管理装置10は、アクセスの処理に不要なサーバ群を稼動状態よりも省電力の状態(以下、省電力状態と称する)に設定する。ここで負荷とは、例えばサーバ群が行う仕事の量を表す値であり、単位時間当たりのアクセスの数を基に定められる。例えば負荷は、単位時間当たりのアクセスの数と比例関係などの数学的関係を有する値であってもよい。また、負荷は単位時間当たりのアクセスの数に上限値または下限値若しくはその両方を課した値であってもよい。以下では、負荷が単に単位時間当たりのアクセスの数(以下、アクセス数と称す)である場合について説明する。
なお、予測された負荷がモード切替値Mo以上の場合は負荷管理装置10は全てのサーバ群を稼動状態に設定する。このモードを通常モードと呼ぶ。
The load management device 10 acquires and records the load from the network 4 from the load balancer 30, while predicting a load that will occur in the future based on the load requested in the past, and the predicted load is a predetermined mode. When it becomes less than the switching value Mo, the power saving mode is entered. In this power saving mode, the load management apparatus 10 sets a server group unnecessary for access processing to a power saving state (hereinafter referred to as a power saving state) rather than an operating state. Here, the load is a value representing the amount of work performed by the server group, for example, and is determined based on the number of accesses per unit time. For example, the load may be a value having a mathematical relationship such as a proportional relationship with the number of accesses per unit time. The load may be a value obtained by imposing an upper limit value, a lower limit value, or both on the number of accesses per unit time. Hereinafter, a case where the load is simply the number of accesses per unit time (hereinafter referred to as the number of accesses) will be described.
When the predicted load is equal to or higher than the mode switching value Mo, the load management device 10 sets all the server groups to the operating state. This mode is called a normal mode.

情報処理装置20は、ネットワーク4からのアクセスを処理する。情報処理装置20は、並列に配置された複数のサーバ群を含み、そのそれぞれのサーバ群はアクセスの処理単位である要求処理ユニットとして機能する。本実施の形態では情報処理装置20は、第1サーバ群22aと、第2サーバ群22bと、第3サーバ群22cと、第4サーバ群22dと、第5サーバ群22eと、を含む。しかしながら情報処理装置20が2つ以上の任意の数のサーバ群を含んでよいことは本明細書に触れた当業者には理解される。   The information processing apparatus 20 processes access from the network 4. The information processing apparatus 20 includes a plurality of server groups arranged in parallel, and each of the server groups functions as a request processing unit which is an access processing unit. In the present embodiment, the information processing apparatus 20 includes a first server group 22a, a second server group 22b, a third server group 22c, a fourth server group 22d, and a fifth server group 22e. However, it will be understood by those skilled in the art who have touched this specification that the information processing apparatus 20 may include any number of two or more servers.

第1サーバ群22aは、第1フロントエンドサーバ24aと、第1アプリケーションサーバ26aと、第1データベースサーバ28aと、を含む。これはいわゆる3階層のサーバ群であり、これら1セットでアクセスの処理単位を構成する。第1フロントエンドサーバ24aはバスBUSと接続される。第1フロントエンドサーバ24aは、ウェブサーバとも呼ばれ、HTTP(HyperText Transfer Protocol)に則り、ユーザ端末6のウェブブラウザに対して、HTML(HyperText Markup Language)や画像などのオブジェクトの表示を提供するサービスが動作するサーバコンピュータである。第1アプリケーションサーバ26aは、第1フロントエンドサーバ24aからジャバサーブレット(Java Servlet、ジャバは登録商標)の処理などのアプリケーションに関する機能を切り出して実現するサーバコンピュータである。第1データベースサーバ28aは、第1アプリケーションサーバ26aのアプリケーションが使用するデータが格納されるサーバコンピュータである。第1フロントエンドサーバ24a、第1アプリケーションサーバ26a、および第1データベースサーバ28aは、公知の情報処理技術を使用して実現される。本実施の形態では、第1フロントエンドサーバ24aと第1アプリケーションサーバ26aと第1データベースサーバ28aとは別個のサーバであり、この順に直列に接続されている。   The first server group 22a includes a first front-end server 24a, a first application server 26a, and a first database server 28a. This is a so-called three-layer server group, and one set of these constitutes an access processing unit. The first front end server 24a is connected to the bus BUS. The first front-end server 24a is also called a web server, and provides a service for displaying objects such as HTML (HyperText Markup Language) and images to the web browser of the user terminal 6 according to HTTP (HyperText Transfer Protocol). Is a server computer that operates. The first application server 26a is a server computer that implements functions related to applications such as Java Servlet (Java Servlet, Java is a registered trademark) processing from the first front-end server 24a. The first database server 28a is a server computer that stores data used by the application of the first application server 26a. The first front-end server 24a, the first application server 26a, and the first database server 28a are realized using a known information processing technique. In the present embodiment, the first front-end server 24a, the first application server 26a, and the first database server 28a are separate servers, and are connected in series in this order.

第2サーバ群22b、第3サーバ群22c、第4サーバ群22d、および第5サーバ群22eは、それぞれ第1サーバ群22aと同等の構成を有する。情報処理装置20では、第1サーバ群22a〜第5サーバ群22eのアクセスの処理能力はほぼ等しく設定される。第1サーバ群22a〜第5サーバ群22eはそれぞれ負荷管理装置10と接続され、負荷管理装置10によって管理される。   The second server group 22b, the third server group 22c, the fourth server group 22d, and the fifth server group 22e each have a configuration equivalent to that of the first server group 22a. In the information processing apparatus 20, the access processing capacities of the first server group 22a to the fifth server group 22e are set to be approximately equal. The first server group 22 a to the fifth server group 22 e are connected to the load management apparatus 10 and managed by the load management apparatus 10.

なお、個々のサーバ群に含まれるサーバは個々にもしくは全体としてOSに管理されている。個々のサーバ群の稼動状態は、ユーザからのアクセスを即時処理可能な状態である。この状態は、サーバ群がユーザからのアクセスを処理しつつ新たなアクセスを処理可能である状態と、ユーザからのアクセスがなく仕事が発生していないアイドル状態と、を含む。稼動状態では、たとえアイドル状態であっても少なくとも基本OS機能とネットワークモニタリングのタスクは稼動しており、その分電力を消費する。本発明者の当業者としての経験から、このアイドル状態での消費電力は、サーバ機器の種類によってピークアクセス数での稼動時のおよそ30%から70%の範囲にある。特に標準的なサーバ機器を用いる場合は60%程度である。ここでピークアクセス数とは、サーバ群がその処理速度を落とさずに稼動できるアクセス数の範囲の上限値であり、サーバ群ごとにその仕様を基に予め定められている。ここで処理速度とは、サーバ群におけるユーザからのアクセスの処理速度である。   The servers included in each server group are managed by the OS individually or as a whole. The operating state of each server group is a state in which access from a user can be processed immediately. This state includes a state in which the server group can process a new access while processing an access from the user, and an idle state in which there is no access from the user and no work is generated. In the operating state, even in the idle state, at least the basic OS function and the network monitoring task are operating, and power is consumed accordingly. From the experience of the present inventor as a person skilled in the art, the power consumption in the idle state is in the range of approximately 30% to 70% during operation at the peak access number depending on the type of server device. Especially when using a standard server device, it is about 60%. Here, the peak access count is an upper limit value of the range of access counts that a server group can operate without reducing its processing speed, and is determined in advance for each server group based on its specifications. Here, the processing speed is a processing speed of access from a user in the server group.

個々のサーバ群の省電力状態は、ユーザからのアクセスを即時処理できない状態である。この状態は、サーバ群へ電源は供給されているがそのサーバ群はユーザからのアクセスを処理できないOS休眠状態を含む。サーバ群は負荷管理装置10から休眠導入信号を受信するとOS休眠状態となる。このOS休眠状態では、サーバ群のOSは休眠(ハイボネート)しており、ユーザからのアクセスがあってもそれを受け付けない。OS休眠状態にあるサーバ群は負荷管理装置10から休眠解除信号を受信すると、稼動状態に復帰する。OS休眠状態から稼動状態に復帰するためには通常数秒から数十秒かかる。また本発明者の当業者としての経験から、OS休眠状態におけるサーバ群の消費電力は、ピークアクセス数での稼働時のおよそ5%から10%である。   The power saving state of each server group is a state where access from a user cannot be processed immediately. This state includes an OS sleep state in which power is supplied to the server group, but the server group cannot process access from the user. When the server group receives a dormancy introduction signal from the load management apparatus 10, the server group enters an OS dormant state. In this OS dormant state, the OS of the server group is dormant (hibonate) and does not accept it even if there is an access from the user. When the server group in the OS sleep state receives the sleep release signal from the load management device 10, it returns to the operating state. It usually takes several seconds to several tens of seconds to return from the OS sleep state to the operating state. Further, from the experience of the present inventor as a person skilled in the art, the power consumption of the server group in the OS sleep state is approximately 5% to 10% of the operation at the peak access number.

サーバ群の省電力状態はさらに、サーバ群への電源が遮断されている電源オフ状態を含む。サーバ群は負荷管理装置10から電源オフ信号を受信すると電源オフ状態となる。サーバ群は負荷管理装置10からWOL(Wake Up on LAN)信号などの電源オン信号を受信すると、稼動状態に復帰する。電源オフ状態から稼動状態に復帰するためには通常数分かかる。
詳細は後述するが、本実施の形態ではサーバ群が省電力状態から稼動状態に復帰するためにかかる時間(以下、オーバヘッドと称す)と、省電力状態で低減される消費電力とのかねあいで、省電力状態とされるサーバ群の数が決定される。つまり、予測されるアクセス数を処理するのに必要なぎりぎりの数のサーバ群だけを稼動状態とすると、突然のアクセス数の増大に対して対処できなくなる可能性がある。一方で稼動状態のサーバ群の数が多いほど待機電力由来の消費電力も大きくなる。そこでそれらの影響が拮抗するように、省電力状態とされるサーバ群の数が決定される。
The power saving state of the server group further includes a power off state in which power to the server group is cut off. When the server group receives the power-off signal from the load management apparatus 10, the server group enters a power-off state. When the server group receives a power-on signal such as a WOL (Wake Up on LAN) signal from the load management apparatus 10, the server group returns to an operating state. It usually takes several minutes to return from the power-off state to the operating state.
Although details will be described later, in the present embodiment, the time required for the server group to return from the power saving state to the operating state (hereinafter referred to as overhead) and the power consumption reduced in the power saving state, The number of server groups in the power saving state is determined. In other words, if only the server group having the minimum number necessary for processing the predicted number of accesses is put in an operating state, it may not be possible to cope with a sudden increase in the number of accesses. On the other hand, the power consumption derived from standby power increases as the number of active server groups increases. Therefore, the number of server groups to be placed in the power saving state is determined so that their influences are antagonized.

図2は、図1におけるアクセスの流れを説明するための説明図である。以下、1回のアクセスにおいて、少なくともひとつのパケットがユーザ端末6とアクセスが割り当てられたサーバ群との間でやりとりされる場合について説明する。このパケットは、送信元のIPアドレスであるソースIPアドレスSrcと、受信先のIPアドレスであるあて先IPアドレスDstと、後述するシーケンス番号と、を含む。多くの場合において一回のアクセスにつき複数個のパケットがユーザ端末6とサーバ群との間を行き来する。図2では第3サーバ群22cがアクセスに割り当てられたとする。ユーザ端末6のIPアドレスを「175.34.11.21」、ロードバランサ30のIPアドレスを「100.10.10.10」、第3サーバ群22cに含まれる第3フロントエンドサーバ24cのIPアドレスを「121.21.15.3」とする。   FIG. 2 is an explanatory diagram for explaining the flow of access in FIG. Hereinafter, a case where at least one packet is exchanged between the user terminal 6 and a server group to which access is assigned in one access will be described. This packet includes a source IP address Src that is a source IP address, a destination IP address Dst that is a destination IP address, and a sequence number described later. In many cases, a plurality of packets go back and forth between the user terminal 6 and the server group for each access. In FIG. 2, it is assumed that the third server group 22c is assigned to access. The IP address of the user terminal 6 is “175.34.11.21”, the IP address of the load balancer 30 is “100.10.10.10”, and the IP of the third front-end server 24c included in the third server group 22c. The address is “121.21.15.3”.

ロードバランサ30は、ユーザ端末6に対して仮想サーバとして働く。つまり、ネットワーク4では、ユーザが情報処理装置20が有する情報資源にアクセスしようとする場合、かかる情報資源のURL(Uniform Resource Locator)がロードバランサ30のIPアドレス「100.10.10.10」に名前解決されるよう設定されている。   The load balancer 30 functions as a virtual server for the user terminal 6. That is, in the network 4, when a user tries to access an information resource included in the information processing apparatus 20, the URL (Uniform Resource Locator) of the information resource is set to the IP address “100.10.10.10” of the load balancer 30. Name resolution is set.

まずユーザは、ユーザ端末6のウェブブラウザに対して情報処理装置20が有する情報資源のURLを指定する。ユーザ端末6のウェブブラウザによってソースIPアドレスSrcを「175.34.11.21」、あて先IPアドレスDstを「100.10.10.10」とした第1パケットP1が生成され、ネットワーク4に送られる。ロードバランサ30は第1パケットP1を受信し、稼動状態にあるサーバ群のなかから第3サーバ群22cを選択してこのアクセスを割り当てる。ロードバランサ30は、第1パケットP1のソースIPアドレスSrcはそのままにしてあて先IPアドレスDstを「121.21.15.3」とした第2パケットP2をバスBUSに送出する。第3サーバ群22cの第3フロントエンドサーバ24cは自己宛の第2パケットP2を受信し、第2パケットP2の指示にしたがい処理を行う。その処理の結果ユーザ端末6へ戻すべき情報は、ソースIPアドレスSrcを「121.21.15.3」、あて先IPアドレスDstを「175.34.11.21」とした第3パケットP3に含められ、第3フロントエンドサーバ24cからバスBUSに送出される。ロードバランサ30は第3パケットP3を受信する。ロードバランサ30は、第3パケットP3のあて先IPアドレスDstはそのままにしてソースIPアドレスSrcを「100.10.10.10」とした第4パケットP4をネットワーク4に送る。ユーザ端末6は自己宛の第4パケットP4をネットワーク4から受信する。
以下、ユーザ端末6からロードバランサ30に送られるパケット(第1パケットP1)を総称して行きパケット、ロードバランサ30から情報処理装置20へ送られるパケット(第2パケットP2)を総称して割当パケットという。
First, the user specifies the URL of the information resource that the information processing apparatus 20 has to the web browser of the user terminal 6. A first packet P1 having a source IP address Src of “175.34.11.21” and a destination IP address Dst of “100.10.10.10” is generated by the web browser of the user terminal 6 and sent to the network 4 It is done. The load balancer 30 receives the first packet P1, selects the third server group 22c from the server groups in the operating state, and allocates this access. The load balancer 30 sends the second packet P2 with the destination IP address Dst of “121.21.15.3” to the bus BUS while keeping the source IP address Src of the first packet P1. The third front end server 24c of the third server group 22c receives the second packet P2 addressed to itself, and performs processing according to the instruction of the second packet P2. Information to be returned to the user terminal 6 as a result of the processing is included in the third packet P3 in which the source IP address Src is “121.21.15.3” and the destination IP address Dst is “175.34.111.21”. And sent from the third front-end server 24c to the bus BUS. The load balancer 30 receives the third packet P3. The load balancer 30 sends the fourth packet P4 to the network 4 with the source IP address Src “100.10.10.10” while leaving the destination IP address Dst of the third packet P3 unchanged. The user terminal 6 receives the fourth packet P4 addressed to itself from the network 4.
Hereinafter, a packet (first packet P1) sent from the user terminal 6 to the load balancer 30 is generically referred to as a packet, and a packet (second packet P2) sent from the load balancer 30 to the information processing apparatus 20 is generically assigned packet. That's it.

図3は、ロードバランサ30の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPU(central processing unit)をはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 3 is a block diagram showing the function and configuration of the load balancer 30. Each block shown here can be realized by hardware such as a computer (CPU) (central processing unit) and other elements and mechanical devices, and software can be realized by a computer program or the like. Here, The functional block realized by those cooperation is drawn. Therefore, it is understood by those skilled in the art who have touched this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

ロードバランサ30は、第1記憶装置32と、要求取得部34と、要求割当部36と、負荷検出部38と、を備える。   The load balancer 30 includes a first storage device 32, a request acquisition unit 34, a request allocation unit 36, and a load detection unit 38.

第1記憶装置32は、第1サーバ群状態テーブル322と、接続テーブル324と、を含む。第1サーバ群状態テーブル322は、現在設定されているであろうサーバ群の状態を記憶するテーブルである。第1サーバ群状態テーブル322の詳細は後述する。   The first storage device 32 includes a first server group state table 322 and a connection table 324. The first server group state table 322 is a table that stores the state of the server group that will be currently set. Details of the first server group state table 322 will be described later.

接続テーブル324は、同一アクセス内のパケットは同じサーバ群へ送られること(以下、アクセスの同一性と称す)を保証するためのテーブルである。図4は、接続テーブル324を示すデータ構造図である。接続テーブル324には、後述する接続テーブル更新部368によってアクセスに対応するエントリ118が生成される。一回のアクセスに対してひとつのエントリが対応する。接続テーブル324のエントリ118は、アクセスしてきたユーザ端末6のIPアドレスであるユーザ端末IPアドレス210と、ロードバランサ30のIPアドレスであるロードバランサIPアドレス212と、ロードバランサ30によってそのアクセスに割り当てられたサーバ群のフロントエンドサーバのIPアドレスである割当サーバ群IPアドレス214と、ユーザ端末6が同一の場合にアクセスの異同を判別するためのシーケンス番号216と、を有する。同一ユーザ端末6において、異なるアクセスには異なるシーケンス番号216が割り振られる。以下、サーバ群のフロントエンドサーバのIPアドレスを単にサーバ群のIPアドレスと称す。   The connection table 324 is a table for guaranteeing that packets within the same access are sent to the same server group (hereinafter referred to as access identity). FIG. 4 is a data structure diagram showing the connection table 324. In the connection table 324, an entry 118 corresponding to access is generated by a connection table update unit 368 described later. One entry corresponds to one access. The entry 118 of the connection table 324 is assigned to the access by the user terminal IP address 210 that is the IP address of the user terminal 6 that has accessed, the load balancer IP address 212 that is the IP address of the load balancer 30, and the load balancer 30. The assigned server group IP address 214, which is the IP address of the front-end server of the server group, and the sequence number 216 for discriminating the difference in access when the user terminal 6 is the same. In the same user terminal 6, different sequence numbers 216 are assigned to different accesses. Hereinafter, the IP address of the front end server of the server group is simply referred to as the IP address of the server group.

図3に戻る。要求取得部34は、ネットワーク4と接続される。要求取得部34は、ネットワーク4から到来するユーザ端末6からのアクセスの行きパケットを取得する。この際、要求取得部34は行きパケットに含まれるあて先IPアドレスDstを基に自己宛のパケットであるか否かを判別する。要求取得部34は、取得した行きパケットを要求割当部36に渡す。   Returning to FIG. The request acquisition unit 34 is connected to the network 4. The request acquisition unit 34 acquires an access outbound packet from the user terminal 6 coming from the network 4. At this time, the request acquisition unit 34 determines whether the packet is addressed to itself based on the destination IP address Dst included in the outgoing packet. The request acquisition unit 34 passes the acquired outbound packet to the request allocation unit 36.

なお、本明細書において「渡す」とは、ある機能ブロックからある機能ブロックに情報要素に対する処理が移ることを意味する。要求取得部34と要求割当部36との間で言うと、渡すとは、例えば要求取得部34が図示しない一時メモリを有し、取得した行きパケットをそこに蓄えた上で、要求割当部36からの要請に応じて適宜行きパケットを一時メモリから要求割当部36に伝達することである。また渡すとは、第1記憶装置32が図示しない記憶領域を有し、要求取得部34は取得した行きパケットをその記憶領域に書き込み、要求割当部36は適宜その記憶領域から必要な行きパケットを読み出して処理することであってもよい。   In this specification, “pass” means that processing for an information element is transferred from a certain functional block to a certain functional block. Speaking between the request acquisition unit 34 and the request allocation unit 36, for example, the request acquisition unit 34 has a temporary memory (not shown) and stores the acquired outgoing packets in the request allocation unit 36. In response to a request from, the outgoing packet is transmitted from the temporary memory to the request allocation unit 36 as appropriate. In addition, passing means that the first storage device 32 has a storage area (not shown), the request acquisition unit 34 writes the acquired outbound packet to the storage area, and the request allocation unit 36 appropriately transmits the required outbound packet from the storage area. It may be read and processed.

要求割当部36は、ユーザ端末6からのアクセスの行きパケットを稼動状態にあるサーバ群のうちのひとつに割り当てる。要求割当部36は、同一接続判断部362と、サーバ群選択部364と、アドレス変換部366と、接続テーブル更新部368と、を含む。   The request assigning unit 36 assigns an access packet from the user terminal 6 to one of the server groups in the operating state. The request allocation unit 36 includes an identical connection determination unit 362, a server group selection unit 364, an address conversion unit 366, and a connection table update unit 368.

同一接続判断部362は、要求取得部34から行きパケットを取得し、その行きパケットが新規のアクセスによるものか否かを判別する。同一接続判断部362は、取得した行きパケットのソースIPアドレスSrcとシーケンス番号とを読み取る。同一接続判断部362は、読み取られたソースIPアドレスSrcとシーケンス番号とをキーとして接続テーブル324のエントリ118を検索し、それらと一致するエントリ118が存在する場合、そのエントリ118に含まれる割り当てられたサーバ群の割当サーバ群IPアドレス214を取得する。同一接続判断部362は、この取得された割当サーバ群IPアドレス214と行きパケットとをアドレス変換部366に渡す。   The same connection determination unit 362 acquires the outbound packet from the request acquisition unit 34 and determines whether the outbound packet is due to a new access. The same connection determination unit 362 reads the source IP address Src and sequence number of the acquired outbound packet. The same connection determination unit 362 searches the entry 118 of the connection table 324 using the read source IP address Src and sequence number as a key, and if there is an entry 118 that matches them, the assignment 118 included in the entry 118 is assigned. The assigned server group IP address 214 of the server group is acquired. The same connection determination unit 362 passes the acquired allocation server group IP address 214 and the outgoing packet to the address conversion unit 366.

なお、このように一致するエントリ118が存在する場合は、当該行きパケットは既にあるサーバ群(エントリ118の割当サーバ群IPアドレス214で指定されるサーバ群)に割り当てられたアクセスのなかのひとつのパケットである。アドレス変換部366は、渡された行きパケットのあて先IPアドレスDstを、同一接続判断部362によって接続テーブル324から取得された割当サーバ群IPアドレス214に変換する。このようにあて先IPアドレスDstが変換された行きパケットはアドレス変換部366から割当パケットとしてバスBUSに送出される。   When there is a matching entry 118 as described above, the outgoing packet is already one of the accesses assigned to a certain server group (the server group specified by the assigned server group IP address 214 of the entry 118). Packet. The address conversion unit 366 converts the destination IP address Dst of the passed packet to the assigned server group IP address 214 acquired from the connection table 324 by the same connection determination unit 362. The outgoing packet with the destination IP address Dst converted in this way is sent from the address conversion unit 366 to the bus BUS as an allocation packet.

一致するエントリ118が存在しない場合は、同一接続判断部362は当該行きパケットをサーバ群選択部364に渡す。この場合は同一接続判断部362は新規のアクセスを検知したと言うことができる。   If there is no matching entry 118, the identical connection determination unit 362 passes the outgoing packet to the server group selection unit 364. In this case, it can be said that the same connection determination unit 362 has detected a new access.

サーバ群選択部364は、同一接続判断部362から新規のアクセスに対応する行きパケットを受け取ると、第1サーバ群状態テーブル322を参照してそのアクセスを処理させるサーバ群を選択する。第1サーバ群状態テーブル322は、負荷管理装置10におけるアクセス数の予測に基づき負荷管理装置10によって更新される。
図5は、第1サーバ群状態テーブル322を示すデータ構造図である。第1サーバ群状態テーブル322は、サーバ群のIPアドレス202と、サーバ群の状態204と、サーバ群の稼働率206と、を対応付けて記憶する。サーバ群の稼働率206は、サーバ群のピークアクセス数に対する現在そのサーバ群が処理しているアクセス数の割合を%単位で示す。この稼働率206は、図示されない稼働率更新部によって、予め定められているサーバ群のピークアクセス数と、接続テーブル324から分かるサーバ群に現在割り当てられているアクセス数とから演算され更新されてもよい。あるいは、図示されない稼働率更新部が稼動状態にあるサーバ群から稼働率を取得し、第1サーバ群状態テーブル322の稼働率206を更新してもよい。または、負荷管理装置10によって更新されてもよい。
When the server group selection unit 364 receives an outbound packet corresponding to a new access from the same connection determination unit 362, the server group selection unit 364 refers to the first server group state table 322 and selects a server group to process the access. The first server group state table 322 is updated by the load management device 10 based on the prediction of the number of accesses in the load management device 10.
FIG. 5 is a data structure diagram showing the first server group state table 322. The first server group state table 322 stores the server group IP address 202, the server group state 204, and the server group operation rate 206 in association with each other. The server group operation rate 206 indicates the ratio of the number of accesses currently processed by the server group to the peak number of accesses of the server group in% units. The operating rate 206 is calculated and updated by an operating rate updating unit (not shown) from a predetermined peak access number of the server group and the access number currently assigned to the server group known from the connection table 324. Good. Alternatively, an operating rate update unit (not shown) may acquire an operating rate from a server group in an operating state, and update the operating rate 206 of the first server group state table 322. Alternatively, it may be updated by the load management device 10.

図3に戻る。サーバ群選択部364は、第1サーバ群状態テーブル322に登録されたサーバ群のなかからサーバ群の状態204を参照して稼動状態にあるサーバ群を抽出する。後述する負荷管理装置10によってロードバランサ30が省電力モードに設定されているか通常モードに設定されているかによって、サーバ群選択部364が稼動状態にあるサーバ群から新規のアクセスを処理させるサーバ群を選択するアルゴリズムは異なる。以下それぞれの場合について説明する。   Returning to FIG. The server group selection unit 364 refers to the server group state 204 from the server groups registered in the first server group state table 322, and extracts a server group in an operating state. Depending on whether the load balancer 30 is set to the power saving mode or the normal mode by the load management device 10 to be described later, the server group selection unit 364 selects a server group that processes a new access from the server group in the operating state. The algorithm chosen is different. Each case will be described below.

1.省電力モード
省電力モードでは、サーバ群選択部364は、稼動状態にあるサーバ群の稼働率が100%となるように、稼動状態にあるサーバ群から新規のアクセスを処理させるサーバ群を選択する。例えば図5の例では、サーバ群選択部364は新規のアクセスを処理させるサーバ群として第3サーバ群22cを選択する。また、例えば第1サーバ群22a、第2サーバ群22b、第3サーバ群22cが稼動状態に設定されており、第1サーバ群22aの稼働率が100%、第2サーバ群22bの稼働率が80%、第3サーバ群22cの稼働率が0%の場合、サーバ群選択部364は新規のアクセスを処理させるサーバ群として第2サーバ群22bを選択する。
1. Power Saving Mode In the power saving mode, the server group selection unit 364 selects a server group for processing a new access from the server group in the operating state so that the operating rate of the server group in the operating state is 100%. . For example, in the example of FIG. 5, the server group selection unit 364 selects the third server group 22c as a server group for processing new access. Further, for example, the first server group 22a, the second server group 22b, and the third server group 22c are set in an operating state, the operating rate of the first server group 22a is 100%, and the operating rate of the second server group 22b is When 80% and the availability factor of the third server group 22c is 0%, the server group selection unit 364 selects the second server group 22b as a server group for processing a new access.

2.通常モード
通常モードでは、全てのサーバ群が稼動状態にある。サーバ群選択部364は、予め設定されている負荷分散アルゴリズムにしたがって、新規のアクセスを処理させるのに最適なサーバ群を選択する。ここで使用される負荷分散アルゴリズムは、順番にサーバ群が選択されるラウンドロビン方式や、処理しているアクセス数が最小のサーバ群を選択する最小接続方式や、1番早く応答しているサーバ群を選択する最速方式などの公知のアルゴリズムである。
2. Normal mode In normal mode, all server groups are in operation. The server group selection unit 364 selects an optimal server group for processing a new access according to a preset load distribution algorithm. The load balancing algorithm used here is a round robin method in which servers are selected in order, a minimum connection method in which a server group with the smallest number of accesses being processed is selected, or a server that responds first This is a known algorithm such as a fastest method for selecting a group.

サーバ群選択部364は、選択されたサーバ群のIPアドレスと新規のアクセスに対応する行きパケットとをアドレス変換部366に渡す。アドレス変換部366は、渡された行きパケットのあて先IPアドレスDstを、サーバ群選択部364によって選択されたサーバ群のIPアドレスに変換する。このようにあて先IPアドレスDstが変換された行きパケットはアドレス変換部366から割当パケットとしてバスBUSに送出される。   The server group selection unit 364 passes the IP address of the selected server group and the outgoing packet corresponding to the new access to the address conversion unit 366. The address conversion unit 366 converts the destination IP address Dst of the passed packet to the IP address of the server group selected by the server group selection unit 364. The outgoing packet with the destination IP address Dst converted in this way is sent from the address conversion unit 366 to the bus BUS as an allocation packet.

接続テーブル更新部368は、サーバ群選択部364で新規のアクセスに対してサーバ群の選択が行われる毎に、その選択に関する情報をサーバ群選択部364から取得し、接続テーブル324に対応するエントリを追加する。この選択に関する情報は、新規のアクセスを行ったユーザのユーザ端末6のユーザ端末IPアドレス210と、ロードバランサIPアドレス212と、新規のアクセスに対して選択されたサーバ群の割当サーバ群IPアドレス214と、シーケンス番号216と、を含む。
また、接続テーブル更新部368は、適宜不要となったエントリを削除する。
Each time the server group selection unit 364 selects a server group for a new access, the connection table update unit 368 acquires information related to the selection from the server group selection unit 364, and an entry corresponding to the connection table 324. Add Information regarding this selection includes the user terminal IP address 210 of the user terminal 6 of the user who has made a new access, the load balancer IP address 212, and the assigned server group IP address 214 of the server group selected for the new access. And a sequence number 216.
Also, the connection table update unit 368 deletes entries that are no longer necessary.

負荷検出部38は、要求取得部34によって取得されたアクセスのアクセス数を周期的に検出する。負荷検出部38は、接続テーブル324を参照してエントリ118の数をカウントすることで、所定の時間間隔で情報処理装置20全体へのアクセス数(以下、総アクセス数と称す)を取得する。また負荷検出部38は、要求取得部34と要求割当部36との間の行きパケットの流れを監視し、所定の時間間隔でアクセスの数をカウントし、そのカウント数から単位時間当たりのアクセスの数、つまりアクセス数を導出してもよい。なお、負荷検出部38は要求取得部34の前段や要求割当部36の後段など、ロードバランサ30の任意の箇所で負荷を監視してもよい。負荷検出部38は、検出した総アクセス数を負荷管理装置10に渡す。   The load detection unit 38 periodically detects the access number of accesses acquired by the request acquisition unit 34. The load detection unit 38 refers to the connection table 324 and counts the number of entries 118, thereby acquiring the number of accesses to the entire information processing apparatus 20 (hereinafter referred to as the total number of accesses) at a predetermined time interval. The load detection unit 38 monitors the flow of outgoing packets between the request acquisition unit 34 and the request allocation unit 36, counts the number of accesses at a predetermined time interval, and determines the number of accesses per unit time from the counted number. The number, that is, the number of accesses may be derived. Note that the load detection unit 38 may monitor the load at an arbitrary location of the load balancer 30 such as a stage before the request acquisition unit 34 or a stage after the request allocation unit 36. The load detection unit 38 passes the detected total number of accesses to the load management apparatus 10.

負荷検出部38における上述の時間間隔は負荷管理装置10のモードを更新する基準となる時間間隔であり、負荷管理装置10によって定められる。以下、この時間間隔の長さを有する期間を時間帯と呼ぶ。つまり、時間間隔は例えば15分間隔であり、時間帯は例えば2009年9月16日の09:00−09:15である。   The above-described time interval in the load detection unit 38 is a time interval serving as a reference for updating the mode of the load management device 10 and is determined by the load management device 10. Hereinafter, a period having the length of this time interval is referred to as a time zone. That is, the time interval is, for example, 15 minutes, and the time zone is, for example, 09: 09: 00-09: 15 on September 16, 2009.

図6は、負荷管理装置10およびその周辺の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 6 is a block diagram showing functions and configurations of the load management device 10 and its periphery. Each block shown here can be realized by hardware and other elements such as a computer CPU and a mechanical device, and software can be realized by a computer program or the like. Draw functional blocks. Therefore, it is understood by those skilled in the art who have touched this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

負荷管理装置10は、第2記憶装置110と、負荷取得部120と、学習部130と、状態設定部140と、乖離判定部150と、オーバライド部160と、表示制御部170と、を備える。第2記憶装置110は、負荷履歴テーブル112と、第2サーバ群状態テーブル114と、を含む。
負荷取得部120は、ロードバランサ30の負荷検出部38からそこで検出された総アクセス数を取得する。つまり、負荷取得部120はネットワーク4からの情報処理装置20に対するアクセスの総アクセス数を取得する。負荷取得部120はこの総アクセス数をテーブル更新部132および乖離判定部150に渡す。後述する適応モードでは、負荷取得部120は取得した総アクセス数を予測総アクセス数の代わりに負荷比較部142に渡す。
The load management device 10 includes a second storage device 110, a load acquisition unit 120, a learning unit 130, a state setting unit 140, a deviation determination unit 150, an override unit 160, and a display control unit 170. The second storage device 110 includes a load history table 112 and a second server group state table 114.
The load acquisition unit 120 acquires the total number of accesses detected there from the load detection unit 38 of the load balancer 30. That is, the load acquisition unit 120 acquires the total number of accesses to the information processing apparatus 20 from the network 4. The load acquisition unit 120 passes this total number of accesses to the table update unit 132 and the deviation determination unit 150. In the adaptive mode described later, the load acquisition unit 120 passes the acquired total access number to the load comparison unit 142 instead of the predicted total access number.

学習部130は、テーブル更新部132と、負荷予測部134と、を含む。学習部130は、テーブル更新部132によって総アクセス数の履歴を負荷履歴テーブル112に記憶し、その記憶をふまえて負荷予測部134によって今後発生しうる総アクセス数を予測する。これにより、運用実績が長いほど省エネの観点からより賢くなる運用管理が可能となる。   The learning unit 130 includes a table update unit 132 and a load prediction unit 134. The learning unit 130 stores the history of the total number of accesses in the load history table 112 by the table update unit 132, and predicts the total number of accesses that can occur in the future by the load prediction unit 134 based on the storage. As a result, the longer the operation results, the smarter the operation management from the viewpoint of energy saving.

テーブル更新部132は、負荷取得部120によって取得された総アクセス数をもとに事前にないし事後的に、負荷履歴テーブル112を更新する。負荷履歴テーブル112はしたがって、過去に要求された総アクセス数を記録する。ここで事前に更新する、とは例えば総アクセス数にカウントされているアクセスがサーバ群によって処理される前若しくは処理されている間に更新するという意味であり、事後的に更新するとは例えばそのようなアクセスがサーバ群によって処理されてしまった後に更新するという意味である。あるいはまた、事前に更新するとは、総アクセス数にカウントされているアクセスがサーバ群によって確かに処理されることを前提として更新することであってもよく、事後的に更新するとはそのようなアクセスがサーバ群によって処理されたことを確認した後に更新することであってもよい。   The table update unit 132 updates the load history table 112 in advance or afterwards based on the total number of accesses acquired by the load acquisition unit 120. Therefore, the load history table 112 records the total number of accesses requested in the past. Here, updating in advance means that, for example, access counted in the total number of accesses is updated before or while being processed by the server group. This means updating after a large access has been processed by the servers. Alternatively, updating in advance may be updating on the assumption that the access counted in the total number of accesses is surely processed by the server group, and updating afterwards means such access. May be updated after confirming that has been processed by the server group.

図7は、負荷履歴テーブル112を示すデータ構造図である。負荷履歴テーブル112は、時間帯218と、その時間帯が属する属性220と、その時間帯に取得された総アクセス数222と、その時間帯に稼動状態に設定される稼動サーバ群の数224と、その時間帯の平均稼動率226と、を対応付けて記憶する。時間帯が属する属性220とは、例えば月曜日、火曜日などの曜日や、平日休日の別や、年末年始とそれ以外の別や、午前午後の別や、それらの任意の組み合わせである。平均稼働率226は、稼動状態に設定されるサーバ群の稼働率の平均値である。
テーブル更新部132は、稼動状態に設定される稼動サーバ群の数224を取得するために第2サーバ群状態テーブル114を参照してもよい。
FIG. 7 is a data structure diagram showing the load history table 112. The load history table 112 includes a time zone 218, an attribute 220 to which the time zone belongs, a total number of accesses 222 acquired in the time zone, and a number 224 of active server groups set in an operating state in the time zone. The average operation rate 226 in that time zone is stored in association with each other. The attribute 220 to which the time zone belongs is, for example, a day of the week such as Monday, Tuesday, a weekday holiday, a year-end / New Year holiday, a morning / afternoon, or any combination thereof. The average operating rate 226 is an average value of the operating rate of the server group set in the operating state.
The table updating unit 132 may refer to the second server group state table 114 in order to obtain the number 224 of active server groups set to the operating state.

図6に戻る。負荷予測部134は、過去に要求された総アクセス数をもとに今後発生する総アクセス数を予測する。負荷予測部134は、未来の時間帯毎に総アクセス数を予測する。後述の状態設定部140もまた、この時間帯毎に必要に応じてサーバ群の状態を設定する。特に負荷予測部134は、総アクセス数予測の対象となる時間帯(以下、予測対象の時間帯と称す)について負荷履歴テーブル112を参照して総アクセス数を予測する。以下、負荷予測部134によって予測される総アクセス数を予測総アクセス数と称す。   Returning to FIG. The load prediction unit 134 predicts the total number of accesses that will occur in the future based on the total number of accesses requested in the past. The load prediction unit 134 predicts the total number of accesses for each future time zone. The state setting unit 140 described later also sets the state of the server group as needed for each time period. In particular, the load predicting unit 134 refers to the load history table 112 and predicts the total number of accesses for a time zone for which the total number of accesses is to be predicted (hereinafter referred to as a time zone to be predicted). Hereinafter, the total number of accesses predicted by the load prediction unit 134 is referred to as a predicted total number of accesses.

負荷予測部134では、情報処理システム2が使用される目的に応じた総アクセス数の傾向(トレンド)を負荷履歴テーブル112から抽出する処理と、抽出された傾向に基づいて予測対象の時間帯の総アクセス数を予測する処理とが行われる。特に負荷予測部134では、時間帯の属性をキーとして総アクセス数の傾向が抽出される。   The load prediction unit 134 extracts the trend of the total number of accesses according to the purpose for which the information processing system 2 is used from the load history table 112, and the time zone to be predicted based on the extracted trend. Processing for predicting the total number of accesses is performed. In particular, the load prediction unit 134 extracts the tendency of the total number of accesses using the time zone attribute as a key.

負荷予測部134は予測対象の時間帯が属する属性に対応する総アクセス数を負荷履歴テーブル112から取得してその時間帯に対する予測総アクセス数とする。
例えば、曜日がキーとして設定された場合、負荷予測部134は負荷履歴テーブル112を参照し、曜日毎の総アクセス数の平均値を演算する。負荷予測部134は、これらの平均値のうち予測対象の時間帯の曜日にマッチする曜日の平均値を予測総アクセス数とする。また、例えば平日休日の別がキーとして設定された場合、負荷予測部134は負荷履歴テーブル112を参照し、平日の総アクセス数の平均値と休日の総アクセス数の平均値を演算する。負荷予測部134は、これらの平均値のうち予測対象の時間帯が平日であれば平日の、休日であれば休日の平均値を予測総アクセス数とする。
なお、ここでは一例として平均値を用いたが、代表値などの他の統計的なパラメータであってもよい。
The load prediction unit 134 acquires the total access number corresponding to the attribute to which the prediction target time zone belongs from the load history table 112 and sets the total access number for the time zone.
For example, when the day of the week is set as a key, the load prediction unit 134 refers to the load history table 112 and calculates the average value of the total number of accesses for each day of the week. The load predicting unit 134 sets the average value of the day of the week that matches the day of the week in the time zone to be predicted among these average values as the predicted total access count. Further, for example, when the distinction between weekdays and holidays is set as a key, the load prediction unit 134 refers to the load history table 112 and calculates the average value of the total number of accesses on weekdays and the average value of the total number of accesses on holidays. Of these average values, the load prediction unit 134 sets the average number of accesses to the average number of accesses on weekdays if the time zone to be predicted is a weekday and on holidays if it is a holiday.
Note that although the average value is used here as an example, other statistical parameters such as a representative value may be used.

負荷予測部134は予測総アクセス数を乖離判定部150および状態設定部140の負荷比較部142に渡す。   The load prediction unit 134 passes the predicted total number of accesses to the deviation determination unit 150 and the load comparison unit 142 of the state setting unit 140.

状態設定部140は、予測総アクセス数がモード切替値Moより少ない場合、予測対象の時間帯において情報処理装置20に含まれる少なくともひとつのサーバ群を省電力状態に設定し、負荷管理装置10およびロードバランサ30を省電力モードに設定する。なお、負荷管理装置10およびロードバランサ30は、状態設定部140によって省電力モードに設定されなければ、通常モードで動作するよう設定されている。   When the predicted total number of accesses is smaller than the mode switching value Mo, the state setting unit 140 sets at least one server group included in the information processing device 20 to the power saving state in the prediction target time zone, and sets the load management device 10 and The load balancer 30 is set to the power saving mode. Note that the load management device 10 and the load balancer 30 are set to operate in the normal mode unless the state setting unit 140 sets the power saving mode.

状態設定部140におけるモード切替値Moは、情報処理装置20の性能が落ちない範囲に設定される。ここで性能とは、例えばどれだけのアクセス数をどの程度の速さで処理できるかということである。あるいは性能とは、ひとつのアクセスが処理されるのにかかる時間などのレスポンスタイムであってもよい。また、情報処理装置20の性能が落ちる、とは、例えばあるサーバ群に対してピークアクセス数を越える数のアクセスが割り当てられ、その結果そのサーバ群の処理速度が落ちることにより情報処理装置20全体のアクセスの処理速度が落ちることである。   The mode switching value Mo in the state setting unit 140 is set in a range where the performance of the information processing apparatus 20 does not deteriorate. Here, the performance means, for example, how many accesses can be processed at what speed. Alternatively, the performance may be a response time such as a time taken to process one access. Moreover, the performance of the information processing apparatus 20 is reduced. For example, the number of accesses exceeding the peak access number is assigned to a certain server group, and as a result, the processing speed of the server group is lowered, so that the entire information processing apparatus 20 is reduced. The access processing speed is reduced.

例えば第1サーバ群22aから第5サーバ群22eのピークアクセス数が全て2000であるとする。この場合モード切替値Moを9000に設定すると、予測総アクセス数が8500であっても予測対象の時間帯で少なくともひとつのサーバ群を省電力状態に設定しなくてはならない。ここでは第5サーバ群22eを省電力状態に設定したとする。残りの4つのサーバ群22a〜22dのトータルのピークアクセス数は8000であり、予測総アクセス数8500よりも少ない。したがってこの場合、予測対象の時間帯が到来したときに、残りの4つのサーバ群22a〜22dのうちの少なくともひとつのサーバ群がピークアクセス数以上のアクセスを処理しなくてはならなくなる可能性が高くなり、その場合そのサーバ群の処理速度は低下する。これにより情報処理装置20全体の処理速度が落ちる可能性がある。このような状況を避けるために、モード切替値Moは情報処理装置20の性能が落ちない範囲に設定される。上述の例ではモード切替値Moは8000以下に設定されればよい。   For example, it is assumed that all the peak access numbers of the first server group 22a to the fifth server group 22e are 2000. In this case, when the mode switching value Mo is set to 9000, at least one server group must be set in the power saving state in the prediction target time zone even if the predicted total number of accesses is 8500. Here, it is assumed that the fifth server group 22e is set to the power saving state. The total peak access number of the remaining four server groups 22a to 22d is 8000, which is smaller than the predicted total access number 8500. Therefore, in this case, when the time zone to be predicted arrives, there is a possibility that at least one server group among the remaining four server groups 22a to 22d has to process accesses exceeding the peak access number. In this case, the processing speed of the server group decreases. As a result, the processing speed of the entire information processing apparatus 20 may be reduced. In order to avoid such a situation, the mode switching value Mo is set in a range where the performance of the information processing apparatus 20 does not deteriorate. In the above example, the mode switching value Mo may be set to 8000 or less.

状態設定部140は、サーバ群の最大性能を発揮せしめる前提で、アクセスを処理させるサーバ群を決定し、予測対象の時間帯において残りのサーバ群を省電力状態に設定する。この場合サーバ群の最大性能を発揮せしめる、とは、例えばサーバ群にピークアクセス数でアクセス処理を行わせることであり、言い換えるとサーバ群を100%の稼働率で使用することである。さらに状態設定部140は、予測総アクセス数の変動により情報処理装置20の性能が落ちると予測される場合には、予測対象の時間帯において省電力状態に設定されている少なくともひとつのサーバ群を稼動状態に設定する。   The state setting unit 140 determines a server group to process access on the premise that the maximum performance of the server group is exhibited, and sets the remaining server group in the power saving state in the prediction target time zone. In this case, maximizing the performance of the server group means, for example, that the server group performs access processing with the peak number of accesses, in other words, that the server group is used at an operation rate of 100%. Further, when it is predicted that the performance of the information processing apparatus 20 will be degraded due to a change in the predicted total number of accesses, the state setting unit 140 selects at least one server group that is set in the power saving state in the prediction target time zone. Set to operational state.

サーバ群を省電力状態または稼動状態に設定することに関して、状態設定部140では、予測対象の時間帯において稼動状態にするサーバ群の数に応じた予測総アクセス数の範囲が定められている。状態設定部140は例えば予測総アクセス数が0から第1しきい値T1の範囲にあれば予測対象の時間帯においてひとつのサーバ群のみを稼動状態とし、他のサーバ群を省電力状態とする。表1は、状態設定部140における状態設定に関して、稼動状態とするサーバ群の数と、OS休眠状態とするサーバ群の数と、電源オフ状態とするサーバ群の数と、予測総アクセス数の範囲と、の関係を示す。T2は第2しきい値、T3は第3しきい値であり、T1<T2<T3である。個々のしきい値は予め情報処理システム2の管理者によって設定される。

Figure 0004824806
Regarding the setting of the server group to the power saving state or the operating state, the state setting unit 140 defines a range of the predicted total number of accesses according to the number of server groups to be in the operating state in the prediction target time zone. For example, if the predicted total number of accesses is in the range from 0 to the first threshold value T1, the state setting unit 140 sets only one server group to the active state and sets the other server groups to the power saving state in the prediction target time zone. . Table 1 shows the number of server groups that are in the active state, the number of server groups that are in the OS sleep state, the number of server groups that are in the power-off state, and the predicted total number of accesses for the state setting in the state setting unit 140 The relationship with the range is shown. T2 is a second threshold value, T3 is a third threshold value, and T1 <T2 <T3. Individual threshold values are set in advance by an administrator of the information processing system 2.
Figure 0004824806

第1しきい値T1、第2しきい値T2、第3しきい値T3はそれぞれサーバ群を100%の稼働率で使用することを前提に設定される。つまり上述の第1サーバ群22aから第5サーバ群22eのピークアクセス数が全て2000であるとする例では、T1=2000、T2=4000、T3=6000である。この場合、予測総アクセス数のアクセスを処理するのに必要最低限の数のサーバ群が予測対象の時間帯において稼動状態とされる。また、例えば第1しきい値T1と第2しきい値T2との間にあった予測総アクセス数が増大して第2しきい値T2を越えた場合、そのままだと予測対象の時間帯において少なくともひとつのサーバ群の稼働率が100%を上回ると予測されるので、予測対象の時間帯において稼動状態とするサーバ群の数をひとつ増やして情報処理装置20の処理速度の低下を回避する。   The first threshold value T1, the second threshold value T2, and the third threshold value T3 are set on the assumption that the server group is used at an operation rate of 100%. That is, in the example in which all the peak access numbers of the first server group 22a to the fifth server group 22e are 2000, T1 = 2000, T2 = 4000, and T3 = 6000. In this case, the minimum number of server groups necessary for processing the access of the predicted total access count is set in the operating state in the prediction target time zone. For example, when the predicted total number of accesses between the first threshold value T1 and the second threshold value T2 increases and exceeds the second threshold value T2, if it remains as it is, at least one in the prediction target time zone. Since the operation rate of the server group is predicted to exceed 100%, the number of server groups that are in the operating state in the prediction target time zone is increased by one to avoid a decrease in the processing speed of the information processing apparatus 20.

状態設定部140は、負荷比較部142と、稼動サーバ群決定部144と、状態信号生成部146と、を含む。
負荷比較部142は、負荷予測部134から取得した予測総アクセス数と、第1しきい値T1、第2しきい値T2、第3しきい値T3、モード切替値Moとの大小関係を判別する。この大小関係は例えば「T2<予測総アクセス数<T3」という情報である。負荷比較部142はこの大小関係に関する情報を稼動サーバ群決定部144に渡す。
The state setting unit 140 includes a load comparison unit 142, an active server group determination unit 144, and a state signal generation unit 146.
The load comparison unit 142 determines the magnitude relationship between the predicted total number of accesses acquired from the load prediction unit 134 and the first threshold value T1, the second threshold value T2, the third threshold value T3, and the mode switching value Mo. To do. This magnitude relationship is, for example, information “T2 <predicted total access count <T3”. The load comparison unit 142 passes information on the magnitude relationship to the active server group determination unit 144.

稼動サーバ群決定部144は、この情報を基に表1のストラテジにしたがい、次の時間帯で状態の切替が必要な場合には、稼動状態とするサーバ群とOS休眠状態とするサーバ群と電源オフ状態とするサーバ群を決定する。稼動サーバ群決定部144は次の時間帯の到来に合わせて、この決定に基づき第2サーバ群状態テーブル114およびロードバランサ30の第1サーバ群状態テーブル322を更新する。稼動サーバ群決定部144は、次の時間帯の到来に合わせて、状態の切り替えが必要なサーバ群の情報を状態信号生成部146に渡す。稼動サーバ群決定部144は、状態の切り替えが必要ない場合には処理を中断または終了し、次の情報を待ち受ける。
第2サーバ群状態テーブル114は図5に示される第1サーバ群状態テーブル322と同様のテーブルである。なお、負荷管理装置10またはロードバランサ30のいずれか一方がサーバ群状態テーブルを備え、そのテーブルを備えない方が備える方のテーブルを参照する構成としてもよい。
Based on this information, the active server group determination unit 144 follows the strategy shown in Table 1, and when it is necessary to switch the state in the next time zone, the active server group and the server group to be in the OS sleep state A server group to be turned off is determined. The active server group determination unit 144 updates the second server group state table 114 and the first server group state table 322 of the load balancer 30 based on this determination in accordance with the arrival of the next time zone. The active server group determination unit 144 passes information on a server group that needs to be switched to the state signal generation unit 146 in accordance with the arrival of the next time zone. The active server group determination unit 144 suspends or terminates the process when it is not necessary to switch the state, and waits for the next information.
The second server group state table 114 is the same table as the first server group state table 322 shown in FIG. Note that either the load management device 10 or the load balancer 30 may include a server group state table and refer to a table provided by a person who does not include the table.

稼動サーバ群決定部144は、表1のストラテジから稼動状態、OS休眠状態および電源オフ状態とするサーバ群の数をまず決める。次に稼動サーバ群決定部144は第2サーバ群状態テーブル114を参照し、次の時間帯でサーバ群の状態を切り替える必要があるか、言い換えると負荷予測部134が予測した次の時間帯での予測総アクセス数に対応する各状態のサーバ群の数と第2サーバ群状態テーブル114に登録されている現在の各状態のサーバ群の数とが一致するか否かを判断する。そこで一致する場合は稼動サーバ群決定部144は処理を中断または終了する。   The active server group determination unit 144 first determines the number of server groups to be set in the active state, the OS sleep state, and the power-off state from the strategy shown in Table 1. Next, the active server group determination unit 144 refers to the second server group state table 114, and it is necessary to switch the server group state in the next time zone, in other words, in the next time zone predicted by the load prediction unit 134. It is determined whether or not the number of server groups in each state corresponding to the predicted total number of accesses matches the number of server groups in each current state registered in the second server group state table 114. If they match, the active server group determination unit 144 interrupts or ends the process.

一致しない場合は、稼動サーバ群決定部144は次の時間帯でそれぞれの状態にするサーバ群を決める。ここでそれぞれの状態にするサーバ群を決めるアルゴリズムは、例えば稼動状態、OS休眠状態、電源オフ状態の順番で第1サーバ群22aから第5サーバ群22eに順番に割り当てる方式である。言い換えると、サーバ群の状態を切り替える必要がある場合、稼動状態にあるサーバ群はなるべく稼動状態のままでおいておく方式である。この場合、サーバ群の状態を切り替える回数が少なくてすみ、切り替えに伴うオーバヘッドの低減、レスポンスの高速化に寄与する。また、オーバヘッドが気にならない間隔(例えば、一週間や一月)でランダムに設定してもよい。この場合、サーバ機器のHDD(Hard Disk Drive)などの消耗品の耐用年数を平均化できる。また、サーバ群の性能が異なる場合は、その異なる性能に基づき決めてもよい。   If they do not match, the active server group determination unit 144 determines a server group to be in each state in the next time zone. Here, an algorithm for determining a server group to be set in each state is a method in which, for example, the first server group 22a to the fifth server group 22e are sequentially assigned in the order of the operating state, the OS sleep state, and the power-off state. In other words, when it is necessary to switch the state of the server group, the server group in the operating state is kept in the operating state as much as possible. In this case, the number of times of switching the state of the server group can be reduced, which contributes to a reduction in overhead associated with switching and an increase in response speed. Alternatively, it may be set randomly at intervals (for example, one week or one month) where the overhead is not a concern. In this case, the service life of consumables such as HDD (Hard Disk Drive) of the server device can be averaged. Moreover, when the performance of a server group differs, you may decide based on the different performance.

なお、稼動サーバ群決定部144でのサーバ群を決める上述のアルゴリズムでは、特に稼動状態を省電力状態に切り替える場合は、アクセスの同一性が考慮されてもよい。例えば、稼動サーバ群決定部144は、稼動状態を省電力状態に切り替える場合、次の時間帯の到来に合わせて第2サーバ群状態テーブル114および第1サーバ群状態テーブル322を更新して省電力状態に切り替えるべきサーバ群への新規アクセスの割り当てを制限する一方、ロードバランサ30の接続テーブル324を参照し、省電力状態に切り替えるべきサーバ群へのアクセスがなくなったことを確認してから状態の切り替えが必要なサーバ群の情報を状態信号生成部146に渡してもよい。これによりアクセスの同一性が保証されうる。   In the above-described algorithm for determining the server group in the active server group determining unit 144, access identity may be taken into consideration particularly when the operating state is switched to the power saving state. For example, when switching the operating state to the power saving state, the active server group determining unit 144 updates the second server group state table 114 and the first server group state table 322 in accordance with the arrival of the next time zone, thereby saving power. While restricting the allocation of new access to the server group to be switched to the state, referring to the connection table 324 of the load balancer 30 and confirming that there is no access to the server group to be switched to the power saving state, Information on the server group that needs to be switched may be passed to the state signal generation unit 146. As a result, access identity can be guaranteed.

状態信号生成部146は第1サーバ群22a〜第5サーバ群22eに接続される。
状態信号生成部146は、状態の切り替えが必要なサーバ群の情報に基づきそのサーバ群に対して切替に対応する休眠導入信号、休眠解除信号、電源オフ信号、および電源オン信号のうちのいずれかを送る。例えば第3サーバ群22cを稼動状態(OS休眠状態)からOS休眠状態(稼動状態)とする必要がある場合、状態信号生成部146は第3サーバ群22cに対して休眠導入信号(休眠解除信号)を送出する。また、第3サーバ群22cを稼動状態(電源オフ状態)から電源オフ状態(稼動状態)とする必要がある場合、状態信号生成部146は第3サーバ群22cに対して電源オフ信号(電源オン信号)を送出する。
状態信号生成部146によって省電力状態から稼動状態に設定されたサーバ群は、それが稼動状態であることが稼動サーバ群決定部144によってロードバランサ30の第1サーバ群状態テーブル322に記録されるので、ロードバランサ30の要求割当部36によって新規のアクセスが割り当てられる。
The status signal generation unit 146 is connected to the first server group 22a to the fifth server group 22e.
The state signal generation unit 146 is one of a dormancy introduction signal, a dormancy release signal, a power off signal, and a power on signal corresponding to the switching of the server group based on the information of the server group that needs to be switched. Send. For example, when it is necessary to change the third server group 22c from the operating state (OS sleep state) to the OS sleep state (operating state), the state signal generation unit 146 sends a sleep introduction signal (sleep release signal) to the third server group 22c. ). Further, when it is necessary to change the third server group 22c from the operating state (power off state) to the power off state (operating state), the state signal generation unit 146 sends a power off signal (power on) to the third server group 22c. Signal).
The server group set by the status signal generation unit 146 from the power saving state to the operation state is recorded in the first server group state table 322 of the load balancer 30 by the operation server group determination unit 144 as being in the operation state. Therefore, a new access is allocated by the request allocation unit 36 of the load balancer 30.

ロードバランサ30の負荷検出部38における検出の時間間隔に関し、負荷管理装置10は図示しない時間間隔設定部を有し、時間間隔設定部は総アクセス数の変動率を監視し、変動率が大きいほど時間間隔を短く設定してもよい。これにより、より適応的なサーバ群状態の制御が可能となる。また、処理を簡素化するという観点からは時間間隔は情報処理システム2の管理者によって予め定められてもよい。   Regarding the detection time interval in the load detection unit 38 of the load balancer 30, the load management apparatus 10 has a time interval setting unit (not shown), and the time interval setting unit monitors the variation rate of the total number of accesses. The time interval may be set short. Thereby, more adaptive control of the server group state becomes possible. Further, from the viewpoint of simplifying the processing, the time interval may be determined in advance by the administrator of the information processing system 2.

負荷管理装置10は、予測総アクセス数を基に状態設定部140でサーバ群の状態を設定する上述の負荷予測モードの他に、負荷取得部120で取得された総アクセス数を基に状態設定部140でサーバ群の状態を適応的に設定する適応モードを有する。以下、この適応モードについて説明する。   The load management device 10 sets the state based on the total number of accesses acquired by the load acquisition unit 120 in addition to the above-described load prediction mode in which the state setting unit 140 sets the state of the server group based on the predicted total number of accesses. The unit 140 has an adaptive mode for adaptively setting the state of the server group. Hereinafter, this adaptive mode will be described.

乖離判定部150は、予測された総アクセス数と実際の総アクセス数との差が大きい、つまりその差の絶対値が所定の乖離値よりも大きい場合、状態設定部140に実際の総アクセス数に基づいてサーバ群の状態を設定せしめる。
乖離判定部150は、負荷取得部120からロードバランサ30で検出された現在の時間帯に対応する総アクセス数を取得する。また乖離判定部150は負荷予測部134から現在の時間帯に対して予測された予測総アクセス数も取得する。そして乖離判定部150は、両者の差を演算する。その差の絶対値が乖離値より大きい場合は、乖離判定部150は状態設定部140の負荷比較部142に、予測総アクセス数の代わりに負荷取得部120からの総アクセス数を使用させる。この場合負荷比較部142は、負荷取得部120からの総アクセス数と、第1しきい値T1、第2しきい値T2、第3しきい値T3、モード切替値Moとの大小関係を判別する。状態設定部140はかかる大小関係を使用して上述の処理と同様の処理を行う。これにより状態設定部140は、予測された総アクセス数と実際の総アクセス数との差が大きい場合に、実際の総アクセス数に応じて適応的にサーバ群の状態を設定することができる。
When the difference between the predicted total number of accesses and the actual total number of accesses is large, that is, when the absolute value of the difference is larger than a predetermined divergence value, the divergence determination unit 150 causes the state setting unit 140 to Let the server group state be set based on
The deviation determination unit 150 acquires the total number of accesses corresponding to the current time zone detected by the load balancer 30 from the load acquisition unit 120. The divergence determination unit 150 also acquires the predicted total number of accesses predicted for the current time zone from the load prediction unit 134. The deviation determination unit 150 calculates the difference between the two. When the absolute value of the difference is larger than the deviation value, the deviation determination unit 150 causes the load comparison unit 142 of the state setting unit 140 to use the total access number from the load acquisition unit 120 instead of the predicted total access number. In this case, the load comparison unit 142 determines the magnitude relationship between the total number of accesses from the load acquisition unit 120 and the first threshold value T1, the second threshold value T2, the third threshold value T3, and the mode switching value Mo. To do. The state setting unit 140 performs the same processing as described above using the magnitude relationship. Thereby, the state setting unit 140 can adaptively set the state of the server group according to the actual total number of accesses when the difference between the predicted total number of accesses and the actual total number of accesses is large.

また、負荷管理装置10は、情報処理システム2の管理者がマニュアルでサーバ群の状態を設定できるマニュアル設定モードも有する。オーバライド部160は、負荷管理装置10に付随するキーボードなどの入力装置12から管理者によるマニュアル設定を受け付ける。オーバライド部160はこのマニュアル設定を受け付けると状態設定部140に、このマニュアル設定に基づいてサーバ群の状態を設定せしめる。これにより急激な使用環境の変化にも対応可能となる。   The load management device 10 also has a manual setting mode in which an administrator of the information processing system 2 can manually set the state of the server group. The override unit 160 receives a manual setting by the administrator from the input device 12 such as a keyboard attached to the load management device 10. Upon receiving this manual setting, the override unit 160 causes the state setting unit 140 to set the state of the server group based on the manual setting. This makes it possible to cope with sudden changes in the usage environment.

表示制御部170は、負荷取得部120からは現在の時間帯における総アクセス数を、第2サーバ群状態テーブル114からは現在のサーバ群の状態を、取得する。表示制御部170は、負荷管理装置10に付随するディスプレイ14に総アクセス数とサーバ群の状態とを示すステータス画面400a〜400d(図8(a)〜(d)で後述)を表示させる。また、表示制御部170は、乖離判定部150において予測された総アクセス数と実際の総アクセス数との差の絶対値が乖離値よりも大きいと判断された場合、ディスプレイ14に警告画面402(図9で後述)を表示させる。また、表示制御部170は、管理者によるマニュアル設定のための状態設定画面404(図10で後述)をディスプレイ14に表示させる。   The display control unit 170 acquires the total number of accesses in the current time zone from the load acquisition unit 120 and the current server group state from the second server group state table 114. The display control unit 170 displays status screens 400a to 400d (described later in FIGS. 8A to 8D) indicating the total number of accesses and the state of the server group on the display 14 associated with the load management apparatus 10. When the absolute value of the difference between the total number of accesses predicted by the deviation determination unit 150 and the actual total number of accesses is determined to be larger than the deviation value, the display control unit 170 displays a warning screen 402 ( (Described later in FIG. 9) is displayed. Further, the display control unit 170 causes the display 14 to display a state setting screen 404 (described later in FIG. 10) for manual setting by the administrator.

図8(a)〜(d)は、ステータス画面400a〜400dの代表画面図である。ここでは、第1サーバ群22aから第5サーバ群22eのピークアクセス数が全て2000であるとする。図8(a)〜図8(d)はそれぞれ現在の時間帯における総アクセス数が1600、2800、4400、7000の場合に対応する。
図8(a)は、現在の時間帯における総アクセス数が1600の場合に対応するステータス画面400aの代表画面図である。ステータス画面400aは、総アクセス数領域406と、グラフ408と、オーバライドボタン410と、を含む。総アクセス数領域406は、現在の時間帯における総アクセス数を示す。グラフ408は、各サーバ群の稼働率を示す。グラフ408において「△」はOS休眠状態を示し、「×」は電源オフ状態を示す。オーバライドボタン410は、押し下げられるとオーバライド部160をトリガする。オーバライドボタン410が押し下げられると表示制御部170は状態設定画面404をディスプレイ14に表示させる。図8(b)〜図8(d)についても同様である。
8A to 8D are representative screen diagrams of the status screens 400a to 400d. Here, it is assumed that the peak access numbers of the first server group 22a to the fifth server group 22e are all 2000. 8A to 8D correspond to cases where the total number of accesses in the current time zone is 1600, 2800, 4400, and 7000, respectively.
FIG. 8A is a representative screen diagram of the status screen 400a corresponding to the case where the total number of accesses in the current time zone is 1600. The status screen 400 a includes a total access number area 406, a graph 408, and an override button 410. The total access number area 406 indicates the total number of accesses in the current time zone. A graph 408 shows the operation rate of each server group. In the graph 408, “Δ” indicates an OS sleep state, and “X” indicates a power-off state. The override button 410 triggers the override unit 160 when pressed. When the override button 410 is pressed down, the display control unit 170 displays the state setting screen 404 on the display 14. The same applies to FIGS. 8B to 8D.

図9は、警告画面402の代表画面図である。
図10は、状態設定画面404の代表画面図である。状態設定画面404は、設定領域412と、設定ボタン414と、を含む。状態設定画面404を開いた直後の状態では、設定領域412には各サーバ群の現在の状態がラジオボタン方式で示されている。設定領域412では第1サーバ群22a〜第5サーバ群22eはそれぞれサーバ群A〜サーバ群Eという名称で表示されている。管理者はマウスなどの入力装置12を使用して各サーバ群の状態を選択し、設定ボタン414を押し下げる。すると設定領域412に設定された各サーバ群の状態が所望のマニュアル設定としてオーバライド部160に送られる。これにより、第1サーバ群22a〜第5サーバ群22eのそれぞれを稼動状態とするか、OS休眠状態とするか、または電源オフ状態とするかを設定できる。
FIG. 9 is a representative screen diagram of the warning screen 402.
FIG. 10 is a representative screen diagram of the state setting screen 404. The state setting screen 404 includes a setting area 412 and a setting button 414. In the state immediately after the state setting screen 404 is opened, the current state of each server group is indicated in the setting area 412 by a radio button method. In the setting area 412, the first server group 22a to the fifth server group 22e are displayed with the names server group A to server group E, respectively. The administrator uses the input device 12 such as a mouse to select the state of each server group and depresses the setting button 414. Then, the state of each server group set in the setting area 412 is sent to the override unit 160 as a desired manual setting. Accordingly, it is possible to set whether each of the first server group 22a to the fifth server group 22e is in an operating state, an OS sleep state, or a power-off state.

図11は、負荷管理装置10における一連の処理を時系列に沿って示すチャートである。負荷検出部38における総アクセス数検出の時間間隔は15分間隔である場合を考える。2009年9月16日の9:15に、負荷取得部120はロードバランサ30から総アクセス数を取得する(S502)。テーブル更新部132は、取得された総アクセス数をもとに負荷履歴テーブル112を更新する(S504)。一方、2009年9月16日の9:15−9:30の時間帯内でステップS504の負荷履歴テーブル112更新と重ならないときに、負荷予測部134は負荷履歴テーブル112を参照して次の時間帯(9:30−9:45)の総アクセス数を予測する(S506)。状態設定部140は、予測総アクセス数とモード切替値Mo、第1しきい値T1、第2しきい値T2、第3しきい値T3との大小比較を行う(S508)。状態設定部140は、その大小比較を基に次の時間帯においてサーバ群の状態の切替が必要か否かを判断する(S510)。状態の切替が必要でない場合(S510のN)、次の時間帯が到来してもサーバ群の状態の設定は行わない。状態の切替が必要な場合(S510のY)、状態設定部140は次の時間帯におけるサーバ群の状態を決定する(S512)。次の時間帯が到来すると、つまり2009年9月16日の9:30になると、状態設定部140はサーバ群の状態をステップS512で決定されたように設定する。また、状態設定部140は平行して第2サーバ群状態テーブル114およびロードバランサ30の第1サーバ群状態テーブル322を更新する(S514)。負荷管理装置10はこの処理を時間帯単位で繰り返す。   FIG. 11 is a chart showing a series of processing in the load management device 10 in time series. Consider a case in which the time interval for detecting the total number of accesses in the load detector 38 is 15 minutes. At 9:15 on September 16, 2009, the load acquisition unit 120 acquires the total number of accesses from the load balancer 30 (S502). The table updating unit 132 updates the load history table 112 based on the acquired total number of accesses (S504). On the other hand, when it does not overlap with the update of the load history table 112 in step S504 within the time zone of 9: 15-9: 30 on September 16, 2009, the load prediction unit 134 refers to the load history table 112 to The total number of accesses in the time zone (9: 30-9: 45) is predicted (S506). The state setting unit 140 compares the predicted total number of accesses with the mode switching value Mo, the first threshold value T1, the second threshold value T2, and the third threshold value T3 (S508). The state setting unit 140 determines whether it is necessary to switch the state of the server group in the next time zone based on the size comparison (S510). When switching of the state is not necessary (N in S510), the server group state is not set even when the next time zone comes. If state switching is necessary (Y in S510), the state setting unit 140 determines the state of the server group in the next time zone (S512). When the next time zone comes, that is, at 9:30 on September 16, 2009, the state setting unit 140 sets the state of the server group as determined in step S512. Further, the state setting unit 140 updates the second server group state table 114 and the first server group state table 322 of the load balancer 30 in parallel (S514). The load management apparatus 10 repeats this process for each time zone.

以上の構成による負荷管理装置10および情報処理システム2の動作を説明する。情報処理システム2は例えばインターネット上のデータセンタであり、ユーザはユーザ端末6を使用してこの情報処理システム2にあるウェブページなどの情報資源にアクセスする。負荷管理装置10はこのようなアクセスの履歴を負荷履歴テーブル112に蓄積する。そして負荷管理装置10はこの負荷履歴テーブル112を解析し、発生しうるアクセス数を予測する。負荷管理装置10はその予測値に基づいて稼動状態とするサーバ群を選択し、残りのサーバ群を省電力状態に設定する。予測対象の時間帯においてユーザからのアクセスは稼動状態にあるサーバ群のうちのひとつのサーバ群に割り当てられ、そこで処理される。したがって、省電力状態としたサーバ群の待機電力分だけ情報処理システム2全体の消費電力を低減できる。また、予測値の増大により情報処理システム2の処理能力を増やす必要が出てくると、負荷管理装置10は稼動状態とするサーバ群の数を増やす。   Operations of the load management device 10 and the information processing system 2 configured as described above will be described. The information processing system 2 is, for example, a data center on the Internet, and a user uses the user terminal 6 to access information resources such as a web page in the information processing system 2. The load management apparatus 10 accumulates such access history in the load history table 112. Then, the load management apparatus 10 analyzes the load history table 112 and predicts the number of accesses that can occur. The load management device 10 selects a server group to be in an operating state based on the predicted value, and sets the remaining server group to a power saving state. In the prediction target time zone, the access from the user is assigned to one of the servers in the active state and processed there. Therefore, the power consumption of the entire information processing system 2 can be reduced by the standby power of the server group in the power saving state. Further, when it becomes necessary to increase the processing capacity of the information processing system 2 due to an increase in the predicted value, the load management apparatus 10 increases the number of server groups to be in an operating state.

上述の第1の実施の形態において、記憶装置の例は、ハードディスクやメモリである。また、本明細書の記載に基づき、各部を、図示しないCPUや、インストールされたアプリケーションプログラムのモジュールや、システムプログラムのモジュールや、ハードディスクから読み出したデータの内容を一時的に記憶するメモリなどにより実現できることは本明細書に触れた当業者には理解されるところである。   In the first embodiment described above, examples of the storage device are a hard disk and a memory. Based on the description in this specification, each unit is realized by a CPU (not shown), an installed application program module, a system program module, a memory that temporarily stores the contents of data read from the hard disk, and the like. It is understood by those skilled in the art who have touched this specification that they can do this.

本実施の形態に係る負荷管理装置10によると、データセンタなどの情報処理システム2が使用される目的、例えば証券業務や検索エンジンなど、に応じた総アクセス数の傾向を把握し、それを用いて今後発生しうる総アクセス数を予測できる。そしてこの予測総アクセス数が少ない場合は、予測対象の時間帯において少なくともひとつのサーバ群が省電力状態に設定される。
上述した通り稼動状態のサーバ群の消費電力は、アイドル状態であってもピーク時のおよそ60%である。これに対して省電力状態のサーバ群の消費電力はピーク時のおよそ0〜10%である。本実施の形態では、アクセス数が少ないと予測され、したがってアクセスを処理する必要がないと予測されるサーバ群がある場合はそれらのサーバ群をアイドル状態ではなく省電力状態としている。これにより、情報処理装置20全体の消費電力を低減でき、電力の無駄遣いを抑え、省エネ化を図ることができる。
また本実施の形態に係る負荷管理装置10では、情報処理システム2が使用される目的に応じた総アクセス数の傾向を把握し、それを用いて今後発生しうる総アクセス数を予測しているので、個々の使用目的に対して最適な消費電力低減化、省エネ化を実現できる。
According to the load management apparatus 10 according to the present embodiment, the trend of the total number of accesses according to the purpose for which the information processing system 2 such as a data center is used, for example, securities business or search engine is grasped and used. The total number of accesses that can occur in the future can be predicted. When the predicted total number of accesses is small, at least one server group is set in the power saving state in the prediction target time zone.
As described above, the power consumption of the server group in the operating state is approximately 60% of the peak time even in the idle state. On the other hand, the power consumption of the server group in the power saving state is approximately 0 to 10% at the peak time. In the present embodiment, when there are server groups that are predicted to have a small number of accesses and are therefore predicted not to be processed, the server groups are set in a power saving state instead of an idle state. Thereby, the power consumption of the information processing apparatus 20 as a whole can be reduced, wasteful use of power can be suppressed, and energy saving can be achieved.
In addition, the load management apparatus 10 according to the present embodiment grasps the tendency of the total number of accesses according to the purpose for which the information processing system 2 is used, and predicts the total number of accesses that can occur in the future using the trend. Therefore, optimal power consumption reduction and energy saving can be realized for each purpose of use.

また本実施の形態に係る負荷管理装置10では、負荷履歴テーブル112は、取得された総アクセス数と、その総アクセス数が取得された時間帯が属する属性と、を対応付けて記憶する。したがって、総アクセス数の傾向を属性を基準にして把握することができる。さらに負荷管理装置10では、予測対象の時間帯が属する属性に対応する総アクセス数を負荷履歴テーブル112から取得してその時間帯に対して予測される総アクセス数とする。したがって、属性を情報処理システム2の使用目的に応じて適切に設定することにより、予測される総アクセス数の精度を向上することができる。   Further, in the load management device 10 according to the present embodiment, the load history table 112 stores the acquired total access count and the attribute to which the time zone in which the total access count belongs, in association with each other. Therefore, the tendency of the total number of accesses can be grasped on the basis of attributes. Further, the load management apparatus 10 obtains the total number of accesses corresponding to the attribute to which the prediction target time zone belongs from the load history table 112 and sets the total number of accesses predicted for the time zone. Therefore, the accuracy of the predicted total number of accesses can be improved by appropriately setting the attributes according to the purpose of use of the information processing system 2.

図12は、本実施の形態に係る情報処理システム2が証券会社のインターネット株取引システムを提供するデータセンタとして使用される場合の、負荷履歴テーブル112aの一例を示すデータ構造図である。ここでは稼動サーバ群の数および平均稼動率は説明を明瞭とするため省略される。この場合の総アクセス数の傾向としては、証券取引所の取引時間内にアクセスが集中することがある。また、証券取引所が閉まってからしばらくはいわゆるバッチ処理を行うためにいくらかの仕事が発生する。それ以外で証券取引所が閉まっている時間帯、例えば休日などにはアクセスはほとんどない。あっても証券会社の顧客が自己の口座の情報を参照する程度である。したがって、図12に示されるように、時間帯の属性として、証券取引所の取引時間にあたる時間帯に「取引時間」という属性を、バッチ処理が行われる時間帯に「バッチ処理」という属性を、それ以外の時間帯に「時間外」もしくは土日祝日の場合は「休日」を、それぞれ与えてもよい。このような属性を付与することで、証券会社のインターネット株取引システムを提供するデータセンタに発生する総アクセス数をより適切に予測することができる。   FIG. 12 is a data structure diagram showing an example of the load history table 112a when the information processing system 2 according to the present embodiment is used as a data center that provides an Internet stock trading system of a securities company. Here, the number of operating servers and the average operating rate are omitted for the sake of clarity. As a tendency of the total number of accesses in this case, access may be concentrated within the trading hours of the stock exchange. In addition, some work is required to perform so-called batch processing for a while after the stock exchange closes. Other than that, there is almost no access during times when the stock exchange is closed, such as holidays. Even so, the brokerage firm's customers refer to their account information. Therefore, as shown in FIG. 12, as a time zone attribute, an attribute “transaction time” in the time zone corresponding to the trading time of the stock exchange, an attribute “batch processing” in the time zone in which batch processing is performed, “Holiday” may be given in the case of “out of hours” or weekends and holidays in other time zones. By assigning such attributes, it is possible to more appropriately predict the total number of accesses occurring in the data center that provides the securities company's Internet stock trading system.

図13は、本実施の形態に係る情報処理システム2が検索サービスを提供するデータセンタとして使用される場合の、負荷履歴テーブル112bの一例を示すデータ構造図である。ここでは稼動サーバ群の数および平均稼動率は説明を明瞭とするため省略される。この場合の総アクセス数の傾向としては、平日よりも休日の方が利用が多く、また平日でも午前よりも午後の方が利用が多いことがある。したがって、図13に示されるように、時間帯の属性として、平日休日の別と午前午後の別との組み合わせを与えてもよい。このような属性を付与することで、検索サービスを提供するデータセンタに発生する総アクセス数をより適切に予測することができる。   FIG. 13 is a data structure diagram illustrating an example of the load history table 112b when the information processing system 2 according to the present embodiment is used as a data center that provides a search service. Here, the number of operating servers and the average operating rate are omitted for the sake of clarity. As a tendency of the total number of accesses in this case, a holiday is more frequently used than a weekday, and a weekday is more frequently used in the afternoon than in the morning. Therefore, as shown in FIG. 13, a combination of a weekday holiday classification and a morning / afternoon classification may be given as a time zone attribute. By assigning such attributes, the total number of accesses occurring in the data center that provides the search service can be predicted more appropriately.

本実施の形態に係る負荷管理装置10では、省電力モード(予測総アクセス数<モード切替値Mo)においては、表1に示される通りOS休眠状態とするサーバ群と電源オフ状態とするサーバ群との両方を設けている。これにより、予測対象の時間帯において突然総アクセス数が増大した場合は、適応モードに移行した後復帰のためのオーバヘッドが小さいOS休眠状態にあるサーバ群を稼動状態に戻すことで対応できる。また、そのように対応できる限りにおいては他のサーバ群は電力を消費しない電源オフ状態とし、情報処理装置20全体の消費電力をさらに低減している。なお、表1ではOS休眠状態とするサーバ群をひとつだけ確保しているが、この数はオーバヘッドと消費電力とのかねあいで定められればよく、適宜増減可能であることは本明細書に触れた当業者には理解される。   In the load management apparatus 10 according to the present embodiment, in the power saving mode (predicted total access count <mode switching value Mo), as shown in Table 1, a server group that is in an OS sleep state and a server group that is in a power-off state And both. As a result, when the total number of accesses suddenly increases in the prediction target time zone, it can be dealt with by returning the server group in the OS sleep state in which the overhead for returning after shifting to the adaptive mode is small to the operating state. Further, as long as it can cope with such a situation, the other server groups are in a power-off state in which power is not consumed, further reducing the power consumption of the entire information processing apparatus 20. In Table 1, only one server group that is in the OS sleep state is secured, but this number may be determined according to the balance between overhead and power consumption, and it is mentioned in the present specification that it can be appropriately increased or decreased. It will be understood by those skilled in the art.

本実施の形態に係る負荷管理装置10では、状態設定部140はサーバ群の最大性能を発揮せしめる前提で、予測対象の時間帯において稼動状態とするサーバ群を決定する。このサーバ群の決定方式によると、所与の予測総アクセス数に対してより多くの数のサーバ群を省電力状態とすることができる。したがって、情報処理装置20全体の消費電力をより低減できる。なお、稼働率によってサーバ群の消費電力が異なるのも事実ではあるが、上述の通りアイドル状態でもピーク時のおよそ60%の電力が消費されることを考えると、稼働率を下げることによる電力削減効果よりもアイドル状態を省電力状態とすることによる電力削減効果のほうが大きいと考えられる。   In the load management apparatus 10 according to the present embodiment, the state setting unit 140 determines a server group to be in an operating state in a prediction target time zone on the assumption that the maximum performance of the server group is exhibited. According to this server group determination method, a larger number of server groups can be put into a power saving state with respect to a given predicted total number of accesses. Therefore, the power consumption of the entire information processing apparatus 20 can be further reduced. It is also true that the power consumption of the server group differs depending on the operating rate, but considering the fact that about 60% of the power is consumed even in the idle state as described above, power reduction by lowering the operating rate It is considered that the power reduction effect by setting the idle state to the power saving state is greater than the effect.

また、モード切替値Moは情報処理装置20の性能が落ちない範囲に設定される。これにより、予測総アクセス数が多い場合は通常モードで情報処理装置20の並列処理能力をいかんなく発揮させ、予測総アクセス数が少なくなると省電力モードに移行させて性能を保ちつつ電力消費量を低減できる。   Further, the mode switching value Mo is set in a range where the performance of the information processing apparatus 20 does not deteriorate. As a result, when the predicted total number of accesses is large, the parallel processing capability of the information processing apparatus 20 is fully exerted in the normal mode, and when the predicted total number of accesses decreases, the power consumption mode is maintained while maintaining the performance by shifting to the power saving mode. Can be reduced.

また、状態設定部140は予測総アクセス数の変動により情報処理装置20の性能が落ちると予測される場合には、予測対象の時間帯において省電力状態のサーバ群を稼動状態に設定する。これにより、サーバ群をピークアクセス数以上で使用しなければならない状況を回避し、アクセス処理の遅滞を避けることができる。   In addition, when it is predicted that the performance of the information processing apparatus 20 will be reduced due to a change in the predicted total number of accesses, the state setting unit 140 sets the server group in the power saving state to the operating state in the prediction target time zone. As a result, it is possible to avoid a situation in which a server group must be used at a peak access number or more and to avoid delays in access processing.

(第2の実施の形態)
第1の実施の形態では、並列に配置された複数のサーバ群を有するひとつのデータセンタを管理する負荷管理装置10が、負荷の傾向を把握して省エネの観点から適切にサーバ群の状態を管理する場合について説明した。第2の実施の形態では、近年登場したクラウドコンピューティングシステムにおいて省エネの観点から適切にそのリソースを制御する負荷管理装置を説明する。
(Second Embodiment)
In the first embodiment, the load management device 10 that manages one data center having a plurality of server groups arranged in parallel grasps the load trend and appropriately sets the server group state from the viewpoint of energy saving. The case of managing was explained. In the second embodiment, a load management apparatus that appropriately controls resources from the viewpoint of energy saving in a cloud computing system that has recently appeared will be described.

インターネットの発展により、新たなデータセンタサービスの形態として、クラウドコンピューティング方式が登場した。この方式では、企業などのユーザが自前でデータセンタ機器(ルータなどのネットワーク機器やサーバ、ストレージなどであり、以下リソースと称す)を用意する代わりに、時間貸しや運用アウトソースの形態でクラウドサービス提供事業者のリソースを利用する。   With the development of the Internet, cloud computing has emerged as a new form of data center service. With this method, instead of preparing data center equipment (network equipment such as routers, servers, storage, etc., referred to below as resources) by users such as companies, cloud services in the form of time lending or operational outsource Use provider resources.

ユーザ側から見ると自分が利用しているサーバやストレージが何処にあるか分からないので、雲(クラウド)の中に居るようなという意味でクラウドコンピューティングと言う名前が発祥した。   From the user's point of view, the name of cloud computing was born in the sense that it was in the cloud because it was unclear where the server and storage that it was using.

クラウドサービス提供事業者によっては、ソフトウエアやアプリケーションのサービスを提供する場合もある。この場合で特にパブリッククラウドと呼ばれる一般の不特定多数のユーザが時間貸しやストレージのデータ量で課金を受けるサービスでは、その利用形態からクラウドサービス提供事業者は多くのリソースを持つ必要がある。クラウドサービス提供事業者は、通常複数のデータセンタを持ち、必要に応じてユーザからの負荷を複数のデータセンタに分散させる方式を取っている。   Some cloud service providers may provide software and application services. In this case, in particular, in a service called a public cloud in which a general unspecified number of users are charged for time lending or storage data amount, the cloud service provider needs to have a lot of resources because of its usage. A cloud service provider usually has a plurality of data centers, and adopts a method in which a load from a user is distributed to a plurality of data centers as needed.

クラウドコンピューティングシステムにユーザから課される仕事には、サーバのみの利用、ストレージのみの利用、およびサーバやストレージの利用によるルータの負荷などがある。事例としては、米国の大手新聞社が、100年にわたる過去の出版紙面の全ページの電子化プロジェクトを行った。そこでは自前でデータセンタを用意してのデータ処理は行わずに、クラウドサービス提供事業者を利用し、新聞紙面のイメージの電子化の処理(サーバ処理)と電子化された全紙面を一時保存する為のストレージの利用を行った。この利用においては、膨大な量のデータが発生し、ストレージの利用が大きなものとなったが、プロジェクトの終結後には、ストレージからデータが消去されストレージの利用率が大きく下がった。この新聞社のプロジェクトの事例では、予め利用されるサーバとストレージの量が決まっているので、クラウドサービス提供事業者はその利用分のサーバとストレージを用意すればよい。しかし、パブリッククラウドでの利用となると、この新聞社のように決まった分量のサーバ負荷予測とストレージを利用するデータ量の予測が難しい。したがってパブリッククラウドを提供するクラウドサービス提供事業者は、負荷が大きくなっても対処可能なようにできるだけ多くのリソースを保持し必要に応じて運用しなければならない。   The tasks imposed by users on cloud computing systems include the use of servers only, the use of storage only, and the load on routers due to the use of servers and storage. As an example, a major newspaper company in the United States conducted a 100-year digitalization project for all pages of past publications. In this case, the data center is not prepared and the data processing is not performed, but the cloud service provider is used to digitize the newspaper image (server processing) and temporarily store all the digitized images. We used storage to do. In this use, a huge amount of data was generated and the use of storage became large. However, after the end of the project, the data was erased from the storage and the use rate of the storage was greatly reduced. In the case of this newspaper company project, the amount of servers and storage to be used is determined in advance, so the cloud service provider may prepare the servers and storage for the usage. However, when it is used in a public cloud, it is difficult to predict the amount of server load and the amount of data using storage as determined by this newspaper company. Therefore, a cloud service provider that provides a public cloud must maintain as many resources as possible so that it can handle even if the load increases.

しかしながら、負荷が小さい場合は、アイドル状態で仕事を待ち受けるリソースが多数発生する。しかしながら上述の通りアイドル状態でもリソースにおいて相当の電力が消費されている。したがって、省エネの観点から見ると、リソースをアイドル状態に置いておくことは電力の無駄使いと言える。   However, when the load is small, a large number of resources waiting for work in an idle state are generated. However, as described above, considerable power is consumed in resources even in the idle state. Therefore, from the viewpoint of energy saving, it can be said that leaving resources in an idle state is a waste of power.

そこで第2の実施の形態に係る負荷管理装置は、クラウドコンピューティングシステムに対する過去の仕事量から今後発生する仕事量を予測し、その予測された仕事量が少ない場合はクラウドコンピューティングシステムが有する複数のデータセンタ内のリソースを適宜稼動状態から省電力状態に設定する。クラウドコンピューティングシステムは場合によっては数万から数百万台のリソースを有しているのであるが、それらのうち不必要なものを省電力状態とすることで消費電力を大きく削減できる。   Therefore, the load management device according to the second embodiment predicts a future work amount from the past work amount for the cloud computing system, and if the predicted work amount is small, the cloud computing system has a plurality of The resources in the data center are appropriately set from the operating state to the power saving state. A cloud computing system may have tens of thousands to millions of resources depending on the situation, but power consumption can be greatly reduced by putting unnecessary ones in a power saving state.

ここで、クラウドコンピューティングシステムに対する仕事は計算やデータ処理や通信処理などであり、この仕事が第1の実施の形態における要求(アクセス)に対応する。また、負荷は例えばクラウドコンピューティングシステムに対する仕事を処理するために必要な単位時間当たりのリソースの台数である。   Here, the work for the cloud computing system is calculation, data processing, communication processing, and the like, and this work corresponds to the request (access) in the first embodiment. The load is, for example, the number of resources per unit time necessary for processing work for the cloud computing system.

なお、リソースの稼動状態とは、第1の実施の形態で定義したサーバ群の稼動状態と同様の状態であり、例えばクラウドコンピューティングサービスの利用者からの仕事要求を即時実行可能な状態である。リソースの省電力状態もまた第1の実施の形態で定義したサーバ群の省電力状態と同様の状態であり、OS休眠状態と電源オフ状態とを含む。   The resource operating state is a state similar to the operating state of the server group defined in the first embodiment, for example, a state in which a job request from a user of a cloud computing service can be immediately executed. . The power saving state of the resource is also the same state as the power saving state of the server group defined in the first embodiment, and includes an OS sleep state and a power off state.

図14は、第2の実施の形態に係る負荷管理装置510を有するクラウドコンピューティングシステム500を示す概略図である。クラウドコンピューティングシステム500は、米国ニューヨーク市にある第1データセンタ502と、米国サンフランシスコ市にある第2データセンタ504と、米国ホノルル市にある第3データセンタ506と、第2の実施の形態に係る負荷管理装置510と、を備える。
クラウドコンピューティングシステム500は、現実には3つのデータセンタを備えているが、ネットワーク508のユーザに対しては仮想的なひとつのデータセンタである。
FIG. 14 is a schematic diagram showing a cloud computing system 500 having a load management device 510 according to the second embodiment. The cloud computing system 500 includes a first data center 502 in New York City, a second data center 504 in San Francisco, a third data center 506 in Honolulu, USA, and a second embodiment. And a load management apparatus 510.
The cloud computing system 500 actually includes three data centers, but is a single virtual data center for users of the network 508.

負荷管理装置510は、インターネットなどのネットワーク508を通じて第1データセンタ502、第2データセンタ504、第3データセンタ506を管理する。第1データセンタ502、第2データセンタ504、第3データセンタ506はネットワーク508を通じてクラウドコンピューティングシステム500の利用者からの仕事を受ける。   The load management device 510 manages the first data center 502, the second data center 504, and the third data center 506 through a network 508 such as the Internet. The first data center 502, the second data center 504, and the third data center 506 receive work from users of the cloud computing system 500 through the network 508.

図15は、負荷管理装置510およびその周辺の機能および構成を示すブロック図である。ここに示す各ブロックは、ハードウエア的には、コンピュータのCPUをはじめとする素子や機械装置で実現でき、ソフトウエア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウエア、ソフトウエアの組合せによっていろいろなかたちで実現できることは、本明細書に触れた当業者には理解されるところである。   FIG. 15 is a block diagram showing functions and configurations of the load management device 510 and its periphery. Each block shown here can be realized by hardware and other elements such as a computer CPU and a mechanical device, and software can be realized by a computer program or the like. Draw functional blocks. Therefore, it is understood by those skilled in the art who have touched this specification that these functional blocks can be realized in various forms by a combination of hardware and software.

負荷管理装置510は、ネットワーク508からクラウドコンピューティングシステム500のリソースの現在の使用状況を取得して履歴として保存し、その履歴を用いて今後発生する仕事量、必要となるであろうリソースの台数を予測する。負荷管理装置510はその予測に基づきネットワーク508を介してクラウドコンピューティングシステム500の各データセンタのリソースの状態を設定する。特に、負荷管理装置510は稼動状態としなくてもよいと予測されるリソースは省電力状態とする。   The load management device 510 obtains the current usage status of the resources of the cloud computing system 500 from the network 508 and stores them as a history. The workload will be used in the future, and the number of resources that will be required. Predict. The load management device 510 sets the resource state of each data center of the cloud computing system 500 via the network 508 based on the prediction. In particular, the resource that is predicted not to be in the operating state by the load management device 510 is set to the power saving state.

負荷管理装置510は、記憶装置580と、負荷取得部520と、学習部530と、状態設定部540と、乖離判定部550と、オーバライド部560と、表示制御部570と、電気料金ルーティング部590と、を備える。
記憶装置580は、負荷履歴テーブル582と、リソース状態テーブル584と、電気料金テーブル586と、を含む。負荷履歴テーブル582、リソース状態テーブル584、はそれぞれ第1の実施の形態における、負荷履歴テーブル112、第2サーバ群状態テーブル114に対応する。電気料金テーブル586は、各データセンタについて時間別に設定された電気料金を記憶する。ここで電気料金とは、電力会社が電気使用者に電気を販売する際の値段である。負荷履歴テーブル582は図16で、リソース状態テーブル584は図17で、電気料金テーブル586は図18で、後述する。
The load management device 510 includes a storage device 580, a load acquisition unit 520, a learning unit 530, a state setting unit 540, a deviation determination unit 550, an override unit 560, a display control unit 570, and an electricity rate routing unit 590. And comprising.
The storage device 580 includes a load history table 582, a resource state table 584, and an electricity rate table 586. The load history table 582 and the resource status table 584 respectively correspond to the load history table 112 and the second server group status table 114 in the first embodiment. The electricity rate table 586 stores the electricity rate set for each data center by time. Here, the electricity charge is a price when the electric power company sells electricity to the electricity user. The load history table 582 is shown in FIG. 16, the resource status table 584 is shown in FIG. 17, and the electricity rate table 586 is shown in FIG.

学習部530は、テーブル更新部532と、負荷予測部534と、を含む。状態設定部540は、負荷比較部542と、稼動リソース決定部544と、状態信号生成部546と、を含む。負荷取得部520、学習部530、テーブル更新部532、負荷予測部534、状態設定部540、負荷比較部542、稼動リソース決定部544、状態信号生成部546、乖離判定部550、オーバライド部560、表示制御部570、はそれぞれ第1の実施の形態における、負荷取得部120、学習部130、テーブル更新部132、負荷予測部134、状態設定部140、負荷比較部142、稼動サーバ群決定部144、状態信号生成部146、乖離判定部150、オーバライド部160、表示制御部170、に対応する。負荷管理装置510と接続された入力装置512、ディスプレイ514もまたそれぞれ第1の実施の形態における、入力装置12、ディスプレイ14に対応する。   The learning unit 530 includes a table update unit 532 and a load prediction unit 534. The state setting unit 540 includes a load comparison unit 542, an operation resource determination unit 544, and a state signal generation unit 546. A load acquisition unit 520, a learning unit 530, a table update unit 532, a load prediction unit 534, a state setting unit 540, a load comparison unit 542, an operation resource determination unit 544, a state signal generation unit 546, a deviation determination unit 550, an override unit 560, The display control unit 570 is a load acquisition unit 120, a learning unit 130, a table update unit 132, a load prediction unit 134, a state setting unit 140, a load comparison unit 142, and an active server group determination unit 144, respectively, in the first embodiment. , Corresponding to the state signal generation unit 146, the deviation determination unit 150, the override unit 160, and the display control unit 170. The input device 512 and the display 514 connected to the load management device 510 also correspond to the input device 12 and the display 14 in the first embodiment, respectively.

アクセスをクラウドコンピューティングシステム500に課されたサーバ処理、ストレージ貸しなどの仕事、総アクセス数をクラウドコンピューティングシステム500に課された仕事を処理するために必要な単位時間当たりのリソースの台数(以下リソース必要台数と称す)、予測総アクセス数を過去に要求された仕事をもとに負荷予測部534によって予測されたリソース必要台数、と読み替えることで、第1の実施の形態に係る負荷管理装置10について図6を参照してなされた上の説明と同様の説明が第2の実施の形態に係る負荷管理装置510にも基本的に当てはまる。以下、第1の実施の形態に係る負荷管理装置10と第2の実施の形態に係る負荷管理装置510との主な差異を説明する。   The number of resources per unit time required to process the tasks imposed on the cloud computing system 500 such as server processing and storage lending, and the total number of accesses imposed on the cloud computing system 500 (hereinafter referred to as the number of resources). The load management device according to the first embodiment is referred to as “the required number of resources”, and the predicted total access number is read as the required number of resources predicted by the load prediction unit 534 based on the work requested in the past. 10 is basically the same as that described above with reference to FIG. 6 and also applies to the load management apparatus 510 according to the second embodiment. Hereinafter, main differences between the load management apparatus 10 according to the first embodiment and the load management apparatus 510 according to the second embodiment will be described.

第1の実施の形態における負荷取得部120はロードバランサ30の負荷検出部38からそこで検出された総アクセス数を取得するが、第2の実施の形態における負荷取得部520は、ネットワーク508から第1データセンタ502、第2データセンタ504および第3データセンタ506の現在のリソース必要台数を取得する。   The load acquisition unit 120 in the first embodiment acquires the total number of accesses detected there from the load detection unit 38 of the load balancer 30, but the load acquisition unit 520 in the second embodiment receives the total number of accesses from the network 508. The current required number of resources of the first data center 502, the second data center 504, and the third data center 506 are acquired.

第2の実施の形態に係る稼動リソース決定部544は、電気料金テーブル586を参照し、予測対象の時間帯において電気料金がより安いデータセンタに含まれるリソースに優先的に仕事を処理させてもよい。稼動リソース決定部544は、予測対象の時間帯においてリソースの状態の切替が必要な場合には、稼動状態とするリソースとOS休眠状態とするリソースと電源オフ状態とするリソースを決定する。ここでそれぞれの状態にするリソースを決めるアルゴリズムは、第1の実施の形態で説明したアルゴリズムに加えて、電気料金を考慮して決めるアルゴリズムを有する。この電気料金考慮型のアルゴリズムでは、稼動状態とするリソースの台数を増やす場合は、予測対象の時間帯において電気料金がより安い、好ましくは最も安い、データセンタのリソースを優先的に稼動状態とする。また、稼動状態とするリソースの台数を減らす場合には、予測対象の時間帯において電気料金がより高い、好ましくは最も高い、データセンタのリソースを優先的に省電力状態とする。   The operating resource determination unit 544 according to the second embodiment refers to the electricity rate table 586, and causes the resources included in the data center where the electricity rate is cheaper in the predicted time zone to preferentially process work. Good. The operating resource determination unit 544 determines a resource to be in the operating state, a resource to be in the OS sleep state, and a resource to be in the power-off state when switching of the resource state is necessary in the prediction target time zone. Here, in addition to the algorithm described in the first embodiment, an algorithm for determining a resource to be set in each state has an algorithm that is determined in consideration of an electricity bill. In this electricity price-considering algorithm, when increasing the number of resources to be in operation, the data center resource with the lowest electricity charge, preferably the cheapest, is preferentially in operation in the forecast time zone. . Further, when the number of resources to be operated is reduced, the data center resource having a higher electricity charge, preferably the highest, in the prediction target time zone is preferentially put into the power saving state.

第1の実施の形態における状態信号生成部146は第1サーバ群22a〜第5サーバ群22eに接続されるが、第2の実施の形態における状態信号生成部546は、ネットワーク508を介して第1データセンタ502、第2データセンタ504、第3データセンタ506のリソースに状態を切り替えるための信号を送る。   The state signal generator 146 in the first embodiment is connected to the first server group 22a to the fifth server group 22e, but the state signal generator 546 in the second embodiment is connected via the network 508. A signal for switching the state is sent to the resources of the first data center 502, the second data center 504, and the third data center 506.

電気料金ルーティング部590は、リソース状態テーブル584および電気料金テーブル586を参照し、電気料金がより高いデータセンタで稼動状態となっているリソースを電気料金がより安いデータセンタで省電力状態となっている同種のリソースで代替することができる場合は、そのような代替を行うように状態信号生成部546に指示を出す。   The electricity rate routing unit 590 refers to the resource status table 584 and the electricity rate table 586, and puts the resources that are operating in the data center where the electricity rate is higher into a power saving state in the data center where the electricity rate is lower. If the same kind of resource can be substituted, the status signal generation unit 546 is instructed to perform such substitution.

電気料金ルーティング部590は、リソース状態テーブル584を参照して各データセンタで稼動状態となっているリソースの台数を取得する一方、電気料金テーブル586を参照して各データセンタの現在の電気料金を取得する。電気料金ルーティング部590はそれらの情報を基にクラウドコンピューティングシステム500全体の現在の電気使用量に応じた電力会社への支払い(以下、電気使用料金と称す)を演算する。また電気料金ルーティング部590は、仮に電気料金の安いデータセンタのリソースから順番に使用していった場合の理想的な(最安値の)現在の電気使用料金を演算する。そして電気料金ルーティング部590は、実測値としての現在の電気使用料金と理想的な現在の電気使用料金との差が所定の設定値よりも大きい場合は、電気料金がより高いデータセンタで稼動状態となっているリソースと同種のリソースが、電気料金がより安いデータセンタで省電力状態となっているか否かを電気料金テーブル586およびリソース状態テーブル584を参照して確認する。そして電気料金ルーティング部590は、同種のリソースが電気料金がより安いデータセンタで省電力状態となっていれば、電気料金がより高いデータセンタで稼動状態となっているリソースを省電力状態とし、電気料金がより安いデータセンタで省電力状態となっている同種のリソースを稼動状態とするように状態信号生成部546に指示を出す。その際、図示されていないが、電気料金ルーティング部590は電気料金がより高いデータセンタで稼動状態となっていたリソースで処理されていた仕事を、新しく稼動状態となる電気料金がより安いデータセンタのリソースにルーティングする。
なお、電気料金ルーティング部590における上述の処理は、リソース必要台数の予測に基づくリソースの状態設定とは別系統の処理とされてもよい。
The electricity rate routing unit 590 refers to the resource state table 584 to obtain the number of resources that are operating in each data center, while referring to the electricity rate table 586 to obtain the current electricity rate of each data center. get. The electricity charge routing unit 590 calculates payment to the electric power company (hereinafter referred to as electricity use charge) according to the current electricity usage of the entire cloud computing system 500 based on the information. In addition, the electricity charge routing unit 590 calculates an ideal (lowest price) current electricity use charge when the resources are used in order from the data center resource with the lowest electricity charge. When the difference between the current electricity usage charge as the actual measurement value and the ideal current electricity usage charge is greater than a predetermined set value, the electricity charge routing unit 590 is operating in the data center where the electricity charge is higher. It is confirmed with reference to the electricity rate table 586 and the resource state table 584 whether or not the same type of resource as the resource is in the power saving state in the data center where the electricity rate is lower. Then, if the same type of resource is in the power saving state in the data center where the electricity price is lower, the electricity price routing unit 590 sets the resource in the power saving state in the data center where the electricity price is higher, The state signal generation unit 546 is instructed to set the same type of resource that is in the power saving state in the data center with a lower electricity bill to be in the operating state. At that time, although not shown in the figure, the electricity rate routing unit 590 performs the work that has been processed by the resource that has been in operation in the data center with a higher electricity rate, and the data center that has a lower electricity rate that is in the new operation state. Route to other resources.
Note that the above-described process in the electricity rate routing unit 590 may be a process different from the resource state setting based on the prediction of the required number of resources.

図16は、負荷履歴テーブル582を示すデータ構造図である。負荷履歴テーブル582は、時間帯618と、その時間帯が属する属性620と、その時間帯に稼動状態にあったリソースの種類である必要リソース分類622と、その種類のリソースの台数であるリソース必要台数624と、を対応付けて記憶する。必要リソース分類622は、例えばサーバ、ストレージ、ルータの別である。時間帯618は第1の実施の形態の図7の時間帯218に、属性620は属性220に、必要リソース分類622およびリソース必要台数624は総アクセス数222に、それぞれ対応する。   FIG. 16 is a data structure diagram showing the load history table 582. The load history table 582 includes a time zone 618, an attribute 620 to which the time zone belongs, a required resource classification 622 that is the type of resource that was in operation in the time zone, and a resource requirement that is the number of resources of that type. The number 624 is stored in association with each other. The necessary resource classification 622 is, for example, a server, a storage, or a router. The time zone 618 corresponds to the time zone 218 in FIG. 7 of the first embodiment, the attribute 620 corresponds to the attribute 220, and the required resource classification 622 and the required resource number 624 correspond to the total access number 222, respectively.

図17は、リソース状態テーブル584を示すデータ構造図である。リソース状態テーブル584は、データセンタ602ごとにリソース604とその状態606とその稼働率608とを対応付けて記憶する。データセンタ602およびリソース604は第1の実施の形態の図5のIPアドレス202に、状態606は状態204に、稼働率608は稼働率206に、それぞれ対応する。   FIG. 17 is a data structure diagram showing the resource state table 584. The resource state table 584 stores a resource 604, its state 606, and its operation rate 608 in association with each other for each data center 602. The data center 602 and the resource 604 correspond to the IP address 202 in FIG. 5 of the first embodiment, the state 606 corresponds to the state 204, and the operation rate 608 corresponds to the operation rate 206, respectively.

図18は、電気料金テーブル586を示すデータ構造図である。電気料金テーブル586は、ニューヨーク時間での時間帯626と、その時間帯における各データセンタの電気料金の売値単価628と、を対応付けて記憶する。負荷管理装置510は外部の電力取引所と通信を行い、絶えず相場で売られている電気料金のデータで電気料金テーブル586を更新する。または、負荷管理装置510は過去の電気料金のデータから予測して電気料金テーブル586を生成してもよい。   FIG. 18 is a data structure diagram showing the electricity rate table 586. The electricity rate table 586 stores the time zone 626 in New York time and the selling price unit price 628 of each data center in that time zone in association with each other. The load management device 510 communicates with an external power exchange, and constantly updates the electricity rate table 586 with the electricity rate data sold at the market price. Alternatively, the load management device 510 may generate the electricity bill table 586 by predicting from the past electricity bill data.

図19は、表示制御部570によってディスプレイ514に表示されるステータス画面630の代表画面図である。ステータス画面630は、ニューヨーク市にある第1データセンタ502の状態を示す第1表示領域632と、サンフランシスコ市にある第2データセンタ504の状態を示す第2表示領域634と、ホノルル市にある第3データセンタ506の状態を示す第3表示領域636と、を含む。各表示領域は、サーバの稼働状況を示すサーバ運用状況表示領域638と、ストレージの稼働状況を示すストレージ運用状況表示領域640と、ルータの稼働状況を示すルータ運用状況表示領域642と、を含む。サーバ運用状況表示領域638の上段のインジケータは現在予測に基づき稼動状態とされているサーバの台数、下段のインジケータは現在仕事を処理しているサーバの台数を示す。それらの差は現在稼動状態にあるが仕事を行っていない、つまりアイドル状態にあるサーバの台数を示す。ストレージ運用状況表示領域640、ルータ運用状況表示領域642についても同様である。クラウドコンピューティングシステム500の管理者はこのステータス画面630を見ることにより、現況を一目で把握して設定されている予測アルゴリズム(属性の決め方など)が適切か否かを判断でき、そのような予測アルゴリズムを最適化していく一助となる。また、この目的のため、ステータス画面630はクラウドコンピューティングシステム500の現在の消費電力を示す領域644と、アイドル状態にあるリソースの消費電力に対応する、無駄と考えられる消費電力を示す領域646と、を含んでもよい。   FIG. 19 is a representative screen diagram of the status screen 630 displayed on the display 514 by the display control unit 570. The status screen 630 includes a first display area 632 indicating the state of the first data center 502 in New York City, a second display area 634 indicating the state of the second data center 504 in San Francisco City, and a first display area 634 in Honolulu City. A third display area 636 showing the state of the three data centers 506. Each display area includes a server operation status display area 638 indicating a server operation status, a storage operation status display area 640 indicating a storage operation status, and a router operation status display area 642 indicating a router operation status. The upper indicator of the server operation status display area 638 indicates the number of servers that are operating based on the current prediction, and the lower indicator indicates the number of servers that are currently processing work. These differences indicate the number of servers that are currently in operation but not working, that is, idle. The same applies to the storage operation status display area 640 and the router operation status display area 642. By looking at the status screen 630, the administrator of the cloud computing system 500 can grasp the current state at a glance and determine whether or not the set prediction algorithm (how to determine the attribute) is appropriate. It helps to optimize the algorithm. For this purpose, the status screen 630 includes an area 644 indicating the current power consumption of the cloud computing system 500, and an area 646 indicating the power consumption considered to be waste corresponding to the power consumption of resources in an idle state. , May be included.

第2の実施の形態に係る負荷管理装置510によると、第1の実施の形態で説明した作用効果と同様の作用効果を得ることができる。
特に、クラウドコンピューティングサービスでは複数種類のリソースが使用され、そのそれぞれに対して仕事が発生する。第2の実施の形態では図16に見られるように、負荷履歴テーブル582はその種類毎にリソース必要台数を記録する。したがって、リソースの種類毎に仕事量の傾向を把握し、それに基づいて種類毎に仕事量を予測し、その予測に基づいて種類毎に不必要なリソースを省電力状態とする。したがって、クラウドコンピューティングシステム500においてもこれまで無駄となっていた電力を削減して消費電力を低減できる。
According to the load management device 510 according to the second embodiment, it is possible to obtain the same operational effects as the operational effects described in the first embodiment.
In particular, in cloud computing services, multiple types of resources are used, and work is generated for each of them. In the second embodiment, as shown in FIG. 16, the load history table 582 records the required number of resources for each type. Therefore, the tendency of the work amount is grasped for each resource type, the work amount is predicted for each type based on the trend, and unnecessary resources are made power-saving for each type based on the prediction. Therefore, the cloud computing system 500 can also reduce power consumption by reducing wasted power.

なお、クラウドコンピューティングシステム500における仕事量の傾向としては図16に示されるように、平日は利用が多く休日は少ないことがある。また、クラウドコンピューティングシステム500のワールドワイドな性質上、国毎の祝日によってもまた左右されうる。したがって、予測のための属性としては、平日休日の別と、他国の休日か否かと、を組み合わせることが好ましい。   As shown in FIG. 16, the workload trend in the cloud computing system 500 is often used on weekdays and few on holidays. In addition, due to the worldwide nature of the cloud computing system 500, it can also be influenced by national holidays. Therefore, as an attribute for prediction, it is preferable to combine the distinction between a weekday holiday and a holiday in another country.

クラウドコンピューティングシステム500では一般的に複数のデータセンタが地理的に離れて配置される。本実施の形態では、ニューヨーク市とサンフランシスコ市とホノルル市とに配置され、それらの間の時差は3時間、3時間である。また電気料金は地域ごと、電力会社ごと、時間帯ごとに異なる。本発明者はこれらのことから、クラウドコンピューティングシステム500ではデータセンタ間の電力料金の差を利用したコスト削減が図れることに想到した。   In the cloud computing system 500, generally, a plurality of data centers are geographically separated. In this embodiment, they are arranged in New York City, San Francisco City, and Honolulu City, and the time difference between them is 3 hours and 3 hours. Electricity charges vary by region, power company, and time zone. From these facts, the inventor of the present invention has come up with the idea that the cloud computing system 500 can reduce the cost by using the difference in the power charge between the data centers.

そこで第2の実施の形態に係る負荷管理装置510では、稼動リソース決定部544は電気料金テーブル586を参照し、予測対象の時間帯において電気料金がより安いデータセンタに含まれるリソースに優先的に仕事を処理させる。したがって、例えば図18の例では、ニューヨーク時間で2009年4月15日の10:15−10:30の時間帯において仕事を処理させるリソースを決定する際には、ニューヨーク市にある第1データセンタ502のリソースよりもホノルル市にある第3データセンタ506のリソースを優先的に選ぶ。これにより、消費電力だけでなく電気使用料金を低減でき、コストの面でより効率的な管理が可能となる。
また、電気料金ルーティング部590によっても同様の作用効果を得ることができる。つまり、例えば図18の例では、ニューヨーク時間で2009年4月15日の10:15−10:30の時間帯においてニューヨーク市の第1データセンタ502で発生している仕事をホノルル市の第3データセンタ506に回すことで電気使用料金を低減できる。
Therefore, in the load management device 510 according to the second embodiment, the operating resource determination unit 544 refers to the electricity rate table 586 and gives priority to resources included in the data center where the electricity rate is cheaper in the prediction target time zone. Make work done. Thus, for example, in the example of FIG. 18, when determining resources for processing work in New York time on April 15, 2009 at 10: 15-10: 30, the first data center in New York City. The resource of the third data center 506 in Honolulu city is preferentially selected over the resource of 502. As a result, not only power consumption but also electricity usage charges can be reduced, and more efficient management in terms of cost becomes possible.
In addition, the same effect can be obtained by the electricity rate routing unit 590. In other words, for example, in the example of FIG. 18, jobs generated in the first data center 502 in New York City in the time zone of 10: 15-10: 30 on April 15, 2009 in New York City are the third in Honolulu City. By using the data center 506, the electricity usage fee can be reduced.

従来では電気使用料金を低減するためにデータセンタそのものを電気料金の安い土地に移転することは行われていた。しかしながら移転には当然莫大なコストがかかる。そこで本実施の形態に係る手法を用いると、移転を行うことなく電気料金の地域差および時差を利用して電気使用料金を低減できる。   Conventionally, in order to reduce the electricity usage fee, the data center itself has been moved to a land with a lower electricity fee. However, relocation is of course enormous cost. Therefore, when the method according to the present embodiment is used, it is possible to reduce the electricity usage fee by utilizing the regional difference and the time difference of the electricity fee without relocation.

以上、実施の形態に係る負荷管理装置の構成と動作について説明した。これらの実施の形態は例示であり、その各構成要素や各処理の組み合わせにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。さらには実施の形態同士の組み合わせもまた可能である。例えば、第2の実施の形態におけるクラウドコンピューティングシステム500の各データセンタを、第1の実施の形態に係るデータセンタとしてもよい。   The configuration and operation of the load management device according to the embodiment have been described above. These embodiments are exemplifications, and it is understood by those skilled in the art that various modifications can be made to each component and combination of processes, and such modifications are within the scope of the present invention. . Furthermore, combinations of the embodiments are also possible. For example, each data center of the cloud computing system 500 in the second embodiment may be a data center according to the first embodiment.

第1の実施の形態では、ユーザ端末6からサーバ群へのパケットの流れを基に説明したが、サーバ群からユーザ端末6へパケットを返すときも負荷管理装置10が適宜接続テーブル324を参照してアドレス変換できることは本明細書に触れた当業者には明らかである。   In the first embodiment, the description has been given based on the flow of packets from the user terminal 6 to the server group. However, the load management apparatus 10 refers to the connection table 324 as appropriate when returning a packet from the server group to the user terminal 6. It will be apparent to those skilled in the art who have touched this specification that address translation can be performed.

第1の実施の形態では、モード切替値Mo、第1しきい値T1、第2しきい値T2、および第3しきい値T3が稼動状態のサーバ群の数を決めるしきい値となる場合について説明したが、これに限られない。例えば、それぞれのしきい値にヒステリシスを持たせてもよい。つまり状態設定部は、通常モードから省電力モードへ移行する第1モード切替値Mo1と、省電力モードから通常モードへ移行する第2モード切替値Mo2とを有し、Mo1<Mo2であってもよい。第1しきい値T1、第2しきい値T2、第3しきい値T3についても同様である。この場合、予測総アクセス数がしきい値付近で変動しても、しきい値をまたぐ毎にサーバ群の状態を切り替えなくてもよいので、状態切替に伴うオーバヘッドを低減できる。その結果情報処理システム2全体のレスポンスが向上しうる。なお、第1モード切替値Mo1と第2モード切替値Mo2とは、やはりオーバヘッドと処理速度とのかねあいで定めればよい。   In the first embodiment, the mode switching value Mo, the first threshold value T1, the second threshold value T2, and the third threshold value T3 are threshold values that determine the number of servers in the active state. However, the present invention is not limited to this. For example, each threshold value may have hysteresis. That is, the state setting unit has a first mode switching value Mo1 for shifting from the normal mode to the power saving mode and a second mode switching value Mo2 for shifting from the power saving mode to the normal mode, and even if Mo1 <Mo2. Good. The same applies to the first threshold value T1, the second threshold value T2, and the third threshold value T3. In this case, even if the predicted total number of accesses fluctuates in the vicinity of the threshold value, it is not necessary to switch the state of the server group every time the threshold value is crossed, so that the overhead associated with the state switching can be reduced. As a result, the overall response of the information processing system 2 can be improved. Note that the first mode switching value Mo1 and the second mode switching value Mo2 may be determined based on the balance between the overhead and the processing speed.

図20は、オーバヘッドと性能のかねあいを説明するための、各サーバ群の稼働率を示すグラフである。ここでは、第1サーバ群22aから第5サーバ群22eのピークアクセス数が全て2000であるとする。また、第1モード切替値Mo1は7700、第2モード切替値Mo2は8300に設定されている。
図20では予測総アクセス数が7500から8200に変わった際の予測対象の時間帯における各サーバ群の稼働率が示される。この場合、変わった後の予測総アクセス数は第2モード切替値Mo2に届かないので、負荷管理装置10は依然として省電力モードに設定されたままである。したがって、予測対象の時間帯が到来し、予測通り8200のアクセスが発生すると例えば第4サーバ群22dにピークアクセス数を越える数のアクセスが割り当てられることとなる。したがって第4サーバ群22dにおける処理速度は低下し、情報処理装置20全体の処理速度が低下する。対して第1の実施の形態のようにヒステリシスを設けない場合は第5サーバ群22eが稼動状態に設定され、そこで第1サーバ群22a〜第4サーバ群22dでは処理しきれない新規のアクセスが処理される。しかしながら、第5サーバ群22eを省電力状態から稼動状態とする際にはオーバヘッドが存在するので、新規のアクセスを第5サーバ群22eに割り当てる前にそのオーバヘッドだけ待たなければならない。これはやはり情報処理装置20全体の処理速度の低下と見ることができる。したがって、サーバ群にピークアクセス数以上のアクセスを課すことによる処理速度の低下と、サーバ群の状態切替に伴うオーバヘッドが引き起こす処理速度の低下と、のかねあいでヒステリシスが決定されてもよい。
FIG. 20 is a graph showing the operating rate of each server group for explaining the balance between overhead and performance. Here, it is assumed that the peak access numbers of the first server group 22a to the fifth server group 22e are all 2000. The first mode switching value Mo1 is set to 7700, and the second mode switching value Mo2 is set to 8300.
FIG. 20 shows the operation rate of each server group in the prediction target time zone when the predicted total number of accesses is changed from 7500 to 8200. In this case, since the predicted total number of accesses after the change does not reach the second mode switching value Mo2, the load management device 10 is still set in the power saving mode. Therefore, when the time zone to be predicted arrives and 8200 accesses occur as predicted, for example, the number of accesses exceeding the peak access number is assigned to the fourth server group 22d. Accordingly, the processing speed in the fourth server group 22d decreases, and the processing speed of the entire information processing apparatus 20 decreases. On the other hand, when no hysteresis is provided as in the first embodiment, the fifth server group 22e is set in the operating state, and there is new access that cannot be processed by the first server group 22a to the fourth server group 22d. It is processed. However, since there is an overhead when switching the fifth server group 22e from the power saving state to the operating state, it is necessary to wait for the overhead before assigning a new access to the fifth server group 22e. This can also be regarded as a decrease in the processing speed of the entire information processing apparatus 20. Therefore, the hysteresis may be determined based on the balance between a reduction in processing speed caused by imposing more access than the peak number of accesses on the server group and a reduction in processing speed caused by the overhead associated with server group state switching.

第1の実施の形態では、サーバ群をどの状態に置くかについて、状態設定部140において表1に示されるストラテジが使用される場合について説明したが、これに限られない。例えば、省電力状態としてOS休眠状態を使用し、電源オフ状態を使用しなくてもよい。この場合、電源オンオフにかかる比較的長いオーバヘッドがなくなるので、より早いレスポンスが期待できる。また、処理が簡素化される。別の例としては、省電力状態として電源オフ状態を使用し、OS休眠状態を使用しなくてもよい。この場合、消費電力をより低減できる。   In the first embodiment, the state in which the server group is placed is described in the case where the strategy shown in Table 1 is used in the state setting unit 140, but is not limited thereto. For example, the OS sleep state may be used as the power saving state, and the power off state may not be used. In this case, since there is no relatively long overhead for power on / off, a faster response can be expected. Further, the processing is simplified. As another example, the power-off state may be used as the power saving state, and the OS sleep state may not be used. In this case, power consumption can be further reduced.

第1の実施の形態では、第1サーバ群22a〜第5サーバ群22eの要求の処理能力はほぼ等しく設定される場合について説明したが、これに限られない。情報処理装置20に含まれる複数のサーバ群のうちの少なくとも2つについて、それらの要求の処理能力が異なる場合でも、本実施の形態と同等の作用効果を有することは本明細書に触れた当業者には理解される。   In the first embodiment, the case has been described in which the processing capacities of the requests of the first server group 22a to the fifth server group 22e are set to be approximately equal. However, the present invention is not limited to this. It has been mentioned in this specification that at least two of the plurality of server groups included in the information processing apparatus 20 have the same operational effects as the present embodiment even when the processing capabilities of the requests are different. It is understood by the contractor.

第1の実施の形態では、サーバ群選択部364は省電力モードでは、稼動状態にあるサーバ群の稼働率が100%となるように、稼動状態にあるサーバ群から新規のアクセスを処理させるサーバ群を選択する場合について説明したが、これに限られない。例えば、サーバ群選択部364は、稼動状態にあるサーバ群のなかから、ラウンドロビン方式や最速方式などの公知の負荷分散アルゴリズムを使用して新規のアクセスを処理させるサーバ群を選択してもよい。これらの場合でも、依然として省電力モードでは省電力状態(OS休眠状態もしくは電源オフ状態)のサーバ群を設けているので、全体としての電力消費量を低減できる。   In the first embodiment, in the power saving mode, the server group selection unit 364 is a server that processes a new access from a server group that is operating so that the operating rate of the server group that is operating is 100%. Although the case of selecting a group has been described, the present invention is not limited to this. For example, the server group selection unit 364 may select a server group that processes a new access using a known load balancing algorithm such as a round robin method or a fastest method from among the server groups in an operating state. . Even in these cases, since the server group in the power saving state (OS sleep state or power off state) is still provided in the power saving mode, the overall power consumption can be reduced.

第1の実施の形態では、第1フロントエンドサーバ24aと第1アプリケーションサーバ26aと第1データベースサーバ28aとは別個のサーバであり、この順に直列に接続されている場合について説明したが、これに限られない。個々のサーバ群は少なくともひとつのサーバを含めばよく、例えば、サーバ群はフロントエンドサーバとアプリケーションサーバとデータベースサーバの機能を全て併せ持つ1台のサーバを含んでもよい。また、サーバ群は、それら3つのサーバの機能のうちの任意の2つの機能を併せ持つサーバと、残りの機能を持つサーバと、を含んでもよい。   In the first embodiment, the first front-end server 24a, the first application server 26a, and the first database server 28a are separate servers, and the case where they are connected in series in this order has been described. Not limited. Each server group may include at least one server. For example, the server group may include one server having all functions of a front-end server, an application server, and a database server. The server group may include a server having any two functions of the functions of the three servers and a server having the remaining functions.

第1の実施の形態では、負荷管理装置10は、負荷がモード切替値Moより少ない場合は省電力モード、以上の場合は通常モードに設定される場合について説明したが、これに限られない。例えば、多くのサーバ群を有する情報処理システムでは、負荷の許容量が大きく、通常モードを設定する必要がない場合もある。このような場合では負荷管理装置は常に省電力モードに設定され、通常モードは設定されないか実装されていなくてもよい。この場合でも第1の実施の形態で説明した効果と同様の効果を得ることができる。   In the first embodiment, the load management apparatus 10 has been described with respect to the case where the load is set to the power saving mode when the load is smaller than the mode switching value Mo, and the normal mode is set to the above case. However, the present invention is not limited to this. For example, in an information processing system having a large number of server groups, the allowable load may be large and it may not be necessary to set the normal mode. In such a case, the load management device is always set to the power saving mode, and the normal mode may not be set or not mounted. Even in this case, the same effects as those described in the first embodiment can be obtained.

第1の実施の形態では、負荷予測部134は属性をキーとする場合について説明したが、時間帯であってもよい。負荷予測部134は、負荷履歴テーブル112を参照し、予測対象の時間帯に対して過去の同月同日の同じ時間帯の負荷履歴を取得し、これを基に予測対象の時間帯の予測総アクセス数を決定する。例えば、負荷予測部134が2009年7月28日の9:15〜9:30における総アクセス数を予測する場合、負荷予測部134は2008年7月28日の9:15〜9:30における総アクセス数(図7の場合、5400)を負荷履歴テーブル112から取得し、それを予測総アクセス数とする。   In the first embodiment, the load prediction unit 134 has been described with the attribute as a key, but it may be a time zone. The load prediction unit 134 refers to the load history table 112, obtains the load history of the same time of the same month in the past for the prediction target time zone, and based on this, predicts the total access of the prediction target time zone Determine the number. For example, when the load prediction unit 134 predicts the total number of accesses at 9:15 to 9:30 on July 28, 2009, the load prediction unit 134 at 9:15 to 9:30 on July 28, 2008. The total number of accesses (5400 in the case of FIG. 7) is acquired from the load history table 112, and is used as the predicted total number of accesses.

第1の実施の形態では、情報処理システム2が使用される例として証券業務や検索エンジンを挙げ、第2の実施の形態では負荷管理装置510がクラウドコンピューティングシステム500を管理する場合について説明したが、これに限られない。本発明は例えば不特定多数のユーザが利用するコンピュータセンタの機器の管理に適用されうる。このコンピュータセンタの例としては、大学等の学術関係で、多くの生徒や研究者が利用するサーバとストレージのシステムがある。
図21は、本発明のある実施の形態を大学の共用データセンタに適用した場合の負荷履歴テーブル112cを示すデータ構造図である。この場合、仕事量の傾向をより正確に把握するために大学のスケジュールに応じた属性が選択されることが望ましい。
In the first embodiment, a securities business or a search engine is given as an example in which the information processing system 2 is used. In the second embodiment, the case where the load management apparatus 510 manages the cloud computing system 500 has been described. However, it is not limited to this. The present invention can be applied to, for example, management of computer center equipment used by an unspecified number of users. An example of this computer center is a server and storage system used by many students and researchers in academic relations such as universities.
FIG. 21 is a data structure diagram showing a load history table 112c when an embodiment of the present invention is applied to a shared data center of a university. In this case, it is desirable to select an attribute according to the university schedule in order to grasp the tendency of the workload more accurately.

以上、実施の形態にもとづき本発明を説明したが、実施の形態は、本発明の原理、応用を示しているにすぎないことはいうまでもなく、実施の形態には、請求の範囲に規定された本発明の思想を逸脱しない範囲において、多くの変形例や配置の変更が可能であることはいうまでもない。   Although the present invention has been described based on the embodiments, the embodiments merely show the principle and application of the present invention, and the embodiments are defined in the claims. Needless to say, many modifications and arrangements can be made without departing from the spirit of the present invention.

2 情報処理システム、 4 ネットワーク、 6 ユーザ端末、 10 負荷管理装置、 20 情報処理装置、 30 ロードバランサ、 110 第2記憶装置、120 負荷取得部、 130 学習部、 140 状態設定部、 150 乖離判定部、 160 オーバライド部、 170 表示制御部、 500 クラウドコンピューティングシステム、 502 第1データセンタ、 504 第2データセンタ、 506 第3データセンタ、 510 負荷管理装置、 520 負荷取得部、 530 学習部、 540 状態設定部、 550 乖離判定部、 560 オーバライド部、 570 表示制御部、 580 記憶装置。   2 Information processing system, 4 Network, 6 User terminal, 10 Load management device, 20 Information processing device, 30 Load balancer, 110 Second storage device, 120 Load acquisition unit, 130 Learning unit, 140 State setting unit, 150 Deviation determination unit , 160 Override unit, 170 Display control unit, 500 Cloud computing system, 502 First data center, 504 Second data center, 506 Third data center, 510 Load management device, 520 Load acquisition unit, 530 Learning unit, 540 Status A setting unit, 550 deviation determination unit, 560 override unit, 570 display control unit, and 580 storage device.

Claims (10)

互いにネットワークによって接続され、互いに地理的に離れて配置された複数のデータセンタを含むシステムを管理する負荷管理装置であって、各データセンタは複数の要求処理ユニットを有しており、本負荷管理装置は、
ネットワークからの前記システムに対する要求の負荷を取得する負荷取得部と、
取得された負荷と、その負荷が取得された時間帯が属する属性と、を対応付けて記憶する負荷履歴テーブルと、
前記負荷履歴テーブルを参照して今後発生する負荷を予測する負荷予測部と、
前記負荷予測部によって予測された負荷が所定の値より少ない場合、少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する状態設定部と、を備え
時間帯が属する属性は、前記複数のデータセンタのそれぞれが配置される地域のカレンダに基づいて設定され、
前記負荷予測部は、負荷予測の対象となる時間帯が属する属性に対応する負荷を前記負荷履歴テーブルから取得し、取得された負荷に基づいて負荷予測の対象となる時間帯における負荷を予測することを特徴とする負荷管理装置。
A load management apparatus for managing a system including a plurality of data centers that are connected to each other by a network and are geographically separated from each other, each data center having a plurality of request processing units. The device
A load acquisition unit that acquires a load of a request from the network to the system ;
A load history table for storing the acquired load and the attribute to which the time zone when the load is acquired, in association with each other;
A load prediction unit that predicts a load that will occur in the future with reference to the load history table ;
If the load predicted by the load prediction section is smaller than a predetermined value, and a state setting section that sets one request processing unit even without less, than the first state can accept a request to the second state of the power-saving , equipped with a,
The attribute to which the time zone belongs is set based on the calendar of the region where each of the plurality of data centers is arranged,
The load prediction unit obtains a load corresponding to an attribute to which a time zone targeted for load prediction belongs from the load history table, and predicts a load in a time zone targeted for load prediction based on the obtained load. A load management device.
前記状態設定部は、要求処理ユニットの最大性能を発揮せしめる前提で、ネットワークからの前記システムに対する要求を処理させる要求処理ユニットを決定し、残りの要求処理ユニットを前記第2状態に設定することを特徴とする請求項1に記載の負荷管理装置。 The state setting unit is configured to determine a request processing unit that processes a request from the network to the system and to set the remaining request processing units to the second state on the assumption that the maximum performance of the request processing unit is exhibited. The load management device according to claim 1, wherein 前記状態設定部は、前記負荷予測部によって予測された負荷の変動により前記システムの性能が落ちると予測される場合には、前記第2状態に設定されている少なくともひとつの要求処理ユニットを前記第1状態に設定することを特徴とする請求項1または2に記載の負荷管理装置。 When the state setting unit predicts that the performance of the system is degraded due to the load fluctuation predicted by the load prediction unit, the state setting unit sets at least one request processing unit set in the second state to the first state. load management device according to claim 1 or 2, characterized in that set to the 1 state. 各データセンタについて設定された電気料金を記憶する電気料金テーブルをさらに備え、It further comprises an electricity bill table that stores electricity bills set for each data center,
前記状態設定部は、前記電気料金テーブルを参照し、前記負荷予測部で負荷予測の対象となる時間帯において電気料金がより安いデータセンタに含まれる要求処理ユニットに優先的に要求を処理させることを特徴とする請求項1から3のいずれかに記載の負荷管理装置。The state setting unit refers to the electricity rate table and causes a request processing unit included in a data center with a lower electricity rate to process a request with priority in a time zone subject to load prediction by the load prediction unit. The load management apparatus according to any one of claims 1 to 3.
互いにネットワークによって接続され、互いに地理的に離れて配置された複数のデータセンタを含むシステムであってネットワークからの要求を処理するシステムと、
前記システムを管理する負荷管理装置と、を備え、
各データセンタは、それぞれが要求の処理単位である複数の要求処理ユニットを含み、
前記負荷管理装置は、
ネットワークからの前記システムに対する要求の負荷を取得する負荷取得部と、
取得された負荷と、その負荷が取得された時間帯が属する属性と、を対応付けて記憶する負荷履歴テーブルと、
前記負荷履歴テーブルを参照して今後発生する負荷を予測する負荷予測部と、
前記負荷予測部によって予測された負荷が所定の値より少ない場合、少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する状態設定部と、を含み、
時間帯が属する属性は、前記複数のデータセンタのそれぞれが配置される地域のカレンダに基づいて設定され、
前記負荷予測部は、負荷予測の対象となる時間帯が属する属性に対応する負荷を前記負荷履歴テーブルから取得し、取得された負荷に基づいて負荷予測の対象となる時間帯における負荷を予測することを特徴とする情報処理システム。
They are connected by a network to each other, and a system for processing a request from the network a system including a plurality of data centers located geographically distant from each other,
A load management device for managing the system ,
Each data center includes a plurality of request processing units, each of which is a request processing unit,
The load management device
A load acquisition unit that acquires a load of a request from the network to the system ;
A load history table for storing the acquired load and the attribute to which the time zone when the load is acquired, in association with each other;
A load prediction unit that predicts a load that will occur in the future with reference to the load history table ;
If the load predicted by the load prediction section is smaller than a predetermined value, and a state setting section that sets one request processing unit even without less, than the first state can accept a request to the second state of the power-saving , only including,
The attribute to which the time zone belongs is set based on the calendar of the region where each of the plurality of data centers is arranged,
The load prediction unit acquires a load corresponding to an attribute to which a time zone that is a target of load prediction belongs from the load history table, and predicts a load in a time zone that is a target of load prediction based on the acquired load. An information processing system characterized by this.
ネットワークからの前記システムに対する要求を前記第1状態に設定された要求処理ユニットに割り当てる要求割当装置をさらに備えることを特徴とする請求項に記載の情報処理システム。 6. The information processing system according to claim 5 , further comprising a request allocation device that allocates a request from the network to the system to the request processing unit set in the first state. 互いにネットワークによって接続され、互いに地理的に離れて配置された複数のデータセンタを含むシステムを管理する負荷管理方法であって、各データセンタは複数の要求処理ユニットを有しており、本負荷管理方法は、
ネットワークからの前記システムに対する要求の負荷を取得するステップと、
取得された負荷と、その負荷が取得された時間帯が属する属性と、を対応付けて負荷履歴テーブルに記憶するステップと、
前記負荷履歴テーブルを参照して今後発生する負荷を予測するステップと、
予測された負荷が所定の値より少ない場合、少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定するステップと、を含み、
時間帯が属する属性は、前記複数のデータセンタのそれぞれが配置される地域のカレンダに基づいて設定され、
前記予測するステップは、負荷予測の対象となる時間帯が属する属性に対応する負荷を前記負荷履歴テーブルから取得し、取得された負荷に基づいて負荷予測の対象となる時間帯における負荷を予測するステップを含むことを特徴とする負荷管理方法。
A load management method for managing a system including a plurality of data centers connected to each other by a network and geographically separated from each other, each data center having a plurality of request processing units, The method is
Obtaining a load of requests to the system from the network;
Storing the acquired load and the attribute to which the time zone when the load is acquired in association with each other in the load history table;
Predicting a future load with reference to the load history table ;
If the predicted load is less than a predetermined value, it viewed contains a step of setting one of the request processing unit even without less, than the first state can accept a request to the second state of the power saving, a,
The attribute to which the time zone belongs is set based on the calendar of the region where each of the plurality of data centers is arranged,
The step of predicting obtains a load corresponding to an attribute to which a time zone subject to load prediction belongs from the load history table, and predicts a load in a time zone subject to load prediction based on the obtained load. load management method comprising including Mukoto step.
互いにネットワークによって接続され、互いに地理的に離れて配置された複数のデータセンタを含むシステムを管理する機能をコンピュータに実現させるコンピュータプログラムであって、各データセンタは複数の要求処理ユニットを有しており、本コンピュータプログラムは、
ネットワークからの前記システムに対する要求の負荷を取得する機能と、
取得された負荷と、その負荷が取得された時間帯が属する属性と、を対応付けて負荷履歴テーブルに記憶する機能と、
前記負荷履歴テーブルを参照して今後発生する負荷を予測する機能と、
予測された負荷が所定の値より少ない場合、少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する機能と、を前記コンピュータに実現させ
時間帯が属する属性は、前記複数のデータセンタのそれぞれが配置される地域のカレンダに基づいて設定され、
前記予測する機能は、負荷予測の対象となる時間帯が属する属性に対応する負荷を前記負荷履歴テーブルから取得し、取得された負荷に基づいて負荷予測の対象となる時間帯における負荷を予測する機能を含むことを特徴とするコンピュータプログラム。
A computer program for causing a computer to realize a function of managing a system including a plurality of data centers connected to each other by a network and geographically separated from each other, each data center having a plurality of request processing units And this computer program
A function of obtaining a load of a request to the system from the network;
A function of associating the acquired load with the attribute to which the time zone when the load is acquired in association with the load history table;
A function of predicting a load that will occur in the future with reference to the load history table ;
If the predicted load is less than a predetermined value, to achieve a single request processing unit even without low, a function of setting the second state of the power-saving than the first state can accept the request, to the computer ,
The attribute to which the time zone belongs is set based on the calendar of the region where each of the plurality of data centers is arranged,
The predicting function acquires a load corresponding to an attribute to which a time zone subject to load prediction belongs from the load history table, and predicts a load in a time zone subject to load prediction based on the obtained load. A computer program comprising a function .
互いにネットワークによって接続され、互いに地理的に離れて配置された複数のデータセンタを含むシステムを管理する負荷管理装置であって、各データセンタは複数の要求処理ユニットを有しており、本負荷管理装置は、A load management apparatus for managing a system including a plurality of data centers that are connected to each other by a network and are geographically separated from each other, each data center having a plurality of request processing units. The device
ネットワークからの前記システムに対する要求の負荷を取得する負荷取得部と、A load acquisition unit that acquires a load of a request from the network to the system;
取得された負荷と、その負荷が取得された時間帯が属する属性と、を対応付けて記憶する負荷履歴テーブルと、A load history table for storing the acquired load and the attribute to which the time zone when the load is acquired, in association with each other;
前記負荷履歴テーブルを参照して今後発生する負荷を予測する負荷予測部と、A load prediction unit that predicts a load that will occur in the future with reference to the load history table;
前記負荷予測部によって予測された負荷が所定の値より少ない場合、少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する状態設定部と、を備え、A state setting unit configured to set at least one request processing unit to a second state of power saving rather than a first state capable of accepting a request when the load predicted by the load prediction unit is less than a predetermined value; Prepared,
時間帯が属する属性は、前記システムの使用目的に応じて設定され、The attribute to which the time zone belongs is set according to the purpose of use of the system,
前記負荷予測部は、負荷予測の対象となる時間帯が属する属性に対応する負荷を前記負荷履歴テーブルから取得し、取得された負荷に基づいて負荷予測の対象となる時間帯における負荷を予測することを特徴とする負荷管理装置。The load prediction unit acquires a load corresponding to an attribute to which a time zone that is a target of load prediction belongs from the load history table, and predicts a load in a time zone that is a target of load prediction based on the acquired load. A load management device.
互いにネットワークによって接続され、互いに地理的に離れて配置された複数のデータセンタを含むシステムを管理する負荷管理装置であって、各データセンタは複数の要求処理ユニットを有し、前記システムは複数種類の要求処理ユニットを有しており、本負荷管理装置は、A load management apparatus for managing a system including a plurality of data centers connected to each other by a network and geographically separated from each other, wherein each data center has a plurality of request processing units, and the system has a plurality of types. The load management device has the following request processing unit:
ネットワークからの前記システムに対する要求の負荷を要求処理ユニットの種類毎に取得する負荷取得部と、A load acquisition unit for acquiring a load of a request to the system from the network for each type of request processing unit;
過去に要求された負荷をもとに今後発生する負荷を要求処理ユニットの種類毎に予測する負荷予測部と、A load prediction unit that predicts a load to be generated in the future based on a load requested in the past for each type of request processing unit;
前記負荷予測部によって要求処理ユニットの種類のそれぞれについて予測された負荷が所定の値より少ない場合、その種類に属する少なくともひとつの要求処理ユニットを、要求を受付可能な第1状態よりも省電力の第2状態に設定する状態設定部と、を備えることを特徴とする負荷管理装置。When the load predicted for each type of request processing unit by the load prediction unit is less than a predetermined value, at least one request processing unit belonging to that type is saved more power than the first state in which a request can be accepted. And a state setting unit that sets the second state.
JP2009228703A 2009-09-30 2009-09-30 Load management apparatus, information processing system, and load management method Expired - Fee Related JP4824806B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009228703A JP4824806B2 (en) 2009-09-30 2009-09-30 Load management apparatus, information processing system, and load management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009228703A JP4824806B2 (en) 2009-09-30 2009-09-30 Load management apparatus, information processing system, and load management method

Publications (2)

Publication Number Publication Date
JP2011076469A JP2011076469A (en) 2011-04-14
JP4824806B2 true JP4824806B2 (en) 2011-11-30

Family

ID=44020366

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009228703A Expired - Fee Related JP4824806B2 (en) 2009-09-30 2009-09-30 Load management apparatus, information processing system, and load management method

Country Status (1)

Country Link
JP (1) JP4824806B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101278878B1 (en) 2011-07-06 2013-06-26 펌킨네트웍스(주) Method, apparatus and system for controlling server by changing power mode
WO2013094047A1 (en) 2011-12-21 2013-06-27 富士通株式会社 Management device, management program, and management method
JP2013225204A (en) * 2012-04-20 2013-10-31 Fujitsu Frontech Ltd Load distribution method and device which automatically optimize number of operation servers based on traffic volume prediction
KR20140089749A (en) 2013-01-07 2014-07-16 한국전자통신연구원 Apparatus and method for controlling load allocation of cluster
JP6619938B2 (en) * 2015-02-13 2019-12-11 株式会社日立システムズ Resource control system and resource control method
JP6451497B2 (en) 2015-05-20 2019-01-16 富士通株式会社 Information processing apparatus, information processing program, and data center system
JP7092345B2 (en) * 2018-07-27 2022-06-28 Necプラットフォームズ株式会社 Server controller, server control method and server control program
JP7296330B2 (en) * 2020-02-26 2023-06-22 日本電信電話株式会社 Virtual network control device, virtual network control method, and program
CN117008674B (en) * 2023-10-07 2023-12-12 四川川西数据产业有限公司 Intelligent monitoring and adjusting system for energy consumption of data center

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05233575A (en) * 1992-02-19 1993-09-10 Fujitsu Ltd Inter-process communication delay reduction system
JPH07302242A (en) * 1994-04-30 1995-11-14 Mitsubishi Electric Corp Load distribution system
JP2003281008A (en) * 2002-03-26 2003-10-03 Toshiba Corp Device, method and program for distributing server computer load, and server computer system
JP4043355B2 (en) * 2002-12-10 2008-02-06 富士通株式会社 Server load balancing program, server load balancing method, and server load balancing device
WO2004092971A1 (en) * 2003-04-14 2004-10-28 Fujitsu Limited Server allocation control method
JP2005250823A (en) * 2004-03-04 2005-09-15 Osaka Gas Co Ltd Multiple computer operation system
JP2007249491A (en) * 2006-03-15 2007-09-27 Fujitsu Ltd Program, device and method for distributing batch job in multi-server environment

Also Published As

Publication number Publication date
JP2011076469A (en) 2011-04-14

Similar Documents

Publication Publication Date Title
JP4824806B2 (en) Load management apparatus, information processing system, and load management method
Rahman et al. A survey on geographic load balancing based data center power management in the smart grid environment
CN103608747B (en) Electric power based on contextual information and load management
Mazzucco et al. Maximizing cloud providers' revenues via energy aware allocation policies
Yao et al. Data centers power reduction: A two time scale approach for delay tolerant workloads
JP4681676B1 (en) Information processing system and information processing method
JP4824807B2 (en) Load management apparatus, information processing system, and load management method
CN103491024B (en) Job scheduling method and device for streaming data
Rastogi et al. Analytical literature survey on existing load balancing schemes in cloud computing
Jeevitha et al. RETRACTED ARTICLE: A novel scheduling approach to improve the energy efficiency in cloud computing data centers
US11644804B2 (en) Compute load shaping using virtual capacity and preferential location real time scheduling
Caux et al. IT optimization for datacenters under renewable power constraint
Xu et al. Efficient server provisioning and offloading policies for internet data centers with dynamic load-demand
Remesh Babu et al. Service‐level agreement–aware scheduling and load balancing of tasks in cloud
Addya et al. A game theoretic approach to estimate fair cost of VM placement in cloud data center
Sultanpure et al. An Efficient Cloud Scheduling Algorithm for the Conservation of Energy through Broadcasting.
JP4878394B2 (en) Operation management apparatus and operation management method
Gallego Arrubla et al. Integrating virtualization, speed scaling, and powering on/off servers in data centers for energy efficiency
Kaushik et al. Greening the compute cloud's pricing plans
Zhao et al. On minimizing energy cost in internet-scale systems with dynamic data
Goyal et al. Green Service Level Agreement (GSLA) framework for cloud computing
Imada et al. Power management of distributed web savers by controlling server power state and traffic prediction for QoS
JP4878397B2 (en) Information processing system and information processing method
JP5309200B2 (en) Operation management apparatus and information processing system
Al-E'mari et al. Cloud Datacenter Selection Using Service Broker Policies: A Survey.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110301

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20110301

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20110324

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110908

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees