JP4608559B2 - Blade assignment method and blade assignment program - Google Patents
Blade assignment method and blade assignment program Download PDFInfo
- Publication number
- JP4608559B2 JP4608559B2 JP2008010033A JP2008010033A JP4608559B2 JP 4608559 B2 JP4608559 B2 JP 4608559B2 JP 2008010033 A JP2008010033 A JP 2008010033A JP 2008010033 A JP2008010033 A JP 2008010033A JP 4608559 B2 JP4608559 B2 JP 4608559B2
- Authority
- JP
- Japan
- Prior art keywords
- blade
- server
- unit
- cpu
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、複数の計算機に機能を割り当てる計算機システム技術に関する。 The present invention relates to computer system technology for assigning functions to a plurality of computers.
1つの筐体内に複数のサーバが収納されて構成されるサーバシステムに関する従来技術として、ブレードシステムと呼ばれるサーバシステムが知られている。ブレードシステムは、1または複数の基板(CPUブレード)により構成されるサーバ(以下、ブレードまたはブレードサーバという)の複数台を1つの筐体に収納して構成される。そして、1つの筐体に収納される複数台のブレードサーバは、複数の機能の異なるサーバを含んでいる。 A server system called a blade system is known as a prior art related to a server system configured by storing a plurality of servers in one housing. The blade system is configured by housing a plurality of servers (hereinafter referred to as blades or blade servers) constituted by one or a plurality of substrates (CPU blades) in one casing. A plurality of blade servers housed in one housing include a plurality of servers having different functions.
そして、前述したように構成されるブレードシステムの保守等は、予め作業の予定を組んでおきその定義された情報に基づいて、ブレードシステムを構成するサーバの機能のイメージの配置(デプロイ)およびそのイメージのブートを行うことにより、サーバ上で機能を実行することが一般的であり、このような保守は、人手により行われるものである。デプロイ(deploy)に関する具体的な技術内容については、特許文献1に記載されている。
The maintenance and the like of the blade system configured as described above is based on the information defined by preliminarily planning the work, and the arrangement (deployment) of the function image of the server configuring the blade system and its It is common to execute functions on a server by booting an image, and such maintenance is performed manually. The specific technical contents regarding the deployment are described in
なお、この種のブレードシステムのブレードサーバの構成の変更を自動的に行う従来技術は、これまで知られていない。
従来のブレードシステムは、複数の機能を持ったブレードサーバを混在して搭載して構成されているが、それらのブレードサーバが、どのような機能を持っているか外見から一目で判るように構成されていないのが一般的であり、そのため、保守を行う際に、保守者が誤って目的と異なるブレードサーバの点検をしてしまう可能性があるという問題点を有している。また、従来のブレードシステム(計算機システム)は、搭載されているブレードサーバが故障等により停止した場合、ブレードサーバの機能毎の負荷の均衡が取れなくなり、負荷が大きくなったブレードサーバでのサービスを充分に行うことができなくなる等により、ビジネスチャンスを失う可能性も生じるという問題点を有している。 Conventional blade systems are configured with a mixture of blade servers with multiple functions. However, these blade servers are configured so that you can see at a glance what functions they have. In general, there is a problem that, when performing maintenance, there is a possibility that a maintenance person mistakenly inspects a blade server having a different purpose. Also, in the case of a conventional blade system (computer system), when the installed blade server is stopped due to a failure or the like, the load for each function of the blade server cannot be balanced, and services on the blade server with increased load can be performed. There is a problem that there is a possibility of losing a business opportunity due to the fact that it cannot be performed sufficiently.
次に、ブレードサーバにおいて、1つの業務を割当てるべき複数のCPUブレード(計算機、ブレード)の構成には、クラスタ構成およびSMP(Symmetric MultiProcessor)構成がある。クラスタ構成においては、CPUブレード間の関係が疎結合であるので、ネットワーク接続されていれば複数のブレードサーバ(計算機ユニット)にわたって業務を配置してもよく、ブレードサーバ内であっても、ブレードサーバ間であっても拡張することができる。このような計算機システムの拡張をスケールアウトという。ところが、SMP構成においては、CPUブレード間の関係が密結合であるので、CPUブレード間を高速なバスで結合するためにその間の接続距離を短くする(通信時間を短縮し、高速な通信を実現する)ことが望ましく、同じブレードサーバ内で、かつ、隣接するスロットに業務を配置することが望ましい。すなわち、SMP構成には、複数のCPUブレードを同じブレードサーバ内で連続配置することにより拡張することが望ましいという制約がある。このようなブレードサーバの拡張をスケールアップという。スケールアウトおよびスケールアップが混在したブレードシステムでは、同じブレードサーバ内のスケールアップのために確保しておくべきCPUブレードをスケールアウトに割り当ててしまい、スケールアップの自由度を小さくしてしまうという問題点がある。なお、スケールアップ(scale up)およびスケールアウト(scale out)の具体的な技術内容については、それぞれ特許文献2および特許文献3に記載されている。
Next, in the blade server, there are a cluster configuration and an SMP (Symmetric MultiProcessor) configuration as configurations of a plurality of CPU blades (computers, blades) to which one task is assigned. In a cluster configuration, since the relationship between CPU blades is loosely coupled, business operations may be arranged across a plurality of blade servers (computer units) as long as they are connected to the network. It can be expanded even between. This expansion of the computer system is called scale-out. However, in the SMP configuration, since the relationship between the CPU blades is tightly coupled, the CPU blades are coupled with a high-speed bus so that the connection distance between them is shortened (communication time is shortened and high-speed communication is realized). It is desirable to place a business in the same blade server and in an adjacent slot. That is, the SMP configuration has a limitation that it is desirable to expand a plurality of CPU blades by continuously arranging them in the same blade server. Such expansion of blade servers is called scale-up. In a blade system with both scale-out and scale-up, CPU blades that should be reserved for scale-up in the same blade server are assigned to scale-out, reducing the degree of freedom of scale-up. There is. The specific technical contents of scale up and scale out are described in
本発明の目的は、前述した従来技術の問題点を解決し、ブレードシステムに搭載されているブレードサーバがどのような機能を持っているか外見から一目で判るようにし、ブレードシステムに搭載されたブレードサーバの配置変換を可能にすると共に、故障によって生じた負荷の変化を感知しブレードサーバの機能の変更によるシステム構成を変化させることを可能とすることにある。また、本発明の目的は、好適なスケールアップを実現することにある。 The object of the present invention is to solve the above-mentioned problems of the prior art, and to understand at a glance what kind of function the blade server mounted on the blade system has, and the blade mounted on the blade system. It is possible to change the arrangement of the server and to change the system configuration by changing the function of the blade server by sensing a change in load caused by a failure. Another object of the present invention is to realize a suitable scale-up.
本発明によれば前記目的は、サーバシステムを、1つの筐体内に1または複数段に搭載された機能の異なる複数種類のサーバを含む複数台のサーバにより構成されるブレードシステムと、該ブレードシステムを管理する管理サーバとを備え、該管理サーバが、複数のサーバのそれぞれの機能を変更する手段を備えて構成することにより達成される。 According to the present invention, the object is to provide a blade system composed of a plurality of servers including a plurality of types of servers having different functions mounted in one or a plurality of stages in a single casing, and the blade system. And a management server that manages each of the plurality of servers. The management server includes a means for changing the function of each of the plurality of servers.
また、前記目的は、サーバシステムを、1つの筐体内に1または複数段に搭載された機能の異なる複数種類のサーバを含む複数台のサーバにより構成されるブレードシステムと、該ブレードシステムを管理する管理サーバとを備え、該管理サーバが、搭載された複数のサーバをグループ化して管理する手段と、複数のサーバの筐体内での配置状態を管理する手段と、複数のサーバのそれぞれの機能を変更すると共に、機能を入れ替えることにより筐体内でのサーバの配置を変更する配置変更手段とを備え、該配置変更手段が、複数のサーバの機能毎に、各サーバを筐体内で整列させるように構成することにより達成される。 Another object of the present invention is to manage a blade system comprising a plurality of servers including a plurality of types of servers having different functions mounted in one or more stages in a single housing, and the blade system. A management server, wherein the management server groups and manages a plurality of installed servers, a unit for managing the arrangement state of the plurality of servers in a housing, and a function of each of the plurality of servers. And an arrangement changing means for changing the arrangement of the servers in the housing by exchanging the functions, and the arrangement changing means aligns each server in the housing for each function of the plurality of servers. This is achieved by configuring.
さらに、前記目的は、サーバの配置方法を、1つの筐体内に1または複数段に搭載される機能の異なる複数種類のサーバを含む複数台のサーバにより構成されるブレードシステムと、該ブレードシステムを管理する管理サーバとを備え、該管理サーバが、搭載された複数のサーバをグループ化して管理し、複数のサーバの筐体内での配置状態を管理し、複数のサーバのそれぞれの機能を変更すると共に、機能を入れ替えることにより筐体内でのサーバの配置を変更し、この配置の変更により、複数のサーバの機能毎に、各サーバを筐体内で整列させるようにすることにより達成される。 Furthermore, the object is to provide a server arrangement method including a blade system including a plurality of servers including a plurality of types of servers having different functions mounted in one or a plurality of stages in one casing, and the blade system. A management server that manages the plurality of installed servers in a group, manages the arrangement state of the plurality of servers in the housing, and changes the function of each of the plurality of servers. At the same time, it is achieved by changing the arrangement of the servers in the casing by exchanging the functions and aligning the servers in the casing for each function of the plurality of servers by changing the arrangement.
続いて、前記目的は、複数の計算機を含む計算機ユニットを複数備え、計算機ユニットに含まれる計算機間のデータ通信速度は、計算機ユニット間のデータ通信速度よりも速く、計算機ユニットは、第1の機能を実行する計算機と第2の機能を実行する計算機とを少なくとも含み、複数の計算機を管理する管理サーバを備えた計算機システムであって、管理サーバが、同一の計算機ユニット内で割り当てる計算機を増やすことが可能な第1の機能を割り当てる計算機を増やす場合に、当該計算機ユニットに空きの計算機があるときに、該空きの計算機に第1の機能を割り当てる手段と、空きの計算機がなく第1の機能を実行する計算機を増やすことができないときに、他の計算機ユニットに割り当て可能な第2の機能が割り当てられている計算機から該計算機ユニットに含まれない他の計算機へ該第2の機能を再配置して、当該再配置元となった計算機に第1の機能を割り当てる手段とを備えることにより達成される。なお、前記目的を達成する本発明は、ブレード割り当て方法およびブレード割り当てプログラムを含むものである。
Subsequently, the object is provided with a plurality of computer units including a plurality of computers, the data communication speed between the computers included in the computer unit is faster than the data communication speed between the computer units, and the computer unit has the first function. A computer system including a management server for managing a plurality of computers, wherein the management server increases the number of computers allocated in the same computer unit In the case of increasing the number of computers to which the first function that can be performed is increased, when there is a vacant computer in the computer unit, means for allocating the first function to the vacant computer and the first function without the vacant computer When the number of computers that execute the command cannot be increased, the second function that can be assigned to another computer unit is assigned. And rearrange the features of the second to the other computers that are not included in the computer unit from the machine, is achieved by providing a means for assigning a first function to the computer became the relocation source. The present invention for achieving the above object, is intended to include blade allocation method and the blade allocation program.
本発明によれば、サーバを機能種別毎に、その配列を整理することができるので、保守の容易性の向上を図ることができる。また、本発明によれば、1つのサーバが故障したことにより搭載された他のサーバの負荷の不均衡が生じた場合に、サーバの機能を自動的に入れ替えることができるので、保守が行われるまでの間ブレードシステムの処理能力を最大限に活用することが可能となる。また、本発明によれば、機能を割り当てる計算機間の関係が密結合である(通信速度が高速でないと、処理性能の低下が大きい)場合に、2以上の計算機間の通信速度が速い配置の計算機に機能を割り当てる。また、それができないときには、疎結合の(通信速度が高速でなくとも、処理性能の低下が少ない)機能を他の計算機に再配置するので、スケールアップの自由度を向上し、業務(機能)をCPUブレード(計算機)に割当てることができる。 According to the present invention, since the arrangement of servers can be arranged for each function type, the ease of maintenance can be improved. In addition, according to the present invention, when an imbalance in the load of another server mounted due to a failure of one server occurs, the functions of the server can be automatically replaced, so that maintenance is performed. In the meantime, it is possible to make maximum use of the processing capacity of the blade system. In addition, according to the present invention, when the relationship between computers to which functions are assigned is tightly coupled (if the communication speed is not high, the processing performance is greatly reduced), the communication speed between two or more computers is high. Assign functions to computers. In addition, when this is not possible, the functions of loose coupling (there is little decrease in processing performance even if the communication speed is not high) are relocated to other computers, improving the degree of freedom of scale-up and business (function) Can be assigned to a CPU blade (computer).
以下、本発明によるサーバシステム及びサーバの配置方法の実施形態を図面により詳細に説明する。 Embodiments of a server system and a server arrangement method according to the present invention will be described below in detail with reference to the drawings.
≪第1の実施形態≫
図1は本発明の一実施形態によるサーバシステムの構成例を示すブロック図、図2はブレードサーバの構成例を示すブロック図である。図1、図2において、1はブレードシステム(以下、ブレードと略す)、2は記憶装置、3はブレードサーバ、4はサーバ種別管理テーブル、5はブレードサーバ管理テーブル、6はサーバイメージ記憶装置、7は管理サーバ、8、11は通信制御部、9はサーバ種別検知部、10は記憶装置インターフェース部、13はイメージ配信部、14はイメージ収集部、15は自動配信スケジュール部、17はサーバ負荷検知部、18はサーバ負荷計算部、20はSANコンフィグ部、21はグループ作成部、22はLED点灯部、23は起動パラメータ設定部、24は表示装置である。
<< First Embodiment >>
FIG. 1 is a block diagram showing a configuration example of a server system according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a configuration example of a blade server. 1 and 2, 1 is a blade system (hereinafter abbreviated as a blade), 2 is a storage device, 3 is a blade server, 4 is a server type management table, 5 is a blade server management table, 6 is a server image storage device, 7 is a management server, 8 and 11 are communication control units, 9 is a server type detection unit, 10 is a storage device interface unit, 13 is an image distribution unit, 14 is an image collection unit, 15 is an automatic distribution schedule unit, and 17 is a server load. A detection unit, 18 is a server load calculation unit, 20 is a SAN configuration unit, 21 is a group creation unit, 22 is an LED lighting unit, 23 is an activation parameter setting unit, and 24 is a display device.
本実施形態によるサーバシステムは、図1に示すように、1つの筐体内に設けられる複数のスロットのそれぞれにブレードサーバ(ブレードや、CPUボード、計算機ともいう)3を収納した複数のブレードサーバにより構成されるブレード1と、複数のブレードサーバ3のそれぞれに接続される記憶装置2と、本実施形態により設けられた管理サーバ7とにより構成されている。ブレード1を構成する複数のブレードサーバ3は、それぞれ独立して動作することが可能なコンピュータであり、それぞれ、CPU、メモリ、外部入出力等のサーバとしての基本機能を備え、記憶装置2と接続されて構成されている。また、ブレードサーバ3は、1または複数の基板により構成されていてよく、複数の基板により構成される場合、筐体内の複数のスロットに収納される。各処理部をプログラムで実現する場合には、前記メモリに格納されたプログラムが前記CPUによって実行される。
As shown in FIG. 1, the server system according to the present embodiment includes a plurality of blade servers in which a blade server (also referred to as a blade, a CPU board, or a computer) 3 is housed in each of a plurality of slots provided in one housing. The
1つの筐体に収納される複数台のブレードサーバ3は、機能の異なる複数種類のサーバを含んでいる。また、ブレード1は、図示しない負荷分散装置を備えており、機能毎に分類される同種類ブレードサーバ3が全て均等に負荷分散されるように制御されている。なお、図1には、ブレード1として、1つの筐体に複数のブレードサーバ3を収納したものとして1つのブレードだけ示しているが、ブレード1は、複数段の棚を持つ筐体の各段に複数設けられていてもよい。ブレードシステムを複数段で構成する場合、1つの段全体で1つのブレード1を構成しても、あるいは、複数段をまとめて1つのブレード1を構成してもよい。さらに、1つの段に含まれる複数のブレードサーバを複数の群に分けて、各群をそれぞれ1つのブレード1として構成してもよい。機能をまとめたり、近接するブレードサーバに割り当てたりすることにより、通信時間を短くし、処理能力を向上することもできる。
The plurality of
管理サーバ7は、ネットワーク等を介してブレード1の全てのブレードサーバ3に接続されており、ブレード1の全てのブレードサーバ3を管理するものであるが、ブレードサーバ3の1つに構成されていてよい。そして、管理サーバ7は、ブレードサーバ3との通信を制御する通信制御部11、ブレードサーバ3にサーバイメージ(モジュールや、プログラムイメージ、システムイメージ、ディスクイメージ、ボリュームイメージともいう)を配信するイメージ配信部13、ブレードサーバ3からイメージを収集するイメージ収集部14、本実施形態によりブレードサーバ3のブレード1内での配置の変更等の処理を行う自動配信スケジュール部15、各ブレードサーバ3の負荷を計算するサーバ負荷計算部18、記憶装置2がSANで接続される場合のSANのコンフィグレーションを設定するSANコンフィグ部20、ブレードサーバ3をグループ化するグループ作成部21、起動パラメータ設定部23、複数のブレードサーバ3の配置状態を表示する表示装置24、複数のブレードサーバ3のそれぞれの機能種別を管理するサーバ種別管理テーブル4、複数のブレードサーバ3のブレード内での配置位置等を管理するブレードサーバ管理テーブル5、ブレードサーバ3に配信するサーバイメージを保持するサーバイメージ記憶装置6を備えて構成される。各ブレードサーバは、それぞれに割付けられたサーバイメージに基づいて処理を実行する。
The
また、ブレードサーバ3は、図2に示すように、管理サーバ7との通信を制御する通信制御部8、自ブレードサーバの機能種別を検知するサーバ種別検知部9、記憶装置2とのインタフェースである記憶装置インタフェース部10、自ブレードサーバの負荷状態を検知するサーバ負荷検知部11、自ブレードサーバの機能種別に対応する色のLED、障害等の状態を示すLEDを点灯制御するLED点灯部22、図示しない機能種別毎に対応する色で発光させられる複数のLED及び障害等の状態を示すLEDを備えて構成されている。
As shown in FIG. 2, the
前述したように構成される本実施形態において、記憶装置2は、DAS(Device Attached Storage)またはSAN(Storage Area Network)の形態を持ち、ブレードサーバ3の
記憶装置インターフェース10を介して接続される。SANで接続される場合、HBA(Host Bus Adapter)を介してファイバチャネルスイッチによりSANのコンフィグレーションが設定されるものとする。
In the present embodiment configured as described above, the
管理サーバ7は、1または複数のブレード1に収納される複数のブレードサーバ3を、グループ作成部21で作成したグループに登録することによりブレードサーバ3の管理を行う。また、管理サーバ7内の自動配信スケジュール部15は、本実施形態によるブレードサーバ3の配置(デプロイ)、機能種別の変更を行うものであり、この処理の詳細については後述する。なお、デプロイ(deploy)に関する具体的な技術内容については、特許文献1に記載されている。
The
ブレードサーバ3内のサーバ種別検知部9は、管理サーバ7からの要求により自サーバ内の通信制御部8、管理サーバ内の通信制御部11を介して通信を行い、自ブレードサーバ3にインストールされているモジュール(例えば、SMTPサーバやHTTPサーバを示す)を検知する。
The server
管理サーバ7内のイメージ配信部13は、通信制御部11、ブレードサーバ3内の通信制御部8を介して対象のブレードサーバ3へサーバイメージ記憶装置6に記憶されているイメージを配信する。対象のブレードサーバ3は、イメージが配信された後、配信されたイメージの元の状態を復元し、起動パラメータ設定部23により設定された対象サーバ固有の情報を読み込みOSを起動する。本発明の実施形態において、イメージとはそのサーバが接続されている記憶装置2のバックアップイメージを指す。管理サーバ7内のイメージ収集部14は、通信制御部11、対象ブレードサーバ3の通信制御部8を介して対象のブレードサーバ3のイメージを収集し、サーバイメージ記憶装置9に記憶する。
The
各サーバは、内蔵ディスクを有し、配信されたサーバイメージを前記内蔵ディスクに格納し、再起動のときに、そのサーバイメージからブートを行うことも可能である。ここで、配信とは、サーバイメージ記憶装置9から対象となるサーバイメージを当該ブレードの内蔵ディスクにコピーすることを意味する。また、サーバイメージが配信されると、ブレードサーバに対応付けられてサーバイメージ記憶装置9に格納される。この場合、ブレードサーバから、SANブートによりサーバイメージをブートしてもよい。ここで、配信とは、サーバイメージ記憶装置9から対象となるサーバイメージをコピーして当該ブレードに対応付けることを意味する。
Each server has a built-in disk, can store the distributed server image in the built-in disk, and can boot from the server image at the time of restart. Here, the distribution means that the target server image is copied from the server
前述したイメージ配信部13、イメージ収集部14での処理は、対象サーバの作業を一定時間停止しなければ実行することができない。すなわち、イメージの収集、配信時において、対象サーバは停止状態になる。ブレードサーバ3内のサーバ負荷検知部17は、自ブレードサーバ3の負荷を測定する。ここでいう負荷は、例えば、CPU使用率であって、ある一定の時間間隔で測定されたCPU使用率の平均値である。また、負荷は、要求を処理したレスポンス時間やその平均値を利用してもよい。ここで得られた測定結果は、通信制御部8、管理サーバ7の通信制御部11を介して管理サーバ7に送られる。
The processes in the
管理サーバ7のサーバ負荷計算部18は、ブレードサーバ3の機能種別毎にサーバ負荷検知部17で得た測定結果を平均する機能と、ある機能種別のサーバに増減がある場合、その機能種別のサーバが増減したと仮定した場合の負荷の平均を予測計算する機能とを有する。予測計算の方法は、例えば、機能種別毎の負荷の合計値をサーバの増減を仮定したときのその機能種別のサーバ数で割る等の方法であってよい。管理サーバ7内のグループ作成部21は、グループとして管理したいブレードサーバのグループを作成し、作成したグループのそれぞれに、グループとして管理したいブレード1あるいはブレードサーバ3を登録する。1つのグループに複数のブレードあるいはブレードサーバを登録することにより、グループとして、ブレードあるいはブレードサーバを管理することができる。
The server
管理サーバ7内のSANコンフィグ作成部20は、記憶装置2がブレード1にSANにより接続されている場合に、ファイバチャネルスイッチのコンフィグレーションを作成し、作成したコンフィグレーションをファイバチャネルスイッチに設定する機能を有する。ブレードサーバ3内のLED点灯部22は、ブレードサーバの起動時に、自ブレードサーバがどの機能種別に属するかを判断し、その機能種別に対応するLEDを図3に示して後述する表から判別して点灯させる。管理サーバ7内の起動パラメータ設定部23は、イメージ配信部13での処理中にイメージ配信対象サーバにおける固有の情報を参照するが、その各ブレードサーバ固有の情報を設定する機能を有する。各処理部は、プログラムや、オブジェクト、プロセス、スレッド、ハードウェアでも実現できる。
The SAN
図3は管理サーバ7のサーバ種別管理テーブル4の構成を示す図であり、次に、これについて説明する。
FIG. 3 is a diagram showing the configuration of the server type management table 4 of the
図3に示すサーバ種別管理テーブル4は、複数のブレードサーバ3のそれぞれの機能種別を管理するためのものであり、ブレードサーバの番号201、その機能種別202、LEDの対応する点灯色を示すLED203及び検知モジュール1〜n(204、205)により構成される。機能種別202は、例えば、WEBサーバ、メールサーバというようにそのサーバの機能を表す。LED203は、その機能に対応して点灯させるLEDの色を表す。検知モジュール204、205は、例えば、SMTPサーバ、POPサーバ、HTTPサーバのようにサーバ種別検知部により検知されたモジュールがどの機能に属するものかを判断するために用いられる。同じ機能を持つサーバ、例えば、WEBサーバであっても、異なるモジュールを持つ場合もあり、検知モジュール1〜n等として区別されて登録される。
The server type management table 4 shown in FIG. 3 is for managing the respective function types of the plurality of
図4は管理サーバ7のブレードサーバ管理テーブル5の構成を示す図であり、次に、これについて説明する。
FIG. 4 is a diagram showing the configuration of the blade server management table 5 of the
図4に示すブレードサーバ管理テーブル5は、複数のブレードサーバ3のブレード内での配置位置等を管理するためのものであり、筐体内での収用位置を示すブレードサーバの番号301、ブレード番号302、機能種別303、そのサーバが稼動中(act)か否(non act)かを示す状態304、実行可能な機能305により構成される。ブレード番号302は、グループによって登録された全てのブレードサーバのブレード番号、ブレードサーバ番号により構成される。機能種別303は、ブレード番号に対応するサーバが持つ種別を表し、図3で説明した202に対応する。実行可能な機能305には、記憶装置2がDASであってブレードサーバに直接接続されている場合に、記憶装置2内に実行可能に格納されているモジュール名が格納されている。なお、故障と診断されたブレードサーバは、このテーブルに登録されない。
The blade server management table 5 shown in FIG. 4 is for managing the arrangement positions and the like of the plurality of
また、図4において番号301の順番は、グループ毎に決定し、ブレードの登録された順番で、そのブレードを格納している筐体に収納されているブレードサーバの順番に等しいものとする。図4に示すブレードサーバ管理テーブル5の例は、ブレードサーバ3を4枚備えて構成されるブレードの2つを1つのグループとして登録した場合の例である。この場合に、1つの筐体に2つのブレードが構成されることになるが、システム全体が複数の筐体で構成される場合、1つの段の筐体に収納される全てのブレードサーバにより1つのブレードを構成し、そのブレードの複数を1つのグループとして登録するようにしてもよい。また、機能種別303において、ある種別が決定されると、その機能種別のブレードサーバに含まれる機能やアプリケーションは、グループによって一意に決定される。例えば、図4に示す例において、種別がWEBサーバとなっているブレードサーバは、全て同等の機能及びアプリケーションしか実行しない。
In FIG. 4, the order of the
図5は自動配信スケジュール部15におけるブレードサーバの配置変換の処理動作を説明するフローチャートであり、次に、これについて説明する。ここで説明する例は、図3に示される機能がWEBサーバ、メールサーバに限られるものとした場合の例である。この処理は、障害等によりブレードサーバの1つが停止したとき、あるいは、定期的に起動される。
FIG. 5 is a flowchart for explaining the processing operation of the blade server layout conversion in the automatic
(1)この処理が開始されると、まず、1つのブレードサーバの停止によりこの処理が開始されたのか否かを判定し、1つのブレードサーバの停止によりこの処理が開始された場合、図4に示すテーブル5の停止したサーバを削除して、テーブル5を更新する(ステップ401、402)。
(1) When this process is started, first, it is determined whether or not this process has been started by stopping one blade server. When this process is started by stopping one blade server, FIG. Table 5 is deleted by deleting the stopped server in Table 5 (
(2)1つのブレードサーバが停止すると、ブレード1は、図示しない負荷分散装置が、停止したブレードサーバと同一の機能を持った同種類のブレードサーバに停止したブレードサーバの処理を分散させて実行するように負荷分散させるので、管理サーバ7内のサーバ負荷計算部17は、同種類のブレードサーバのサーバ負荷検知部17からブレードサーバの負荷状態を収集し、各サーバの平均負荷を測定して、同種類のブレードサーバの負荷が多くなり過ぎているか否か、すなわち、負荷の状態が許容できる範囲にあるか否かを判定する(ステップ403、404)。
(2) When one blade server is stopped, the
(3)ステップ404の判定で、停止したブレードサーバと同種のブレードサーバの負荷が大きく、負荷の状態が許容できる範囲でなかった場合、例えば、WEBサーバが停止した場合で、1つのWEBサーバの停止より、他のWEBサーバの負荷が著しく大きくなった場合、まず、テーブル5内に空きとなっているサーバがあるか否かを判定し、あれば空きのサーバの1つにWEBサーバ(ここでは、予め取得しておいた初期状態のWEBサーバとする)のイメージをイメージ配信部13から配信する。空きがなかった場合、メールサーバがグループ内にいくつあるかを図4に示すテーブル5から計算し、複数あった場合、サーバ負荷計算部18によりメールサーバを1つ減少させた場合のメールサーバの負荷を予測計算し、WEBサーバを増加させる方が適当である場合、1つのメールサーバにWEBサーバのイメージ(ここでは予め収集しておいたイメージ)をイメージ配信部13から配信する。メールサーバが複数ないか、あるいは、WEBサーバを増加させない方が適当である場合何もしない(ステップ405)。
(3) If it is determined in
(4)ステップ405のイメージ配信の処理により必要な機能がブレードサーバにリブートされると、そのブレードサーバのLED点灯部22は、機能により決められている色を発光するLEDを点灯させ、テーブル5を更新すると共に、その後の処理でブレードサーバの配置を変更するために利用する配置変換後の新たなテーブルを、更新したテーブル5の情報に基づいて作成する(ステップ406〜408)。
(4) When the necessary function is rebooted to the blade server by the image distribution processing in
(5)ステップ401の判定で、ブレードサーバの停止によりこの処理が開始されたのではない場合、定期的な起動で、ブレードサーバの並べ替えのための起動であるので、現在のブレードサーバ管理テーブル5の情報に基づいて、配置変換後の新たなテーブルを作成する(ステップ409)。
(5) If it is determined in
(6)ステップ404の判定で、負荷の状態が許容できる範囲にあった場合、ステップ402の処理で更新したテーブル5の情報に基づいて、配置変換後の新たなテーブルを作成する(ステップ410)。
(6) If it is determined in
(7)ステップ408、409または410の処理で配置変換後の新たなテーブルを作成した後、ブレードサーバの並べ替えの処理が開始される。この処理が開始されると、まず、ブレードサーバに接続される記憶装置2がDASにより接続されているのか、SANにより接続されているのかを判定する(ステップ411、412)。
(7) After creating a new table after the layout conversion in the process of
(8)ステップ411の判定で、DASにより接続されている場合、詳細を後述するDASの場合の処理を実行し、SANにより接続去れている場合、詳細を後述するSANの場合の処理を実行して、ブレードサーバの並べ替えの処理を終了する(ステップ413、414)。
(8) If it is determined in step 411 that the connection is made by DAS, the process for DAS, which will be described in detail later, is executed. If the connection is left by SAN, the process for SAN, which will be described in detail later, is executed. Then, the blade server rearrangement process is terminated (
図6は配置変換後の新たなブレードサーバ管理テーブル501の構成例を示す図であり、ここに示す例は、前述したステップ409の処理で、現在のブレードサーバ管理テーブル5の状態が図4に示すようなものであった場合における配置変換後のブレードサーバの並び順を示すものであり、WEBサーバ、メールサーバ、空きのサーバが順に筐体に収納されたものとなる。このように、機能種別毎にブレードサーバを複数まとめて配置するようにすることにより、保守者がブレードサーバの配置位置を把握しやすくなり、保守の容易性を向上させることができる。なお、配置変換後のブレードサーバの並び順をどのようにするかは任意である。また、前述のステップ408、410で作成される配置変換後の新たなブレードサーバ管理テーブルが、ステップ409で作成されるものと同一となるとは限らないが、以下の説明では、配置変換後の新たなブレードサーバ管理テーブルが図6に示すようなものとなるとして説明を続ける。
FIG. 6 is a diagram showing a configuration example of a new blade server management table 501 after the layout conversion. In the example shown here, the current state of the blade server management table 5 is shown in FIG. In this case, the arrangement order of the blade servers after the layout conversion is shown, and the WEB server, the mail server, and the empty server are sequentially stored in the housing. As described above, by arranging a plurality of blade servers for each function type, it becomes easier for the maintenance person to grasp the arrangement position of the blade server, and the ease of maintenance can be improved. Note that the arrangement order of the blade servers after the layout conversion is arbitrary. Further, the new blade server management table after the layout conversion created in the above-described
図7は記憶装置2がDASにより接続された場合のブレードサーバの並べ替えの処理動作を説明するフローチャート、図8は図7のステップ603での空きサーバの位置変換の処理動作を説明するフローチャート、図9は空きサーバの位置変換の処理動作を行った後のサーバの配置状態を示す図であり、まず、図7に示すフローを参照して、ブレードサーバの並べ替えの処理動作を説明する。
FIG. 7 is a flowchart for explaining the processing operation for rearranging blade servers when the
(1)まず、図4に示す元のブレードサーバ管理テーブル5とステップ409の処理で作成した配置変換後のブレードサーバ管理テーブル501とを比較し、両者が同等か否かにより配置の変換が必要か否かを判定する。2つのテーブルが同等である場合、変換の必要ないので処理を終了させる(ステップ601)。
(1) First, the original blade server management table 5 shown in FIG. 4 is compared with the blade server management table 501 after the layout conversion created by the processing in
(2)ステップ601の判定で、2つのテーブルが異なりサーバの配置の変換が必要であった場合、次に、ブレードサーバ管理テーブル5に空きのサーバが登録されているか否かを判定し、空きのサーバがなかった場合、サーバの配置の変換が不可能であるため、ここでの処理を終了する(ステップ602)。
(2) If it is determined in
(3)ステップ602の判定で、空きのサーバがあった場合、図8により後述する空きサーバの位置の変換を行う。この処理により、図9に801として示すテーブルのように空サーバをテーブルの末尾に配置する。ここでの処理では、図4に示しテーブルに空きサーバが2つあるので、3番の空きサーバに、8番のWEBサーバを移動させ、4番の空きサーバに、7番のメールサーバを移動させ、その後、7番のサーバと8番のサーバとを空きにする処理を行って、図9に示すような配置とする(ステップ603)。
(3) If it is determined in
(4)次に、空きサーバが2以上存在するか否かを判定し、テーブルに空きサーバが2以上ない場合、すなわち、空きサーバが1つしかない場合、必要に応じて縮退運転をしなければならないため、各ブレードサーバのサーバ負荷検知部17から検知された負荷の状態を収集し、管理サーバ7のサーバ負荷計算部18により縮退運転時の構成における各ブレードサーバの負荷を予測する。縮退運転とは、例えば、空きのサーバが1つしかない場合、WEBサーバ、メールサーバのどちらか一方を停止させて運転を続けることをいい、ここではその両方の場合を考慮してサーバ負荷計算部18により負荷予測を行う。すなわち、WEBサーバが1減少する場合とメールサーバが1減少する場合において負荷予測を行う(ステップ605)。
(4) Next, it is determined whether or not there are two or more free servers, and if there are two or more free servers in the table, that is, if there is only one free server, degenerate operation must be performed as necessary. Therefore, the load state detected from the server load detection unit 17 of each blade server is collected, and the load of each blade server in the configuration during the degenerate operation is predicted by the server
(5)ステップ605で予測された負荷の計算値がWEBサーバ、メールサーバのどちらかでも負荷の基準値を超えるか否かを判定し、基準値を超えていた場合ブレードサーバの配置変換を中止するか、あるいは、一定時間待ってから処理を再開することとして、ここでの処理を終了する。一方、負荷の計算値からどちらのサーバを1つ減少させるのがよいかを計算値より判断し、例えば、WEBサーバが1減少したほうが負荷の影響が少ない場合は、メールサーバを空きサーバに配信する。この場合、その配信されたサーバイメージは予め収集しておいたメールサーバの機能を持つものとする(ステップ606)。
(5) It is determined whether the calculated load value predicted in
(6)ステップ604の判定で、サーバの空きが2以上あった場合、WEBサーバ、メールサーバの組をどこかの空きサーバに配信しておく。この場合のイメージも予め収集しておいたものとする。予備としてこれらの配信により作成されたサーバを運転するがこれらのサーバの運転中取得されたログなどの固有の情報は破棄される(ステップ607)。
(6) If it is determined in
(7)次に、ブレードサーバの位置変換を行う。位置変換とは、対応する2つのサーバA、Bを決定し、A、Bのイメージ収集を同時に行い、A、Bともにイメージ収集を終えた時点でAのイメージをBへ、BのイメージをAへ同時に配信することをいう。かりに、Bが空の場合、Bのイメージを収集する必要はなく、配信時にはAに対応するテーブル5を空に設定し、Aのサーバは停止させておく。サーバA、Bは、常にWEBサーバとメールサーバの組になるようにする。説明している例では、ステップ603の処理で、図9に示す状態となっているので、ここでの処理は、2番のメールサーバと5番のWEBサーバとを入れ替える処理となり、これにより、図6に示す状態となる。その後、必要なイメージがそれぞれのサーバにリブートされると、各サーバのLED点灯部22により、機能に対応する色のLEDが点灯させられる(ステップ608、609)。
(7) Next, position conversion of the blade server is performed. In the position conversion, two corresponding servers A and B are determined, and A and B images are collected at the same time. When both A and B have finished collecting images, the image of A is changed to B, and the image of B is changed to A. It means to deliver to the same time. If B is empty, it is not necessary to collect the image of B. At the time of distribution, the table 5 corresponding to A is set to empty, and the server of A is stopped. The servers A and B are always set as a set of a WEB server and a mail server. In the example described, since the process in
(8)次に、他に入れ替えるべきサーバがあれば、ステップ608からの処理を繰り返し、入れ替えるべきサーバがなくなれば、ここでの処理を終了する(ステップ610)。
(8) Next, if there is another server to be replaced, the processing from
次に、図8に示すフローを参照して、前述したステップ603での空きサーバをブレード内の最後の位置に配置する処理について説明する。
Next, with reference to the flow shown in FIG. 8, the processing for arranging the empty server at the above-described
(1)まず、図4に示すテーブル5から空きサーバがテーブルの何番にあるかを調べ、その番号を示す図示していないが、空きサーバテーブルAと呼ぶテーブルを作成する。この空きサーバテーブルAには、対応する番号のサーバの機能種別も記憶させる(ステップ701)。 (1) First, the table 5 shown in FIG. 4 is used to check the number of the empty server, and a table called the empty server table A is created, although this number is not shown. The empty server table A also stores the function type of the server with the corresponding number (step 701).
(2)ステップ701で作成した空きサーバテーブルAと図6に示す配置変換後のブレードサーバテーブル501とを比較し、空きサーバの位置が同じであるか否かにより配置変換が必要か否かを判定し、空きサーバの位置が同じで配置変換が不要であればここでの処理を終了する(ステップ702)。
(2) The free server table A created in
(3)ステップ702の判定で、空きサーバの位置が同じでなく、配置変換が必要であると判定された場合、前述の空きサーバテーブルから位置変換が必要な空きサーバと空きサーバと変換されるサーバ種別を決定する。位置変換が必要なサーバが1ならば対応するサーバの位置が自動的に決定される。位置変換が必要なサーバが2以上の場合、どのサーバとどのサーバとを対応させるかについては、例えば、以下のように決定する。テーブル501における種別が空のサーバの番号と現在の種別、すなわち、テーブル5における種別をテーブルBに記憶する。次に、前述の空きサーバテーブルAを番号順に走査し、テーブルAの種別に対応する種別がテーブルBにあるかを調べる。対応する種別があれば、そのサーバに決定し、決定したテーブルBの番号をテーブルBから削除する。なければ、対応するサーバを決定せずに空きサーバテーブルAの次の走査に移り、同様の操作を繰り返す。テーブルAの走査を終えると対応するサーバが決定していないテーブルAのサーバをテーブルBの残っているサーバの中から適当に決定する。このように対応するサーバを決定することにより、図7により説明したステップ608におけるサーバ変換処理を最小の処理量に抑えることができる(ステップ703)。
(3) If it is determined in
(4)次に、ステップ703の処理の結果、サーバの位置変換を行う必要があるか否かを判定して、位置変換がなければテーブル5を更新してここでの処理を終了する(ステップ704、705)。
(4) Next, as a result of the process in
(5)ステップ704の判定で、サーバの位置変換があった場合、縮退運用時のサーバの負荷を、前述ですでに説明していると同様に計算し、縮退運用時の負荷が基準値より大きいか否かを判定し、負荷が基準値より大きければ処理を終了するか、あるいは、一定時間待って処理を続けることとする(ステップ706、707)。
(5) If it is determined in step 704 that the server position has been changed, the server load during the degenerate operation is calculated in the same manner as described above, and the load during the degenerate operation is calculated from the reference value. It is determined whether or not the load is larger. If the load is larger than the reference value, the process is terminated, or the process is continued after waiting for a predetermined time (
(6)ステップ707の判定で、負荷が基準値より小さかった場合、ステップ703の処理によって決定した対応するサーバに対して、イメージの収集、イメージの配信の処理を行って位置変換を行う。この位置変換の処理では、対象となるサーバが一時的に停止させられる。この位置変換により、イメージがサーバにリブートされれば、そのサーバ内のLED点灯部22が、その機能種別に対応する色のLEDを点灯させる(ステップ708〜710)。
(6) If it is determined in
前述した処理の結果、図4に示した配列のブレードサーバ管理テーブルの状態が、図9に示すテーブル801にように変更されたことになり、同時に、空きサーバが番号の末尾となるように配置される。 As a result of the above-described processing, the state of the blade server management table having the arrangement shown in FIG. 4 is changed to the table 801 shown in FIG. 9, and at the same time, the free server is arranged at the end of the number. Is done.
以上、図7、図8に示すフローにより、図5に示すステップ413でのDASの場合のブレードサーバの並べ替えについて説明した。前述したDASの場合の並べ替えは、処理を迅速に行う必要性からブレード1内に少なくとも2つの空きのブレードサーバが存在する場合に、その空きサーバを利用して効率的にサーバの並べ替えを行う例を示して説明した。しかし、ブレードサーバの並べ替えは、並べ替えにある程度時間が係ることを許容すれば、ブレード1内に1つの空きのブレードサーバが存在すれば行うことができる。この場合のサーバの並べ替えは、例えば、データソートの方法としてよく知られている方法を応用し、空きのサーバに移動したいサーバの機能を移し、そのサーバを空きにすることによるサーバの位置変換を、所望の配置となるまで繰り返し実行するという方法により行うことができる。さらに、負荷の軽い機能種別のサーバの1つを停止状態とし、このサーバを1つの空きサーバと見て前述したような処理を行えば、ブレード1内に空きのブレードサーバが存在しない場合にも、サーバの配置替えを行うことができる。
The rearrangement of blade servers in the case of DAS at
前述したDASの場合の方法は、記憶装置2が各ブレードサーバに所属していて、その記憶装置内にそのサーバの機能を特徴付けるモジュールをイメージとして配信しなければならない。このため、いずれにしてもサーバの配置替えに際してサーバの停止を伴うことになり、図5に示して説明したフローにおいて、ステップ408からの並べ替え開始後の処理は、サーバシステム全体の処理負荷が低い状態で行うことが望ましく、図5のステップ408〜410の手段で並べ替え後のテーブルを作成した後は、処理を中断して、ステップ408からの並べ替え開始後の処理をサーバシステム全体の処理負荷が低い状態となる深夜等の時間帯に行うようにしておくとよい。
In the DAS method described above, the
図10は記憶装置2がSANにより接続された場合のブレードサーバの並べ替えの処理動作を説明するフローチャートであり、次に、これについて説明する。記憶装置2がSANの場合、記憶装置2は、ファイバケーブルによりファイバチャネルスイッチを介して各ブレードサーバ3に接続されているものとする。
FIG. 10 is a flowchart for explaining the processing operation of rearranging blade servers when the
(1)まず、管理サーバ7のSANコンフィグ部20は、図5に示すフローのステップ408から410のどれかで作成した並べ替え後のテーブル501の状態になるようファイバチャネルスイッチのコンフィグレーションを作成し、作成した情報を通信制御部8、11のを通してファイバチャネルスイッチに設定する(ステップ901)。
(1) First, the
(2)次に、リブートが必要なサーバの番号を、図には示していないテーブルCに記憶し、ステップ902からステップ906の処理をテーブルCに記憶したサーバに対して繰り返すことにより設定情報を各サーバに反映させるため、リブートによりそのサーバが停止するものと考えて負荷予測計算を、前述で説明した場合と同様にサーバ負荷計算部18により行わせ、負荷が規定値より大きいか否かを判定する(ステップ902、903)。
(2) Next, the server number that needs to be rebooted is stored in the table C not shown in the figure, and the setting information is obtained by repeating the processing from
(3)ステップ903の判定で、負荷が規定値より大きければ、テーブルCの次のサーバに対して同じ処理を実行し、負荷が規定値より大きくなければ、OSの機能を用いてリブートを行う。リブートが完了すれば、LED点灯部22がリブートされた機能に対応する色のLEDを点灯させる(ステップ904、905)。
(3) If it is determined in
(4)次に、テーブルCからリブートが完了したサーバを削除し、テーブルCにまだサーバが存在すれば、ステップ902からの処理に戻って処理を繰り返し、テーブルCにサーバがなくなれば、処理を終了する(ステップ906)。 (4) Next, the server that has been rebooted is deleted from the table C. If there are still servers in the table C, the process returns to step 902 to repeat the process. If there are no servers in the table C, the process is performed. The process ends (step 906).
前述ではブレードを構成するブレードサーバが障害等で停止した場合、あるいは、別の何らかの理由で、ブレードサーバの配置が乱れた場合にブレードサーバの機能を入れ替えて配置を変更するとして説明したが、本実施形態で設けられた管理サーバは、各ブレードサーバの負荷状態を常時監視して、負荷が基準値より大きくなった場合に、空きのサーバに同一機能のモジュールを配信して、その機能を持つサーバの数を増加させ、あるいは、負荷が基準値より小さくなった場合に、その機能を持つサーバの1つを空き状態にして、その機能を持つサーバの数を減少させて、サーバシステム全体の処理効率を向上させることができ、この場合にも、配置が乱れたブレードサーバの配置を変更することができる。 In the above description, the blade server that constitutes the blade is stopped due to a failure, etc., or if the blade server layout is disrupted for some other reason. The management server provided in the embodiment constantly monitors the load state of each blade server, and when the load becomes larger than the reference value, distributes modules of the same function to empty servers and has the function. When the number of servers is increased, or when the load becomes smaller than the reference value, one of the servers having the function is made free and the number of servers having the function is decreased. Processing efficiency can be improved, and in this case as well, the arrangement of blade servers whose arrangement is disordered can be changed.
図11は複数のブレードサーバ3の配置状態を表示装置24に表示したモニター画面の例を示す図である。図11に示す表示画面1008において、1001、1002はサーバ種別とそれに対応して点灯するLEDの色を示しており、例えば、1001がサーバの機能種別がWEBサーバでLEDの色が緑、1002がサーバの機能種別がメールサーバでLEDの色が赤とする。また、1003は空でLEDを点灯しない場合とする。そして、ブレード1を1009として示しており、ブレード1がWEBサーバ1004、メールサーバ1005で構成され、空1006があることを示しており、表示画面1008に表示される各ブレードサーバ3は、その物理的な位置を示している。ブレードサーバとしてのWEBサーバ1004、メールサーバ1005、空1006は、それぞれ、前述で説明した色が付けられて表示されている。
FIG. 11 is a diagram illustrating an example of a monitor screen in which the arrangement state of the plurality of
図12は図11で示す表示画面例に対応する実際の機器におけるLEDの点灯状況を示す図である。図12において、1101は緑色LED、1102は赤色LEDを示し、1103はブレード1、1104はブレードサーバ3を示している。
FIG. 12 is a diagram showing LED lighting states in an actual device corresponding to the display screen example shown in FIG. In FIG. 12, 1101 indicates a green LED, 1102 indicates a red LED, 1103 indicates a
図11に示すような表示を行うことにより、保守者は、モニタ画面からブレード1におけるブレードサーバ3の配置の状態が一目で判る。また、実際の機器においても、図12に示すように、ブレードサーバ毎に機能種別に対応した色のLEDが点灯しているので、保守者は、一目で各ブレードサーバの機能を知ることができる。
By performing the display as shown in FIG. 11, the maintenance person can know at a glance the arrangement state of the
図13はブレードシステムが複数段で構成されていて複数のブレードをグループとした場合の複数のブレードサーバ3の配置状態を表示装置24に表示したモニター画面の例を示す図である。
FIG. 13 is a diagram showing an example of a monitor screen in which the arrangement state of a plurality of
図13に示す表示画面1206において、1201、1202、1203はサーバ種別とそれに対応して点灯するLEDの色を示しており、例えば、1001がサーバの機能種別がWEBサーバでLEDの色が緑、1002がサーバの機能種別がメールサーバでLEDの色が赤、1203がサーバの機能種別がDHCPサーバでLEDの色が青とする。また、1204は空でLEDを点灯しない場合とする。そして、1205はブレード1を収納する筐体を示しており、1207はWEBサーバ、1208はメールサーバ、1209はDHCPサーバ、1210は空を示しており、表示画面1205に表示される各ブレードサーバ3は、その物理的な位置を示している。ブレードサーバとしてのWEBサーバ1207、メールサーバ1208、DHCPサーバ1209、空1210は、それぞれ、前述で説明した色が付けられて表示されている。
In the
図14は図13で示す表示画面例に対応する実際の機器におけるLEDの点灯状況を示す図である。図14において、1302は緑色LED、1303は赤色LED、1304は青色LEDを示し、1106はブレード1、1305はブレードサーバ3を示している。また、1301は複数のブレード1を収納した筐体である。
FIG. 14 is a diagram showing LED lighting states in an actual device corresponding to the display screen example shown in FIG. In FIG. 14, 1302 is a green LED, 1303 is a red LED, 1304 is a blue LED, 1106 is a
図13に示すような表示を行うことにより、保守者は、モニタ画面から複数のブレード1の配置、各ブレードにおけるブレードサーバ3の配置の状態を一目で知ることができる。また、実際の機器においても、図14に示すように、ブレードサーバ毎に機能種別に対応した色のLEDが点灯しているので、保守者は、一目で各ブレードサーバの機能を知ることができる。
By performing the display as shown in FIG. 13, the maintenance person can know at a glance the arrangement of the plurality of
前述で説明したモニタ画面の表示例及び実際の機器におけるLEDの点灯例では、WEBサーバを緑、メールサーバを赤、DHCPサーバを青に対応付けているものとして説明したが、サーバの機能種別と、色との対応は任意に設定することができる。また、実際の機器における色の表示は、色の表示ができるものであればLEDに限らず他の点灯、表示素子を使用することもできる。また、図11〜図14の説明では、ブレードサーバの機能種別に対して対応する色を割り当てて表示、点灯させるとして説明したが、障害等により停止状態となったブレードサーバを判り易く表示するために、機能種別とは異なる色でその障害を表示する、あるいは、表示を点滅させる等の手段を設けることができる。 In the display example of the monitor screen and the lighting example of the LED in the actual device described above, it is assumed that the WEB server is associated with green, the mail server is associated with red, and the DHCP server is associated with blue. The correspondence with colors can be set arbitrarily. In addition, the color display in an actual device is not limited to the LED as long as the color display is possible, and other lighting and display elements can be used. Also, in the description of FIGS. 11 to 14, it has been described that the corresponding color is assigned to the function type of the blade server to display and light up. However, in order to easily display the blade server that has been stopped due to a failure or the like. In addition, it is possible to provide means for displaying the failure in a color different from the function type or blinking the display.
前述した本実施形態における各処理は、処理プログラムとして構成することができ、この処理プログラムは、HD、DAT、FD、MO、DVD−ROM、CD−ROM等の記録媒体に格納して提供することができる。 Each processing in the above-described embodiment can be configured as a processing program, and this processing program is provided by being stored in a recording medium such as HD, DAT, FD, MO, DVD-ROM, or CD-ROM. Can do.
図15はブレード1内のブレードサーバの配置を表示画面から手作業により配置変換する操作について説明する図である。
FIG. 15 is a diagram for explaining an operation for manually changing the layout of the blade server in the
図15において、前述で説明した場合と同様に、1401、1402はサーバ種別とそれに対応して点灯するLEDの色を示しており、例えば、1401がサーバの機能種別がWEBサーバでLEDの色が緑、1402がサーバの機能種別がメールサーバでLEDの色が赤とする。また、1403は空でLEDを点灯しない場合とする。 In FIG. 15, as in the case described above, 1401 and 1402 indicate the server type and the color of the LED that is lighted correspondingly. For example, 1401 is the server function type and the LED color is the server type. Green is 1402, the server function type is mail server, and the LED color is red. Further, 1403 is empty and the LED is not turned on.
いま、モニタの表示画面に1404として示すようなブレードの配列が表示されているものとする。この配列では、WEBサーバ1408、メールサーバ1409、空1410が整列されずに配置されている。このような配置を画面操作により手作業で配置を変更することとする。この場合、例えば、1406として示すように、6番のWEBサーバをマウスによるドラックアンドドロップにより、2番のメールサーバの位置に移動させる操作を行う。これにより、表示画面上で、ドラック元のサーバ種別とドラック先のサーバ種別とが変更され、表示画面上の配列が、1405として示すようなものとなる。このような操作により手作業で配置を決定した後、1407として示す「整列実行」の画面上のボタンをマウスでクリックすることにより、管理サーバ7によるブレードサーバの並べ替えの処理が開始される。
Assume that an array of blades as indicated by 1404 is displayed on the display screen of the monitor. In this arrangement, the
図16は図15により説明した「整列実行」の画面上のボタンがクリックされたときに開始されるブレードサーバの並べ替えの処理動作を説明するフローチャートである。このフローにおいて、ステップ1501、1502、1503での処理は、それぞれ、図5に示すフローにより説明したステップ412、413、414での処理と同一であるので、ここでの説明は省略する。なお、図6に示して説明した配置変換後のテーブルは、図15での表示画面上での操作が行われたときに設定されるものとする。
FIG. 16 is a flowchart for explaining the blade server rearrangement processing operation started when the button on the “alignment execution” screen described with reference to FIG. 15 is clicked. In this flow, the processing in
一般に、ブレードシステムの管理において、ブレードシステムに搭載されたブレードサーバを保守の目的で抜き差しする作業やそれぞれのサーバに設置されたリセットボタンを操作する作業が発生するが、現在のブレードシステムでは保守者が対象となるサーバを目で見て判別する手段に乏しく、誤作業によりシステムに致命的な打撃を与えることも少なくない。 In general, in blade system management, a blade server installed in the blade system needs to be inserted and removed for maintenance purposes and a reset button installed on each server is operated. There are few means for visually identifying the target server, and there is often a fatal blow to the system due to erroneous work.
前述した第1の実施形態によれば、サーバを機能種別毎に分類し、その配列を自動的に整理する機能を提供することができるので、これにより、保守の容易性の向上を図ることができる。また、保守作業が必要となる要因として搭載されたサーバの故障があり、1つのサーバが故障したことにより搭載された他のサーバの負荷の不均衡が生じる可能性があるが、前述した本実施形態によれば、これを回避するため、負荷均衡化を図るためにサーバの機能を自動的に入れ替える機能を提供することができるので、これにより、保守が行われるまでの間ブレードシステムの処理能力を最大限に活用することが可能となる。 According to the first embodiment described above, it is possible to provide a function of classifying servers by function type and automatically organizing the arrangement, thereby improving the ease of maintenance. it can. In addition, there is a failure of the installed server as a factor that requires maintenance work, and there is a possibility that an imbalance of the load of the other installed server may occur due to the failure of one server. According to the embodiment, in order to avoid this, it is possible to provide a function of automatically replacing the server function in order to achieve load balancing. Thus, the processing capability of the blade system until maintenance is performed. Can be utilized to the maximum.
≪第2の実施形態≫
次に、本発明の第2の実施形態について説明する。第2の実施形態は、ブレードシステムにおいて、ユニット(ブレードサーバ)内で業務(機能)を拡張しなければならないスケールアップと、ユニット内である必要はなくユニット間であっても業務を拡張することができるスケールアウトとが混在していても、スケールアップを妨げることなく、業務をCPUブレード(計算機)に割り当てることを可能とするものである。なお、スケールアップは、1つの業務を割り当てる複数のCPUブレード間の関係が密結合である(CPUブレード間のデータ通信が高速である)場合の拡張処理である。また、スケールアウトは、1つの業務を割り当てる複数のCPUブレード間の関係が疎結合である(CPUブレード間のデータ通信が高速でない)場合の拡張処理である。スケールアップ(scale up)およびスケールアウト(scale out)の具体的な技術内容については、それぞれ特許文献2および特許文献3に記載されている。
<< Second Embodiment >>
Next, a second embodiment of the present invention will be described. In the second embodiment, in a blade system, a scale-up in which a business (function) must be expanded within a unit (blade server), and a business need not be in a unit but can be expanded even between units. Even if there is a mixture of scale-outs that can be performed, it is possible to assign tasks to CPU blades (computers) without hindering scale-up. Note that scale-up is an expansion process when the relationship between a plurality of CPU blades to which one task is assigned is tightly coupled (data communication between CPU blades is fast). Scale-out is an expansion process when the relationship between a plurality of CPU blades to which one task is assigned is loosely coupled (data communication between CPU blades is not fast). The specific technical contents of scale up and scale out are described in
(システムの構成と概要)
図17は、第2の実施形態に係るサーバシステムの構成例を示す図である。サーバシステム100は、管理サーバ101、複数のサーバ115およびディスクアレイ装置113を含んで構成される。
(System configuration and overview)
FIG. 17 is a diagram illustrating a configuration example of a server system according to the second embodiment. The server system 100 includes a
サーバ115は、FCA(Fibre Channel Adapter)116を介してファイバチャネルスイッチ111に接続され、NIC(Network Interface Card)117を介してネットワークスイッチ112に接続されている。また、サーバ115は、BMC(Baseboard Management Controller)118を介して管理サーバ101に接続されている。ファイバチャ
ネルスイッチ111は、管理サーバ101、ディスクアレイ装置113およびサーバ115に接続されている。これにより、サーバ115は、ファイバチャネルスイッチ111経由でディスクアレイ装置113にアクセスすることができる。ネットワークスイッチ112は、管理サーバ101、ディスクアレイ装置113およびサーバ115に接続されている。これにより、管理サーバ101は、ネットワークスイッチ112経由でディスクアレイ装置113およびサーバ115の監視や制御を行うことができる。ディスクアレイ装置113は、ハードディスク装置114やCPU、メモリ(図示せず)などから構成される。なお、サーバ115の構成の詳細は後記する。また、ファイバチャネルスイッチには、一般のスイッチを利用することも可能であり、本実施形態がファイバチャネルスイッチに限定されるものではない。
The
管理サーバ101は、ファイバチャネルスイッチ111を介してサーバ115およびディスクアレイ装置113に接続されている。また、ネットワークスイッチ112を介してもサーバ115およびディスクアレイ装置113に接続されている。さらに、管理サーバ101は、ネットワークを介してサーバ115に内蔵されたBMC118に接続されている。このBMC118にアクセスすることによって、サーバ115のハードウェアの状態監視、電源制御、サーバ115のリセットなどを行うことができる。一般に、BMC118は、サーバ115とは別の電源から電力供給されているので、サーバ115が電源停止していても、管理サーバ101は、ネットワークを介してBMC118を遠隔操作することができる。
The
管理サーバ101は、サーバ115、ファイバチャネルスイッチ111、ネットワークスイッチ112およびディスクアレイ装置113に対し、ネットワークを経由して状態の監視や必要に応じた制御を行う。管理サーバ(管理装置、サービスプロセッサともいう)101は、CPU121およびメモリ122を含んで構成される。管理サーバ101においては、CPU121がメモリ122に格納されている割り当てプログラム102を実行することによって、所定の機能が実現される。ここで、所定の機能とは、複数のサーバ115上の稼動業務の新規割り当てや拡張(スケールアップ、スケールアウト)を制御することである。
The
割り当てプログラム102は、割り当て・拡張要求受付部103、リソース監視部104、割り当て最適化部105、割り当て実行部106および管理テーブル107を含んで構成される。割り当て・拡張要求受付部103は、管理サーバ101の入力手段(図示せず。キーボードやマウスなど)から、システム管理者によるサーバ115への稼動業務の新規割り当てまたは拡張の要求を受付ける。リソース監視部104は、サーバ115における稼動業務のCPUリソース状況を監視する。割り当て最適化部105は、割り当て・拡張要求受付部103またはリソース監視部104からの指示により、サーバ115のリソース割り当てを決定する。割り当て実行部106は、割り当て最適化部105が決定したリソース割り当ての結果を実際の複数のサーバ115に反映させる。管理テーブル107は、SMP構成定義テーブル108、ブレード割り当て管理テーブル109および稼動業務管理テーブル110を含んで構成される。各テーブルの詳細は後記する。
The
図18は、本実施形態におけるサーバの構成例を示す図である。サーバ115は、メモリ201、CPU202、FCA116、NIC117およびBMC118を含んで構成される。メモリ201は、プログラムやデータを格納する。CPU202は、メモリ201に格納されたプログラムを実行する。
FIG. 18 is a diagram illustrating a configuration example of a server in the present embodiment. The
FCA116は、通信機構203およびWWN(World Wide Name)格納メモリ204を含んで構成される。通信機構203は、ファイバチャネルスイッチ111に接続され、ファイバチャネル通信を行う。WWN格納メモリ204は、WWNを格納する不揮発性メモリである。WWNとは、ファイバチャネル通信に必要とされるユニークなデバイス識別子であり、ファイバチャネルスイッチ111に接続されるノード(サーバ115を含む)ごとに付与される。WWNによってファイバチャネルの通信相手を特定することができる。通信機構203は、WWN格納メモリ204内のWWNを参照しながらファイバチャネル通信を行う。
The
NIC117は、通信機構205およびネットワークブート機構206を含んで構成される。通信機構205は、ネットワークスイッチ112に接続され、ネットワーク通信を行う。ネットワークブート機構206は、サーバ115の起動時に動作させることができ、ネットワークを介してサーバ115の起動に必要なプログラムを取得する機能を有している。
The
BMC118は、主にサーバ115のハードウェアの監視や制御を行う。BMC118は、通信機構207およびサーバ監視機構208を含んで構成される。通信機構207は、サーバ115のハードウェアに関する情報の転送や制御コマンドの受付・転送を行う。通信機構207は、一般的なネットワーク接続機器によって実現される。サーバ監視機構208は、サーバ115のハードウェアに発生した異常を検知し、通信機構207に通知する。そして、通信機構207からネットワーク経由で管理サーバ101に異常を通知する。また、遠隔(管理サーバ101を含む)から通信機構207を介して、サーバ115の電源ON/OFFやハードウェアリセットを行うことができる。そのため、BMC118は、一般にサーバ115の電源とは別系統の電源から電力供給されており、サーバ115の電源がOFFの状態であっても、通信機構207を介して遠隔制御を行うことができる。
The
(サーバ(CPUブレード)の接続形態)
図19は、本実施形態におけるサーバの接続形態例を示す図である。サーバシャーシは、複数のCPUブレード(計算機、ブレード)により1つの論理計算機を構成するブレードサーバ(計算機ユニット)に対応する。1つのCPUブレードは、図17に示す1台のサーバ115に対応する。サーバシャーシには、複数のCPUブレードを収めることができる。本実施形態では、1つのサーバシャーシに8枚のCPUブレードを収納できることとする。また、サーバシャーシは複数台あってもよく、その複数台のサーバシャーシ(ブレードサーバ)をブレードシステムという。図17に示す管理サーバ101は、複数台のサーバシャーシと、それぞれに収められた複数枚のCPUブレードとを管理することができる。
(Server (CPU blade) connection form)
FIG. 19 is a diagram showing an example of a server connection form in the present embodiment. The server chassis corresponds to a blade server (computer unit) that constitutes one logical computer by a plurality of CPU blades (computer, blade). One CPU blade corresponds to one
図20は、CPUブレードのスケールアウトを示す図である。サーバシャーシ内の左端にあるCPUブレードP上の業務をスケールアウトする場合には、CPUブレードが隣り合っている必要はなく、例えば、CPUブレードQへスケールアウトしてもよい。また、異なるユニット(詳細は後記)や別のサーバシャーシ内のCPUブレードRへのスケールアウトを行ってもよい。すなわち、スケールアウトは、サーバシャーシ内やサーバシャーシ間にかかわらず、空いているCPUブレードへ行うことが可能である。 FIG. 20 is a diagram illustrating the scale-out of the CPU blade. When the business on the CPU blade P at the left end in the server chassis is scaled out, the CPU blades do not need to be adjacent to each other, and may be scaled out to the CPU blade Q, for example. Further, scale-out to a different unit (details will be described later) or a CPU blade R in another server chassis may be performed. In other words, scale-out can be performed on an empty CPU blade regardless of the server chassis or between server chassis.
図21は、CPUブレードのスケールアップを示す図である。CPUブレードをSMP(2台以上のCPUによる対称型)構成として、そのSMP構成による稼動業務をスケールアップすることができる。例えば、CPUブレード2枚によるSMP構成を、CPUブレード4枚によるSMP構成にスケールアップして、所定の業務処理を行う性能を向上させることができる。SMP構成は共有メモリを有することが多いが、本実施形態は、複数のCPU(計算機やブレード)で1つの論理計算機を構成可能なシステム構成であれば実施可能であり、SMP構成に限定されるものではない。 FIG. 21 is a diagram showing the scale-up of the CPU blade. The CPU blade can be configured as an SMP (symmetrical with two or more CPUs), and the operation work by the SMP configuration can be scaled up. For example, an SMP configuration with two CPU blades can be scaled up to an SMP configuration with four CPU blades to improve the performance of performing predetermined business processing. The SMP configuration often has a shared memory, but this embodiment can be implemented as long as it is a system configuration in which one logical computer can be configured by a plurality of CPUs (computers and blades), and is limited to the SMP configuration. It is not a thing.
図22は、CPUブレードのスケールアップの制約を示す図である。スケールアップの制約としては、まず、サーバシャーシを跨るSMP構成とすることはできない。例えば、図22に示すように、CPUブレードSおよびTのSMP構成があった場合に、別のサーバシャーシに収納されたCPUブレードUを含めたSMP構成にスケールアップすることはできない。また、スケールアップする対象のCPUブレードに対して、隣接するスロットにCPUブレードが挿入されておらず、CPUブレードの配置が不連続になる場合には、SMP構成とすることはできない。例えば、図22に示すように、CPUブレードYおよびZのSMP構成があった場合に、すぐ左隣のスロットを空けてさらに左隣のCPUブレードXを含めたSMP構成にスケールアップすることはできない。以上を換言すれば、スケールアップは、1つのサーバシャーシやユニット内においてCPUブレードが連続したスロットに配置されている場合に行うことができる。 FIG. 22 is a diagram illustrating restrictions on the scale-up of the CPU blade. As a restriction on scale-up, first, an SMP configuration across server chassis cannot be adopted. For example, as shown in FIG. 22, when there is an SMP configuration of CPU blades S and T, it is not possible to scale up to an SMP configuration including a CPU blade U housed in another server chassis. Further, when the CPU blade to be scaled up is not inserted into an adjacent slot and the arrangement of the CPU blades becomes discontinuous, the SMP configuration cannot be adopted. For example, as shown in FIG. 22, when there is an SMP configuration of CPU blades Y and Z, it is not possible to scale up to an SMP configuration including the left adjacent CPU blade X by making a slot immediately adjacent to the left. . In other words, the scale-up can be performed when CPU blades are arranged in continuous slots in one server chassis or unit.
これらの制約は、CPUブレードのSMP構成においては、CPUブレード間を密結合にする必要があることによる。すなわち、密結合するためには、CPUブレード間を接続するバスを高性能に(特に通信性能を高く)することが望ましい(CPUブレード間のアクセス速度が高速な配置にする必要がある)が、高性能なバスほど接続距離は短くなる。これにより、CPUブレード間の距離を短くする必要があり、サーバシャーシ内の不連続な配置やサーバシャーシ間跨りによるSMP構成は不可になる。 These restrictions are due to the fact that the CPU blades must be tightly coupled in the SMP configuration of the CPU blades. That is, in order to tightly couple, it is desirable that the bus connecting the CPU blades has high performance (especially high communication performance) (it is necessary to arrange the access speed between CPU blades to be high). The higher the performance of the bus, the shorter the connection distance. As a result, it is necessary to shorten the distance between the CPU blades, and the SMP configuration by discontinuous arrangement in the server chassis or straddling between the server chassis becomes impossible.
図23は、本実施形態において用いる用語の定義を示す図である。SMP構成を組むことのできる最大CPUブレード数を「ユニット化係数」とする。例えば、最大SMP構成数がCPUブレード4枚である場合には、ユニット化係数は4となる。図23に示すように、本実施形態では、ユニット化係数を4としている。この場合、ユニット1と、ユニット2とは、1つのサーバシャーシ上に構成されてはいるが、それらの間の接続はなされていない。なお、ユニット化係数が4であるユニット1やユニット2を別々のサーバシャーシ上にそれぞれ構成するようにしてもよい。
FIG. 23 is a diagram illustrating definitions of terms used in the present embodiment. The maximum number of CPU blades that can form an SMP configuration is defined as a “unitization factor”. For example, when the maximum SMP configuration number is 4 CPU blades, the unitization coefficient is 4. As shown in FIG. 23, the unitization coefficient is set to 4 in this embodiment. In this case, the
(テーブルの構成)
図24は、図17のSMP構成定義テーブル108の詳細を示す図である。SMP構成定義テーブル108には、SMP構成規則が定義されている。SMP構成規則は、システム管理者があらかじめ作成する。SMP構成定義テーブル108の組み合わせ#1081には、許容する組み合わせの通し番号が格納される。CPUスロット#1082には、SMP構成を記載する。例えば、CPUブレード1枚が2wayCPUである場合、1ユニット内にCPUブレード1枚の2way・SMP構成のサーバを4組作ることができる。また、CPUブレード2枚の4way・SMP構成のサーバであれば2組作ることができる。さらに、最大CPUブレード4枚のSMP構成としているため、8way・SMP構成のサーバであれば1ユニット内に1つ作ることができる。これによれば、組み合わせ#1081が小さいほど、高性能であると言える。ただし、1ユニット内のスロットにCPUブレードがすべて挿入されているという前提がある。また、図24に示す「空き」の状態とは、CPUブレードが挿入されていない状態ではなく、当該スロットのCPUブレードはSMP構成として使用しないということを表している。
(Table structure)
FIG. 24 is a diagram showing details of the SMP configuration definition table 108 of FIG. In the SMP configuration definition table 108, SMP configuration rules are defined. The SMP configuration rule is created in advance by the system administrator. In the
なお、図24では、組み合わせ#2、4〜7に示すように、CPUスロット#1から昇順に連続して使用するようになっているが、CPUスロット#4から降順に連続して使用するようにしてもよい。また、スロットが連続するように選択すればよいので、例えば、CPUスロット#2、3によるSMP構成を採ることも可能である。
In FIG. 24, as shown in the
図25は、図17のブレード割り当て管理テーブル109の詳細を示す図である。ブレード割り当て管理テーブル109は、ユニットの数だけ作成され、ユニットごとのCPUブレードの割り当て使用状況を保持する。ブレード割り当て管理テーブル109は、ブレード番号1091および割り当て業務ID1092を含むレコードから構成される。ブレード番号1091は、CPUブレードの番号がインデックスとして格納される。ブレード番号1091は、SMP構成定義テーブル108のCPUスロット#1082に対応する。割り当て業務ID1092は、ブレード番号1091のCPUブレードに割り当てられた業務IDが格納される。業務IDについては、図26により説明する。
FIG. 25 is a diagram showing details of the blade assignment management table 109 of FIG. The blade assignment management table 109 is created by the number of units and holds the CPU blade assignment usage status for each unit. The blade assignment management table 109 is composed of records including a
図26は、図17における稼動業務管理テーブル110の詳細を示す図である。稼動業務管理テーブル110は、CPUブレード上で稼動させる業務と、その管理情報を管理する。稼動業務管理テーブル110は、業務ID1101、業務名称1102、業務特性1103および拡張タイプ1104を含むレコードから構成される。業務ID1101は、稼動業務管理テーブル110に登録する稼動業務(業務名称)のインデックスを固有の番号として付与したものである。業務名称1102は、稼動業務の名称であり、DBアプリケーションやWebアプリケーションなどの一般的な種別から具体的なアプリケーションの名前までが設定される。業務特性1103には、ブレード自動割り当て実行時に業務を停止し、CPUブレードをリブート可能または不可のいずれかが設定される。拡張タイプ1104には、業務の拡張タイプがスケールアップまたはスケールアウトのいずれかが設定される。
FIG. 26 is a diagram showing details of the operation task management table 110 in FIG. The operation task management table 110 manages tasks to be operated on the CPU blade and management information thereof. The operation task management table 110 includes a record including a
図27は、割り当て要求情報の詳細を示す図である。割り当て要求情報271は、システム管理者が新規に業務を稼動させる場合にCPUリソースの割り当てに必要となる情報である。割り当て要求情報271は、システム管理者が管理サーバ101(図17参照)の入力手段(図示せず。キーボードやマウスなど)を操作することによって、割り当て・拡張要求受付部103に入力される。割り当て要求情報271に従ってCPUリソースの割り当てが決定される。割り当て要求情報271は、業務名称272、業務特性273、拡張タイプ274および性能要件275を含むレコードならびにブレード割り当て自動実行フラグ276から構成される。業務名称272は、図26の業務名称1102と同義である。業務特性273は、図26の業務特性1103と同義である。拡張タイプ274は、図26の拡張タイプ1104と同義である。性能要件275は、CPUが何way必要かを示すものである。ブレード割り当て自動実行フラグ276は、CPUブレードの割り当てをシステム管理者の承認なしに実行してよいか否かを示すフラグである。
FIG. 27 is a diagram illustrating details of the allocation request information. The allocation request information 271 is information necessary for CPU resource allocation when a system administrator newly operates a business. The allocation request information 271 is input to the allocation / expansion request receiving unit 103 when the system administrator operates input means (not shown; keyboard, mouse, etc.) of the management server 101 (see FIG. 17). CPU resource allocation is determined according to the allocation request information 271. The assignment request information 271 includes a record including a
図28は、拡張要求情報/性能低下検出情報を示す図である。拡張要求情報/性能低下検出情報281は、割り当て・拡張要求受付部103がシステム管理者から入力手段を介して既存業務にCPUリソースを拡張する要求を受けた場合、リソース監視部104が稼動業務のCPUリソースの不足を検出した場合などに作成される情報である。拡張要求情報/性能低下検出情報281は、拡張対象業務ID282を含むレコードから構成される。拡張対象業務ID282は、CPUブレードの割り当ての拡張を必要とする業務IDであり、稼動業務管理テーブル110(図26参照)の業務ID1101に対応する。従って、拡張対象業務ID282をキーとして稼動業務管理テーブル110を検索することによって、拡張の対象となる業務名称などの情報を参照することができる。ここでは、性能要件は、デフォルトとして2way(CPUブレード1枚)であるものとするが、システム管理者によって、または、リソース監視部104が検出したCPUリソースの不足状況に応じて性能要件を変更するようにしてもよい。
FIG. 28 is a diagram showing extended request information / performance degradation detection information. When the allocation / expansion request receiving unit 103 receives a request from the system administrator to expand the CPU resource to the existing job via the input means, the
割り当て・拡張要求受付部103が拡張対象業務ID282を取得するには、例えば、次の手順による。すなわち、既に割り当てられている業務名称を管理サーバ101の表示手段(図示せず。ディスプレイなど)に表示する。次に、その表示された業務名称の中から、システム管理者が拡張要求の対象として選択した業務名称により、稼動業務管理テーブル110の業務名称1102を検索する。そして、その検索により一致した業務名称1102の業務ID1101を拡張対象業務ID282とする。
The allocation / expansion request receiving unit 103 acquires the expansion
(システムの処理)
図29は、管理サーバ101の割り当てプログラム102の処理フローを示す図である。まず、割り当てプログラム102の割り当て・拡張要求受付部103が、システム管理者からの新規割り当て要求・拡張要求を受付ける(ステップ2901)。この場合、リソース監視部104が性能低下を検出することもある。すなわち、以下説明するCPUブレードの割り当て処理は、割り当て・拡張要求受付部103またはリソース監視部104によってトリガを与えられる。次に、割り当て最適化部105が、割り当て・拡張要求受付部103またはリソース監視部104から必要な情報を入力し、CPUブレードの割り当て位置を最適化し、決定する(ステップ2902)。そして、割り当てプログラム102が、ステップ2902の結果に従ってCPUブレードの割り当てが可能であるか否か(割り当て結果を実際にハードウェアに反映できるか否か)を判定する(ステップ2903)。割り当てが可能であれば(ステップ2903のYes)、割り当て実行部106がCPUブレードの割り当てを実行する(ステップ2904)。割り当てが可能でなければ(ステップ2903のNo)、割り当てを行わずに処理を終了する。
(System processing)
FIG. 29 is a diagram illustrating a processing flow of the
図30は、図29で示した割り当て最適化(ステップ2902)の詳細な処理フローを示す図である。まず、管理サーバ101の割り当て最適化部105は、稼動業務管理テーブル110およびブレード割り当て管理テーブル109を入力する(ステップ3001)。次に、割り当て・拡張要求受付部103またはリソース監視部104からの入力情報が、新規割り当て要求であるか、拡張要求/性能低下検出であるかを判定する(ステップ3002)。
FIG. 30 is a diagram showing a detailed processing flow of allocation optimization (step 2902) shown in FIG. First, the
新規割り当て要求であれば、割り当て最適化部105は、割り当て要求情報271(図27参照)を拡張タイプ274でソートする(ステップ3003)。これによって、割り当て要求情報271のレコードをスケールアップおよびスケールアウトにグループ分けすることができる。なお、優先順位の規則は、スケールアップ>スケールアウトである。さらに、割り当て要求情報271をスケールアップおよびスケールアウトのグループごとに性能要件275でソートする(ステップ3004)。これによって、それぞれのグループごとに、割り当て要求情報271のレコードを性能要件275の厳しい(way数が大きい)順番に並べ替えることができる。すなわち、優先順位の規則は、8way>6way>4way>2wayである。以上によって、割り当て要求情報271の各レコードを割り当て処理の優先順位に並べることができる。
If the request is a new allocation request, the
図31は、図27の割り当て要求情報271を優先順位付けした後の割り当て要求情報を示す図である。図31に示すように、4個のレコードが、スケールアップおよびスケールアウトに分類され、さらにスケールアップの中で性能要件の厳しい順番に並んでいる。なお、業務ID312は、ソートによる優先順位付けを行った後に付与され、以下の処理では割り当て要求業務IDとして用いられるものとする。
FIG. 31 is a diagram showing the allocation request information after prioritizing the allocation request information 271 of FIG. As shown in FIG. 31, four records are classified into scale-up and scale-out, and are arranged in order of strict performance requirements in the scale-up. The
図30に戻って、優先順位に従って、業務ごとに割り当て位置の決定を行う。まず、割り当て要求業務IDとして、変数nを1に初期化する(ステップ3005)。そして、その業務ID(n)が要求業務総数を超えるまで(ステップ3006)、業務ID(n)を+1ずつ更新(インクリメント)しながら(ステップ3008)、割り当て位置の決定を行う(ステップ3007)。割り当て位置決定の詳細は、後記する。 Returning to FIG. 30, the allocation position is determined for each job according to the priority order. First, a variable n is initialized to 1 as an assignment request job ID (step 3005). Until the task ID (n) exceeds the total number of requested tasks (step 3006), the assignment position is determined (step 3007) while updating (incrementing) the task ID (n) by +1 (step 3008). Details of the allocation position determination will be described later.
ステップ3002の判定結果が拡張要求/性能低下検出であれば、割り当て最適化部105は、拡張要求情報/性能低下検出情報281(図28参照)を拡張タイプ1104(図26参照)でソートする(ステップ3009)。ここで、拡張対象業務ID282は、既存の業務IDを示すものであり、業務ID1101(図26参照)に対応するので、稼動業務管理テーブル110の当該レコードを参照することによって拡張タイプ1104を特定することができる。さらに、拡張要求情報/性能低下検出情報281をスケールアップおよびスケールアウトのグループごとに性能要件でソートする(ステップ3010)。この場合の性能要件は、デフォルトとして2wayであるが、システム管理者やリソース監視部104によって他の値が設定された場合には、ステップ3010が有効になる。以上によって、拡張要求情報/性能低下検出情報281の各レコードを割り当て処理の優先順位に並べることができる。なお、各レコードの優先順位に対応して拡張要求業務IDが付与され、以下の処理で用いられるものとする。
If the determination result in
次に、優先順位に従って、業務ごとに拡張の処理を行う。まず、拡張要求業務IDとして、変数nを1に初期化する(ステップ3011)。そして、その業務ID(n)が要求業務総数を超えるまで(ステップ3012)、業務ID(n)を+1ずつ更新しながら(ステップ3014)、拡張の処理を行う(ステップ3013)。拡張の処理の詳細は、後記する。 Next, expansion processing is performed for each job according to the priority order. First, the variable n is initialized to 1 as the extension request job ID (step 3011). Then, until the business ID (n) exceeds the total number of requested businesses (step 3012), the business ID (n) is updated by +1 (step 3014), and expansion processing is performed (step 3013). Details of the extension process will be described later.
図32は、図30の割り当て位置決定(ステップ3007)の処理フローを示す図である。割り当て最適化部105は、割り当て要求情報271の拡張タイプ274を参照し(ステップ3201)、それに応じてスケールアップの割り当て位置決定(ステップ3202)またはスケールアウトの割り当て位置決定(ステップ3206)のいずれかを実行する。スケールアップの割り当て位置決定が解決できなかった場合(ステップ3203のNo)、当該ユニット内における他のCPUブレードに割り当てられている業務を別のユニットに割り当てるべく業務再配置を行い(ステップ3204)、割り当て位置決定を再実行する(ステップ3205)。ただし、再実行回数(例えば、1回)を決めておき、割り当て位置決定の処理が無限ループにならないようにする。解決できた場合には(ステップ3203のYes)、そのまま処理を終了する。
FIG. 32 is a diagram showing a processing flow of allocation position determination (step 3007) in FIG. The
スケールアウトの割り当て位置決定が解決できなかった場合(ステップ3207のNo)は、空きのCPUブレードがないことを意味する。そこで、割り当て最適化部105は、システム管理者にその旨を通知する(ステップ3208)。具体的には、管理サーバ101の表示手段(図示せず。ディスプレイなど)や音声出力手段(図示せず。スピーカなど)によって、システム管理者に知らせる(以下、システム管理者への通知について同様)。解決できた場合には(ステップ3207のYes)、そのまま処理を終了する。
If the determination of the scale-out allocation position cannot be resolved (No in step 3207), it means that there is no free CPU blade. Therefore, the
図33は、図32に示すスケールアップの割り当て位置決定(ステップ3202)の詳細な処理フローを示す図である。スケールアップする業務は、最も左端(一端)のCPUスロットが空いているユニットを探して割り当てるようにする。これは、SMP構成にはユニット内の連続配置という制約があるため、将来拡張可能な分をできる限り多く確保するためである。 FIG. 33 is a diagram showing a detailed processing flow of determining the scale-up assignment position (step 3202) shown in FIG. In the business to scale up, a unit having a vacant CPU slot at the left end (one end) is searched for and assigned. This is because the SMP configuration has a restriction of continuous arrangement in the unit, so that as much as possible can be expanded in the future.
まず、割り当て最適化部105は、SMP構成定義テーブル108(図24参照)を入力する(ステップ3301)。次に、割り当て要求業務の性能要件を取得し(ステップ3302)、必要なCPUブレード数を必要数として保持する。また、ステップ3304ないし3314の処理を行うための初期設定処理として、割り当て済み判定フラグfをFALSE(偽)とし、割り当て可能スロット位置sを1とする(ステップ3303)。そして、「f=TRUE(正)」または「s+必要数−1>ユニット化係数」の条件が満たされるまで、ステップ3305ないし3313の処理(スロット位置ごとの処理)を繰り返す(ステップ3304ないし3314)。換言すると、ステップ3304の条件が満たされれば、割り当て位置決定の処理を終了する。なお、その条件のうち、前者は、CPUブレードの割り当てができたことを意味する。後者は、すべてのスロット位置に関して割り当て可能か否かのチェックが完了したことを意味する。
First, the
スロット位置ごとの処理として、割り当て最適化部105は、最初にユニット数カウンタuを1とする(ステップ3305)。これは、ステップ3306ないし3312の処理を行うための初期設定処理である。そして、「f=TRUE」または「u>全ユニット数」の条件が満たされるまで、ステップ3307ないし3311の処理(所定のスロット位置に関するユニットごとの処理)を繰り返す(ステップ3306ないし3312)。換言すると、ステップ3306の条件が満たされれば、所定のスロット位置に関するユニットごとの処理を終了する。なお、その条件のうち、前者は、CPUブレードの割り当てができたことを意味する。後者は、所定のスロット位置に関して、すべてのユニットについて割り当て可能か否かのチェックが完了したことを意味する。
As processing for each slot position, the
所定のスロット位置に関するユニットごとの処理として、割り当て最適化部105は、まず、ブレード割り当て管理テーブル109を参照して、ユニット(番号=u)のスロット(位置=s〜s+必要数−1)に業務IDが設定済であるか否かをチェックする(ステップ3307)。例えば、s=1、必要数=3であれば、スロット位置に対応するブレード番号1091(図25参照)の1〜3(=1+3−1)のチェックを行う。設定済でなければ(ステップ3307のNo)、稼動業務管理テーブル110に割り当て要求業務IDを仮設定する(ステップ3308)。また、ブレード割り当て管理テーブル109のユニット(番号=u)のスロット(位置=s〜s+必要数−1)に割り当て要求業務IDを仮設定する(ステップ3309)。具体的には、そのスロット位置に対応するブレード番号1091の割り当て業務ID1092に仮設定する。このとき、図30のステップ3001で入力したSMP構成定義テーブル108を参照して、仮設定されたSMP構成が規則に沿っているか否かを確認する。そして、割り当て済み判定フラグfをTRUEにする(ステップ3310)。
As processing for each unit regarding a predetermined slot position, the
ここで、「仮設定」としたのは、システム管理者の意向によっては、実際に業務の割り当てを行わないことがあるからである。その最終的な決定は、図29の割り当て実行(ステップ2904)に委ねられる。 Here, the “temporary setting” is used because a task may not actually be assigned depending on the intention of the system administrator. The final decision is left to the allocation execution (step 2904) in FIG.
ステップ3307で設定済であれば(ステップ3307のYes)、ユニット数カウンタuを+1更新して(ステップ3311)、次のユニットについて割り当て可能か否かのチェックを行う(ステップ3307)。このようにして、所定のスロット位置に関するユニットごとの処理が行われる。全ユニットについてチェックを行っても割り当てができなかった場合には、次にチェックするスロット位置を設定するためにsを+1更新して(ステップ3313)、そのスロット位置に関する処理を開始する(ステップ3305)。このようにして、スロット位置ごとの処理が行われる。 If it has been set in Step 3307 (Yes in Step 3307), the unit number counter u is updated by +1 (Step 3311), and it is checked whether or not the next unit can be assigned (Step 3307). In this way, processing for each unit regarding a predetermined slot position is performed. If allocation is not possible even after checking all units, s is updated by 1 to set the slot position to be checked next (step 3313), and processing relating to the slot position is started (step 3305). ). In this way, processing for each slot position is performed.
なお、業務IDの割り当てが行われた場合には(ステップ3308ないし3310)、f=TRUEとなってステップ3306の条件を満たすので、ステップ3306ないし3312の処理から抜けることになる。さらに、ステップ3304の条件も満たすので、ステップ3304ないし3314の処理から抜けることになり、割り当て位置決定の処理が終了する。また、すべての割り当て可能なスロット位置に関してチェックを行っても割り当てができなかった場合には、ステップ3304の後者の条件を満たすので、割り当て済み判定フラグf=FALSEの状態で、割り当て位置決定の処理が終了する。
If the business ID is assigned (
以上説明したように、スケールアップの割り当て位置決定の処理は、最も左端のCPUスロットが空いているユニットを探して割り当てるように行われる。例えば、図34に示すような割り当て状態の場合は、ユニット2のスロット3・4に業務Aを割り当てる。
As described above, the processing for determining the allocation position for scale-up is performed so as to search for and allocate a unit in which the leftmost CPU slot is vacant. For example, in the assignment state as shown in FIG. 34, the work A is assigned to the
図35は、図32に示すスケールアウトの割り当て位置決定(ステップ3206)の詳細な処理フローを示す図である。スケールアウトする業務は、できる限り右端(他端)のCPUスロットが空いているユニットに1つずつ配置するようにする。これは、ユニット内における左端からのスケールアップをなるべく阻害しない位置に、スケールアウトによる配置を行うためである。 FIG. 35 is a diagram showing a detailed processing flow of the scale-out allocation position determination (step 3206) shown in FIG. The tasks to be scaled out should be arranged one by one in a unit where the rightmost (other end) CPU slot is vacant as much as possible. This is because the scale-out arrangement is performed at a position that does not hinder the scale-up from the left end in the unit as much as possible.
まず、割り当て最適化部105は、ステップ3505ないし3513の処理を行うための初期設定処理として、未割り当てスロット数nを、要求業務の性能要件から求められるCPUブレードの数(例えば、性能要件が2wayならば、n=1)とし、割り当て可能スロット位置sをユニット化係数とする(ステップ3501)。また、ユニットの参照順を変更する(ステップ3502)。この変更では、ステップ3505ないし3511の処理において、ユニット番号の順ではなく、連続した空きのスロット数が多い順にユニットを参照するように参照の順番を設定する。これは、ユニット内のスケールアップをなるべく阻害しないようにするためである。
First, as an initial setting process for performing the processing of
そして、「n<1」または「s<1」の条件が満たされるまで、ステップ3504ないし3512の処理(スロット位置ごとの処理)を繰り返す(ステップ3503ないし3513)。換言すると、ステップ3503の条件が満たされれば、割り当て位置決定の処理を終了する。なお、その条件のうち、前者は、必要な数のCPUブレードが割当てられたことを意味する。後者は、すべてのスロット位置に関して割り当て可能か否かのチェックが完了したことを意味する。
Then, the processing of
スロット位置ごとの処理として、割り当て最適化部105は、最初にユニット数カウンタuを1とする(ステップ3504)。これは、ステップ3505ないし3511の処理を行うための初期設定処理である。そして、「n<1」または「u>全ユニット数」の条件が満たされるまで、ステップ3506ないし3510の処理(所定のスロット位置に関するユニットごとの処理)を繰り返す(ステップ3505ないし3511)。換言すると、ステップ3505の条件が満たされれば、所定のスロット位置に関するユニットごとの処理を終了する。なお、その条件のうち、前者は、必要な数のCPUブレードが割当てられたことを意味する。後者は、所定のスロット位置に関して、すべてのユニットについて割り当て可能か否かのチェックが完了したことを意味する。
As processing for each slot position, the
所定のスロット位置に関するユニットごとの処理として、割り当て最適化部105は、まず、ブレード割り当て管理テーブル109を参照して、参照順番uのユニットのスロット(位置=s)に業務IDが設定済であるか否かをチェックする(ステップ3506)。ここで、参照順番とは、ステップ3502で設定したユニット参照順を示す番号である。設定済でなければ(ステップ3506のNo)、稼動業務管理テーブル110に割り当て要求業務IDを仮設定する(ステップ3507)。また、ブレード割り当て管理テーブル109の参照順番uのユニットのスロット(位置=s)に割り当て要求業務IDを仮設定する(ステップ3508)。「仮設定」については、先に説明した通りである。次に、未割り当てスロット数nを−1更新(デクリメント)する(ステップ3509)。これは、ステップ3507および3508の処理が行われたので、未割り当てスロット数nが1つ減ることを意味する。そして、ユニット数カウンタuを+1更新して(ステップ3510)、次のユニットについて割り当て可能か否かのチェックを行う(ステップ3506)。
As processing for each unit regarding a predetermined slot position, the
なお、業務IDが設定済である場合にも(ステップ3506のYes)、ユニット数カウンタuを+1更新して(ステップ3510)、次のユニットについて割り当て可能か否かのチェックを行う(ステップ3506)。 Even when the business ID has been set (Yes in step 3506), the unit number counter u is updated by +1 (step 3510), and it is checked whether the next unit can be assigned (step 3506). .
ステップ3505の条件が満たされた場合には、割当て可能スロット位置sを−1更新して(ステップ3512)、次のスロット位置に関する処理を開始する(ステップ3504)。なお、ステップ3505の条件のうち、前者の条件が満たされた場合は、必要な数のCPUブレードが割当てられたということなので、ステップ3503の条件も満たすことになり、割り当て位置決定の処理を終了する。また、すべてのスロット位置についてチェックを行っても、n<1にならなければ、未割り当てスロット数がnだけ残った状態で処理を終了することになる。
If the condition of
以上説明したように、スケールアウトの割り当て位置決定の処理は、できる限り右端のCPUスロットが空いているユニットを探して割り当てるように行われる。また、なるべく連続した空きスロットが多いユニットを探すように行われる。例えば、図36に示すような割り当て状態の場合には、ユニット1のスロット4およびユニット4のスロット4に業務Aを割り当てる。
As described above, the scale-out assignment position determination processing is performed so as to search for and assign a unit in which the rightmost CPU slot is free as much as possible. Further, it is performed so as to search for a unit having as many continuous empty slots as possible. For example, in the assignment state as shown in FIG. 36, work A is assigned to slot 4 of
図37は、図35のユニット参照順変更(ステップ3502)を説明した図である。スケールアウト業務を割り当てる場合、まずなるべくスケールアップ業務の割り当てられていないユニットから、次に連続した空きのスロット数が多いユニットから参照していくようにする。これは、スケールアップ業務の拡張をなるべく妨げないようにするためである。このようなルールに則って、ユニット3、ユニット4、ユニット1およびユニット2の順番に参照順が入れ替わっている。
FIG. 37 is a diagram for explaining the unit reference order change (step 3502) of FIG. When assigning a scale-out job, reference is first made from a unit to which a scale-up job is not assigned to a unit having the largest number of consecutive empty slots. This is to prevent the expansion of the scale-up business as much as possible. In accordance with such rules, the reference order is switched in the order of
図38は、図30の拡張(ステップ3013)の詳細な処理フローを示す図である。割り当て最適化部105は、最初に、図30の3001で入力した稼動業務管理テーブル110を参照して、拡張要求情報/性能低下検出情報281の拡張対象業務ID282(図28参照)に対応する業務の拡張タイプ1104がスケールアップかまたはスケールアウトかを判定する(ステップ3801)。スケールアップであれば(ステップ3801の「スケールアップ」)、まず、図30の3001で入力したブレード割り当て管理テーブル109を参照して、当該業務が割り当てられているCPUブレードの拡張方向に隣接するCPUブレードが空いているか否かを判定する(ステップ3802)。具体的には、当該業務が割当てられているユニット内において、割り当て済みのCPUブレードのうち、最も右側のCPUブレードの右隣に、拡張に必要な数のCPUブレードが空いているか否かを判定する。空いていれば(ステップ3802のYes)、そのままステップ3804に進む。空いていなければ(ステップ3802のNo)、業務再配置を行う(ステップ3803)。
FIG. 38 is a diagram showing a detailed processing flow of the extension (step 3013) of FIG. The
続いて、割り当て最適化部105は、稼動業務管理テーブル110の業務特性1103を参照して、当該業務がリブート可能であるか否かを判定する(ステップ3804)。リブート可能であれば(ステップ3804のYes)、ブレード割り当て管理テーブル109の設定を行う(ステップ3805)。具体的には、SMP構成でスケールアップするために、当該業務に割当てられるCPUブレード枚数を拡張するように、ブレード割り当て管理テーブル109の割り当て業務ID1092を拡張対象の業務IDにより更新する。このとき、図30のステップ3001で入力したSMP構成定義テーブル108を参照して、設定されたSMP構成が規則に沿っているか否かを確認する。リブート不可であれば(ステップ3804のNo)、その旨をシステム管理者に通知する(ステップ3806)。図38は、業務特性がリブート不可の場合に拡張を行わないフローとなっているが、リブートしてよいか否かをシステム管理者に問い合わせて、リブートOKならば拡張を行うようにすることもできる。また、リブート不可のため拡張しないことを、システム管理者に明示的に知らせることもできる。
Subsequently, the
ステップ3801で、当該業務の拡張タイプがスケールアウトであれば(ステップ3801の「スケールアウト」)、割り当て最適化部105は、ブレード割り当て管理テーブル109を参照して、必要な数の空きのCPUブレードが存在するか否かを判定する(ステップ3807)。空きのCPUブレードが存在すれば(ステップ3807のYes)、ブレード割り当て管理テーブル109の設定を行う(ステップ3808)。具体的には、スケールアウト業務の割り当てアルゴリズムに則って拡張するように、ブレード割り当て管理テーブル109の割り当て業務ID1092を拡張対象の業務IDにより更新する。空きのCPUブレードが存在しなければ(ステップ3807のNo)、業務の拡張ができないので、システム管理者にその旨を通知する(ステップ3809)。
In
図39は、図32の業務再配置(ステップ3204)および図38の業務再配置(ステップ3803)の詳細な処理フローを示す図である。この業務再配置の処理は、現状の業務割り当てのままでは当該業務のスケールアップができないので、同じユニット内の別のCPUブレードに割当てられている業務を他のユニットに再配置するものである。割り当て最適化部105は、まず、スケールアウトする業務の再配置位置を決定する(ステップ3901)。具体的には、同じユニット内の右側のCPUブレードから割当てられている業務を他のユニットに再配置するために、ブレード割り当て管理テーブル109を参照して、他のユニットに空きのCPUブレードがあるか否かをチェックし、空きのスロット位置を再配置位置として決定する。なお、同じユニット内の最も右端のCPUブレードが空いている場合に、そのスロット位置を再配置位置とすることも可能である。そして、空きのCPUブレードがあったか否か、すなわち、再配置位置の決定が解決したか否かを判定する(ステップ3902)。
FIG. 39 is a diagram showing a detailed processing flow of the business rearrangement (step 3204) in FIG. 32 and the business rearrangement (step 3803) in FIG. In this business relocation process, since the business cannot be scaled up with the current business assignment, the business assigned to another CPU blade in the same unit is relocated to another unit. The
再配置位置の決定が解決していれば(ステップ3902のYes)、割り当て最適化部105は、システム管理者にその旨を通知する(ステップ3903)。そして、システム管理者による再配置の実行要求を受信した場合(ステップ3904のYes)、再配置を実行する(ステップ3905)。具体的には、ブレード割り当て管理テーブル109の割り当て業務ID1092を更新して、CPUブレードに対応するサーバ115の設定情報を変更した後、そのサーバ115をリブートする。サーバ115の設定情報の変更やリブートは、BMC118に当該要求を発行することによって行う。再配置の実行要求を受信しなかった場合には(ステップ3904のNo)、再配置を行わずに処理を終了する。ステップ3902で、再配置位置の決定が解決していなければ(ステップ3902のNo)、割り当て最適化部105は、システム管理者にその旨を通知して(ステップ3906)、処理を終了する。
If the determination of the rearrangement position has been resolved (Yes in step 3902), the
図40は、図29の割り当て実行(ステップ2904)の詳細な処理フローを示す図である。管理サーバ101の割り当て実行部106は、まず、システム管理者に割り当て位置決定結果を通知する(ステップ4001)。次に、新規割り当てであるか否かを判定する(ステップ4002)。これは、図30のステップ3002と同様に判定する。新規割り当てであれば(ステップ4002のYes)、割り当て要求情報271(図27参照)のブレード割り当て自動実行フラグ276がONであるか否かを判定する(ステップ4003)。ONでなければ(ステップ4003のNo)、システム管理者からの実行要求を受信したか否かをチェックする(ステップ4004)。実行要求を受信していなれば(ステップ4004のNo)、実際の割り当てを行わないので、ブレード割り当て管理テーブル109および稼動業務管理テーブル110の仮設定を元に戻す(ステップ4006)。新規割り当てでない場合(ステップ4002のNo)、ブレード割り当て自動実行フラグ276がONである場合(ステップ4003のYes)、または、実行要求を受信した場合(ステップ4004のYes)には、ハードウェア構成を変更する(ステップ4005)。具体的には、業務を割り当てたCPUブレードに対応するサーバ115の設定情報を変更した後、そのサーバ115をリブートする。サーバ115の設定情報の変更やリブートは、BMC118に当該要求を発行することによって行う。これによって、ブレード割り当て管理テーブル109および稼動業務管理テーブル110の仮設定または設定が有効になる。
FIG. 40 is a diagram showing a detailed processing flow of the allocation execution (step 2904) of FIG. The
前記した本発明の第2の実施形態によれば、業務をCPUブレードに新規に割り当てたり、拡張したりする場合に、拡張タイプがスケールアップである業務を同じユニット内の左端のCPUブレードから割り当て、拡張タイプがスケールアウトである業務をできる限り右端のCPUスロットが空いているユニットに割り当てるので、スケールアップの業務を拡張するべき空きのCPUブレードをできる限り多く確保することができる。また、スケールアップの業務の新規割り当てや拡張がそのままの状態ではできない場合であっても、それができない要因となっているCPUブレードに割り当てられているスケールアウトの業務を他のユニットのCPUブレードに再配置するので、スケールアップの業務を割り当てる空きのCPUブレードを確保することができる。 According to the second embodiment of the present invention described above, when a business is newly assigned to a CPU blade or expanded, a business whose expansion type is scale-up is assigned from the leftmost CPU blade in the same unit. Since a task whose expansion type is scale-out is assigned to a unit that has a free CPU slot at the right end as much as possible, it is possible to secure as many free CPU blades as possible to expand the scale-up task. Even if new assignments or expansions of scale-up work cannot be performed as they are, the scale-out work assigned to the CPU blade that is the cause of the failure cannot be transferred to the CPU blades of other units. Since the rearrangement is performed, it is possible to secure an empty CPU blade to which a scale-up operation is assigned.
以上本発明の第2の実施形態について説明したが、図17に示す管理サーバ101のそれぞれで実行されるプログラム(ブレード割り当てプログラムを含む)をコンピュータによる読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の第2の実施の形態に係る管理サーバが実現されるものとする。なお、プログラムをインターネットなどのネットワーク経由でコンピュータシステムに提供するようにしてもよい。
Although the second embodiment of the present invention has been described above, the program (including the blade assignment program) executed by each of the
≪その他の実施形態≫
以上本発明について好適な実施形態について一例を示したが、本発明は前記実施形態に限定されず、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。例えば、以下のような実施形態が考えられる。
(1)前記第2の実施形態では、スケールアップの例として、2wayCPUのCPUブレードによるSMP構成について記載したが、CPUブレードが1wayCPUであってもよく、また、CPUブレード間の関係が密結合であればSMP構成である必要はない。(2)前記第2の実施形態では、ユニットにおいて、左端のCPUブレードからスケールアップの業務を割り当て、右端のCPUブレードにスケールアウトの業務を割り当てるように記載したが、左右逆であってもよい。
(3)前記第2の実施形態では、図17に示すように、管理サーバ101がサーバ115とは別の筐体として説明したが、ブレードサーバ(同一の筐体)内のサーバ115(CPUブレード)やその他のCPUを管理サーバ101として用いてもよい。
<< Other Embodiments >>
An example of the preferred embodiment of the present invention has been described above, but the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the spirit of the present invention. For example, the following embodiments can be considered.
(1) In the second embodiment, the SMP configuration using the 2-way CPU CPU blade is described as an example of scale-up. However, the CPU blade may be a 1-way CPU, and the relationship between the CPU blades is tightly coupled. If so, the SMP configuration is not necessary. (2) In the second embodiment, in the unit, the scale-up work is assigned from the leftmost CPU blade, and the scale-out work is assigned to the rightmost CPU blade. .
(3) In the second embodiment, as shown in FIG. 17, the
1 ブレードシステム
2 記憶装置
3 ブレードサーバ
4 サーバ種別管理テーブル
5 ブレードサーバ管理テーブル
6 サーバイメージ記憶装置
7 管理サーバ
8、11 通信制御部
9 サーバ種別検知部
10 記憶装置インターフェース部
13 イメージ配信部
14 イメージ収集部
15 自動配信スケジュール部
17 サーバ負荷検知部
18 サーバ負荷計算部
20 SANコンフィグ部
21 グループ作成部
22 LED点灯部
23 起動パラメータ設定部
24 表示装置
100 サーバシステム(計算機システム)
101 管理サーバ
102 割り当てプログラム(ブレード割り当てプログラム)
109 ブレード割り当て管理テーブル(ブレード割り当て情報)
115 サーバ(計算機、ブレード)
DESCRIPTION OF
101
109 Blade allocation management table (blade allocation information)
115 servers (computers, blades)
Claims (4)
前記ブレードサーバで実行される機能を管理する管理サーバと、
を含んで構成されるサーバシステムに用いられ、前記管理サーバが前記機能を所定の方向に配置されたブレードに割り当てるブレード割り当て方法であって、
前記管理サーバは、
各ブレードサーバ内における前記ブレードごとの機能の割り当て状態を管理するブレード割り当て情報を保持し、
前記機能を割り当てるブレード間の関係が密結合である場合に、
前記機能を前記ブレードに新規に割り当てるときに、前記ブレード割り当て情報を用いて、前記ブレードサーバ内における一端に位置するブレードから連続して割り当てるステップ
を含んで実行し、
前記関係が疎結合である場合に、
前記機能を前記ブレードに新規に割り当てるときに、前記ブレード割り当て情報を用いて、ブレードサーバ内における他端に位置するブレードに割り当てるステップ
をさらに含んで実行し、
前記関係が密結合である場合に、
前記機能の新規割り当てまたは拡張ができないときに、前記ブレード割り当て情報を用いて、前記新規割り当てまたは拡張ができない要因となっているブレードに割り当てられている、前記関係が疎結合である機能を他のブレードに再配置して、前記新規割り当てまたは拡張を再実行するステップ
をさらに含んで実行することを特徴とするブレード割り当て方法。 A blade system comprising a plurality of blade servers constituting one logical computer by a plurality of blades;
A management server for managing functions executed on the blade server;
A blade allocation method in which the management server allocates the function to a blade arranged in a predetermined direction.
The management server
Holds blade assignment information for managing the function assignment status for each blade in each blade server,
When the relationship between the blades to which the function is assigned is tightly coupled,
When the function is newly assigned to the blade, the blade assignment information is used to continuously assign from the blade located at one end in the blade server .
If the relationship is loosely coupled,
Assigning the function to a blade located at the other end in the blade server using the blade assignment information when the function is newly assigned to the blade
And further including
If the relationship is tightly coupled,
When the new assignment or expansion of the function cannot be performed, the blade assignment information is used to assign a function that is assigned to the blade that is the cause of the new assignment or extension and whose relation is loosely coupled. Relocating to the blade and re-executing the new assignment or expansion
A blade assigning method, further comprising:
前記関係が密結合である場合に、
前記割り当てられた機能を実行するブレードを拡張するときに、前記ブレード割り当て情報を用いて、前記機能が割り当てられたブレードに隣接するブレードから連続して割り当てるステップ
をさらに含んで実行することを特徴とする請求項1に記載のブレード割り当て方法。 The management server
If the relationship is tightly coupled,
When the blade that performs the assigned function is expanded, the blade assignment information is further used to continuously assign from the blade adjacent to the blade to which the function is assigned. The blade assignment method according to claim 1.
前記関係が疎結合である場合に、
前記割り当てられた機能を実行するブレードを拡張するときに、前記ブレード割り当て情報を用いて、ブレードサーバ内における他端のブレードに割り当てるステップ
をさらに含んで実行することを特徴とする請求項1に記載のブレード割り当て方法。 The management server
If the relationship is loosely coupled,
2. The method according to claim 1 , further comprising the step of assigning to a blade at the other end in a blade server using the blade assignment information when expanding a blade that executes the assigned function. Blade assignment method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008010033A JP4608559B2 (en) | 2004-04-30 | 2008-01-21 | Blade assignment method and blade assignment program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004136095 | 2004-04-30 | ||
JP2008010033A JP4608559B2 (en) | 2004-04-30 | 2008-01-21 | Blade assignment method and blade assignment program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005133681A Division JP4469306B2 (en) | 2004-04-30 | 2005-04-28 | Computer system, management server |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010191359A Division JP5132735B2 (en) | 2004-04-30 | 2010-08-27 | Server system and server arrangement method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008135056A JP2008135056A (en) | 2008-06-12 |
JP2008135056A5 JP2008135056A5 (en) | 2008-07-24 |
JP4608559B2 true JP4608559B2 (en) | 2011-01-12 |
Family
ID=39559824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008010033A Expired - Fee Related JP4608559B2 (en) | 2004-04-30 | 2008-01-21 | Blade assignment method and blade assignment program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4608559B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120005392A1 (en) * | 2009-01-23 | 2012-01-05 | Hitachi, Ltd. | Information processing system |
JP5321195B2 (en) * | 2009-03-31 | 2013-10-23 | 日本電気株式会社 | Monitoring control system, monitoring control method, monitoring control server, and monitoring control program |
JP5699999B2 (en) | 2012-03-30 | 2015-04-15 | 日本電気株式会社 | Information processing system |
CN114840394B (en) * | 2022-07-05 | 2022-09-20 | 北京聚睿呈祥科技有限公司 | Intelligent monitoring and maintaining method for blade server on rack |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110791A (en) * | 2002-09-16 | 2004-04-08 | Hewlett-Packard Development Co Lp | Dynamic adaptative server provisioning for blade architecture |
-
2008
- 2008-01-21 JP JP2008010033A patent/JP4608559B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110791A (en) * | 2002-09-16 | 2004-04-08 | Hewlett-Packard Development Co Lp | Dynamic adaptative server provisioning for blade architecture |
Also Published As
Publication number | Publication date |
---|---|
JP2008135056A (en) | 2008-06-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4469306B2 (en) | Computer system, management server | |
JP5132735B2 (en) | Server system and server arrangement method | |
US9684450B2 (en) | Profile-based lifecycle management for data storage servers | |
JP4651913B2 (en) | Storage system | |
JP4786248B2 (en) | Storage system configuration management apparatus and configuration management method | |
US7185156B2 (en) | Storage system with automated resource allocation | |
US20090150639A1 (en) | Management apparatus and management method | |
US8495645B2 (en) | Server pool management method | |
JP5577412B2 (en) | Computer system, migration method and management server | |
JP5589218B2 (en) | Computer system and management computer | |
JPWO2008136075A1 (en) | Storage management program, storage management device, and storage management method | |
CN104956310A (en) | Storage system and method for allocating resource | |
US8190789B2 (en) | Computer system and its renewal method | |
JP4608559B2 (en) | Blade assignment method and blade assignment program | |
US10019182B2 (en) | Management system and management method of computer system | |
JP2005309838A (en) | Information management system and information management method, and information management sub-system therefor | |
JP5574993B2 (en) | Control computer, information processing system, control method, and program | |
JP6244496B2 (en) | Server storage system management system and management method | |
JP2006155658A (en) | Storage device system | |
JP5543653B2 (en) | Management computer | |
JP2005031892A (en) | Job execution system and execution control method | |
JP4685079B2 (en) | Storage system | |
JP5746397B2 (en) | Management computer and renewal method | |
JP5942014B2 (en) | Management computer and renewal method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080425 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100105 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100629 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100827 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101005 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4608559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131015 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |