JP2002251344A - サービス管理装置 - Google Patents

サービス管理装置

Info

Publication number
JP2002251344A
JP2002251344A JP2001046516A JP2001046516A JP2002251344A JP 2002251344 A JP2002251344 A JP 2002251344A JP 2001046516 A JP2001046516 A JP 2001046516A JP 2001046516 A JP2001046516 A JP 2001046516A JP 2002251344 A JP2002251344 A JP 2002251344A
Authority
JP
Japan
Prior art keywords
service
server
group
servers
load
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001046516A
Other languages
English (en)
Other versions
JP4230673B2 (ja
Inventor
Takeshi Ishida
武 石田
Kyokai In
京海 尹
Minoru Yamamoto
実 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001046516A priority Critical patent/JP4230673B2/ja
Priority to US09/897,100 priority patent/US7543060B2/en
Publication of JP2002251344A publication Critical patent/JP2002251344A/ja
Application granted granted Critical
Publication of JP4230673B2 publication Critical patent/JP4230673B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer And Data Communications (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

(57)【要約】 【課題】サービスの品質を維持しつつ、サーバの負荷を
適切に分散することの出来るサービス管理装置を提供す
る。 【解決手段】インターネットに接続されたウェブサーバ
を介してクライアントからサービス要求を受け付け、サ
ービスを提供するサービスサーバが複数台、サービス要
求を振り分けるサービス管理サーバに接続された構成を
有している。サービスサーバは、提供するサービスの品
質に応じて複数のレベルにグループ化される。更に、こ
れらのレベルの他に中間サーバと呼ばれるサービス提供
品質レベルを可変とするサービスサーバを設ける。サー
ビス管理サーバは、何れかのレベルのグループのサービ
スサーバの負荷が大きくなると、中間サーバをそのグル
ープのサーバとして使用することによって、そのグルー
プの負荷を軽減する。これにより、負荷をグループ間で
均一にしつつ、品質の維持を図る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、サービスを提供す
るサービスサーバにサービス要求を分配するサービス管
理装置に関する。
【0002】
【従来の技術】今日、インターネットの普及により、イ
ンターネット上での様々なビジネスが展開されつつあ
る。中でも、インターネットを介して、ユーザに様々な
アプリケーションサービスを提供するASP(Applicat
ion Service Provider)サービスが実用化されてい
る。
【0003】図17は、ASPサービスを提供するシス
テムの概略構成図である。サービスを行う複数のサービ
スサーバ10は、サービス要求のサービスサーバ10へ
の分配などの管理を行うサービス管理サーバ11に接続
され、サービス管理サーバ11を介して、クライアント
14からのサービス要求を受け付ける。また、サービス
管理サーバ11は、ウェブサーバ12に接続され、クラ
イアント14からのサービス要求をインターネット15
経由で受け付けるよう構成される。
【0004】このような、ウェブサーバ12、サービス
管理サーバ11、及びサービスサーバ10からなるシス
テムは、データセンタ13と呼ばれ、様々なプロバイダ
からのアプリケーションの提供サービスをまとめて管理
する。
【0005】ところで、最近では、アプリケーションの
提供サービスにおいて、受け付けたサービス要求を単に
サービスサーバ10に割り振って、サービスを提供する
だけでなく、サービスの提供品質を契約によって補償し
つつ、アプリケーション提供サービスをクライアント1
4に提供するというSLA(Service Level Agreem
ent :サービスの品質を保証する契約)を実現しようと
している。
【0006】図18は、SLAにおけるサービス管理サ
ーバのサービス管理方法の従来技術を説明する図であ
る。SLAにおいて補償されるサービスの品質として
は、サービスサーバの応答速度、障害復旧時間、障害発
生時の補償などが挙げられるが、以下の説明において
は、サービスの品質としてサービスサーバの応答速度を
念頭に置いて説明する。
【0007】従来のSLAの実現方法の一つとしては、
図18(a)に示されるような、提供するサービスの品
質毎にサービスサーバをグループ分けする方法がある。
この場合、サービスサーバは、高品質のサービスを提供
するサーバと、一般レベルのサービスを提供するサーバ
などのグループに分けられ、それぞれのグループ内で
は、定められたサービスの品質を維持しつつサービスの
提供を行うように構成される。サービス管理サーバは、
サービス要求の品質契約内容に従って、受信したサービ
ス要求をどのグループのサービスサーバに割り振るかを
決定して、サービス要求(リクエスト)を送信する。
【0008】このような場合、それぞれのグループで品
質を統一して維持することは容易であるが、リクエスト
が一部のレベルに集中した場合、サーバ間の負荷の格差
が大きくなり、全てのサーバ資源を有効に活用できない
と言う問題が生じる。すなわち、サービス品質がサービ
スサーバの応答速度である場合、高品質のサービスを提
供するサービスサーバは、クライアントからのサービス
要求に対して高速に応答する必要があるので、高品質サ
ービスサーバには、大きな負荷がかからないようにサー
ビス要求を割り振る必要がある。このようにすれば、高
品質サービスサーバは、常時高品質のサービスを提供す
ることができるので、サービス品質の管理は行いやす
い。しかし、上記したように、サービス品質レベル毎に
サービスサーバがグループ分けされているので、一部の
グループにサービス要求が集中しても、サービス要求の
処理はグループ内で行わなければならず、グループ間で
の負荷の格差、すなわち、サーバ資源の無駄が生じる。
【0009】また、従来のSLAの実現方法の他の方法
としては、図18(b)に記載されているように、全て
のサービスサーバが全ての品質レベルのサービスを処理
するという方法がある。この場合、各サービスサーバ
は、高品質契約のサービス要求(リクエスト)を優先的
に処理すると共に、一般レベル契約のリクエストも受付
け、処理しなければならない。このとき、サービス管理
サーバは、リクエストの品質契約内容を知る必要はな
く、各サービスサーバの負荷が出来るだけ均等になるよ
うに、各リクエストを各サービスサーバに割り振る処理
を行う。
【0010】従って、各サービスサーバは、リクエスト
が高品質契約のものか、一般レベルのものかを判断し、
判断結果によって処理の優先度を変えて処理するという
手続きを行わなければならない。これを実現するために
は、サービスサーバに複雑なロジックからなるプログラ
ムを実装しなければならない。
【0011】このような場合、全てのサーバ資源を均等
に使用でき、負荷分散は行いやすいが、ロジックが複雑
になる上に、品質を正確に維持することが困難になると
いう問題点がある。また、運用中のASPサービスにこ
の方式を導入しようとすると、個々のアプリケーション
サービスを根本的に作り直す必要があるため、時間的に
も金銭的にも莫大なコストが必要になる。
【0012】
【発明が解決しようとする課題】図19は、従来の問題
点を説明する図である。上記したように、SLAにおい
て、確実にサービス品質を確保しようとするので有れ
ば、図18(b)の構成は採用できず、図18(a)の
構成を採用する必要があるが、前述したように、グルー
プ間で負荷の格差が生じ、サーバ資源が有効に使用でき
ないという問題が生じる。
【0013】本発明の課題は、サービスの品質を維持し
つつ、サーバの負荷を適切に分散することの出来るサー
ビス管理装置を提供することである。
【0014】
【課題を解決するための手段】本発明のサービス管理装
置は、ネットワークを介してクライアントからのサービ
ス要求に応じたサービスを提供するサービスサーバを複
数収容し、該複数のサービスサーバにサービス要求を配
分するサービス管理装置において、該複数のサービスサ
ーバを、提供するサービスの品質レベル毎の複数のグル
ープのサービスサーバと、該グループ間を移行して、移
行先のグループのサービス品質でサービスを提供する中
間サーバグループのサービスサーバとにグループ化して
管理する管理手段と、いずれかのグループのサービスサ
ーバの負荷が増加し、そのグループが提供すべき品質レ
ベルを維持できなくなる場合に、該中間サーバグループ
の最も負荷の低いサービスサーバを少なくとも1つ、該
グループのサービスサーバとして使用して、該グループ
のサービスサーバの負荷の低減を図る中間サーバ移行手
段とを備えることを特徴とする。
【0015】本発明によれば、サービスサーバをサービ
スの品質レベル毎にグループ化してサービスを提供する
ので、安定した品質でサービスを提供できる。また、そ
の場合に問題となるグループ間での負荷の偏りを、グル
ープ間を動的に移行可能な中間サーバグループのサービ
スサーバを設け、これを負荷の多いグループへ移行させ
ることにより、解消するので、安定した品質でのサービ
スの提供と、サービスサーバ間の負荷を適切に分散する
ことが出来る。
【0016】
【発明の実施の形態】図1は、本発明の実施形態の概略
を示す図である。本実施形態の説明においては、クライ
アント(顧客)とのサービス契約において、上位レベル
の品質と下位レベルの品質の契約のみがあるものとす
る。そして、この場合、本実施形態では、上位レベルの
サービスサーバグループと下位レベルのサービスサーバ
グループとを用意すると共に、中間グループのサービス
サーバを用意する。上位レベルグループのサービスサー
バは、上位レベル品質のリクエストを専用に受け付け、
下位レベルグループのサービスサーバは、下位レベル品
質のリクエストを専用に受け付ける。中間グループのサ
ービスサーバは、通常時は、上位レベルの品質で、下位
レベルのリクエストを処理する。すなわち、下位レベル
のリクエストを上位レベルの品質でサービス提供してい
ることになる。
【0017】そして、例えば、上位レベルグループのサ
ービスサーバにリクエストが集中し、負荷が大きくな
り、品質の維持が難しくなったとすると、中間グループ
のサービスサーバをレベルアップさせ、下位レベルのリ
クエストではなく、上位レベルのリクエストを処理させ
るようにする。
【0018】この場合、上記のようなリクエストの割り
振りは、サービス管理サーバが一括して行う。図2は、
本発明の実施形態が適用されるシステムの構成図であ
る。
【0019】クライアント(不図示)は、インターネッ
ト20を介して、ウェブサーバ22にリクエストを送信
する。ウェブサーバ22、サービス管理サーバ24、サ
ービスサーバ25−1〜25−n、及びデータベースサ
ーバ26からなるデータセンタは、ファイアウォール2
1によって外部からの不正なアクセスに対して防御され
る。真正なクライアントは、このファイアウォール21
をパスするIDなどのアカウントを有しており、これを
使って、ウェブサーバ22にリクエストを通知する。ウ
ェブサーバ22では、このリクエストをトリガにして起
動し、後段のサービス管理サーバ24などに命令を通知
するサーブレットエンジン23が設けられている。従っ
て、ウェブサーバ22がクライアントからのリクエスト
を受け取ると、サーブレットエンジン23が、このリク
エストに基づいた処理を行うべき旨の命令をサービス管
理サーバ24に通知する。
【0020】サービス管理サーバ24は、ウェブサーバ
22のサーブレットエンジン23から受け取った命令に
基づいて、リクエストを適切なサービスサーバ25−1
〜25−nに振り分ける。通常状態では、上位レベルの
リクエストは、上位レベルグループのサービスサーバ
に、下位レベルのリクエストは、中間グループあるい
は、下位レベルグループのサービスサーバに受け渡す。
サービスサーバ25−1〜25−nは、データベースサ
ーバ26に格納されている情報から、サービスの提供に
必要なデータを取得し、アプリケーションサービス内容
に変換して、クライアントに送り返す。
【0021】ここで、図1で説明したような処理をサー
ビス管理サーバが行うためには、上位、下位レベル、中
間グループのサービスサーバを管理するための管理用デ
ータが必要となる。以下は、本実施形態において必要と
する管理用データの一例である。 ・サービス管理サーバで管理されているデータ −サービスサーバ情報(サービスサーバ1台毎に定義さ
れている) ID=Server A:サーバを識別するID Load=20 :現在のサービスサーバの負荷値(サービスサ
ーバが定期的にサービス管理サーバに通知する) Limit HighLV=50 、Limit LowLV=100 :閾値(サー
ビスレベル毎の品質を維持するための負荷値の限界) Group=上位:サーバが所属しているグループ ReqLV=上位:実行するリクエストのレベル ResLV=上位:維持しなくてはならない品質のレベル serviceX=5、serviceY=10 :サービス処理の負荷値(そ
のサーバで各サービスの処理を実行した時の負荷値) −共通情報 changeTime= 午前3:00:サーバ構成の自動変更を行
う時間 Priority1=曜日、Priority2=日にち:リクエスト集計の
優先順位(リクエストを集計する時にどの条件の偏りを
優先するかを示す) schedule:サーバ構成のスケジュールデータ ・各サービスサーバで管理されている情報 runningService= {X,X,X,Y }:実行中の処理 サービスサーバ情報(サービス管理サーバで管理されて
いるものと同じ) ・クライアントからのリクエストから取得できる情報 Service=X :実行する処理の種類 SL= 上位:契約しているサービスの品質レベル 図3は、中間グループのサービスサーバ(中間サーバ)
の状態変化を示す図である。
【0022】図18(b)に示したように、従来の負荷
分散の手法では、サーバやネットワーク上の負荷を計測
し、最も負荷の低いサーバに処理を行わせるというもの
が一般的であった。しかし、そのようなサービスの品質
を考慮しないやり方では、SLAを守ることと負荷分散
を両立することは出来ない。
【0023】本実施形態では、中間サーバのレベル変化
の際に維持すべき品質を細かく管理することによって負
荷分散と品質の維持を両立する。図3に示されるよう
に、中間サーバは、通常状態では、上位レベルの品質
で、下位レベルのリクエストを処理している。ここで、
上位レベルグループのサービスサーバの負荷が大きくな
ったとすると、前述したように、上位レベルにレベルア
ップして、上位レベルの品質で、上位レベルのリクエス
トを処理する。ここで、通常状態で上位レベルへの品質
を維持しているため、レベルアップして上位レベルのリ
クエストを受け入れても中間サーバは品質を維持するこ
とが出来る。
【0024】また、前述の説明では記載しなかったが、
中間サーバは、上位から通常、通常から下位、下位から
通常の状態遷移もすることができる。すなわち、中間サ
ーバが上位レベルにある場合に、実行中の上位レベルの
リクエストが無くなったら、通常状態に戻す。したがっ
て、中間サーバが上位レベルにあって、上位レベルのリ
クエストを処理し終わると、下位レベルのリクエストを
処理しはじめる。これにより、通常状態に戻る。もし、
中間サーバが、下位レベルグループの負荷が大きくなっ
て、下位レベルにレベルダウンする場合でも、通常状態
から下位レベルに移行するので、上位レベルのリクエス
トを処理した状態で、下位レベルのリクエストを処理し
はじめることはない。
【0025】中間サーバが下位レベルに移行した場合に
は、下位レベルの品質で、下位レベルのリクエストを処
理する。通常状態では、下位レベルのリクエストのみを
実行しているため、レベルダウンしてサービスの品質を
落としても問題は生じない。また、下位レベルグループ
のサービスサーバの負荷が下がって、上位レベルの品質
を守ることができるようになったら、中間サーバは、通
常状態に戻る。すなわち、下位レベルのリクエストを上
位レベルの品質で処理するようにする。通常状態に戻っ
た後は、前述したように、すぐに上位レベルにレベルア
ップすることができる。
【0026】図4は、サービス管理サーバの処理の概略
を示す図である。まず、ステップS1において、サービ
ス管理サーバがリクエストを受信する。次に、ステップ
S2において、リクエストを振り分けるサービスサーバ
を決定する。また、このとき、中間サーバのレベルアッ
プ(ダウン)が必要か否かの判断を行う。そして、ステ
ップS3において、振り分け先に決まったサービスサー
バにリクエストを送信する。
【0027】ステップS2及びS3の処理の詳細を以下
に説明する。図5は、サービス管理サーバの処理の詳細
を示すフローチャートである。図5において、左側に示
されているフローは、図4と同じものであるが、ここで
は、説明を簡略化するため、受信するリクエストをサー
ビスXに対する上位レベルのリクエストとしている。
【0028】図5において、右側に示されているのは、
左側に示されているフローのステップS2、S3の詳細
フローである。まず、ステップS1において、サービス
Xに対する上位レベルのリクエストをサービス管理サー
バが受け取ると、ステップS13において、上位レベル
グループのサービスサーバでサービスXを実行可能なサ
ーバが存在するか否かを調べる。ステップS13の詳細
については、図6で説明する。ステップS13におい
て、実行可能なサーバが存在すると判断された場合に
は、ステップS17に進んで、実行可能なサーバの内、
負荷の最も低いサーバにリクエストを割り振る。
【0029】ステップS13において、実行可能なサー
バが無いと判断された場合には、ステップS14におい
て、レベルアップした中間サーバがもしあれば、その中
でサービスXを実行可能なサーバが存在するか否かを調
べる。ステップS14の詳細についても図6で説明す
る。ステップS14において、実行可能なサーバが存在
すると判断された場合には、ステップS18において、
実行可能なサーバの内、負荷の最も低いサーバにリクエ
ストを割り振る。
【0030】ステップS14において、実行可能なサー
バが存在しないと判断された場合には、ステップS15
に進んで、通常状態の中間サーバが存在するか否かを判
断する。ステップS15において、通常状態の中間サー
バが存在すると判断された場合には、ステップS19に
おいて、中間サーバの内、1台を上位レベルにレベルア
ップさせる。ステップS19の詳細については、図7で
説明する。そして、ステップS20において、レベルア
ップした中間サーバにリクエストを割り振る。
【0031】ステップS15において、通常状態の中間
サーバが存在しないと判断された場合には、ステップS
16において、実行不能なため、リクエストを待機管理
手段に送信する。待機管理手段とは、サービスサーバが
混雑している際に、リクエストを待機させるサーバのこ
とである。
【0032】図6は、図5のステップS13、S14の
詳細を示すフローチャートである。なお、図6において
は、上位レベルグループ内のサーバに対する処理として
示しているが、レベルアップした中間サーバを対象とす
る場合も同様である。
【0033】まず、ステップS25において、調べるべ
きサーバ(サーバAとする)のサーバ情報を取得する。
ここで取得するサーバ情報の例が図6右上に示されてい
る。そして、ステップS26において、リクエストが実
行可能か否かを判断する。今の場合、図6の右上のサー
バ情報によれば、実行不可能となる。なぜなら、現在の
負荷が50であり、リクエストを実行することによって
負荷が5増えるので、上位レベルの品質を保持するのに
必要な負荷の限界が50であるので、リクエストを受け
付けると、上位レベルの品質を保持できなくなってしま
うからである。従って、不可能な場合には、ステップS
28に進む。可能な場合には、ステップS27におい
て、実行可能なサーバとして情報をストック(記憶)
し、すでに実行可能なサーバを記憶していた場合には、
サーバ負荷の余裕(閾値との差)が大きい方を記憶し
て、ステップS28に進む。
【0034】ステップS28においては、上位レベルの
全てのサーバに対し判定を行ったか否かを判断し、NO
の場合には、ステップS25に戻り、YESの場合に
は、ステップS29に進む。ステップS29において
は、実行可能なサーバが存在するか否かを判断し、存在
する場合には、ステップS30において、実行可能なサ
ーバの内、最も負荷の低いサーバに割り振り、存在しな
い場合には、ステップS31において、上位レベルグル
ープには実行可能なサーバが存在しないと判断する。
【0035】図7は、図5のステップS19を詳細に示
したフローチャートである。ここでは、中間サーバFを
レベルアップさせるものとする。まず、ステップS35
において、サービス管理サーバのサービスサーバ情報の
内、サーバFの所属グループ情報を書き換え、それに伴
って処理リクエストレベルなどの情報も書き換える。図
7の右上に記載されている例では、実行すべきリクエス
トのレベルReqLV が下位から上位に書き換えられてい
る。また、維持すべき品質は上位のままである。次に、
ステップS36において、サービス管理サーバは、サー
ビスサーバF(中間サーバ)にレベルアップを通知す
る。そして、ステップS37において、サービスサーバ
Fは、自分の有するサーバ情報を書き換える。すなわ
ち、図7の右下に記載されているように、ReqLV を下位
から上位に書き換える。
【0036】次に、各サービスサーバの負荷を自動計測
する実施形態について説明する。各サービスサーバでの
サービスの品質を維持していくためには、実行する各サ
ービスの重さ(負荷値)を正しく把握しておく必要があ
る。しかし、サービスの実行にかかる負荷は実行するサ
ービスサーバの能力や状態にも依存するため、静的な方
法で定義した場合、正確さにかけるという問題がある。
しかし、新しいサービスをインストールするたびに手動
で計測を行うのは管理者の負担になるだけでなく、運用
に支障を来す可能性がある。そこで、サービスの運用を
行いながら自動的にサービスを実行する際の負荷を計測
するようにする。
【0037】このようにサービスの運用を行いながらサ
ービスを実行するための負荷を計測することによって、 ・環境の変化が生じてもサービスの負荷をリアルタイム
で計測、修正することによって常に正確な情報を把握す
ることができる。その結果、的確なリクエストの分配が
可能になり、SLAを守りやすくなる、 ・新しいサービスをインストールした場合でも負荷計測
のためにサービスを停止させる必要がない、という利点
が得られる。
【0038】図8は、サービス負荷の自動計測処理の流
れを示す図である。まず、ステップS40において、サ
ービス管理サーバからリクエストの割り振り先を決定
し、リクエストをサービスサーバに送信する。サービス
サーバでは、ステップS41において、リクエストを受
信し、ステップS42において、実行中の処理はあるか
否かが判断される。実行中の処理がある場合には、ステ
ップS43に進み、リクエストを普通に実行する。ステ
ップS42において、実行中の処理がないと判断された
場合には、ステップS44に進んで、リクエストを実行
し、処理にかかった時間を計測する。そして、ステップ
S45において、計測した時間を元に、その処理の負荷
値を計算して、ステップS46に進む。ステップS46
においては、今回の計測した負荷値とこれまでの負荷値
の間を取るなどして、新しい負荷値を算出する。そし
て、ステップS47において、サービス管理サーバに新
しい負荷値を通知する。サービス管理サーバでは、ステ
ップS48において、該当サーバのサービスの負荷情報
を更新する。
【0039】図9は、サービス負荷の自動計測処理を具
体的に示すフローチャートである。図9左に示す概略フ
ローでは、まず、サービス管理サーバからサービスサー
バAにリクエストが渡され、サービスサーバにおいて、
要求されたサービスXを実行し、実行結果をサービス管
理サーバを介してクライアントに返す処理からなってい
る。これらの内、要求されたサービスXを実行するステ
ップにおいて、負荷計測が行われるが、これを詳細に示
したのが、図9右のフローである。
【0040】まず、ステップS50において、サービス
サーバは、実行中の処理はあるか否かについて判断を行
う。今の場合、サービスサーバは、自分の情報(サービ
スサーバAの情報)の内、runningService={X,X,Y }
という情報を参照する。今の場合には、実行中のサービ
スがあるので、ステップS51に進み、要求されたサー
ビスXを実行する。ここで、実行中のサービスがない場
合には、ステップS52に進み、要求されたサービスX
を実行し、処理にかかる時間を計測する。そして、ステ
ップS53において、処理にかっかった時間を元に、そ
のサービスXの負荷値を計算する。負荷値としては、処
理にかかった時間をそのまま用いても良いし、サービス
を実行する際のCPU等の占有時間などを用いても良
い。
【0041】そして、ステップS54において、計測に
よって得られた負荷値を元にそのサービスXの負荷値を
更新する。ステップS55では、更新されたサービスX
の負荷値をサービス管理サーバに通知し、サービス管理
サーバが管理しているサーバ情報の中のサービス負荷値
を更新する。
【0042】ここで、ステップS54とS56の更新の
様子が図9右端に図示されている。すなわち、サービス
サーバAがローカルに持っているサーバ情報のサービス
Xの負荷値serviceX=5をserviceX=6に(今の場合、
負荷値の計測の結果、6という負荷値が得られたとす
る)、サービス管理サーバが持っているサービスサーバ
Aの情報の負荷値serviceX=5もserviceX=6に変更す
る。
【0043】上記実施形態の場合、各グループのサービ
スサーバの台数が固定されている場合には、中間サーバ
だけでは処理しきれないリクエストの偏りが生じる可能
性がある。したがって、これを解消する必要がある。具
体的には、リクエストのログを解析して、曜日や日にち
に依存したリクエストの偏りを見つけだし、それを元に
サービスサーバの運用スケジュールを設定して、自動的
にサーバのグループ分けを行うようにする。
【0044】図10は、サービスサーバの運用スケジュ
ールを設定する実施形態の概念を示す図である。ここ
で、中間サーバの取り扱いについては任意性があるが、
以下の説明では中間サーバの台数は固定とし、上位、下
位レベルのサーバのみを変更するものとして説明を行
う。
【0045】例えば、過去のリクエスト数の比率から、
月曜日には上位レベルのリクエスト数の比率が大きく、
火曜日には、上位レベルと下位レベルの比率が同じ程度
であると判断されたとすると、月曜日には、上位レベル
のサービスサーバの台数を多くし、下位レベルのサービ
スサーバの台数を少なく設定する。また、火曜日には、
上位レベルと下位レベルのサービスサーバの数を同程度
に設定する。しかしながら、上位、下位レベルのサーバ
台数を決定する際には中間サーバの存在も考慮しなくて
はならず、従って、火曜日にはリクエスト数が上位と下
位とで同数だとしても上位と下位のサーバ台数を同数に
すれば良いと言うわけではない。
【0046】前述の実施形態の場合、サービスサーバの
グループ分けは静的な方法のみで行われており、管理者
が手動で調整するしかなかったが、その結果リクエスト
の偏りがそのまま負荷の偏りを生じさせ、パフォーマン
スの低下を招く可能性がある。しかし、上記実施形態に
よれば、過去のリクエスト数を元にサーバ構成のスケジ
ュールを立てるので、曜日や特定日に依存したリクエス
トの偏りに対応でき、リクエスト数に最適化されたサー
ビスサーバ数を各グループに配することによって、中間
サーバのレベルアップ、ダウン回数が減り、サービス管
理サーバの負荷軽減につながる。また、スケジュールに
従って自動的にサービスサーバの構成を変更させるの
で、管理者の負担や人為的なミスを減らすだけでなく、
サーバの構成変更にかかる時間も短縮化できるという利
点がある。
【0047】図11は、スケジュールの設定処理の概略
フローを示す図である。まず、ステップS60におい
て、リクエストのログを取得する。そして、ステップS
61において、リクエストの比率を解析して、サービス
サーバ台数の構成のスケジュールを立てる。ここで、リ
クエスト比率からサーバの台数構成を算出するのは運用
環境や設定の細かさ(リクエスト毎に行うのか、単にレ
ベルのみで判断するかなど)によって計算方法が変わる
が、基本的にはリクエスト数が多いレベルに多くのサー
バを割り当てる用にする。詳細については、本発明を利
用する当業者によって適宜決定されるべきことである。
【0048】ステップS62においては、システムの立
てたスケジュールを管理者が修正し、ステップS63に
おいて、スケジュールを設定する。ステップS62の管
理者がスケジュールを修正する処理は任意であり、スケ
ジュールの作成から運用まで、全て自動で行うこともで
きるが、作成されたスケジュールを管理者が修正するこ
とも可能であるという意味である。
【0049】図12は、スケジュール設定処理のより具
体的なフローチャートである。まず、ステップS70に
おいて、スケジュール作成システムの起動を行う。そし
て、ステップS71において、サービス管理サーバのロ
グ管理手段で記録したリクエストの処理経過である、リ
クエストログを取得する。リクエストログとは、図12
右の(1)に示されているような記録である。そして、
ステップS72において、ログを優先順位にしたがって
解析し、サーバ構成のスケジュールを作成する。すなわ
ち、図12右の(1)のログ管理手段の情報と(2)の
サービス管理サーバの情報とを参照し、図12右の
(3)に示すようなスケジュールを作成する。次に、必
要で有れば、ステップS73に進んで、管理者が作成さ
れたスケジュールを修正し、ステップS74において、
スケジュールを設定する。すなわち、図12右の(3)
のスケジュールをサービス管理サーバに保存する。
【0050】図13は、スケジュールに基づいてサービ
スサーバの構成を変更する際の処理を示すフローチャー
トである。まず、ステップS80において、定義された
タイミングでサービスサーバ構成変更システムを起動す
る。このとき、サービス管理サーバの情報であるchange
Time=午前3:00などの情報を参照する。今の場合、
午前3時にサービスサーバの構成変更を行う旨が定義さ
れている。次に、ステップS81において、サービス管
理サーバ内の変更を行うサービスサーバの所属グループ
の情報を更新する。すなわち、図13右の(1)の情報
を参照し、図13右の(2)のサービス管理サーバ内の
該当サービスサーバの情報を更新する。そして、ステッ
プS82において、変更を行ったサービスサーバに変更
通知を行う。ステップS83においては、通知を受けた
サービスサーバは、図13右の(3)のサービスサーバ
の情報の内、所属グループの情報を変更する。また、こ
のとき、所属グループが行うべきリクエスト受付のレベ
ル及び維持すべき品質のレベルの設定も所属グループの
設定に合わせて変更する。そして、ステップS84にお
いて、全ての変更が終わったか否かを判断し、全ての変
更が終わっていない場合にはステップS81に戻って変
更処理を繰り返し、全ての変更が終わった場合には、処
理を終了する。
【0051】次に、図12のステップS72について詳
細に説明する。スケジュールの作成に際しては、基本的
にサービスサーバの台数は集計したリクエストの比率の
従ってサービスサーバを各レベルに配分して決定する。
【0052】例えば、サービスサーバが全部で7台あ
り、うち中間サーバが2台あるとする。ログを集計した
結果、ある曜日の平均リクエスト数が 上位レベル:200リクエスト 下位レベル:100リクエスト だったとする。
【0053】リクエスト数の比率は上位:下位=2:1
であるから、中間サーバを除いた5台のサービスサーバ
を2:1の比率で配分することによってサーバ台数が決
定される。よって、この場合、各レベルのサービスサー
バの台数は次のように決定される。 上位レベル:5×(2/3)=3.333→3台 下位レベル:5×(1/3)=1.666→2台 次に、中間サーバの存在を考慮する。すなわち、中間サ
ーバは通常下位レベルのリクエストを実行しているた
め、中間サーバのことを考慮しないと下位レベルにサー
バを多く割り当て過ぎることになる。
【0054】例えば、上記の例では、上位レベルに3
台、下位レベルに2台のサービスサーバを割り当てた
が、中間サーバの台数が2台だったので、通常時上位レ
ベルのリクエストを実行するのが3台だけなのに対し
て、下位レベルのリクエストを実行するのは下位レベル
のサーバと中間サーバの合わせて4台になってしまう。
従って、中間サーバは下位レベルに含まれるものとして
考える必要がある。
【0055】例えば、上記例では、リクエスト数の比率
は上位:下位=2:1であったので、中間サーバも含め
た7台のサービスサーバを2:1の比率で分配する。各
レベルのサーバの台数は次のように決定される。 上位レベル:7×(2/3)=4.66→5台 下位レベル:7×(1/3)=2.33→2台 中間サーバ2台は下位レベルに含まれるものと考えるの
で、下位レベルに割り当てるのは中間サーバ分の台数を
除いた 2−2=0台 となる。しかし、各レベルに最低1台はサービスサーバ
が存在しないと不都合が生じてしまう(例えば、中間サ
ーバが全てレベルアップすると下位レベルのリクエスト
を処理するサーバが無くなってしまう)。よって、サー
バ構成は、次のようになる。 上位:4台 下位:1台 中間サーバ:2台 上記の例では、単純にリクエスト数の比率のみを考慮し
た例を示したが、サービス毎に処理の重さ(負荷値)が
異なる場合、それを考慮する必要がある。
【0056】例えば、サービスXとサービスYがあり、
それぞれの負荷値が サービスX=5、サービスY=10 であるとする。
【0057】例えば、リクエストのサービス毎の内訳が
次のようだとする。 上位レベル:リクエスト総数=200(サービスX=1
00、サービスY=100) 下位レベル:リクエスト総数=100(サービスX=2
0、サービスY=80) この場合、リクエスト数の比率は 上位:下位=2:1 であるが、負荷値の合計はそれぞれ 上位:100×5+100×10=1500 下位:20×5+80×10=900 であり、負荷値の比率は 上位:下位=5:3 となる。
【0058】サービスサーバへの負担の量を正確に表し
ているのはリクエスト数ではなく、負荷値の量であるた
め、サービスサーバの台数を設定する際も、負荷値の合
計比率を使うのが好ましい。
【0059】そこで、負荷値の合計の比率を用いて計算
し直してみると、負荷値合計の比率は 上位:下位=5:3 である。この比率に従って7台のサービスサーバを分け
ると 上位:7×(5/8)=4.37→4台 下位:7×(3/8)=2.62→3台 中間サーバ分を下位レベルから除くと 上位:4台 下位:1台 中間サーバ:2台 と決定される。
【0060】以上がスケジュール設定の基本的な方法で
あるが、サーバの性能の違いなどを考慮しなくてはなら
ない事項が他にもあるため、実際に運用する際にはもっ
と細かな計算が必要とされる。しかし、基本的な方法は
上記の通りリクエストの比率を元にサーバ台数を割り振
ると言うやり方には変わりはない。
【0061】また、スケジュール設定の優先順位を考慮
することも可能である。すなわち、サービスサーバ構成
のスケジュールを立てる際に優先順位(Priority)を参
照する。例えば、優先順位1位(Priority1 )が曜日で
2位(Priority2 )が日にちの場合、曜日別にスケジュ
ールを立て、特に偏りの顕著な日にちのみ別に構成を設
定する。
【0062】また、スケジュールはサービス管理サーバ
内のサーバ情報格納手段で保管され、構成の自動変更時
に参照される。図14は、本発明の実施形態のシステム
ブロック図である。
【0063】サービス管理サーバは、サービス管理手段
30、スケジュール管理手段31、待機管理手段32、
サーバ情報格納手段33、及びログ管理手段34からな
っている。
【0064】また、サービスサーバグループの各サービ
スサーバ36は、負荷計測手段35を備えている。サー
ビス管理手段30は、リクエストを受信して分配先を決
定し、サービスサーバのレベルアップ(ダウン)処理を
行う。サーバ情報格納手段33は、システム全体の情報
を管理しており、サービス管理サーバで管理されるデー
タの全てが保管されている。待機管理手段32は、混雑
時に分配不能なリクエストを保管し、サービスサーバの
負荷が下がり次第、サービスサーバにリクエストを送信
する機能である。スケジュール管理手段31は、サービ
スサーバ構成のスケジュールを設定管理する。ログ管理
手段34は、リクエストのログを格納する。また、サー
ビスサーバの負荷計測手段35は、自分のサービスサー
バの負荷状態を監視し、定期的に監視結果をサーバ情報
格納手段33へ送信する。また、サービスサーバで管理
するデータを格納している。
【0065】受信したリクエストをサービスサーバへ送
信する処理を行う場合、1−1に示すように、SLA情
報を含むリクエストを受信し、1−2に示すように、サ
ーバ情報格納手段33からサーバ情報を取得し、1−3
で該当リクエストの分配先を決定する。そして、1−4
でリクエストを実行可能な場合、最も負荷が低いサービ
スサーバ36にリクエストを送信する。また、1−5の
ように、リクエストが実行不可能の場合(SLAを維持
できない場合)、リクエストを待機管理手段32に送
る。
【0066】待機リクエストを送信する処理を行う場合
には、2−1で一定間隔でサーバ情報格納手段33から
サーバ情報を取得する。そして、2−2で、実行可能に
なった時に、サービスサーバ36にリクエストを送る。
【0067】スケジュールを設定する処理を行う場合
は、3−1でログ管理手段34からリクエストのログを
取得し、3−2で、スケジュールを設定して、サーバ情
報を更新する。
【0068】サービスサーバ36の負荷を計測して通知
する処理を行う場合は、4−1に示されるように、サー
ビスサーバ36の負荷値を計算して、定期的にサーバ情
報格納手段33へ通知する。
【0069】図15は、図14の各手段が有するデータ
を示した図である。サーバ情報格納手段33は、サーバ
識別ID、閾値、所属グループ、維持する品質レベル、
各サービスの負荷値、サーバ性能評価値、サーバ構成変
更時間、リクエスト集計優先順、及びサーバ構成スケジ
ュールを有している。
【0070】ログ管理手段34は、リクエスト時間、サ
ービスレベル、要求するサービスなどのデータを有す
る。サービスサーバ36の負荷計測手段35は、実行中
の処理内容、及びサーバ情報格納手段33が有するデー
タの内自サーバに関するデータを有する。
【0071】図16は、本発明の実施形態に従ったサー
ビス管理サーバあるいはサービスサーバの機能をプログ
ラムで実現する場合に要求される装置のハードウェア環
境を説明する図である。
【0072】CPU41は、バス40で接続された記憶
装置47あるいは、記録媒体読み取り装置48を介して
可搬記録媒体49から当該プログラムを読み込み、同じ
バス40を介して接続されたRAM43にコピーして実
行する。CPU41にバス40を介して接続されるRO
M42には、BIOSなどの基本プログラムが格納され
るが、本発明の実施形態を実現するプログラムを格納し
てもよい。
【0073】入出力装置50は、バス40を介してCP
U41に接続され、CPU41の演算結果を装置のユー
ザに提示したり、ユーザからの指示をCPU41に伝え
るために使用され、例えば、キーボード、マウス、タブ
レット、ディスプレイなどからなる。
【0074】通信インターフェース44は、ネットワー
ク45を介して図16の装置が情報提供者46と通信す
るために使用される。本発明の実施形態を実現するプロ
グラムを情報提供者46からダウンロードし、CPU4
1が実行しても良いし、ネットワーク環境下で、当該プ
ログラムを実行することも可能である。また、通信イン
ターフェース44を介して、サービス管理サーバとサー
ビスサーバとが通信したり、ウェブサーバと通信するこ
とも可能である。
【0075】(付記1)情報装置に、ネットワークを介
してクライアントからのサービス要求に応じたサービス
を提供するサービスサーバを複数収容し、該複数のサー
ビスサーバにサービス要求を配分するサービス管理方法
を実現させるプログラムにおいて、該複数のサービスサ
ーバを、提供するサービスの品質レベル毎の複数のグル
ープのサービスサーバと、該グループ間を移行して、移
行先のグループのサービス品質でサービスを提供する中
間サーバグループのサービスサーバとにグループ化して
管理する管理ステップと、いずれかのグループのサービ
スサーバの負荷が増加し、そのグループが提供すべき品
質レベルを維持できなくなる場合に、該中間サーバグル
ープの最も負荷が低いサービスサーバを少なくとも1
つ、該グループのサービスサーバとして使用して、該グ
ループのサービスサーバの負荷の低減を図る中間サーバ
移行ステップと、を備えることを特徴とするサービス管
理方法を情報装置に実現させるプログラム。
【0076】(付記2)前記管理ステップは、前記グル
ープ化されたサービスサーバが、どのグループに属する
かの情報を格納する格納手段を更に備えることを特徴と
する付記1に記載のプログラム。
【0077】(付記3)前記サービスの品質は、前記サ
ービスサーバの応答時間であることを特徴とする付記1
に記載のプログラム。 (付記4)前記サービス要求の履歴を記録するログ管理
ステップと、該ログ管理手段の記録に基づいて、日にち
あるいは曜日毎にスケジュールを作成し、作成したスケ
ジュールに従って前記グループ分けの仕方を変更するス
ケジュール管理ステップと、を更に備えることを特徴と
する付記1に記載のプログラム。
【0078】(付記5)前記各サービスサーバは、自サ
ーバがサービス要求を処理するために必要とする負荷値
を計測する負荷計測ステップを有し、該負荷計測ステッ
プから報告される各サービスサーバの負荷値に基づい
て、前記中間サーバグループのサービスサーバを別のグ
ループに移行させることを特徴とする付記1に記載のプ
ログラム。
【0079】(付記6)ネットワークを介してクライア
ントからのサービス要求に応じたサービスを提供するサ
ービスサーバを複数収容し、該複数のサービスサーバに
サービス要求を配分するサービス管理方法において、該
複数のサービスサーバを、提供するサービスの品質レベ
ル毎の複数のグループのサービスサーバと、該グループ
間を移行して、移行先のグループのサービス品質でサー
ビスを提供する中間サーバグループのサービスサーバと
にグループ化して管理する管理ステップと、いずれかの
グループのサービスサーバの負荷が増加し、そのグルー
プが提供すべき品質レベルを維持できなくなる場合に、
該中間サーバグループのサービスサーバを少なくとも1
つ、該グループのサービスサーバとして使用して、該グ
ループのサービスサーバの負荷の低減を図る中間サーバ
移行ステップと、を備えることを特徴とするサービス管
理方法。
【0080】(付記7)ネットワークを介してクライア
ントからのサービス要求に応じたサービスを提供するサ
ービスサーバを複数収容し、該複数のサービスサーバに
サービス要求を配分するサービス管理方法を情報装置に
実行させるプログラムにおいて、該サービス管理方法
は、該複数のサービスサーバを、提供するサービスの品
質レベル毎の複数のグループのサービスサーバと、該グ
ループ間を移行して、移行先のグループのサービス品質
でサービスを提供する中間サーバグループのサービスサ
ーバとにグループ化して管理する管理ステップと、いず
れかのグループのサービスサーバの負荷が増加し、その
グループが提供すべき品質レベルを維持できなくなる場
合に、該中間サーバグループのサービスサーバを少なく
とも1つ、該グループのサービスサーバとして使用し
て、該グループのサービスサーバの負荷の低減を図る中
間サーバ移行ステップと、を備えることを特徴とするプ
ログラム。
【0081】(付記8)ネットワークを介してクライア
ントからのサービス要求に応じたサービスを提供するサ
ービスサーバを複数収容し、該複数のサービスサーバに
サービス要求を配分するサービス管理方法を情報装置に
実行させるプログラムを格納した、情報装置読み取り可
能な記録媒体において、該サービス管理方法は、該複数
のサービスサーバを、提供するサービスの品質レベル毎
の複数のグループのサービスサーバと、該グループ間を
移行して、移行先のグループのサービス品質でサービス
を提供する中間サーバグループのサービスサーバとにグ
ループ化して管理する管理ステップと、いずれかのグル
ープのサービスサーバの負荷が増加し、そのグループが
提供すべき品質レベルを維持できなくなる場合に、該中
間サーバグループのサービスサーバを少なくとも1つ、
該グループのサービスサーバとして使用して、該グルー
プのサービスサーバの負荷の低減を図る中間サーバ移行
ステップと、を備えることを特徴とする記録媒体。
【0082】(付記9)ネットワークを介してクライア
ントからのサービス要求に応じたサービスを提供するサ
ービスサーバを複数収容し、該複数のサービスサーバに
サービス要求を配分するサービス管理装置において、該
複数のサービスサーバを、提供するサービスの品質レベ
ル毎の複数のグループのサービスサーバと、該グループ
間を移行して、移行先のグループのサービス品質でサー
ビスを提供する中間サーバグループのサービスサーバと
にグループ化して管理する管理手段と、いずれかのグル
ープのサービスサーバの負荷が増加し、そのグループが
提供すべき品質レベルを維持できなくなる場合に、該中
間サーバグループの最も負荷が低いサービスサーバを少
なくとも1つ、該グループのサービスサーバとして使用
して、該グループのサービスサーバの負荷の低減を図る
中間サーバ移行手段と、を備えることを特徴とするサー
ビス管理装置。
【0083】
【発明の効果】本発明によれば、サービスを行うサービ
スサーバ間の負荷の差を適切に均等化しつつ、サービス
の品質を維持したサービスの提供を行うためのサービス
管理装置を提供することが出来る。
【図面の簡単な説明】
【図1】本発明の実施形態の概略を示す図である。
【図2】本発明の実施形態が適用されるシステムの構成
図である。
【図3】中間グループのサービスサーバ(中間サーバ)
の状態変化を示す図である。
【図4】サービス管理サーバの処理の概略を示す図であ
る。
【図5】サービス管理サーバの処理の詳細を示すフロー
チャートである。
【図6】図5のステップS13、S14の詳細を示すフ
ローチャートである。
【図7】図5のステップS19を詳細に示したフローチ
ャートである。
【図8】サービス負荷の自動計測処理の流れを示す図で
ある。
【図9】サービス負荷の自動計測処理を具体的に示すフ
ローチャートである。
【図10】サービスサーバの運用スケジュールを設定す
る実施形態の概念を示す図である。
【図11】スケジュールの設定処理の概略フローを示す
図である。
【図12】スケジュール設定処理のより具体的なフロー
チャートである。
【図13】スケジュールに基づいてサービスサーバの構
成を変更する際の処理を示すフローチャートである。
【図14】本発明の実施形態のシステムブロック図であ
る。
【図15】図14の各手段が有するデータを示した図で
ある。
【図16】本発明の実施形態に従ったサービス管理サー
バあるいはサービスサーバの機能をプログラムで実現す
る場合に要求される装置のハードウェア環境を説明する
図である。
【図17】ASPサービスを提供するシステムの概略構
成図である。
【図18】SLAにおけるサービス管理サーバのサービ
ス管理方法の従来技術を説明する図である。
【図19】従来の問題点を説明する図である。
【符号の説明】
20 インターネット 21 ファイアウォール 22 ウェブサーバ 23 サーブレットエンジン 24 サービス管理サーバ 25−1〜25−n サービスサーバ 26 データベースサーバ 30 サービス管理手段 31 スケジュール管理手段 32 待機管理手段 33 サーバ情報格納手段 34 ログ管理手段 35 負荷計測手段 36 サービスサーバ
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成13年10月16日(2001.10.
16)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】0012
【補正方法】変更
【補正内容】
【0012】
【発明が解決しようとする課題】図19は、従来の問題
点を説明する図である。上記したように、SLAにおい
て、確実にサービス品質を確保しようとするので有れ
ば、図18(b)より、図18(a)の構成の方がより
簡単で正確に品質を確保できるが、前述したように、グ
ループ間で負荷の格差が生じ、サーバ資源が有効に使用
できないという問題が生じる。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 山本 実 東京都文京区後楽1丁目7番27号 株式会 社富士通ビジネスシステム内

Claims (5)

    【特許請求の範囲】
  1. 【請求項1】情報装置に、ネットワークを介してクライ
    アントからのサービス要求に応じたサービスを提供する
    サービスサーバを複数収容し、該複数のサービスサーバ
    にサービス要求を配分するサービス管理方法を実現させ
    るプログラムにおいて、 該複数のサービスサーバを、提供するサービスの品質レ
    ベル毎の複数のグループのサービスサーバと、該グルー
    プ間を移行して、移行先のグループのサービス品質でサ
    ービスを提供する中間サーバグループのサービスサーバ
    とにグループ化して管理する管理ステップと、 いずれかのグループのサービスサーバの負荷が増加し、
    そのグループが提供すべき品質レベルを維持できなくな
    る場合に、該中間サーバグループの最も負荷が低いサー
    ビスサーバを少なくとも1つ、該グループのサービスサ
    ーバとして使用して、該グループのサービスサーバの負
    荷の低減を図る中間サーバ移行ステップと、を備えるサ
    ービス管理方法を情報装置に実現させることを特徴とす
    るプログラム。
  2. 【請求項2】前記管理ステップは、 前記グループ化されたサービスサーバが、どのグループ
    に属するかの情報を格納する格納手段を更に備えること
    を特徴とする請求項1に記載のプログラム。
  3. 【請求項3】前記サービスの品質は、前記サービスサー
    バの応答時間であることを特徴とする請求項1に記載の
    プログラム。
  4. 【請求項4】前記サービス要求の履歴を記録するログ管
    理ステップと、 該ログ管理ステップの記録に基づいて、日にちあるいは
    曜日毎にスケジュールを作成し、作成したスケジュール
    に従って自動で前記グループ分けの仕方を変更させるス
    ケジュール管理ステップと、を更に備えることを特徴と
    する請求項1に記載のプログラム。
  5. 【請求項5】前記各サービスサーバは、自サーバがサー
    ビス要求を処理するために必要とする負荷値を計測する
    負荷計測ステップを有し、 該負荷計測手段から報告される各サービスサーバの負荷
    値に基づいて、前記中間サーバグループのサービスサー
    バを別のグループに移行させることを特徴とする請求項
    1に記載のプログラム。
JP2001046516A 2001-02-22 2001-02-22 サービス管理装置 Expired - Lifetime JP4230673B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001046516A JP4230673B2 (ja) 2001-02-22 2001-02-22 サービス管理装置
US09/897,100 US7543060B2 (en) 2001-02-22 2001-07-03 Service managing apparatus for keeping service quality by automatically allocating servers of light load to heavy task

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001046516A JP4230673B2 (ja) 2001-02-22 2001-02-22 サービス管理装置

Publications (2)

Publication Number Publication Date
JP2002251344A true JP2002251344A (ja) 2002-09-06
JP4230673B2 JP4230673B2 (ja) 2009-02-25

Family

ID=18908126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001046516A Expired - Lifetime JP4230673B2 (ja) 2001-02-22 2001-02-22 サービス管理装置

Country Status (2)

Country Link
US (1) US7543060B2 (ja)
JP (1) JP4230673B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693995B2 (en) 2005-11-09 2010-04-06 Hitachi, Ltd. Arbitration apparatus for allocating computer resource and arbitration method therefor
JP2018504008A (ja) * 2014-11-25 2018-02-08 ノキア ソリューションズ アンド ネットワークス オサケユキチュア コアネットワーク要素における最適なリソース管理
KR102383712B1 (ko) * 2021-11-12 2022-04-08 메타빌드(주) 자율주행 데이터의 오픈 api 서비스 제공 시스템 및 방법

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8458754B2 (en) 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US7693970B2 (en) * 2001-06-14 2010-04-06 Savvis Communications Corporation Secured shared storage architecture
US7734781B2 (en) * 2001-07-09 2010-06-08 Savvis Communications Corporation Methods and systems for shared storage virtualization
FR2834840B1 (fr) * 2002-01-14 2005-06-24 Sofedit Sa Determination de la cause probable d'une diminution de la qualite d'un service en fonction de l'evolution d'un ensemble de services
US8250201B2 (en) * 2002-09-09 2012-08-21 International Business Machines Corporation Servlet monitoring tool
TWI349204B (en) * 2003-01-10 2011-09-21 Panasonic Corp Group admission system and server and client therefor
US7835363B2 (en) * 2003-02-12 2010-11-16 Broadcom Corporation Method and system to provide blade server load balancing using spare link bandwidth
US7558850B2 (en) * 2003-09-15 2009-07-07 International Business Machines Corporation Method for managing input/output (I/O) performance between host systems and storage volumes
US8239446B2 (en) * 2003-11-19 2012-08-07 Sony Computer Entertainment America Llc Content distribution architecture
KR100620054B1 (ko) * 2004-06-11 2006-09-08 엘지전자 주식회사 장치 관리 기술에서의 장치 관리 시스템 및 방법
JP4058038B2 (ja) * 2004-12-22 2008-03-05 株式会社日立製作所 負荷監視装置および負荷監視方法
US8788618B2 (en) * 2005-10-07 2014-07-22 Alcatel Lucent Leveraging presence service system and method for distributed web service delivery and deployment
US8756298B2 (en) * 2005-12-21 2014-06-17 Cisco Technology, Inc. System for automatic configuration of computers in a server farm
JP4557949B2 (ja) * 2006-04-10 2010-10-06 富士通株式会社 資源ブローカリングプログラム、該プログラムを記録した記録媒体、資源ブローカリング装置、および資源ブローカリング方法
JP2007316759A (ja) * 2006-05-23 2007-12-06 Hitachi Ltd 画面データ生成方法、画面データ生成システム、及びプログラム
JP4982216B2 (ja) * 2007-03-14 2012-07-25 株式会社日立製作所 ポリシ作成支援方法、ポリシ作成支援システム、およびプログラム
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
US20100111105A1 (en) * 2008-10-30 2010-05-06 Ken Hamilton Data center and data center design
US20100217866A1 (en) * 2009-02-24 2010-08-26 Thyagarajan Nandagopal Load Balancing in a Multiple Server System Hosting an Array of Services
US8126987B2 (en) 2009-11-16 2012-02-28 Sony Computer Entertainment Inc. Mediation of content-related services
KR20110065159A (ko) * 2009-12-09 2011-06-15 한국전자통신연구원 다중 서버를 이용하여 다계층 콘텐츠를 제공하는 시스템 및 그의 콘텐츠 서비스 방법
US8874744B2 (en) * 2010-02-03 2014-10-28 Vmware, Inc. System and method for automatically optimizing capacity between server clusters
CN102207889B (zh) * 2010-03-31 2013-10-23 国际商业机器公司 命令控制方法和命令控制器
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US8620486B2 (en) 2010-07-15 2013-12-31 Delta Electronics, Inc. Expandable data center
US9128772B2 (en) * 2010-11-15 2015-09-08 Infosys Limited Performance optimization through run-time quality governance
CN102523158B (zh) * 2011-12-15 2014-07-09 杭州电子科技大学 一种基于权重的元数据服务器集群负载均衡方法
US9354940B2 (en) * 2012-01-19 2016-05-31 Microsoft Technology Licensing, Llc Provisioning tenants to multi-tenant capable services
WO2014082203A1 (zh) * 2012-11-27 2014-06-05 华为技术有限公司 元数据管理方法和装置
WO2014205831A1 (zh) * 2013-06-29 2014-12-31 华为技术有限公司 传输业务的方法和装置
CN104580098B (zh) * 2013-10-22 2018-06-22 阿里巴巴集团控股有限公司 一种服务共享方法及装置
US9811359B2 (en) * 2014-04-17 2017-11-07 Oracle International Corporation MFT load balancer
US10284487B2 (en) * 2014-04-25 2019-05-07 Paypal, Inc. Software load balancer to maximize utilization
US10372640B2 (en) * 2016-11-21 2019-08-06 International Business Machines Corporation Arbitration of data transfer requests
US10587504B2 (en) 2017-02-08 2020-03-10 International Business Machines Corporation Packet broadcasting mechanism for mesh interconnected multi-computers
US10579432B1 (en) * 2018-08-13 2020-03-03 Twitter, Inc. Load balancing deterministically-subsetted processing resources using fractional loads

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581703A (en) * 1993-06-29 1996-12-03 International Business Machines Corporation Method and apparatus for reserving system resources to assure quality of service
US5774668A (en) * 1995-06-07 1998-06-30 Microsoft Corporation System for on-line service in which gateway computer uses service map which includes loading condition of servers broadcasted by application servers for load balancing
JP3754481B2 (ja) 1996-02-02 2006-03-15 富士通株式会社 複合計算機システム
US6021439A (en) * 1997-11-14 2000-02-01 International Business Machines Corporation Internet quality-of-service method and system
US6226377B1 (en) * 1998-03-06 2001-05-01 Avaya Technology Corp. Prioritized transaction server allocation
US6230183B1 (en) 1998-03-11 2001-05-08 International Business Machines Corporation Method and apparatus for controlling the number of servers in a multisystem cluster
US6101541A (en) * 1998-04-21 2000-08-08 International Business Machines Corporation Active polling by network LDAP directory
US7200219B1 (en) 1999-02-10 2007-04-03 Avaya Technology Corp. Dynamically allocating server resources to competing classes of work based upon achievement of service goals
US6463454B1 (en) * 1999-06-17 2002-10-08 International Business Machines Corporation System and method for integrated load distribution and resource management on internet environment
US6516350B1 (en) * 1999-06-17 2003-02-04 International Business Machines Corporation Self-regulated resource management of distributed computer resources
US7054943B1 (en) * 2000-04-28 2006-05-30 International Business Machines Corporation Method and apparatus for dynamically adjusting resources assigned to plurality of customers, for meeting service level agreements (slas) with minimal resources, and allowing common pools of resources to be used across plural customers on a demand basis
US6510463B1 (en) * 2000-05-26 2003-01-21 Ipass, Inc. Service quality monitoring process
US7844513B2 (en) * 2000-07-17 2010-11-30 Galactic Computing Corporation Bvi/Bc Method and system for operating a commissioned e-commerce service prover

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7693995B2 (en) 2005-11-09 2010-04-06 Hitachi, Ltd. Arbitration apparatus for allocating computer resource and arbitration method therefor
JP2018504008A (ja) * 2014-11-25 2018-02-08 ノキア ソリューションズ アンド ネットワークス オサケユキチュア コアネットワーク要素における最適なリソース管理
US10374832B2 (en) 2014-11-25 2019-08-06 Nokia Solutions And Networks Oy Optimized resource management in core network elements
KR102383712B1 (ko) * 2021-11-12 2022-04-08 메타빌드(주) 자율주행 데이터의 오픈 api 서비스 제공 시스템 및 방법

Also Published As

Publication number Publication date
US7543060B2 (en) 2009-06-02
US20020116479A1 (en) 2002-08-22
JP4230673B2 (ja) 2009-02-25

Similar Documents

Publication Publication Date Title
JP2002251344A (ja) サービス管理装置
US11709600B2 (en) System and method for performing live partitioning in a data store
US11789925B2 (en) System and method for conditionally updating an item with attribute granularity
US20210103604A1 (en) System and method for implementing a scalable data storage service
US11609697B2 (en) System and method for providing a committed throughput level in a data store
US9372911B2 (en) System and method for performing replica copying using a physical copy mechanism
US8819027B1 (en) System and method for partitioning and indexing table data using a composite primary key
US7376953B2 (en) Apparatus and method for routing a transaction to a server
US8296419B1 (en) Dynamically modifying a cluster of computing nodes used for distributed execution of a program
US8321558B1 (en) Dynamically monitoring and modifying distributed execution of programs
US6901446B2 (en) System and method for describing and automatically managing resources
US20100042721A1 (en) Dynamic application placement with allocation restrictions, vertical stacking and even load distribution
US20050071842A1 (en) Method and system for managing data using parallel processing in a clustered network
US20200034057A1 (en) Elastic storage volume type selection and optimization engine for public cloud environments
US20090282414A1 (en) Prioritized Resource Access Management
US9471389B2 (en) Dynamically tuning server placement
US8892702B2 (en) Policy driven autonomic computing-programmatic policy definitions
CN114281479A (zh) 一种容器管理方法及装置
US10909094B1 (en) Migration scheduling for fast-mutating metadata records
CN113535346A (zh) 线程数量调整的方法、装置、设备及计算机存储介质
JP6571614B2 (ja) 振分装置、通信システム及びデータ振分方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071002

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081204

R150 Certificate of patent or registration of utility model

Ref document number: 4230673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

EXPY Cancellation because of completion of term