JP4230673B2 - サービス管理装置 - Google Patents

サービス管理装置 Download PDF

Info

Publication number
JP4230673B2
JP4230673B2 JP2001046516A JP2001046516A JP4230673B2 JP 4230673 B2 JP4230673 B2 JP 4230673B2 JP 2001046516 A JP2001046516 A JP 2001046516A JP 2001046516 A JP2001046516 A JP 2001046516A JP 4230673 B2 JP4230673 B2 JP 4230673B2
Authority
JP
Japan
Prior art keywords
service
server
group
quality
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001046516A
Other languages
English (en)
Other versions
JP2002251344A (ja
Inventor
武 石田
京海 尹
実 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2001046516A priority Critical patent/JP4230673B2/ja
Priority to US09/897,100 priority patent/US7543060B2/en
Publication of JP2002251344A publication Critical patent/JP2002251344A/ja
Application granted granted Critical
Publication of JP4230673B2 publication Critical patent/JP4230673B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1008Server selection for load balancing based on parameters of servers, e.g. available memory or workload
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1023Server selection for load balancing based on a hash applied to IP addresses or costs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • H04L67/1001Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
    • H04L67/1004Server selection for load balancing
    • H04L67/1012Server selection for load balancing based on compliance of requirements or conditions with available server resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Computer And Data Communications (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、サービスを提供するサービスサーバにサービス要求を分配するサービス管理装置に関する。
【0002】
【従来の技術】
今日、インターネットの普及により、インターネット上での様々なビジネスが展開されつつある。中でも、インターネットを介して、ユーザに様々なアプリケーションサービスを提供するASP(Application Service Provider)サービスが実用化されている。
【0003】
図17は、ASPサービスを提供するシステムの概略構成図である。
サービスを行う複数のサービスサーバ10は、サービス要求のサービスサーバ10への分配などの管理を行うサービス管理サーバ11に接続され、サービス管理サーバ11を介して、クライアント14からのサービス要求を受け付ける。また、サービス管理サーバ11は、ウェブサーバ12に接続され、クライアント14からのサービス要求をインターネット15経由で受け付けるよう構成される。
【0004】
このような、ウェブサーバ12、サービス管理サーバ11、及びサービスサーバ10からなるシステムは、データセンタ13と呼ばれ、様々なプロバイダからのアプリケーションの提供サービスをまとめて管理する。
【0005】
ところで、最近では、アプリケーションの提供サービスにおいて、受け付けたサービス要求を単にサービスサーバ10に割り振って、サービスを提供するだけでなく、サービスの提供品質を契約によって補償しつつ、アプリケーション提供サービスをクライアント14に提供するというSLA(Service Level Agreement :サービスの品質を保証する契約)を実現しようとしている。
【0006】
図18は、SLAにおけるサービス管理サーバのサービス管理方法の従来技術を説明する図である。
SLAにおいて補償されるサービスの品質としては、サービスサーバの応答速度、障害復旧時間、障害発生時の補償などが挙げられるが、以下の説明においては、サービスの品質としてサービスサーバの応答速度を念頭に置いて説明する。
【0007】
従来のSLAの実現方法の一つとしては、図18(a)に示されるような、提供するサービスの品質毎にサービスサーバをグループ分けする方法がある。この場合、サービスサーバは、高品質のサービスを提供するサーバと、一般レベルのサービスを提供するサーバなどのグループに分けられ、それぞれのグループ内では、定められたサービスの品質を維持しつつサービスの提供を行うように構成される。サービス管理サーバは、サービス要求の品質契約内容に従って、受信したサービス要求をどのグループのサービスサーバに割り振るかを決定して、サービス要求(リクエスト)を送信する。
【0008】
このような場合、それぞれのグループで品質を統一して維持することは容易であるが、リクエストが一部のレベルに集中した場合、サーバ間の負荷の格差が大きくなり、全てのサーバ資源を有効に活用できないと言う問題が生じる。すなわち、サービス品質がサービスサーバの応答速度である場合、高品質のサービスを提供するサービスサーバは、クライアントからのサービス要求に対して高速に応答する必要があるので、高品質サービスサーバには、大きな負荷がかからないようにサービス要求を割り振る必要がある。このようにすれば、高品質サービスサーバは、常時高品質のサービスを提供することができるので、サービス品質の管理は行いやすい。しかし、上記したように、サービス品質レベル毎にサービスサーバがグループ分けされているので、一部のグループにサービス要求が集中しても、サービス要求の処理はグループ内で行わなければならず、グループ間での負荷の格差、すなわち、サーバ資源の無駄が生じる。
【0009】
また、従来のSLAの実現方法の他の方法としては、図18(b)に記載されているように、全てのサービスサーバが全ての品質レベルのサービスを処理するという方法がある。この場合、各サービスサーバは、高品質契約のサービス要求(リクエスト)を優先的に処理すると共に、一般レベル契約のリクエストも受付け、処理しなければならない。このとき、サービス管理サーバは、リクエストの品質契約内容を知る必要はなく、各サービスサーバの負荷が出来るだけ均等になるように、各リクエストを各サービスサーバに割り振る処理を行う。
【0010】
従って、各サービスサーバは、リクエストが高品質契約のものか、一般レベルのものかを判断し、判断結果によって処理の優先度を変えて処理するという手続きを行わなければならない。これを実現するためには、サービスサーバに複雑なロジックからなるプログラムを実装しなければならない。
【0011】
このような場合、全てのサーバ資源を均等に使用でき、負荷分散は行いやすいが、ロジックが複雑になる上に、品質を正確に維持することが困難になるという問題点がある。また、運用中のASPサービスにこの方式を導入しようとすると、個々のアプリケーションサービスを根本的に作り直す必要があるため、時間的にも金銭的にも莫大なコストが必要になる。
【0012】
【発明が解決しようとする課題】
図19は、従来の問題点を説明する図である。
上記したように、SLAにおいて、確実にサービス品質を確保しようとするので有れば、図18(b)より、図18(a)の構成の方がより簡単で正確に品質を確保できるが、前述したように、グループ間で負荷の格差が生じ、サーバ資源が有効に使用できないという問題が生じる。
【0013】
本発明の課題は、サービスの品質を維持しつつ、サーバの負荷を適切に分散することの出来るサービス管理装置を提供することである。
【0014】
【課題を解決するための手段】
本発明のサービス管理装置は、ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理装置において、該複数のサービスサーバを、提供するサービスの品質レベル毎の複数のグループのサービスサーバと、該グループ間を移行して、移行先のグループのサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理手段と、いずれかのグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループの最も負荷の低いサービスサーバを少なくとも1つ、該グループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行手段とを備えることを特徴とする。
【0015】
本発明によれば、サービスサーバをサービスの品質レベル毎にグループ化してサービスを提供するので、安定した品質でサービスを提供できる。また、その場合に問題となるグループ間での負荷の偏りを、グループ間を動的に移行可能な中間サーバグループのサービスサーバを設け、これを負荷の多いグループへ移行させることにより、解消するので、安定した品質でのサービスの提供と、サービスサーバ間の負荷を適切に分散することが出来る。
【0016】
【発明の実施の形態】
図1は、本発明の実施形態の概略を示す図である。
本実施形態の説明においては、クライアント(顧客)とのサービス契約において、上位レベルの品質と下位レベルの品質の契約のみがあるものとする。そして、この場合、本実施形態では、上位レベルのサービスサーバグループと下位レベルのサービスサーバグループとを用意すると共に、中間グループのサービスサーバを用意する。上位レベルグループのサービスサーバは、上位レベル品質のリクエストを専用に受け付け、下位レベルグループのサービスサーバは、下位レベル品質のリクエストを専用に受け付ける。中間グループのサービスサーバは、通常時は、上位レベルの品質で、下位レベルのリクエストを処理する。すなわち、下位レベルのリクエストを上位レベルの品質でサービス提供していることになる。
【0017】
そして、例えば、上位レベルグループのサービスサーバにリクエストが集中し、負荷が大きくなり、品質の維持が難しくなったとすると、中間グループのサービスサーバをレベルアップさせ、下位レベルのリクエストではなく、上位レベルのリクエストを処理させるようにする。
【0018】
この場合、上記のようなリクエストの割り振りは、サービス管理サーバが一括して行う。
図2は、本発明の実施形態が適用されるシステムの構成図である。
【0019】
クライアント(不図示)は、インターネット20を介して、ウェブサーバ22にリクエストを送信する。ウェブサーバ22、サービス管理サーバ24、サービスサーバ25−1〜25−n、及びデータベースサーバ26からなるデータセンタは、ファイアウォール21によって外部からの不正なアクセスに対して防御される。真正なクライアントは、このファイアウォール21をパスするIDなどのアカウントを有しており、これを使って、ウェブサーバ22にリクエストを通知する。ウェブサーバ22では、このリクエストをトリガにして起動し、後段のサービス管理サーバ24などに命令を通知するサーブレットエンジン23が設けられている。従って、ウェブサーバ22がクライアントからのリクエストを受け取ると、サーブレットエンジン23が、このリクエストに基づいた処理を行うべき旨の命令をサービス管理サーバ24に通知する。
【0020】
サービス管理サーバ24は、ウェブサーバ22のサーブレットエンジン23から受け取った命令に基づいて、リクエストを適切なサービスサーバ25−1〜25−nに振り分ける。通常状態では、上位レベルのリクエストは、上位レベルグループのサービスサーバに、下位レベルのリクエストは、中間グループあるいは、下位レベルグループのサービスサーバに受け渡す。サービスサーバ25−1〜25−nは、データベースサーバ26に格納されている情報から、サービスの提供に必要なデータを取得し、アプリケーションサービス内容に変換して、クライアントに送り返す。
【0021】
ここで、図1で説明したような処理をサービス管理サーバが行うためには、上位、下位レベル、中間グループのサービスサーバを管理するための管理用データが必要となる。以下は、本実施形態において必要とする管理用データの一例である。
・サービス管理サーバで管理されているデータ
−サービスサーバ情報(サービスサーバ1台毎に定義されている)
ID=Server A:サーバを識別するID
Load=20 :現在のサービスサーバの負荷値(サービスサーバが定期的にサービス管理サーバに通知する)
Limit HighLV=50 、Limit LowLV=100 :閾値(サービスレベル毎の品質を維持するための負荷値の限界)
Group=上位:サーバが所属しているグループ
ReqLV=上位:実行するリクエストのレベル
ResLV=上位:維持しなくてはならない品質のレベル
serviceX=5、serviceY=10 :サービス処理の負荷値(そのサーバで各サービスの処理を実行した時の負荷値)
−共通情報
changeTime= 午前3:00:サーバ構成の自動変更を行う時間
Priority1=曜日、Priority2=日にち:リクエスト集計の優先順位(リクエストを集計する時にどの条件の偏りを優先するかを示す)
schedule:サーバ構成のスケジュールデータ
・各サービスサーバで管理されている情報
runningService= {X,X,X,Y }:実行中の処理
サービスサーバ情報(サービス管理サーバで管理されているものと同じ)
・クライアントからのリクエストから取得できる情報
Service=X :実行する処理の種類
SL= 上位:契約しているサービスの品質レベル
図3は、中間グループのサービスサーバ(中間サーバ)の状態変化を示す図である。
【0022】
図18(b)に示したように、従来の負荷分散の手法では、サーバやネットワーク上の負荷を計測し、最も負荷の低いサーバに処理を行わせるというものが一般的であった。しかし、そのようなサービスの品質を考慮しないやり方では、SLAを守ることと負荷分散を両立することは出来ない。
【0023】
本実施形態では、中間サーバのレベル変化の際に維持すべき品質を細かく管理することによって負荷分散と品質の維持を両立する。
図3に示されるように、中間サーバは、通常状態では、上位レベルの品質で、下位レベルのリクエストを処理している。ここで、上位レベルグループのサービスサーバの負荷が大きくなったとすると、前述したように、上位レベルにレベルアップして、上位レベルの品質で、上位レベルのリクエストを処理する。ここで、通常状態で上位レベルへの品質を維持しているため、レベルアップして上位レベルのリクエストを受け入れても中間サーバは品質を維持することが出来る。
【0024】
また、前述の説明では記載しなかったが、中間サーバは、上位から通常、通常から下位、下位から通常の状態遷移もすることができる。
すなわち、中間サーバが上位レベルにある場合に、実行中の上位レベルのリクエストが無くなったら、通常状態に戻す。したがって、中間サーバが上位レベルにあって、上位レベルのリクエストを処理し終わると、下位レベルのリクエストを処理しはじめる。これにより、通常状態に戻る。もし、中間サーバが、下位レベルグループの負荷が大きくなって、下位レベルにレベルダウンする場合でも、通常状態から下位レベルに移行するので、上位レベルのリクエストを処理した状態で、下位レベルのリクエストを処理しはじめることはない。
【0025】
中間サーバが下位レベルに移行した場合には、下位レベルの品質で、下位レベルのリクエストを処理する。通常状態では、下位レベルのリクエストのみを実行しているため、レベルダウンしてサービスの品質を落としても問題は生じない。また、下位レベルグループのサービスサーバの負荷が下がって、上位レベルの品質を守ることができるようになったら、中間サーバは、通常状態に戻る。すなわち、下位レベルのリクエストを上位レベルの品質で処理するようにする。通常状態に戻った後は、前述したように、すぐに上位レベルにレベルアップすることができる。
【0026】
図4は、サービス管理サーバの処理の概略を示す図である。
まず、ステップS1において、サービス管理サーバがリクエストを受信する。次に、ステップS2において、リクエストを振り分けるサービスサーバを決定する。また、このとき、中間サーバのレベルアップ(ダウン)が必要か否かの判断を行う。そして、ステップS3において、振り分け先に決まったサービスサーバにリクエストを送信する。
【0027】
ステップS2及びS3の処理の詳細を以下に説明する。
図5は、サービス管理サーバの処理の詳細を示すフローチャートである。
図5において、左側に示されているフローは、図4と同じものであるが、ここでは、説明を簡略化するため、受信するリクエストをサービスXに対する上位レベルのリクエストとしている。
【0028】
図5において、右側に示されているのは、左側に示されているフローのステップS2、S3の詳細フローである。
まず、ステップS1において、サービスXに対する上位レベルのリクエストをサービス管理サーバが受け取ると、ステップS13において、上位レベルグループのサービスサーバでサービスXを実行可能なサーバが存在するか否かを調べる。ステップS13の詳細については、図6で説明する。ステップS13において、実行可能なサーバが存在すると判断された場合には、ステップS17に進んで、実行可能なサーバの内、負荷の最も低いサーバにリクエストを割り振る。
【0029】
ステップS13において、実行可能なサーバが無いと判断された場合には、ステップS14において、レベルアップした中間サーバがもしあれば、その中でサービスXを実行可能なサーバが存在するか否かを調べる。ステップS14の詳細についても図6で説明する。ステップS14において、実行可能なサーバが存在すると判断された場合には、ステップS18において、実行可能なサーバの内、負荷の最も低いサーバにリクエストを割り振る。
【0030】
ステップS14において、実行可能なサーバが存在しないと判断された場合には、ステップS15に進んで、通常状態の中間サーバが存在するか否かを判断する。ステップS15において、通常状態の中間サーバが存在すると判断された場合には、ステップS19において、中間サーバの内、1台を上位レベルにレベルアップさせる。ステップS19の詳細については、図7で説明する。そして、ステップS20において、レベルアップした中間サーバにリクエストを割り振る。
【0031】
ステップS15において、通常状態の中間サーバが存在しないと判断された場合には、ステップS16において、実行不能なため、リクエストを待機管理手段に送信する。待機管理手段とは、サービスサーバが混雑している際に、リクエストを待機させるサーバのことである。
【0032】
図6は、図5のステップS13、S14の詳細を示すフローチャートである。なお、図6においては、上位レベルグループ内のサーバに対する処理として示しているが、レベルアップした中間サーバを対象とする場合も同様である。
【0033】
まず、ステップS25において、調べるべきサーバ(サーバAとする)のサーバ情報を取得する。ここで取得するサーバ情報の例が図6右上に示されている。そして、ステップS26において、リクエストが実行可能か否かを判断する。今の場合、図6の右上のサーバ情報によれば、実行不可能となる。なぜなら、現在の負荷が50であり、リクエストを実行することによって負荷が5増えるので、上位レベルの品質を保持するのに必要な負荷の限界が50であるので、リクエストを受け付けると、上位レベルの品質を保持できなくなってしまうからである。従って、不可能な場合には、ステップS28に進む。可能な場合には、ステップS27において、実行可能なサーバとして情報をストック(記憶)し、すでに実行可能なサーバを記憶していた場合には、サーバ負荷の余裕(閾値との差)が大きい方を記憶して、ステップS28に進む。
【0034】
ステップS28においては、上位レベルの全てのサーバに対し判定を行ったか否かを判断し、NOの場合には、ステップS25に戻り、YESの場合には、ステップS29に進む。ステップS29においては、実行可能なサーバが存在するか否かを判断し、存在する場合には、ステップS30において、実行可能なサーバの内、最も負荷の低いサーバに割り振り、存在しない場合には、ステップS31において、上位レベルグループには実行可能なサーバが存在しないと判断する。
【0035】
図7は、図5のステップS19を詳細に示したフローチャートである。
ここでは、中間サーバFをレベルアップさせるものとする。
まず、ステップS35において、サービス管理サーバのサービスサーバ情報の内、サーバFの所属グループ情報を書き換え、それに伴って処理リクエストレベルなどの情報も書き換える。図7の右上に記載されている例では、実行すべきリクエストのレベルReqLV が下位から上位に書き換えられている。また、維持すべき品質は上位のままである。次に、ステップS36において、サービス管理サーバは、サービスサーバF(中間サーバ)にレベルアップを通知する。そして、ステップS37において、サービスサーバFは、自分の有するサーバ情報を書き換える。すなわち、図7の右下に記載されているように、ReqLV を下位から上位に書き換える。
【0036】
次に、各サービスサーバの負荷を自動計測する実施形態について説明する。
各サービスサーバでのサービスの品質を維持していくためには、実行する各サービスの重さ(負荷値)を正しく把握しておく必要がある。しかし、サービスの実行にかかる負荷は実行するサービスサーバの能力や状態にも依存するため、静的な方法で定義した場合、正確さにかけるという問題がある。しかし、新しいサービスをインストールするたびに手動で計測を行うのは管理者の負担になるだけでなく、運用に支障を来す可能性がある。そこで、サービスの運用を行いながら自動的にサービスを実行する際の負荷を計測するようにする。
【0037】
このようにサービスの運用を行いながらサービスを実行するための負荷を計測することによって、
・環境の変化が生じてもサービスの負荷をリアルタイムで計測、修正することによって常に正確な情報を把握することができる。その結果、的確なリクエストの分配が可能になり、SLAを守りやすくなる、
・新しいサービスをインストールした場合でも負荷計測のためにサービスを停止させる必要がない、
という利点が得られる。
【0038】
図8は、サービス負荷の自動計測処理の流れを示す図である。
まず、ステップS40において、サービス管理サーバからリクエストの割り振り先を決定し、リクエストをサービスサーバに送信する。サービスサーバでは、ステップS41において、リクエストを受信し、ステップS42において、実行中の処理はあるか否かが判断される。実行中の処理がある場合には、ステップS43に進み、リクエストを普通に実行する。ステップS42において、実行中の処理がないと判断された場合には、ステップS44に進んで、リクエストを実行し、処理にかかった時間を計測する。そして、ステップS45において、計測した時間を元に、その処理の負荷値を計算して、ステップS46に進む。ステップS46においては、今回の計測した負荷値とこれまでの負荷値の間を取るなどして、新しい負荷値を算出する。そして、ステップS47において、サービス管理サーバに新しい負荷値を通知する。サービス管理サーバでは、ステップS48において、該当サーバのサービスの負荷情報を更新する。
【0039】
図9は、サービス負荷の自動計測処理を具体的に示すフローチャートである。
図9左に示す概略フローでは、まず、サービス管理サーバからサービスサーバAにリクエストが渡され、サービスサーバにおいて、要求されたサービスXを実行し、実行結果をサービス管理サーバを介してクライアントに返す処理からなっている。これらの内、要求されたサービスXを実行するステップにおいて、負荷計測が行われるが、これを詳細に示したのが、図9右のフローである。
【0040】
まず、ステップS50において、サービスサーバは、実行中の処理はあるか否かについて判断を行う。今の場合、サービスサーバは、自分の情報(サービスサーバAの情報)の内、runningService={X,X,Y }という情報を参照する。今の場合には、実行中のサービスがあるので、ステップS51に進み、要求されたサービスXを実行する。ここで、実行中のサービスがない場合には、ステップS52に進み、要求されたサービスXを実行し、処理にかかる時間を計測する。そして、ステップS53において、処理にかっかった時間を元に、そのサービスXの負荷値を計算する。負荷値としては、処理にかかった時間をそのまま用いても良いし、サービスを実行する際のCPU等の占有時間などを用いても良い。
【0041】
そして、ステップS54において、計測によって得られた負荷値を元にそのサービスXの負荷値を更新する。ステップS55では、更新されたサービスXの負荷値をサービス管理サーバに通知し、サービス管理サーバが管理しているサーバ情報の中のサービス負荷値を更新する。
【0042】
ここで、ステップS54とS56の更新の様子が図9右端に図示されている。すなわち、サービスサーバAがローカルに持っているサーバ情報のサービスXの負荷値serviceX=5をserviceX=6に(今の場合、負荷値の計測の結果、6という負荷値が得られたとする)、サービス管理サーバが持っているサービスサーバAの情報の負荷値serviceX=5もserviceX=6に変更する。
【0043】
上記実施形態の場合、各グループのサービスサーバの台数が固定されている場合には、中間サーバだけでは処理しきれないリクエストの偏りが生じる可能性がある。したがって、これを解消する必要がある。具体的には、リクエストのログを解析して、曜日や日にちに依存したリクエストの偏りを見つけだし、それを元にサービスサーバの運用スケジュールを設定して、自動的にサーバのグループ分けを行うようにする。
【0044】
図10は、サービスサーバの運用スケジュールを設定する実施形態の概念を示す図である。
ここで、中間サーバの取り扱いについては任意性があるが、以下の説明では中間サーバの台数は固定とし、上位、下位レベルのサーバのみを変更するものとして説明を行う。
【0045】
例えば、過去のリクエスト数の比率から、月曜日には上位レベルのリクエスト数の比率が大きく、火曜日には、上位レベルと下位レベルの比率が同じ程度であると判断されたとすると、月曜日には、上位レベルのサービスサーバの台数を多くし、下位レベルのサービスサーバの台数を少なく設定する。また、火曜日には、上位レベルと下位レベルのサービスサーバの数を同程度に設定する。しかしながら、上位、下位レベルのサーバ台数を決定する際には中間サーバの存在も考慮しなくてはならず、従って、火曜日にはリクエスト数が上位と下位とで同数だとしても上位と下位のサーバ台数を同数にすれば良いと言うわけではない。
【0046】
前述の実施形態の場合、サービスサーバのグループ分けは静的な方法のみで行われており、管理者が手動で調整するしかなかったが、その結果リクエストの偏りがそのまま負荷の偏りを生じさせ、パフォーマンスの低下を招く可能性がある。しかし、上記実施形態によれば、過去のリクエスト数を元にサーバ構成のスケジュールを立てるので、曜日や特定日に依存したリクエストの偏りに対応でき、リクエスト数に最適化されたサービスサーバ数を各グループに配することによって、中間サーバのレベルアップ、ダウン回数が減り、サービス管理サーバの負荷軽減につながる。また、スケジュールに従って自動的にサービスサーバの構成を変更させるので、管理者の負担や人為的なミスを減らすだけでなく、サーバの構成変更にかかる時間も短縮化できるという利点がある。
【0047】
図11は、スケジュールの設定処理の概略フローを示す図である。
まず、ステップS60において、リクエストのログを取得する。そして、ステップS61において、リクエストの比率を解析して、サービスサーバ台数の構成のスケジュールを立てる。ここで、リクエスト比率からサーバの台数構成を算出するのは運用環境や設定の細かさ(リクエスト毎に行うのか、単にレベルのみで判断するかなど)によって計算方法が変わるが、基本的にはリクエスト数が多いレベルに多くのサーバを割り当てる用にする。詳細については、本発明を利用する当業者によって適宜決定されるべきことである。
【0048】
ステップS62においては、システムの立てたスケジュールを管理者が修正し、ステップS63において、スケジュールを設定する。ステップS62の管理者がスケジュールを修正する処理は任意であり、スケジュールの作成から運用まで、全て自動で行うこともできるが、作成されたスケジュールを管理者が修正することも可能であるという意味である。
【0049】
図12は、スケジュール設定処理のより具体的なフローチャートである。
まず、ステップS70において、スケジュール作成システムの起動を行う。そして、ステップS71において、サービス管理サーバのログ管理手段で記録したリクエストの処理経過である、リクエストログを取得する。リクエストログとは、図12右の(1)に示されているような記録である。そして、ステップS72において、ログを優先順位にしたがって解析し、サーバ構成のスケジュールを作成する。すなわち、図12右の(1)のログ管理手段の情報と(2)のサービス管理サーバの情報とを参照し、図12右の(3)に示すようなスケジュールを作成する。次に、必要で有れば、ステップS73に進んで、管理者が作成されたスケジュールを修正し、ステップS74において、スケジュールを設定する。すなわち、図12右の(3)のスケジュールをサービス管理サーバに保存する。
【0050】
図13は、スケジュールに基づいてサービスサーバの構成を変更する際の処理を示すフローチャートである。
まず、ステップS80において、定義されたタイミングでサービスサーバ構成変更システムを起動する。このとき、サービス管理サーバの情報であるchangeTime=午前3:00などの情報を参照する。今の場合、午前3時にサービスサーバの構成変更を行う旨が定義されている。次に、ステップS81において、サービス管理サーバ内の変更を行うサービスサーバの所属グループの情報を更新する。すなわち、図13右の(1)の情報を参照し、図13右の(2)のサービス管理サーバ内の該当サービスサーバの情報を更新する。そして、ステップS82において、変更を行ったサービスサーバに変更通知を行う。ステップS83においては、通知を受けたサービスサーバは、図13右の(3)のサービスサーバの情報の内、所属グループの情報を変更する。また、このとき、所属グループが行うべきリクエスト受付のレベル及び維持すべき品質のレベルの設定も所属グループの設定に合わせて変更する。そして、ステップS84において、全ての変更が終わったか否かを判断し、全ての変更が終わっていない場合にはステップS81に戻って変更処理を繰り返し、全ての変更が終わった場合には、処理を終了する。
【0051】
次に、図12のステップS72について詳細に説明する。
スケジュールの作成に際しては、基本的にサービスサーバの台数は集計したリクエストの比率の従ってサービスサーバを各レベルに配分して決定する。
【0052】
例えば、サービスサーバが全部で7台あり、うち中間サーバが2台あるとする。ログを集計した結果、ある曜日の平均リクエスト数が
上位レベル:200リクエスト
下位レベル:100リクエスト
だったとする。
【0053】
リクエスト数の比率は上位:下位=2:1であるから、中間サーバを除いた5台のサービスサーバを2:1の比率で配分することによってサーバ台数が決定される。よって、この場合、各レベルのサービスサーバの台数は次のように決定される。
上位レベル:5×(2/3)=3.333→3台
下位レベル:5×(1/3)=1.666→2台
次に、中間サーバの存在を考慮する。すなわち、中間サーバは通常下位レベルのリクエストを実行しているため、中間サーバのことを考慮しないと下位レベルにサーバを多く割り当て過ぎることになる。
【0054】
例えば、上記の例では、上位レベルに3台、下位レベルに2台のサービスサーバを割り当てたが、中間サーバの台数が2台だったので、通常時上位レベルのリクエストを実行するのが3台だけなのに対して、下位レベルのリクエストを実行するのは下位レベルのサーバと中間サーバの合わせて4台になってしまう。従って、中間サーバは下位レベルに含まれるものとして考える必要がある。
【0055】
例えば、上記例では、リクエスト数の比率は上位:下位=2:1であったので、中間サーバも含めた7台のサービスサーバを2:1の比率で分配する。各レベルのサーバの台数は次のように決定される。
上位レベル:7×(2/3)=4.66→5台
下位レベル:7×(1/3)=2.33→2台
中間サーバ2台は下位レベルに含まれるものと考えるので、下位レベルに割り当てるのは中間サーバ分の台数を除いた
2−2=0台
となる。しかし、各レベルに最低1台はサービスサーバが存在しないと不都合が生じてしまう(例えば、中間サーバが全てレベルアップすると下位レベルのリクエストを処理するサーバが無くなってしまう)。よって、サーバ構成は、次のようになる。
上位:4台 下位:1台 中間サーバ:2台
上記の例では、単純にリクエスト数の比率のみを考慮した例を示したが、サービス毎に処理の重さ(負荷値)が異なる場合、それを考慮する必要がある。
【0056】
例えば、サービスXとサービスYがあり、それぞれの負荷値が
サービスX=5、サービスY=10
であるとする。
【0057】
例えば、リクエストのサービス毎の内訳が次のようだとする。
上位レベル:リクエスト総数=200(サービスX=100、サービスY=100)
下位レベル:リクエスト総数=100(サービスX=20、サービスY=80)
この場合、リクエスト数の比率は
上位:下位=2:1
であるが、負荷値の合計はそれぞれ
上位:100×5+100×10=1500
下位:20×5+80×10=900
であり、負荷値の比率は
上位:下位=5:3
となる。
【0058】
サービスサーバへの負担の量を正確に表しているのはリクエスト数ではなく、負荷値の量であるため、サービスサーバの台数を設定する際も、負荷値の合計比率を使うのが好ましい。
【0059】
そこで、負荷値の合計の比率を用いて計算し直してみると、負荷値合計の比率は
上位:下位=5:3
である。この比率に従って7台のサービスサーバを分けると
上位:7×(5/8)=4.37→4台
下位:7×(3/8)=2.62→3台
中間サーバ分を下位レベルから除くと
上位:4台
下位:1台
中間サーバ:2台
と決定される。
【0060】
以上がスケジュール設定の基本的な方法であるが、サーバの性能の違いなどを考慮しなくてはならない事項が他にもあるため、実際に運用する際にはもっと細かな計算が必要とされる。しかし、基本的な方法は上記の通りリクエストの比率を元にサーバ台数を割り振ると言うやり方には変わりはない。
【0061】
また、スケジュール設定の優先順位を考慮することも可能である。すなわち、サービスサーバ構成のスケジュールを立てる際に優先順位(Priority)を参照する。例えば、優先順位1位(Priority1 )が曜日で2位(Priority2 )が日にちの場合、曜日別にスケジュールを立て、特に偏りの顕著な日にちのみ別に構成を設定する。
【0062】
また、スケジュールはサービス管理サーバ内のサーバ情報格納手段で保管され、構成の自動変更時に参照される。
図14は、本発明の実施形態のシステムブロック図である。
【0063】
サービス管理サーバは、サービス管理手段30、スケジュール管理手段31、待機管理手段32、サーバ情報格納手段33、及びログ管理手段34からなっている。
【0064】
また、サービスサーバグループの各サービスサーバ36は、負荷計測手段35を備えている。
サービス管理手段30は、リクエストを受信して分配先を決定し、サービスサーバのレベルアップ(ダウン)処理を行う。サーバ情報格納手段33は、システム全体の情報を管理しており、サービス管理サーバで管理されるデータの全てが保管されている。待機管理手段32は、混雑時に分配不能なリクエストを保管し、サービスサーバの負荷が下がり次第、サービスサーバにリクエストを送信する機能である。スケジュール管理手段31は、サービスサーバ構成のスケジュールを設定管理する。ログ管理手段34は、リクエストのログを格納する。また、サービスサーバの負荷計測手段35は、自分のサービスサーバの負荷状態を監視し、定期的に監視結果をサーバ情報格納手段33へ送信する。また、サービスサーバで管理するデータを格納している。
【0065】
受信したリクエストをサービスサーバへ送信する処理を行う場合、1−1に示すように、SLA情報を含むリクエストを受信し、1−2に示すように、サーバ情報格納手段33からサーバ情報を取得し、1−3で該当リクエストの分配先を決定する。そして、1−4でリクエストを実行可能な場合、最も負荷が低いサービスサーバ36にリクエストを送信する。また、1−5のように、リクエストが実行不可能の場合(SLAを維持できない場合)、リクエストを待機管理手段32に送る。
【0066】
待機リクエストを送信する処理を行う場合には、2−1で一定間隔でサーバ情報格納手段33からサーバ情報を取得する。そして、2−2で、実行可能になった時に、サービスサーバ36にリクエストを送る。
【0067】
スケジュールを設定する処理を行う場合は、3−1でログ管理手段34からリクエストのログを取得し、3−2で、スケジュールを設定して、サーバ情報を更新する。
【0068】
サービスサーバ36の負荷を計測して通知する処理を行う場合は、4−1に示されるように、サービスサーバ36の負荷値を計算して、定期的にサーバ情報格納手段33へ通知する。
【0069】
図15は、図14の各手段が有するデータを示した図である。
サーバ情報格納手段33は、サーバ識別ID、閾値、所属グループ、維持する品質レベル、各サービスの負荷値、サーバ性能評価値、サーバ構成変更時間、リクエスト集計優先順、及びサーバ構成スケジュールを有している。
【0070】
ログ管理手段34は、リクエスト時間、サービスレベル、要求するサービスなどのデータを有する。
サービスサーバ36の負荷計測手段35は、実行中の処理内容、及びサーバ情報格納手段33が有するデータの内自サーバに関するデータを有する。
【0071】
図16は、本発明の実施形態に従ったサービス管理サーバあるいはサービスサーバの機能をプログラムで実現する場合に要求される装置のハードウェア環境を説明する図である。
【0072】
CPU41は、バス40で接続された記憶装置47あるいは、記録媒体読み取り装置48を介して可搬記録媒体49から当該プログラムを読み込み、同じバス40を介して接続されたRAM43にコピーして実行する。CPU41にバス40を介して接続されるROM42には、BIOSなどの基本プログラムが格納されるが、本発明の実施形態を実現するプログラムを格納してもよい。
【0073】
入出力装置50は、バス40を介してCPU41に接続され、CPU41の演算結果を装置のユーザに提示したり、ユーザからの指示をCPU41に伝えるために使用され、例えば、キーボード、マウス、タブレット、ディスプレイなどからなる。
【0074】
通信インターフェース44は、ネットワーク45を介して図16の装置が情報提供者46と通信するために使用される。本発明の実施形態を実現するプログラムを情報提供者46からダウンロードし、CPU41が実行しても良いし、ネットワーク環境下で、当該プログラムを実行することも可能である。また、通信インターフェース44を介して、サービス管理サーバとサービスサーバとが通信したり、ウェブサーバと通信することも可能である。
【0075】
(付記1)情報装置に、ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理方法を実現させるプログラムにおいて、
該複数のサービスサーバを、提供するサービスの品質レベル毎の複数のグループのサービスサーバと、該グループ間を移行して、移行先のグループのサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理ステップと、
いずれかのグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループの最も負荷が低いサービスサーバを少なくとも1つ、該グループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行ステップと、
を備えることを特徴とするサービス管理方法を情報装置に実現させるプログラム。
【0076】
(付記2)前記管理ステップは、
前記グループ化されたサービスサーバが、どのグループに属するかの情報を格納する格納手段を更に備えることを特徴とする付記1に記載のプログラム。
【0077】
(付記3)前記サービスの品質は、前記サービスサーバの応答時間であることを特徴とする付記1に記載のプログラム。
(付記4)前記サービス要求の履歴を記録するログ管理ステップと、
該ログ管理手段の記録に基づいて、日にちあるいは曜日毎にスケジュールを作成し、作成したスケジュールに従って前記グループ分けの仕方を変更するスケジュール管理ステップと、
を更に備えることを特徴とする付記1に記載のプログラム。
【0078】
(付記5)前記各サービスサーバは、自サーバがサービス要求を処理するために必要とする負荷値を計測する負荷計測ステップを有し、
該負荷計測ステップから報告される各サービスサーバの負荷値に基づいて、前記中間サーバグループのサービスサーバを別のグループに移行させることを特徴とする付記1に記載のプログラム。
【0079】
(付記6)ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理方法において、
該複数のサービスサーバを、提供するサービスの品質レベル毎の複数のグループのサービスサーバと、該グループ間を移行して、移行先のグループのサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理ステップと、
いずれかのグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループのサービスサーバを少なくとも1つ、該グループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行ステップと、
を備えることを特徴とするサービス管理方法。
【0080】
(付記7)ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理方法を情報装置に実行させるプログラムにおいて、該サービス管理方法は、
該複数のサービスサーバを、提供するサービスの品質レベル毎の複数のグループのサービスサーバと、該グループ間を移行して、移行先のグループのサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理ステップと、
いずれかのグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループのサービスサーバを少なくとも1つ、該グループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行ステップと、
を備えることを特徴とするプログラム。
【0081】
(付記8)ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理方法を情報装置に実行させるプログラムを格納した、情報装置読み取り可能な記録媒体において、該サービス管理方法は、
該複数のサービスサーバを、提供するサービスの品質レベル毎の複数のグループのサービスサーバと、該グループ間を移行して、移行先のグループのサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理ステップと、
いずれかのグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループのサービスサーバを少なくとも1つ、該グループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行ステップと、
を備えることを特徴とする記録媒体。
【0082】
(付記9)ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理装置において、
該複数のサービスサーバを、提供するサービスの品質レベル毎の複数のグループのサービスサーバと、該グループ間を移行して、移行先のグループのサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理手段と、
いずれかのグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループの最も負荷が低いサービスサーバを少なくとも1つ、該グループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行手段と、を備えることを特徴とするサービス管理装置。
【0083】
【発明の効果】
本発明によれば、サービスを行うサービスサーバ間の負荷の差を適切に均等化しつつ、サービスの品質を維持したサービスの提供を行うためのサービス管理装置を提供することが出来る。
【図面の簡単な説明】
【図1】本発明の実施形態の概略を示す図である。
【図2】本発明の実施形態が適用されるシステムの構成図である。
【図3】中間グループのサービスサーバ(中間サーバ)の状態変化を示す図である。
【図4】サービス管理サーバの処理の概略を示す図である。
【図5】サービス管理サーバの処理の詳細を示すフローチャートである。
【図6】図5のステップS13、S14の詳細を示すフローチャートである。
【図7】図5のステップS19を詳細に示したフローチャートである。
【図8】サービス負荷の自動計測処理の流れを示す図である。
【図9】サービス負荷の自動計測処理を具体的に示すフローチャートである。
【図10】サービスサーバの運用スケジュールを設定する実施形態の概念を示す図である。
【図11】スケジュールの設定処理の概略フローを示す図である。
【図12】スケジュール設定処理のより具体的なフローチャートである。
【図13】スケジュールに基づいてサービスサーバの構成を変更する際の処理を示すフローチャートである。
【図14】本発明の実施形態のシステムブロック図である。
【図15】図14の各手段が有するデータを示した図である。
【図16】本発明の実施形態に従ったサービス管理サーバあるいはサービスサーバの機能をプログラムで実現する場合に要求される装置のハードウェア環境を説明する図である。
【図17】ASPサービスを提供するシステムの概略構成図である。
【図18】SLAにおけるサービス管理サーバのサービス管理方法の従来技術を説明する図である。
【図19】従来の問題点を説明する図である。
【符号の説明】
20 インターネット
21 ファイアウォール
22 ウェブサーバ
23 サーブレットエンジン
24 サービス管理サーバ
25−1〜25−n サービスサーバ
26 データベースサーバ
30 サービス管理手段
31 スケジュール管理手段
32 待機管理手段
33 サーバ情報格納手段
34 ログ管理手段
35 負荷計測手段
36 サービスサーバ

Claims (4)

  1. 情報装置に、ネットワークを介してクライアントからのサービス要求に応じたサービスを提供するサービスサーバを複数収容し、該複数のサービスサーバにサービス要求を配分するサービス管理方法を実現させるプログラムにおいて、
    該複数のサービスサーバを、高いサービス品質のリクエストを処理するサービスサーバからなる上位レベルのサーバグループと、低いサービス品質のリクエストを処理するサービスサーバからなる下位レベルのサーバグループと、通常時は、低いサービス品質のリクエストを高いサービス品質で提供し、上位レベルのサーバグループの処理負荷が、予期した品質でサービスを提供できない程度に大きくなった場合に、上位レベルのサーバグループに移行して、高いサービス品質でサービスを提供する中間サーバグループのサービスサーバとにグループ化して管理する管理ステップと、
    上位レベルのサーバグループのサービスサーバの負荷が増加し、そのグループが提供すべき品質レベルを維持できなくなる場合に、該中間サーバグループの最も負荷が低いサービスサーバを少なくとも1つ、該上位レベルのサーバグループのサービスサーバとして使用して、該グループのサービスサーバの負荷の低減を図る中間サーバ移行ステップと、
    該各サービスサーバが、自サーバがサービス要求を処理するために必要とする負荷値を計測する負荷計測ステップとを有し、
    該負荷計測ステップで計測される各サービスサーバの負荷値に基づいて、前記中間サーバグループのサービスサーバを別のグループに移行させるサービス管理方法を情報装置に実現させることを特徴とするプログラム。
  2. 前記管理ステップは、前記グループ化されたサービスサーバが、どのグループに属するかの情報を格納する格納手段を更に備えることを特徴とする請求項1に記載のプログラム。
  3. 前記サービスの品質は、前記サービスサーバの応答時間であることを特徴とする請求項1に記載のプログラム。
  4. 前記サービス要求の履歴を記録するログ管理ステップと、該ログ管理ステップの記録に基づいて、日にちあるいは曜日毎にスケジュールを作成し、作成したスケジュールに従って自動で前記グループ分けの仕方を変更させるスケジュール管理ステップと、を更に備えることを特徴とする請求項1に記載のプログラム。
JP2001046516A 2001-02-22 2001-02-22 サービス管理装置 Expired - Lifetime JP4230673B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001046516A JP4230673B2 (ja) 2001-02-22 2001-02-22 サービス管理装置
US09/897,100 US7543060B2 (en) 2001-02-22 2001-07-03 Service managing apparatus for keeping service quality by automatically allocating servers of light load to heavy task

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001046516A JP4230673B2 (ja) 2001-02-22 2001-02-22 サービス管理装置

Publications (2)

Publication Number Publication Date
JP2002251344A JP2002251344A (ja) 2002-09-06
JP4230673B2 true JP4230673B2 (ja) 2009-02-25

Family

ID=18908126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001046516A Expired - Lifetime JP4230673B2 (ja) 2001-02-22 2001-02-22 サービス管理装置

Country Status (2)

Country Link
US (1) US7543060B2 (ja)
JP (1) JP4230673B2 (ja)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8458754B2 (en) 2001-01-22 2013-06-04 Sony Computer Entertainment Inc. Method and system for providing instant start multimedia content
US7693970B2 (en) * 2001-06-14 2010-04-06 Savvis Communications Corporation Secured shared storage architecture
US7734781B2 (en) * 2001-07-09 2010-06-08 Savvis Communications Corporation Methods and systems for shared storage virtualization
FR2834840B1 (fr) * 2002-01-14 2005-06-24 Sofedit Sa Determination de la cause probable d'une diminution de la qualite d'un service en fonction de l'evolution d'un ensemble de services
US8250201B2 (en) * 2002-09-09 2012-08-21 International Business Machines Corporation Servlet monitoring tool
TWI349204B (en) * 2003-01-10 2011-09-21 Panasonic Corp Group admission system and server and client therefor
US7835363B2 (en) * 2003-02-12 2010-11-16 Broadcom Corporation Method and system to provide blade server load balancing using spare link bandwidth
US7558850B2 (en) * 2003-09-15 2009-07-07 International Business Machines Corporation Method for managing input/output (I/O) performance between host systems and storage volumes
US8239446B2 (en) * 2003-11-19 2012-08-07 Sony Computer Entertainment America Llc Content distribution architecture
KR100620054B1 (ko) * 2004-06-11 2006-09-08 엘지전자 주식회사 장치 관리 기술에서의 장치 관리 시스템 및 방법
JP4058038B2 (ja) * 2004-12-22 2008-03-05 株式会社日立製作所 負荷監視装置および負荷監視方法
US8788618B2 (en) * 2005-10-07 2014-07-22 Alcatel Lucent Leveraging presence service system and method for distributed web service delivery and deployment
JP4377369B2 (ja) 2005-11-09 2009-12-02 株式会社日立製作所 リソース割当調停装置およびリソース割当調停方法
US8756298B2 (en) * 2005-12-21 2014-06-17 Cisco Technology, Inc. System for automatic configuration of computers in a server farm
JP4557949B2 (ja) * 2006-04-10 2010-10-06 富士通株式会社 資源ブローカリングプログラム、該プログラムを記録した記録媒体、資源ブローカリング装置、および資源ブローカリング方法
JP2007316759A (ja) * 2006-05-23 2007-12-06 Hitachi Ltd 画面データ生成方法、画面データ生成システム、及びプログラム
JP4982216B2 (ja) * 2007-03-14 2012-07-25 株式会社日立製作所 ポリシ作成支援方法、ポリシ作成支援システム、およびプログラム
US9483405B2 (en) 2007-09-20 2016-11-01 Sony Interactive Entertainment Inc. Simplified run-time program translation for emulating complex processor pipelines
US20100111105A1 (en) * 2008-10-30 2010-05-06 Ken Hamilton Data center and data center design
US20100217866A1 (en) * 2009-02-24 2010-08-26 Thyagarajan Nandagopal Load Balancing in a Multiple Server System Hosting an Array of Services
US8126987B2 (en) 2009-11-16 2012-02-28 Sony Computer Entertainment Inc. Mediation of content-related services
KR20110065159A (ko) * 2009-12-09 2011-06-15 한국전자통신연구원 다중 서버를 이용하여 다계층 콘텐츠를 제공하는 시스템 및 그의 콘텐츠 서비스 방법
US8874744B2 (en) * 2010-02-03 2014-10-28 Vmware, Inc. System and method for automatically optimizing capacity between server clusters
CN102207889B (zh) * 2010-03-31 2013-10-23 国际商业机器公司 命令控制方法和命令控制器
US8433759B2 (en) 2010-05-24 2013-04-30 Sony Computer Entertainment America Llc Direction-conscious information sharing
US8620486B2 (en) 2010-07-15 2013-12-31 Delta Electronics, Inc. Expandable data center
US9128772B2 (en) * 2010-11-15 2015-09-08 Infosys Limited Performance optimization through run-time quality governance
CN102523158B (zh) * 2011-12-15 2014-07-09 杭州电子科技大学 一种基于权重的元数据服务器集群负载均衡方法
US9354940B2 (en) * 2012-01-19 2016-05-31 Microsoft Technology Licensing, Llc Provisioning tenants to multi-tenant capable services
WO2014082203A1 (zh) * 2012-11-27 2014-06-05 华为技术有限公司 元数据管理方法和装置
WO2014205831A1 (zh) * 2013-06-29 2014-12-31 华为技术有限公司 传输业务的方法和装置
CN104580098B (zh) * 2013-10-22 2018-06-22 阿里巴巴集团控股有限公司 一种服务共享方法及装置
US9811359B2 (en) * 2014-04-17 2017-11-07 Oracle International Corporation MFT load balancer
US10284487B2 (en) * 2014-04-25 2019-05-07 Paypal, Inc. Software load balancer to maximize utilization
WO2016082866A1 (en) * 2014-11-25 2016-06-02 Nokia Solutions And Networks Oy Optimized resource management in core network elements
US10372640B2 (en) * 2016-11-21 2019-08-06 International Business Machines Corporation Arbitration of data transfer requests
US10587504B2 (en) 2017-02-08 2020-03-10 International Business Machines Corporation Packet broadcasting mechanism for mesh interconnected multi-computers
US10579432B1 (en) * 2018-08-13 2020-03-03 Twitter, Inc. Load balancing deterministically-subsetted processing resources using fractional loads
KR102383712B1 (ko) * 2021-11-12 2022-04-08 메타빌드(주) 자율주행 데이터의 오픈 api 서비스 제공 시스템 및 방법

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5581703A (en) * 1993-06-29 1996-12-03 International Business Machines Corporation Method and apparatus for reserving system resources to assure quality of service
US5774668A (en) * 1995-06-07 1998-06-30 Microsoft Corporation System for on-line service in which gateway computer uses service map which includes loading condition of servers broadcasted by application servers for load balancing
JP3754481B2 (ja) 1996-02-02 2006-03-15 富士通株式会社 複合計算機システム
US6021439A (en) * 1997-11-14 2000-02-01 International Business Machines Corporation Internet quality-of-service method and system
US6226377B1 (en) * 1998-03-06 2001-05-01 Avaya Technology Corp. Prioritized transaction server allocation
US6230183B1 (en) 1998-03-11 2001-05-08 International Business Machines Corporation Method and apparatus for controlling the number of servers in a multisystem cluster
US6101541A (en) * 1998-04-21 2000-08-08 International Business Machines Corporation Active polling by network LDAP directory
US7200219B1 (en) 1999-02-10 2007-04-03 Avaya Technology Corp. Dynamically allocating server resources to competing classes of work based upon achievement of service goals
US6463454B1 (en) * 1999-06-17 2002-10-08 International Business Machines Corporation System and method for integrated load distribution and resource management on internet environment
US6516350B1 (en) * 1999-06-17 2003-02-04 International Business Machines Corporation Self-regulated resource management of distributed computer resources
US7054943B1 (en) * 2000-04-28 2006-05-30 International Business Machines Corporation Method and apparatus for dynamically adjusting resources assigned to plurality of customers, for meeting service level agreements (slas) with minimal resources, and allowing common pools of resources to be used across plural customers on a demand basis
US6510463B1 (en) * 2000-05-26 2003-01-21 Ipass, Inc. Service quality monitoring process
US7844513B2 (en) * 2000-07-17 2010-11-30 Galactic Computing Corporation Bvi/Bc Method and system for operating a commissioned e-commerce service prover

Also Published As

Publication number Publication date
US7543060B2 (en) 2009-06-02
US20020116479A1 (en) 2002-08-22
JP2002251344A (ja) 2002-09-06

Similar Documents

Publication Publication Date Title
JP4230673B2 (ja) サービス管理装置
US11226846B2 (en) Systems and methods of host-aware resource management involving cluster-based resource pools
US7523454B2 (en) Apparatus and method for routing a transaction to a partitioned server
EP1412857B1 (en) Managing server resources for hosted applications
US7756989B2 (en) Method and apparatus for dynamically adjusting resources assigned to plurality of customers, for meeting service level agreements (SLAs) with minimal resources, and allowing common pools of resources to be used across plural customers on a demand basis
CN104937584B (zh) 基于共享资源的质量向经优先级排序的虚拟机和应用程序提供优化的服务质量
US8510745B2 (en) Dynamic application placement under service and memory constraints
JP5015951B2 (ja) Httpセッション負荷の特性を明らかにするデータを収集するための方法及び装置
US7437460B2 (en) Service placement for enforcing performance and availability levels in a multi-node system
US20050038833A1 (en) Managing workload by service
US20020143945A1 (en) System for optimal resource allocation and planning for hosting computing services
US20090265450A1 (en) Method and apparatus for managing computing resources of management systems
US20110119680A1 (en) Policy-driven schema and system for managing data system pipelines in multi-tenant model
US20060045039A1 (en) Program, method, and device for managing system configuration
CN112162865A (zh) 服务器的调度方法、装置和服务器
US8305911B2 (en) System and method for identifying and managing service disruptions using network and systems data
EP3758325A1 (en) Traffic limiting method and system
EP3058703B1 (en) Optimizing data transfers in cloud computing platforms
US7437459B2 (en) Calculation of service performance grades in a multi-node environment that hosts the services
US20160234129A1 (en) Communication system, queue management server, and communication method
US11777991B2 (en) Forecast-based permissions recommendations
US9594596B2 (en) Dynamically tuning server placement
CN115412501A (zh) 基于Flink的多层次协同重配置流处理系统及其处理方法
US11838193B1 (en) Real-time load limit measurement for a plurality of nodes
US7903571B1 (en) System and method for improving multi-node processing

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061211

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070904

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071002

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20071106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081202

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081204

R150 Certificate of patent or registration of utility model

Ref document number: 4230673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

EXPY Cancellation because of completion of term