JP2012128698A - 負荷分散ブレードシステム - Google Patents

負荷分散ブレードシステム Download PDF

Info

Publication number
JP2012128698A
JP2012128698A JP2010280004A JP2010280004A JP2012128698A JP 2012128698 A JP2012128698 A JP 2012128698A JP 2010280004 A JP2010280004 A JP 2010280004A JP 2010280004 A JP2010280004 A JP 2010280004A JP 2012128698 A JP2012128698 A JP 2012128698A
Authority
JP
Japan
Prior art keywords
blade
load balancing
load distribution
load
processing amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010280004A
Other languages
English (en)
Inventor
Yasuhiro Kameda
泰弘 亀田
Hirofumi Fujita
博文 藤田
Akihiko Saito
明彦 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2010280004A priority Critical patent/JP2012128698A/ja
Publication of JP2012128698A publication Critical patent/JP2012128698A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Computer And Data Communications (AREA)

Abstract

【課題】 クライアントからの要求に対するスムーズなデータ提供、及びシステムの消費電力を低減することが可能な負荷分散ブレードシステム。
【解決手段】 本発明は、負荷分散ブレードがクライアントからのデータ要求を処理量閾値まで受け付け、サーバブレードに分配する。
処理量閾値を越える場合は、次に優先度の高い負荷分散ブレードに転送することができ、
1部の負荷分散ブレードに一定以上、処理を集中させないことが可能となる。
これにより、クライアントからのデータ要求が少ない場合に、処理の割り当てられない負荷分散ブレードを作り出すことができ、このときに待機電力以下で動作する最小電力モードで動作させることが可能であればシステム全体の消費電力量を低減させることができる。
同時に、1部の負荷分散ブレードに処理が一定以上集中し、レスポンス遅延が発生する可能性を回避することができる。
【選択図】図1

Description

本発明は、負荷分散ブレードの稼動制御方式に関する。
昨今、クライアントからネットワークを介してサーバに接続させ、データを入手することを目的としたサーバシステムが広く使われている。代表的なものとしては、インターネットへのアクセス形態がある。
これらのサーバシステムとして最近は、複数のサーバブレードで構成されるブレードシステムが用いられることが多い。
また、急激なアクセス増加への対応や、耐障害性を維持することを目的として、クライアントからの要求を各サーバブレードに分配し処理させることがよく行われる。この分配処理を行う装置が負荷分散装置と呼ばれる。
この負荷分散装置において、一般的に負荷分散装置の耐障害性を維持するためHA(High Availability)構成を構築し、主系の負荷分散装置が故障し継続稼動できなくなった場合に備える、副系の負荷分散装置を構築することがある。この構成を実現する機能を「Active−Standby構成機能」という。
しかしこの場合、負荷分散システムとしては1機分の性能を実現する。そのためクライアントからのアクセスが急増した場合、負荷分散装置間で処理を手分けすることができないため、主系の負荷分散装置1機で処理し切れずレスポンス遅延を及ぼす可能性があった。
ここで、前記問題を解決するため負荷分散装置の両方を主系として使用し、負荷分散装置間で処理を均一に手分けすることを可能とする機能もある。例えば、A10ネットワークス社が提供する負荷分散装置において、2台構成の場合に実現可能な「Active−Active構成機能」がある。また、3台以上の負荷分散装置を連携させ、1機の負荷分散装置として振舞わせることが可能な「VirtualN機能」がある。
ここで、例えば特許文献1に示すものは、クライアントからの要求を処理するサーバ側の処理量を動的に均一化する一般的な負荷分散システムを表す。
特開2005‐182702
上述した既存の技術では以下の課題がある。
前記の複数台の負荷分散装置に処理量を分配した場合、全ての負荷分散装置で待機電力に加えて、要求を処理するための消費電力が発生する。負荷分散装置間で処理を片寄せることが可能であれば、クライアントからのデータ要求が少ない場合に、処理の割り当てられない負荷分散装置が存在する。もし、そのような場合に待機電力以下で動作する最小電力モードで動作させることが可能であれば、システムの消費電力を低減することが可能となる。上述の「Active−Standby構成」では処理を片寄せることは可能だが、システム全体として負荷分散装置1機分の性能であり、性能劣化の可能性がある。
本発明ではこれらの問題を同時に解決する。
本発明は、前記課題を解決するために次の構成を有する。処理量保持部が当該負荷分散ブレードの現状の処理量、処理量閾値保持部が負荷分散ブレードの処理できる処理量閾値Cを保持する。負荷分散ブレードは、クライアントからの要求を処理量閾値Cまでを受け付け、サーバブレードに分配することを可能とする。処理量閾値Cを越える場合は、次に優先度の高い負荷分散ブレードに転送することができ、1部の負荷分散ブレードに一定以上の処理が集中しないようにすることが可能となる。これにより、クライアントからのデータ要求が少ない場合に、処理の割り当てられない負荷分散ブレードを作り出すことができる。このときに当該負荷分散ブレードを待機電力以下で動作する最小電力モードで動作させることが可能であればシステム全体の消費電力量を低減させることが可能となる。
同時に、1部の負荷分散ブレードに一定以上の処理が集中し、レスポンス遅延が発生する可能性を回避することができる。
本発明によれば、負荷分散機能を備えたブレードシステムを有する負荷分散システムにおいて、消費電力を低減することが可能となる。それと同時に、複数の負荷分散装置を連結して構築した場合も同様であり、負荷分散ブレードシステムとして複数倍の性能を保持することができ、迅速なデータ供給が可能となる。
本発明における一実施例を示すシステム構成図 本発明における負荷分散ブレード#0のデータ要求受付部の処理を示すフロー図 本発明における負荷分散ブレード#0のデータ要求転送部の処理を示すフロー図 本発明における負荷分散ブレード#0の負荷分散ブレード処理量監視部の処理を示すフロー図 本発明における負荷分散ブレード#0の冗長構成連携部の処理を示すフロー図 本発明における負荷分散ブレード#0の判定制御部の処理を示すフロー図 本発明における負荷分散ブレード#1のデータ要求受付部の処理を示すフロー図 本発明における負荷分散ブレード#1のデータ要求転送部の処理を示すフロー図 本発明における負荷分散ブレード#1の負荷分散ブレード処理量監視部の処理を示すフロー図 本発明における負荷分散ブレード#1の冗長構成連携部の処理を示すフロー図 本発明における負荷分散ブレード#1の判定制御部の処理を示すフロー図 本発明における負荷分散ブレード群の処理量保持テーブル 本発明における負荷分散ブレード群の処理量および閾値保持テーブル
以下、本発明に係る実施の形態を図面に基づいて詳細に説明する。
<実施例1>
図1は、本発明の一実施例を示す負荷分散ブレードシステムの概略図である。本負荷分散ブレードシステム150は、クライアントからの要求を処理するサーバブレードブレードシステム140乃至142と、クライアント100からの要求を各サーバブレード140乃至142へ割り当てる負荷分散ブレード120と負荷分散ブレード130を備える。HA構成の最小構成数として2機の負荷分散ブレードを備える。
図1では負荷分散ブレードが2機で構成される場合を示しているが、2機に限定されるものではなく、負荷分散ブレードシステム150に搭載可能なブレード数であれば適用できる。
また、サーバブレードも140乃至142の3機で構成される場合を示しているが、3機に限定されるものではなく、負荷分散ブレードシステム150に搭載可能なサーバブレード数であれば適用できる。
さらには、負荷分散ブレードシステム150も1機で構成される場合を示しているが、1機に限定されるものではなく、複数の負荷分散ブレードシステムを連結させた構成であっても良い。
各サーバブレード140乃至142は、負荷分散ブレード120と負荷分散ブレード130を介して外部ネットワーク110に接続されており、クライアント100とのデータのやり取りには必ず負荷分散ブレード120と負荷分散ブレード130のいずれかを介して行う。
この負荷分散ブレード120においてクライアント100からの要求パケットはサーバブレード140乃至142へ直接転送するのではなく、一度データ要求受付部125にて受け付け、データ要求転送部126よりサーバブレード140乃至142のいずれかに転送される。
ここで、負荷分散ブレード処理量監視部122では負荷分散ブレード120の処理状況を監視し、保持する。判定制御部は処理量閾値保持部123に保持する処理量閾値Cと、前記処理量を比較することができる。
また冗長構成連携部124と冗長構成連携部134において冗長関係を構築しており、各負荷分散ブレード間の優先度を保持することができる。
図1では負荷分散ブレードが2機であり、冗長構成連携部も2箇所の構成を示しているが、2機に限られるものではなく、複数の負荷分散ブレードの場合も同じである。
負荷分散ブレード120が最も優先度が高いと仮定した場合、クライアントからのデータ要求をデータ要求受付部125が受け取ったときに、負荷分散ブレード処理量監視部122が保持する処理量Aが処理量閾値Cを越えないときデータ要求転送部126に転送し、サーバブレード140乃至142に分配する。
負荷分散ブレード処理量監視部122が保持する処理量Aが処理量閾値Cを越えるとき、冗長構成連携部124が認知する次に優先度が高い負荷分散ブレード130のデータ要求受付部135に転送するように判定制御部121がデータ要求受付部125に指示することを特徴とする。
すなわち、クライアントからの要求を常に優先度が高い負荷分散ブレードが処理することが可能となる。
なお、本発明における負荷分散ブレード処理量監視部122に関して、当該負荷分散ブレード120の処理量を監視する方式は限定されるものではない。
ここで、上記まで記述してきた負荷分散ブレード処理量監視部122および負荷分散ブレード処理量監視部132が監視する処理量ついて説明する。
本発明では上記項目に関して以下を要素例とできる。例えば、負荷分散ブレード120が受け付け、いずれかのサーバブレードに転送したクライアント100からの要求数を表すコネクション数、負荷分散ブレード120が処理している間のCPU使用率、負荷分散ブレード120が処理している間のメモリ使用率、などとできる。
次に、図2乃至図6にてクライアントからのデータ要求を最初に受信する負荷分散ブレード#0における処理について、図7乃至図11にてクライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外の負荷分散ブレードにおける処理について説明する。
まずは、図2乃至図6にてクライアントからのデータ要求を最初に受信する負荷分散ブレード#0における処理の実施例について説明を行う。
図2にて請求項5に対応する、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0のデータ要求受付部125におけるデータ要求受信時の転送判定処理を示すフローについて説明を行う。
図2は、複数の負荷分散ブレードで冗長構成が構築された場合の、負荷分散ブレード間で最も優先度が高く、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0のデータ受付部における転送判定処理の実施例を表すフローチャートである。
負荷分散ブレード#0のデータ要求受付部がクライアントからのデータ要求を新規に受け付けたときに転送判定処理を開始する(ステップ202)。
ここで、負荷分散ブレード#0の判定制御部からの転送指示を確認する(ステップ203)。
負荷分散ブレード#0で処理可能と判断された場合、負荷分散ブレード#0のデータ要求転送部へ転送される(ステップ204)。
負荷分散ブレード#0で処理不可能と判断された場合、次の優先度を持つ負荷分散ブレードのデータ要求受付部へ転送される(ステップ205)。
図3にて請求項5に対応する、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0のデータ転送部におけるデータ要求転送処理の実施例を表すフローチャートについて説明を行う。
負荷分散ブレード#0のデータ要求転送部はクライアントから新規データ要求をデータ要求受付部から受信する(ステップ302)。
新規データ要求を受信したデータ要求転送部は、負荷分散ブレードに設定される任意の負荷分散方式に従い、サーバに分配する(ステップ303)。
図4にて請求項5に対応する、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0の処理量監視部における負荷分散ブレード#0自身の処理量チェックの実施例を表すフローチャートについて説明を行う。
負荷分散ブレード#0の処理量監視部は定期的に負荷分散ブレード#0の処理量をチェックする。本発明ではチェック間隔を限定するものではないが、出来る限り短い間隔でチェックすることが望ましい(ステップ402)。
チェックした結果を以って、負荷分散ブレード#0の処理量監視部に保持する、前回チェック時の結果を更新する(ステップ403)。
図5にて請求項5に対応する、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0の冗長構成連携部が実施する処理の実施例を表すフローチャートについて説明を行う。
まず、負荷分散ブレード#0の冗長構成連携部に保持する冗長構成情報を確認し、次の優先度を保持する負荷分散ブレードを選出する(ステップ502)。
そして、ステップ502で選出した負荷分散ブレードが正常に稼動中であり、クライアントからのデータ要求を割り当てられた場合に、負荷分散処理可能かどうかを確認する。データ要求を割り当て可能な負荷分散ブレードを選出するまで本処理を繰り返し、実施するものとする(ステップ503)。
何らかの要因で異常があり処理不可能と判断された場合、当該負荷分散ブレードを冗長構成情報から削除し、さらに次の優先度を保持する負荷分散ブレードを選出する(ステップ504)。
ステップ502で選出された負荷分散ブレードがステップ503で処理可能と判断された場合、当該負荷分散ブレードを次に転送可能な負荷分散ブレードとして情報を格納する(ステップ505)。
図6にて請求項3に対応する、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0の判定制御部における受信可否判定および制御処理の実施例を表すフローチャートについて説明を行う。
まず、負荷分散ブレード#0のデータ要求受付部がクライアントから新規のデータ要求を受信する(ステップ602)。
ここで、図4で説明した処理量監視部にてチェックした負荷分散ブレード#0の処理量 (=A0)と、処理量閾値保持部に保持する処理量閾値(=C0)を比較する(ステップ603)。
A0がC0以下であり、負荷分散ブレード#0で受付可能と判断された場合、負荷分散ブレード#0で受け付けるようデータ要求受付部に指示を行う(ステップ604)。
A0がC0より大きく、負荷分散ブレード#0で受付不可能と判断された場合、図5で説明した冗長構成連携部に保持する次に転送可能な負荷分散ブレードを確認する(ステップ605)。
その後、本データ要求をステップ605で選出した負荷分散ブレードに転送するように、負荷分散ブレード#0のデータ要求受付部に命令する(ステップ606)。
次に、図7乃至図11にてクライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外の負荷分散ブレードにおける処理の実施例について説明を行う。
図7にて請求項5に対応する、クライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外のデータ要求受付部におけるデータ要求受信時の転送判定処理を示すフローについて説明を行う。
図7は、複数の負荷分散ブレードで冗長構成が構築された場合の、負荷分散ブレード間で最も優先度が負荷分散ブレード#0より低く、クライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外のデータ受付部における転送判定処理の実施例を表すフローチャートである。
当該負荷分散ブレードのデータ要求受付部がクライアントからのデータ要求を別の負荷分散ブレードから新規に受け付けたときに転送判定処理を開始する(ステップ702)。
ここで、当該負荷分散ブレードの判定制御部からの転送指示を確認する(ステップ703)。
当該負荷分散ブレードで処理可能と判断された場合、当該負荷分散ブレードのデータ要求転送部へ転送される(ステップ704)。
当該負荷分散ブレードで処理不可能と判断された場合、次の優先度を持つ負荷分散ブレードのデータ要求受付部へ転送される(ステップ705)。
図8にて請求項5に対応する、クライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外のデータ転送部におけるデータ要求転送処理の実施例を表すフローチャートについて説明を行う。
当該負荷分散ブレードのデータ要求転送部はクライアントから新規データ要求をデータ要求受付部から受信する(ステップ802)。
新規データ要求を受信したデータ要求転送部は、負荷分散ブレードに設定される任意の負荷分散方式に従い、サーバに分配する(ステップ803)。
図9にて請求項5に対応する、クライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外の処理量監視部における当該負荷分散ブレードの処理量チェックの実施例を表すフローチャートについて説明を行う。
当該負荷分散ブレードの処理量監視部は定期的に当該負荷分散ブレードの処理量をチェックする。本発明では図4と同様にチェック間隔を限定するものではないが、出来る限り短い間隔でチェックすることが望ましい(ステップ902)。
チェックした結果を以って、当該負荷分散ブレードの処理量監視部に保持する、前回チェック時の結果を更新する(ステップ903)。
図10にて請求項5に対応する、クライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外の冗長構成連携部が実施する処理の実施例を表すフローチャートについて説明を行う。
まず、当該負荷分散ブレードの冗長構成連携部に保持する冗長構成情報を確認し、次の優先度を保持する負荷分散ブレードを選出する(ステップ1002)。
そして、ステップ1002で選出した負荷分散ブレードが正常に稼動中であり、クライアントからのデータ要求を割り当てられた場合に、負荷分散処理可能かどうかを確認する。データ要求を割り当て可能な負荷分散ブレードを選出するまで本処理を繰り返し、実施するものとする(ステップ1003)。
何らかの要因で異常があり処理不可能と判断された場合、当該負荷分散ブレードを冗長構成情報から削除し、さらに次の優先度を保持する負荷分散ブレードを選出する(ステップ1004)。
ステップ1002で選出された負荷分散ブレードがステップ1003で処理可能と判断された場合、当該負荷分散ブレードを次に転送可能な負荷分散ブレードとして情報を格納する(ステップ1005)。
図11にて請求項5に対応する、クライアントからのデータ要求を別の負荷分散ブレードから受信する負荷分散ブレード#0以外の判定制御部における受信可否判定および制御処理の実施例を表すフローチャートについて説明を行う。
まず、当該負荷分散ブレードのデータ要求受付部がクライアントから新規のデータ要求を別の負荷分散ブレードから受信する(ステップ1102)。
ここで、図9で説明した処理量監視部にてチェックした当該負荷分散ブレードの処理量(=A1)と、処理量閾値保持部に保持する処理量閾値(=C1)を比較する(ステップ1103)。
A1がC1以下であり、当該負荷分散ブレードで受付可能と判断された場合、当該負荷分散ブレードで受け付けるようデータ要求受付部に指示を行う(ステップ1104)。
A1がC1より大きく、当該負荷分散ブレードで受付不可能と判断された場合、図9で説明した冗長構成連携部に保持する次に転送可能な負荷分散ブレードを確認する(ステップ1105)。
その後、本データ要求をステップ1105で選出した負荷分散ブレードに転送するように、当該負荷分散ブレードのデータ要求受付部に命令する(ステップ1106)。
次に図12乃至図13においてN機で負荷分散ブレードシステムを構成した場合の、処理量および処理量閾値の保持方法に関する実施例について説明する。
図12は負荷分散ブレード群の中で最も優先度が高く、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0に全負荷分散ブレードの処理量を纏めて保持する実施例について説明する。
負荷分散ブレード番号1201は負荷分散ブレードシステムを構成するN機の負荷分散ブレードの番号を#0から#Nまで保持する。ここで、負荷分散ブレード#0が最も優先度が高く、クライアントからのデータ要求を負荷分散ブレード群の中で最初に受信する。負荷分散ブレード番号が大きくなるほど、優先度は低くなるものとする。ただし、本発明は負荷分散ブレード番号の採番順序に限定されるものではなく、他の採番方法でも良い。
処理量1202は各負荷分散ブレードの処理量監視部が取得した処理量を、各負荷分散ブレード番号に対応付けて保持する。
図13は負荷分散ブレード群の中で最も優先度が高く、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0に全負荷分散ブレードの処理量および処理量閾値を纏めて保持する実施例について説明する。
負荷分散ブレード番号1301および処理量1302は図12で説明した内容と同じとする。
閾値1303は各負荷分散ブレードに対応した処理量閾値保持部に保持する閾値を負荷分散ブレード#0が全て保持する。ここで閾値C0乃至CNは同じ値ではなく、それぞれ別の値であっても良い。例えば、性能の高い負荷分散ブレードの処理量閾値は大きくし、優先的に処理を割り当てることが可能である。
前述した図12乃至図13で示した保持テーブルは、負荷分散ブレード群の中で最も優先度が高く、クライアントからのデータ要求を最初に受信する負荷分散ブレード#0に保持することから、他の負荷分散ブレードには負荷分散ブレード処理量監視部および処理量閾値保持部は存在せず、これら全てを負荷分散ブレード#0が監視・保持する形態でも良い。また、負荷分散ブレード外の他の装置に保持する形態であっても良い。
<実施例2>
本負荷分散ブレードシステムにおいて、図1の構成としているがこの構成に限られる必要はなく、以下のような構成でも本発明は適用可能である。負荷分散ブレード120及び負荷分散ブレード130において、2機による冗長構成としたが、2機である必要はなく複数の負荷分散ブレードによる冗長構成であってもよい。サーバブレード140乃至142において、負荷分散ブレードシステム150に内蔵されるサーバブレード構成としたが、
サーバブレードである必要はなく、それぞれ別の独立した計算機であってもよい。また負荷分散ブレードシステム150において、負荷分散ブレード120及び負荷分散ブレード130も負荷分散ブレードシステム150に内蔵されるブレード構成としたが、ブレードである必要はなく、それぞれ別の独立した負荷分散装置であってもよい。さらに負荷分散ブレード120において、判定制御部121、負荷分散ブレード処理量監視部122、冗長構成連携部124を内部の構成としているが、負荷分散ブレードの内部である必要はなくそれぞれ独立した装置であってもよい。
100 クライアント計算機、110 外部ネットワーク、120 負荷分散ブレード(#0)、121 判定制御部(#0)、122 負荷分散ブレード処理量監視部(#0)、123 処理量閾値保持部(#0)、124 冗長構成連携部(#0)、125 データ要求受付部(#0)、126 データ要求転送部(#0)、130 負荷分散ブレード(#1)、131 稼動判定制御部(#1)、132 負荷分散ブレード処理量監視部(#1)、133 処理量閾値保持部(#1)、134 冗長構成連携部(#1)、135 データ要求受付部(#1)、136 データ要求転送部(#1)、140 サーバブレード部(#0)、141 サーバブレード部(#1)、142 サーバブレード部(#2)

Claims (5)

  1. 負荷分散ブレードシステムが、
    クライアントからの要求を処理する複数のサーバブレードと、
    クライアントからの要求を稼動中のサーバブレードに割り振ることができる負荷分散ブレードから構成され、
    負荷分散ブレードが、
    データ要求受付部とデータ要求転送部と
    当該負荷分散ブレードの処理量を監視することができる負荷分散ブレード処理量監視部と、
    監視した処理量を保持することができる処理量保持部と、
    当該負荷分散ブレードで受け付け可能とする処理量の閾値を保持する処理量閾値保持部と
    負荷分散ブレード間の冗長構成に関して構成情報を保持し、装置間で連携する機能を備える冗長構成連携部を有し、
    クライアントからの要求を受け付ける負荷分散ブレードを選択し、指示することができる判定制御部
    から構成されることを特徴とする負荷分散ブレードシステム。
  2. 請求項1に記載の負荷分散ブレードシステムであって、
    負荷分散ブレードが処理量閾値保持部を有し、負荷分散ブレードごとの処理量閾値Cを保持し、
    負荷分散ブレードの優先度を用いて
    クライアントからの要求を最も優先度の高い負荷分散ブレードが処理量閾値Cまでを受け付け、サーバブレードに分配することを可能とし、
    処理量が1部の負荷分散ブレードに集中しないことを特徴とする負荷分散ブレードシステム。
  3. 請求項2に記載の負荷分散ブレードシステムであって、
    最も高い優先度を保持する負荷分散ブレードで
    当該処理量保持部が保持する処理量が処理量閾値Cを越える場合、
    次に優先度の高い負荷分散ブレードを選択することができ、
    判定制御部が当該負荷分散ブレードのデータ要求受付部を制御し、
    次に優先度の高い負荷分散ブレードのデータ要求受付部をデータ要求転送先に指定することができる負荷分散ブレードシステム。
  4. 請求項3に記載の負荷分散ブレードシステムであって、
    最も優先度の高い負荷分散ブレード以外の負荷分散ブレードで
    当該処理量保持部が保持する処理量が処理量閾値Cを超える場合、
    次に優先度の高い負荷分散ブレードを選択することができ、
    判定制御部が当該負荷分散ブレードのデータ要求受付部を制御し、
    次に優先度の高い負荷分散ブレードのデータ要求受付部をデータ要求再転送先に指定することができる負荷分散ブレードシステム。
  5. 請求項4に記載の負荷分散ブレードシステムであって、
    負荷分散ブレードは2台構成に限らず複数であっても実現可能であることを特徴とする負荷分散ブレードシステム。
JP2010280004A 2010-12-16 2010-12-16 負荷分散ブレードシステム Pending JP2012128698A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010280004A JP2012128698A (ja) 2010-12-16 2010-12-16 負荷分散ブレードシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010280004A JP2012128698A (ja) 2010-12-16 2010-12-16 負荷分散ブレードシステム

Publications (1)

Publication Number Publication Date
JP2012128698A true JP2012128698A (ja) 2012-07-05

Family

ID=46645626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010280004A Pending JP2012128698A (ja) 2010-12-16 2010-12-16 負荷分散ブレードシステム

Country Status (1)

Country Link
JP (1) JP2012128698A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014032530A (ja) * 2012-08-03 2014-02-20 Nippon Telegr & Teleph Corp <Ntt> 分散処理システムおよび分散処理方法
JP2016052586A (ja) * 2015-12-07 2016-04-14 株式会社三共 遊技機

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014032530A (ja) * 2012-08-03 2014-02-20 Nippon Telegr & Teleph Corp <Ntt> 分散処理システムおよび分散処理方法
JP2016052586A (ja) * 2015-12-07 2016-04-14 株式会社三共 遊技機

Similar Documents

Publication Publication Date Title
US9659075B2 (en) Providing high availability in an active/active appliance cluster
US8775628B2 (en) Load balancing for SIP services
US7225356B2 (en) System for managing operational failure occurrences in processing devices
US9755952B2 (en) System and methods for load placement in data centers
US9058213B2 (en) Cloud-based mainframe integration system and method
US20040243709A1 (en) System and method for cluster-sensitive sticky load balancing
EP1522019A2 (en) Method and apparatus for off-load processing of a message stream
JP5244717B2 (ja) 負荷割当制御方法および負荷分散システム
US10200286B2 (en) Systems and methods for load balancing in a data center
EP2316206A2 (en) Distributed load balancer
US20170141951A1 (en) Multi-blade network traffic management apparatus with improved failure handling and methods thereof
CN112839081A (zh) 一种云集群的负载均衡方法
US7783786B1 (en) Replicated service architecture
US9354995B2 (en) Method for controlling operations of server cluster
EP3241309B1 (en) Overprovisioning floating ip addresses to provide stateful ecmp for traffic groups
CN107332793B (zh) 一种报文转发方法、相关设备及系统
JP2012128698A (ja) 負荷分散ブレードシステム
WO2016206433A1 (zh) 服务器负载均衡的方法及装置
CN114900526B (zh) 负载均衡方法及系统、计算机存储介质、电子设备
US11290319B2 (en) Dynamic distribution of bidirectional forwarding detection echo sessions across a multi-processor system
US9118581B2 (en) Routing network traffic
JP4802159B2 (ja) ネットワーク装置
JP2014032576A (ja) ネットワーク装置又はサーバ装置の多重化方式
US20240039850A1 (en) Virtual socket for load balancing and failover
KR20230129693A (ko) 트래픽 지역성을 고려한 쿠버네티스 기반 엣지 컴퓨팅 환경에서의 트래픽 분배 방법 및 트래픽 분배 장치

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120521