JP5515810B2 - 負荷制御装置 - Google Patents

負荷制御装置 Download PDF

Info

Publication number
JP5515810B2
JP5515810B2 JP2010023943A JP2010023943A JP5515810B2 JP 5515810 B2 JP5515810 B2 JP 5515810B2 JP 2010023943 A JP2010023943 A JP 2010023943A JP 2010023943 A JP2010023943 A JP 2010023943A JP 5515810 B2 JP5515810 B2 JP 5515810B2
Authority
JP
Japan
Prior art keywords
transaction
distribution destination
distribution
data area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010023943A
Other languages
English (en)
Other versions
JP2011164736A (ja
Inventor
直毅 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010023943A priority Critical patent/JP5515810B2/ja
Priority to CN2011800079925A priority patent/CN102782653A/zh
Priority to PCT/JP2011/050261 priority patent/WO2011096249A1/ja
Priority to US13/576,469 priority patent/US9086910B2/en
Publication of JP2011164736A publication Critical patent/JP2011164736A/ja
Application granted granted Critical
Publication of JP5515810B2 publication Critical patent/JP5515810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/466Transaction processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/505Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the load
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • G06F9/5088Techniques for rebalancing the load in a distributed system involving task migration
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Sources (AREA)
  • Computer And Data Communications (AREA)
  • Supply And Distribution Of Alternating Current (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)

Description

本発明は、負荷制御装置に関する。
複数の計算資源から構成されるシステムを用いてトランザクション処理を行う場合、各計算資源間での負荷分散処理が必要となる。
例えば特許文献1には、計算機システムを構成するノードにおいて、タスク又はタスクの実行結果の送受信を行うタスク送受信手段と、前記タスク送受信手段で受信したタスクをキューイングするキューイング手段(「ローカルキューイング手段」という)と、負荷情報を共有する負荷情報共有手段と、前記負荷情報共有手段が提供する他ノードの負荷情報に基づいて、どのタスクをどのノードに移送するかを決定し、前記タスク送受信手段にタスクの移送を依頼する負荷分散手段と、実行を依頼されたタスクを処理し、前記タスクの実行結果を、前記ローカルキューイング手段に返すタスク実行手段と、を含み、前記負荷分散手段は、少なくとも自ノードで実行すべきタスクの量を、動的に計算する均衡度計算手段と、ノードに対して優先度を割り当てるノード優先度割り当て手段と、を含むことが記載されている。
特許第4265377号公報
業務システムのタスクは様々な粒度のものが存在するが、オンライントランザクション処理であれば、個々の処理の粒度は比較的細かいものになり、個々の処理はターンアラウンドタイムなどのサービスレベル指標により管理することができる。
コスト削減や電力消費量削減の観点からは、刻々と変化する利用可能な計算資源や利用可能な電力を効率よく活用しながらターンアラウンドタイムなどのサービスレベル指標を維持することが望ましいが、そのためには、各々のタスクを適切な計算資源に動的に振り分けるとともに、特定の計算資源に処理が集中して処理溢れが起こるのを防止する必要がある。処理溢れを防止するためには、各計算資源にタスクを送信する前の段階で適正なタスクの量に調整することが望ましいが、特許文献1に記載の方法では計算資源に送信する前の段階での調整は行われていなかった。また、既存のロードバランス手法では、振分ルールが固定的で動的に対応できなかったり、均一な計算資源が前提のために均一でない環境においても最も適切な計算資源を考慮することなく機械的に振り分けたり、ターンアラウンドタイムなどのサービスレベル指標を維持する仕組みがなかったりすることで、刻々と変化する計算資源に追従することが困難で、きめ細かい対応を行うことができないという課題があった。
そこで、本発明の目的は、できるだけ少ない計算資源及び電力消費量で、並列オンライントランザクション処理のターンアラウンドタイムに代表されるサービスレベル指標を維持することである。
本発明に係る負荷制御装置は、複数の計算資源にトランザクション処理を振り分ける負荷制御装置であって、トランザクション処理要求を受信する受信部と、受信したトランザクションの振分先を選択し、振分先毎に設けられた送信キューに前記トランザクションを格納する振分制御部と、前記送信キューに格納されたトランザクションデータを対応する前記振分先に送信する送信部と、各振分先に対応する前記送信キューに蓄積されているトランザクション量が上限を超えていないか否かを監視する溢れ検知部と、前記溢れ検知部による監視の結果、前記トランザクション量が上限を超えている場合には、上限を超えて格納されたトランザクションの振分先の選択を再度行う再振分部と、を備えたものである。
本発明によれば、できるだけ少ない計算資源及び電力消費量で、並列トランザクション処理のターンアラウンドタイムに代表されるサービスレベル指標を維持することができる。
本発明の実施形態による負荷制御装置を用いた負荷制御システムの構成を示す図である。 本発明の実施形態による負荷制御装置の構成を示す図である。 振分テーブルの内容を示す図である。 可用テーブルの内容を示す図である。 上限テーブルの内容を示す図である。 アフィニティテーブルが保有する内容を示す図である。 処理装置の構成を示す図である。 本発明の実施形態による負荷制御装置によるトランザクション振り分け処理のフローチャートである。 トランザクションの処理量溢れが生じた場合の処理のフローチャートである。 電力消費量に基づく振分先の決定方法を説明する図である。 即時拡張モデルを説明する図である。 処理装置の構成の他の例を示す図である。
次に、本発明を実施するための最良の形態について、図面を参照して詳細に説明する。
図1は、本実施形態による負荷制御装置10を用いた負荷制御システムの構成を示す図である。図に示すように、負荷制御装置10は複数の処理装置(計算資源)20と通信回線を介して接続されている。
本実施形態による負荷制御システムは、オンライントランザクションを1件単位で複数の処理装置20により並列処理するシステムである。
図2は、本実施形態による負荷制御装置10の構成を示す図である。図に示すように、負荷制御装置10は、受信部101、振分制御部102、送信キュー103、送信部104、溢れ検知部105、再振分部106、タイマー107、受信部108を備えている。受信部101、振分制御部102、送信部104、溢れ検知部105、再振分部106、タイマー107、受信部108は、プログラムに従ってコンピュータのプロセッサが行う機能に対応する。送信キュー103は、メモリ、ハードディスク等の記憶装置を含むものである。
受信部101は、通信回線を介して接続された端末等からのトランザクション処理要求を受信する。
振分制御部102は、振分テーブルを参照して受信したトランザクションの適切な振分先を選択し、振分先毎に設けられた送信キュー103にトランザクションを格納する。なお、振分先には1つまたは複数のプロセッサコア(計算資源)が含まれる。複数のコアが含まれる場合、各々のコアは1つの処理装置20に実装されていてもよいし、複数の処理装置20に分散して実装されていてもよい。
図3は、振分テーブルの内容を示す図である。図に示すように、振分テーブルには、予めデータ領域毎の適切な振分先が記憶されている。データ領域は、データベース207に格納されたデータのうち、あるトランザクションが処理対象とするデータの集合に相当する。振分制御部102は、受信したトランザクションがどのデータ領域のデータを処理対象としているかに基づいて、振分テーブルから適切な振分先を選択する。上述のように、振分先は1つの処理装置20に対応してもよいし、複数の処理装置20に対応してもよい。なお、振分テーブルは、振分先の処理装置20の電源のオンオフ状態や部分要素の電源オフにより生じる性能低下の程度、あるいは、定期保守などの計画停止や故障などにより生じる性能低下の程度を表す可用テーブルを含む。
図4に可用テーブルの例を示す。可用テーブルは、「要素・振分先対応表」に基づいて作成される。図4に示すように、可用テーブルには、各振分先の死活状態が記憶されている。死活状態は、振分先に含まれる要素の電源オフや故障等により生じる性能低下に基づいて決定される。例えば、各振分先に含まれる要素の利用可能状態が「要素・振分先対応表」に示すような状態である場合、振分先1は、要素1が利用可能(○)で、要素2は利用不可の状態(×)であるため、死活状態は50パーセントとなる。可用テーブルは、処理装置の最新の状態を反映するため、定期的に見直す必要がある。
送信キュー103は、振分先毎に設けられており、各振分先に対して振り分けられたトランザクションのデータが順次格納される。
送信部104は、送信キュー103に格納されたトランザクションデータを対応する振分先の処理装置20に送信する。なお、1つの振分先に複数のプロセッサコアが含まれる場合、送信部104は、例えば、ラウンドロビンなどの方法により、それぞれのプロセッサコアに均等にトランザクションデータを送信する。
溢れ検知部105は、上限テーブルを参照し、各振分先に対応する送信キュー103に蓄積されているトランザクション量が上限を超えていないか否かを定期的に監視する。
図5は、上限テーブルの内容を示す図である。図に示すように、上限テーブルには、予め各振分先に対応する送信キュー103に蓄積可能なトランザクションの上限値が記憶されている。上限値は、例えば、一定時間あたり処理可能なトランザクション件数とすることができる。
再振分部106は、溢れ検知部105による監視の結果、送信キュー103に蓄積されているトランザクション量が上限を超えている場合には、アフィニティテーブルを参照して再度振分先の選択を行う。なお、再振分先が溢れている場合には、順次、次優先度の候補に振り分ける。振分先の候補がなくなった場合には、エラー処理を実行する。
図6は、アフィニティテーブルが保有する内容を示す図である。図に示すように、アフィニティテーブルには、予め各データ領域のデータを対象とする処理の性能値が振分先毎に記憶されている。性能値は、例えば単位時間あたりのトランザクション処理件数や1件あたりの平均ターンアラウンドタイムとすることができる。
特定のデータ領域に対する処理性能は、当該データを含むデータベース207へのアクセスしやすさ等によって決定される。一般に、処理対象とするデータを含むデータベース207のデータをキャッシュするキャッシュ制御部206と、トランザクション処理を実行する処理部205が同じ処理装置20に実装されている場合が最も処理性能が高く、両者間のアクセス経路に他の制御部等が介在するほど処理性能は低くなる。なお、このアフィニティテーブルにおいて各データ領域に対する処理性能が最も高い振分先が、振分テーブルにおける振分先になる。
タイマー107は、溢れ検知部105が各処理装置20の処理量を監視するタイミングを決定する。溢れ検知部105が処理量を監視する方法としては、常に監視を行い、いずれかの振分先の送信キュー103のトランザクション量が上限を超えたら即時に再振分部106に通知するという方法もある。しかし、この方法では、トランザクション量が溢れるたびに通知が発生し、処理性能を低下させる要因となる。
受信部108は、各処理装置20から、トランザクションの処理量溢れなどに情報を受信する。
図7は、処理装置20の構成を示す図である。図に示すように、処理装置20は、受信部201、受信キュー202、制御部203、送信部204、処理部(計算資源、プロセッサコア)205、キャッシュ制御部206、データベース207を備えている。
受信部201は、負荷制御装置10からのトランザクション要求を受信する。
受信キュー202は、受信部201で受信したトランザクション要求を順次蓄積する記憶部である。
制御部203は、受信キュー202に蓄積されているトランザクション要求を処理部205に供給する。また、トランザクションの処理量溢れを検知したら、送信部204を介して負荷制御装置10に通知する。
送信部204は、トランザクションの処理量溢れ等の情報を負荷制御装置10に送信する。
処理部205は、トランザクションを実行してデータベース207を更新する。なお、処理装置20は、処理部205を1つ備えるシングルコア構成であってもよいし、処理部205を複数備えるマルチコア構成であってもよい。
キャッシュ制御部206は、データベース207の内容を一時的に記憶する。なお、本実施形態では、少なくとも1つの他の処理装置20内のキャッシュ制御部206にアクセスすることが可能である。
データベース207は、トランザクション処理の対象となるデータを保有する。
次に、負荷制御装置10を備えた負荷制御システムの動作について説明する。
図8は、負荷制御装置10によるトランザクション振り分け処理のフローチャートである。まず、負荷制御装置10が受信部101においてトランザクション処理要求を受信する(ステップS11)。
次に、振分制御部102が振分テーブルを参照して受信したトランザクションの適切な振分先を選択する(ステップS12)。
次に、振分制御部102は、ステップS2で選択した振分先への送信キュー103にトランザクション処理のデータを格納する(ステップS13)。
送信部104は、このようにして送信キュー103に格納されたトランザクションデータを対応する振分先の処理装置20に順次送信する。
図9は、トランザクションの処理量溢れが生じた場合の処理のフローチャートである。
まず、溢れ検知部105が各振分先に対応する送信キュー103に蓄積されているトランザクション量が上限を超えていることを検知すると(ステップS21:YES)、再振分部106にトランザクションの再振り分けを指示する(ステップS22)。
再振分部106は、アフィニティテーブルを参照して溢れているトランザクションの振分先の選択を再度行う(ステップS23)。
再振分の方法について、図3、5、6を用いて具体的に説明する。例えば、図3の振分テーブルに示すとおり、データ領域Aを処理対象とするトランザクションは、初めは振分制御部102によって振分先1に振り分けられる。しかし、図5の上限テーブルに示すように、振分先1の送信キュー103に1600件以上のトランザクションが蓄積されると、溢れ検知部105によって再振分部106に再振り分けが指示される。再振分部106は図6のアフィニティテーブルを参照し、データ領域Aを処理対象とするトランザクションの処理性能(ここでは単位時間当たりの処理件数)が振分先1の次に高い振分先を選択する。図6に示す例では、振分先2,3,4が該当するので、再振分部106はこれらの中から再振分先を選択する。
再振分部106は、再振分先が決定したら、上限を超えて格納されたトランザクションデータを再振分先への送信キュー103に移動する(ステップS24)。
送信部104は、このようにして送信キュー103に格納されたトランザクションデータを対応する振分先の処理装置20に順次送信する。なお、上述のように、本実施形態では処理装置20間で他の処理装置20内のキャッシュ制御部206にアクセスすることが可能であるため、振分先の処理装置20のキャッシュ制御部206にトランザクションが処理対象とするデータがキャッシュされていなくても、当該データがキャッシュされている他の処理装置20のキャッシュ制御部206にアクセスして処理を実行することができる。
なお、正常運用時には発生しないことであるが、再振分部106は、溢れ検知部105からの指示を受信した場合以外に、受信部108が各処理装置20からトランザクションの処理量溢れ情報を受信した場合にも、トランザクションの再振り分けを行う。
以上のように、本実施形態によれば、振分制御部102によってトランザクションの適切な振分先を決定し、振分先毎の送信キュー103にトランザクションを蓄積するようにしたので、できるだけ少ない計算資源で、並列オンライントランザクション処理のターンアラウンドタイムなどのサービスレベル指標を維持することができる。また、溢れ検知部105によって各振分先に対応する送信キュー103に蓄積されているトランザクション量が上限を超えていないか否かを定期的に監視し、超えている場合には再振分部106によって振分先を再度決定するようにしたので、特定の処理装置20が処理溢れを起こしてターンアラウンドタイムが長くなる等のサービスレベル指標低下を防ぐことが出来る。
また、負荷制御装置10においてトランザクションの振分先の決定を行い、さらに処理溢れを防止するための調整を行ってから、各処理装置20にトランザクションデータを送信しているため、処理装置20には処理溢れを調整するための機能を設ける必要がなく、計算資源をトランザクション処理に有効利用することができる。
本実施形態による負荷制御装置10は、大量のデータを保有するデータベースを用いるオンライントランザクションシステムにおける負荷制御を行うのに特に適している。特に、データ競合が起こりにくいようデータベース内のデータがパーティショニングされデータ競合が起こりにくいトランザクション処理の場合、最も処理性能に影響するのは、各々の計算資源のデータに対するアフィニティだからである。
また、このようなデータ競合が起こりにくいトランザクションでは、個々のトランザクションの負荷の大きさが比較的揃っているため、トランザクションの件数から全体の負荷の見積もりを行いやすく、本実施形態のように、上限テーブルを用いてトランザクション溢れを判断するのに適している。
本実施形態による負荷制御システムは、複数の処理装置20を有しており、キャッシュ制御部206は、少なくとも1つの他の処理装置20内のキャッシュ制御部206にアクセスすることが可能である。このようなシステムの構成方式の例として、CC−NUMA(cache-coherent Non-Uniform Memory Access)の方式がある。CC−NUMAは、すべてのプロセッサで共通のメモリ・アドレス空間を持つマルチプロセッサ構成であるため、各ノードのプロセッサは他のノードのメモリにもアクセス可能である。各プロセッサはローカルで高速なメモリを有しており、他のプロセッサが持つローカルなメモリへのアクセスはそれより遅くなるという特徴がある。従って、本実施形態のように、各々の計算資源のデータに対するアフィニティに基づいて振分先を決定する負荷制御システムに適している。
次に、電力消費量を削減するための振分先の構成方法について説明する。
図10は、電力消費量に基づく振分先の決定方法を説明する図である。「電力消費モデル」の表は、コア(処理装置20の処理部205に相当)毎の稼動時の電力消費量を示している。「コアN」(N=1,・・・,9)の行と「コアN」の列の交差点の数値はコアNを単独で稼動させたときの電力消費量を表し、「コアN」の行と「コアM」(M=1,・・・,9)の列の交差点の数値は、コアNとコアMを同時に稼動させたときの総電力消費量を表している。例えば、コア1とコア2について見ると、単独で稼動させた場合それぞれの電力消費量は「15」であるが、コア1とコア2を同時に稼動させた場合の合計の電力消費量は「17」である。従って、コア1とコア2はそれぞれ単独で稼動させるよりも両方を同時に稼動させたほうが電力消費量を削減することができる。
一方、コア5について見ると、単独で稼動させた場合の電力消費量は「20」であるが、他のいずれかのコアと共に稼動させることで合計の電力消費量を削減できる組み合わせは無い。
このように、電力消費モデルに基づいて決定した、電力消費量ができる振分先の構成を示したものが「コア・振分先対応表」である。表に示すように、振分先1,2は2つのコアから構成され、振分先3〜7は1つのコアで構成される。
以上のように、処理装置20を構成するコアの電力消費モデルに基づいて振分先の構成を決定することにより、システムの電力消費量を削減することが可能となる。
また、電力消費モデル以外に、図11に示すようなシステム内の各々の計算資源(要素)の、電源をオフした場合の電力削減量(削減電力)及びその計算資源の再利用開始までに要する準備時間(復旧時間)の情報に基づいて、振分テーブルを生成する「即時拡張モデル」を用いてもよい。
トランザクションデータ量によっては、システムの全ての計算資源の電源を常にオンにしておく必要はない。従って、通常は、予想されるトランザクション増加量に対して即時に対応できる範囲でいくつかの計算資源の電源をオフしておくことが望ましい。すなわち、N秒後にS件のトランザクション増加が予想される場合、N秒以内に再利用開始できる計算資源をS件に対応できる分だけ確保しておき、その他の計算資源の電源はオフにする。
即時拡張モデルを用いる場合、電源オフの状態であった計算資源が利用可能となった直後に振分先の候補を増やす必要があることから、定期的に各計算資源の電源のオンオフ状態を監視する手段が設けられる。新たに利用可能になった振分先が増えたことが検知されたら、可用テーブルが更新される。
また、即時拡張モデルの変形例として、一部の計算資源の電源をオフしておく代わりに、システムから切り離してリソースプールに戻すようにしてもよい。この場合には、各々の計算資源をリソースプールに戻した場合に削減される利用料及び計算資源の再利用開始までに要する準備時間の情報に基づいて、振分テーブルを生成する
なお、処理装置20の構成は、図7に示すものに限られず、例えば図12に示すような構成であってもよい。図12の例は、処理装置20内に2つの処理部205が含まれるマルチコア構成であり、キャッシュ制御部206とデータベース207も2つ含まれている。
10 負荷制御装置、20 処理装置、101 受信部、102 振分制御部、103 送信キュー、104 送信部、105 溢れ検知部、106 再振分部、107 タイマー、108 受信部、201 受信部、202 受信キュー、203 制御部、204 送信部、205 処理部、206 キャッシュ制御部、207 データベース

Claims (6)

  1. 複数の計算資源にトランザクション処理を振り分ける負荷制御装置であって、
    トランザクション処理要求を受信する受信部と、
    受信したトランザクションの振分先として、前記トランザクションが処理対象とするデータ領域に基づいて、そのデータ領域に対する処理性能が最も高い振分先を選択し、振分先毎に設けられた送信キューに前記トランザクションを格納する振分制御部と、
    前記送信キューに格納されたトランザクションデータを対応する前記振分先に送信する送信部と、
    各振分先に対応する前記送信キューに蓄積されているトランザクション量が上限を超えていないか否かを監視する溢れ検知部と、
    前記溢れ検知部による監視の結果、前記トランザクション量が上限を超えている場合には、上限を超えて格納されたトランザクションの振分先として、前記トランザクションが処理対象とするデータ領域に基づいて、前記送信キューに蓄積されているトランザクション量が上限を超えていない振分先の中から、そのデータ領域に対する処理性能が最も高い振分先を選択する再振分部と、を備えた負荷制御装置。
  2. 前記振分制御部は、前記データ領域に対する処理性能が最も高く、かつ電力消費量が最小となる振分先を選択することを特徴とする請求項1に記載の負荷制御装置。
  3. 前記振分制御部は、電源がオン状態である振分先の中から、前記データ領域に対する処理性能が最も高い振分先を選択することを特徴とする請求項1に記載の負荷制御装置。
  4. 前記溢れ検知部が各振分先に対応する前記送信キューに蓄積されているトランザクション量を監視するタイミングを決定するタイマーを備え、
    前記溢れ検知部は、前記タイミングに従って定期的に前記送信キューに蓄積されているトランザクション量を監視することを特徴とする、請求項1から3のいずれか1項に記載の負荷制御装置。
  5. 複数の計算資源にトランザクション処理を振り分ける負荷制御方法であって、
    受信部が、トランザクション処理要求を受信する工程と、
    振分制御部が、受信したトランザクションの振分先として、前記トランザクションが処理対象とするデータ領域に基づいて、そのデータ領域に対する処理性能が最も高い振分先を選択し、振分先毎に設けられた送信キューに前記トランザクションを格納する工程と、
    送信部が、前記送信キューに格納されたトランザクションデータを対応する前記振分先に送信する工程と、
    溢れ検知部が、各振分先に対応する前記送信キューに蓄積されているトランザクション量が上限を超えていないか否かを監視する工程と、
    再振分部が、前記監視の結果、前記トランザクション量が上限を超えている場合には、上限を超えて格納されたトランザクションの振分先として、前記トランザクションが処理対象とするデータ領域に基づいて、前記送信キューに蓄積されているトランザクション量が上限を超えていない振分先の中から、そのデータ領域に対する処理性能が最も高い振分先を選択する工程と、を備えた負荷制御方法。
  6. コンピュータを、
    複数の計算資源にトランザクション処理を振り分ける負荷制御装置として機能させるプログラムであって、
    トランザクション処理要求を受信する受信部と、
    受信したトランザクションの振分先として、前記トランザクションが処理対象とするデータ領域に基づいて、そのデータ領域に対する処理性能が最も高い振分先を選択し、振分先毎に設けられた送信キューに前記トランザクションを格納する振分制御部と、
    前記送信キューに格納されたトランザクションデータを対応する前記振分先に送信する送信部と、
    各振分先に対応する前記送信キューに蓄積されているトランザクション量が上限を超えていないか否かを監視する溢れ検知部と、
    前記溢れ検知部による監視の結果、前記トランザクション量が上限を超えている場合には、上限を超えて格納されたトランザクションの振分先として、前記トランザクションが処理対象とするデータ領域に基づいて、前記送信キューに蓄積されているトランザクション量が上限を超えていない振分先の中から、そのデータ領域に対する処理性能が最も高い振分先を選択する再振分部と、して機能させるプログラム。
JP2010023943A 2010-02-05 2010-02-05 負荷制御装置 Active JP5515810B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2010023943A JP5515810B2 (ja) 2010-02-05 2010-02-05 負荷制御装置
CN2011800079925A CN102782653A (zh) 2010-02-05 2011-01-11 负载控制设备
PCT/JP2011/050261 WO2011096249A1 (ja) 2010-02-05 2011-01-11 負荷制御装置
US13/576,469 US9086910B2 (en) 2010-02-05 2011-01-11 Load control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010023943A JP5515810B2 (ja) 2010-02-05 2010-02-05 負荷制御装置

Publications (2)

Publication Number Publication Date
JP2011164736A JP2011164736A (ja) 2011-08-25
JP5515810B2 true JP5515810B2 (ja) 2014-06-11

Family

ID=44355259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010023943A Active JP5515810B2 (ja) 2010-02-05 2010-02-05 負荷制御装置

Country Status (4)

Country Link
US (1) US9086910B2 (ja)
JP (1) JP5515810B2 (ja)
CN (1) CN102782653A (ja)
WO (1) WO2011096249A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5586551B2 (ja) * 2011-09-21 2014-09-10 東芝テック株式会社 コンピュータシステム、及びジョブ制御方法
JP6246603B2 (ja) * 2014-01-21 2017-12-13 ルネサスエレクトロニクス株式会社 タスクスケジューラ機構、オペレーティングシステム及びマルチプロセッサシステム
CN109933415B (zh) * 2017-12-19 2021-05-04 中国移动通信集团河北有限公司 数据的处理方法、装置、设备及介质
US11182205B2 (en) * 2019-01-02 2021-11-23 Mellanox Technologies, Ltd. Multi-processor queuing model
CN110049350B (zh) * 2019-04-15 2022-10-11 深圳壹账通智能科技有限公司 视频转码处理方法、装置、计算机设备和存储介质

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62198949A (ja) * 1986-02-26 1987-09-02 Nec Corp マルチプロセツサ・システムの動作制御方式
US5095421A (en) * 1989-08-17 1992-03-10 International Business Machines Corporation Transaction processing facility within an operating system environment
JPH0887473A (ja) * 1994-09-16 1996-04-02 Toshiba Corp データ処理装置
JPH0981399A (ja) * 1995-09-13 1997-03-28 Hitachi Ltd バッチシステム
JPH09212467A (ja) * 1996-01-30 1997-08-15 Fujitsu Ltd 負荷分散制御システム
US6226377B1 (en) * 1998-03-06 2001-05-01 Avaya Technology Corp. Prioritized transaction server allocation
US6578068B1 (en) * 1999-08-31 2003-06-10 Accenture Llp Load balancer in environment services patterns
US7376693B2 (en) * 2002-02-08 2008-05-20 Jp Morgan Chase & Company System architecture for distributed computing and method of using the system
US7007183B2 (en) * 2002-12-09 2006-02-28 International Business Machines Corporation Power conservation by turning off power supply to unallocated resources in partitioned data processing systems
US7096335B2 (en) * 2003-08-27 2006-08-22 International Business Machines Corporation Structure and method for efficient management of memory resources
US7302450B2 (en) * 2003-10-02 2007-11-27 International Business Machines Corporation Workload scheduler with resource optimization factoring
US7430290B2 (en) * 2003-10-23 2008-09-30 Telefonaktiebolaget Lm Ericsson (Publ) Virtual queuing support system and method
JP4265377B2 (ja) 2003-11-12 2009-05-20 日本電気株式会社 負荷分散方法及び装置とシステム並びにプログラム
JP4109624B2 (ja) * 2003-12-26 2008-07-02 株式会社日立製作所 処理スケジュールの管理方法、サーバ、処理スケジュールの管理プログラム
WO2005083574A1 (ja) * 2004-03-02 2005-09-09 Matsushita Electric Industrial Co., Ltd. 機器制御サーバ及び機器制御方法
US7606154B1 (en) * 2004-04-01 2009-10-20 Juniper Networks, Inc. Fair bandwidth allocation based on configurable service classes
US7712102B2 (en) * 2004-07-30 2010-05-04 Hewlett-Packard Development Company, L.P. System and method for dynamically configuring a plurality of load balancers in response to the analyzed performance data
US7881961B2 (en) * 2005-02-10 2011-02-01 International Business Machines Corporation Method and system of managing a business process
JP4378335B2 (ja) * 2005-09-09 2009-12-02 インターナショナル・ビジネス・マシーンズ・コーポレーション ディスクへのトランザクション・データ書き込みの方式を動的に切り替える装置、切り替える方法、及び切り替えるプログラム
US8036372B2 (en) * 2005-11-30 2011-10-11 Avaya Inc. Methods and apparatus for dynamically reallocating a preferred request to one or more generic queues
JP4605036B2 (ja) * 2006-01-27 2011-01-05 日本電気株式会社 計算機システム、管理サーバ、計算機設定時間を低減する方法およびプログラム
JP4921054B2 (ja) * 2006-07-07 2012-04-18 株式会社日立製作所 負荷分散制御システム及び負荷分散制御方法
US7992151B2 (en) * 2006-11-30 2011-08-02 Intel Corporation Methods and apparatuses for core allocations
US8037329B2 (en) * 2007-01-31 2011-10-11 Hewlett-Packard Development Company, L.P. Systems and methods for determining power consumption profiles for resource users and using the profiles for resource allocation
US8201219B2 (en) * 2007-09-24 2012-06-12 Bridgewater Systems Corp. Systems and methods for server load balancing using authentication, authorization, and accounting protocols
WO2010010723A1 (ja) * 2008-07-22 2010-01-28 トヨタ自動車株式会社 マルチコアシステム、車両用電子制御ユニット、タスク切り替え方法

Also Published As

Publication number Publication date
US20130104131A1 (en) 2013-04-25
JP2011164736A (ja) 2011-08-25
WO2011096249A1 (ja) 2011-08-11
US9086910B2 (en) 2015-07-21
CN102782653A (zh) 2012-11-14

Similar Documents

Publication Publication Date Title
US11593152B1 (en) Application hosting in a distributed application execution system
KR101781063B1 (ko) 동적 자원 관리를 위한 2단계 자원 관리 방법 및 장치
US8468246B2 (en) System and method for allocating resources in a distributed computing system
US8005956B2 (en) System for allocating resources in a distributed computing system
US7877482B1 (en) Efficient application hosting in a distributed application execution system
US20080282253A1 (en) Method of managing resources within a set of processes
JP5515810B2 (ja) 負荷制御装置
US10305724B2 (en) Distributed scheduler
JP2007207219A (ja) 計算機システムの管理方法、管理サーバ、計算機システム及びプログラム
US8914582B1 (en) Systems and methods for pinning content in cache
WO2018003031A1 (ja) 仮想化管理プログラム、仮想化管理装置および仮想化管理方法
US10606650B2 (en) Methods and nodes for scheduling data processing
CN113032102B (zh) 资源重调度方法、装置、设备和介质
CN112882827B (zh) 用于负载均衡的方法、电子设备和计算机程序产品
JP2017129988A (ja) バッチ制御システム、バッチ制御プログラム、及びバッチ制御方法
JP2007328413A (ja) 負荷分散方法
CN112685167A (zh) 资源使用方法、电子设备和计算机程序产品
JP5722247B2 (ja) 仮想サーバ管理システム
JP6191361B2 (ja) 情報処理システム、情報処理システムの制御方法及び制御プログラム
JP2013206041A (ja) 通信システム及び負荷分散処理装置
WO2009113172A1 (ja) ジョブ割当装置、ジョブ割当装置の制御プログラム及び制御方法
JP2010146382A (ja) 負荷分散システム、負荷分散方法、および負荷分散プログラム
EP3129878A1 (en) Elasticity engine for availability management framework (amf)
Padhy et al. CAMIRA: a consolidation-aware migration avoidance job scheduling strategy for virtualized parallel computing clusters
JP5857144B2 (ja) 仮想サーバ管理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5515810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150