JP2003316587A - Load distribution system - Google Patents
Load distribution systemInfo
- Publication number
- JP2003316587A JP2003316587A JP2002120212A JP2002120212A JP2003316587A JP 2003316587 A JP2003316587 A JP 2003316587A JP 2002120212 A JP2002120212 A JP 2002120212A JP 2002120212 A JP2002120212 A JP 2002120212A JP 2003316587 A JP2003316587 A JP 2003316587A
- Authority
- JP
- Japan
- Prior art keywords
- time
- unit
- load distribution
- acquisition unit
- business
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Multi Processors (AREA)
Abstract
Description
【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は特に通信ネットワー
クを介したコンピュータシステムのプロセス実行におい
てスケジュールを割り当てる負荷分散方法による装置に
関する。
【0002】
【従来の技術】従来、負荷分散をするものとして例えば
特開平11-3323号公報に記載のように、CPU使用率を用い
てジョブの数を監視、管理することで負荷分散を行うも
のがある。
【0003】
【発明が解決しようとする課題】上記従来技術はCPU利
用率を用いてジョブの数(多重度)を制御し負荷分散を
行うものである。本発明の目的は業務ごとの稼働統計情
報を集計し集計結果を用いてプロセスの数(多重度)を
日時ごとの負荷に合わせて業務ごとに制御し負荷分散を
行うシステムを提供することにある。
【0004】
【課題を解決するための手段】負荷分散演算装置101は
稼動統計取得部102と利用条件情報取得部105と稼働統計
集計部106とプロセス数決定部107とプロセス起動部108
とスケジュールテーブル管理部109を有し、日々の業務
ごとの実行プログラム稼働統計情報を集計し、その情報
から最適な日々の時間に合わせた業務ごとのプロセスの
並列処理数(多重度)を決定するものである。これによ
り正確な負荷分散ができコンピュータ利用の効率化をは
かれる。
【0005】
【発明の実施の形態】以下,本発明の実施の形態につい
て図面を用いて説明する。
【0006】図1は本発明の1実施例である。図1にお
いて、負荷分散演算装置101は業務プログラム111とDB
113を有しネットワーク110を介してひとつ又は複数のク
ライアントコンピュータ112に接続されている。
【0007】負荷分散演算装置101は日々の業務ごとの
実行プログラム稼働統計情報を集計し、その情報から日
々ごとの時間帯に合わせたプロセスの多重度を決定する
ものであり、稼動統計取得部102と利用条件情報取得部1
05と稼働統計集計部106とプロセス数決定部107とプロセ
ス起動部108とスケジュールテーブル管理部109より成
る。
【0008】ここでプロセスとはオペレーティングシス
テムによって実行されているプログラムのインスタンス
である。稼動統計取得部102は現在の利用している業務
ごとの実行プロセスのプログラム名称、処理要求発生時
間、開始時間、終了時間を取得しDB113に格納するも
のでありプロセス情報取得部103と時間計測部104より成
る。このフローを図2に示す。
【0009】利用条件情報取得部105は本システムの利
用者が予め定義・設定した業務ごと、日時ごとの目標平
均応答時間を取得し、スケジュールテーブル管理部109
にその情報を渡すものである。
【0010】稼働統計集計部106はDB113より稼動統計
情報を取得し、業務ごと、日時ごとの平均処理時間を集
計し、その結果をスケジュールテーブル管理部109に渡
すものである。平均処理時間の集計方法は、終了時間と
開始時間の差分を処理時間とし、業務ごとの処理時間を
日時ごとに積算し、その結果を員数で割り算し、平均処
理時間とするものである。また、平均処理要求発生間隔
の集計方法は、業務ごとの処理要求発生時間をソート
し、日時ごとにデータ数をカウントし、平均処理要求発
生数とするものである。
【0011】プロセス数決定部107はスケジュールテー
ブル管理部109から取得した業務ごと、日時ごとの平均
発生時間、平均処理時間より利用者が予め設定した平均
応答時間目標値条件を満たしたプロセスの多重度を決定
しスケジュールテーブル管理部109にその情報を渡すも
のである。このフローを図3に示す。
【0012】プロセス起動部108はスケジュールテーブ
ル管理部109からの業務ごと日時ごとに決定したプロセ
スの多重度数分の業務プログラム111のインスタンスを
起動するものである。スケジュールテーブル管理部109
は利用条件情報取得部105、プロセス数決定部107によっ
て、業務ごと日時ごとに作成される。このスケジュール
テーブル管理部109の詳細は図4に示す。
【0013】DB113は稼動統計取得部102により得た業
務プログラム名称、処理要求発生時間、開始時間、終了
時間の情報を格納するものである。この詳細を図5に示
す。
【0014】図2は稼働統計取得部102のフローであ
る。稼働統計取得部102はクライアントからの処理要求
の到着により処理要求発生時間(201)を取得、業務プロ
グラム名称(202)の取得を行う。その後業務プログラム
の開始時間の取得(203)を行い、プログラムが実行され
業務プログラムの終了時間の取得(204)を行いDB113へ
格納(205)する。
【0015】図3はプロセス数決定部107のフローであ
る。スケジュールテーブル管理部109から業務ごと日時
ごとの平均処理時間と平均処理要求発生数を取得(301)
しプロセス数決定計算(302)を行う。ここでのプロセス
数決定計算では一般に知られているものを使用する。例
えば待ち行列理論がある。(新版 情報処理ハンドブッ
ク P46)(ソフトウェア開発技術者午後問題の重点対
策2002 P249)その結果算出された業務ごとのプロセ
スの多重度をスケジュールテーブル管理部109へ渡す(30
3)。
【0016】例としてスケジュールテーブル管理部109
より、業務ごと日時ごとの平均処理要求発生数(404)、
平均処理時間(405)を取得し処理率を算出し、簡易計算
図表(M/M/m型)をもとに、業務ごと、日時ごとの目標平
均応答時間以内に収まるサービス窓口をプロセスの多重
度として決定する。
【0017】図4はスケジュールテーブル管理部テーブ
ルである。利用条件情報取得部105、稼働統計集計部10
6、プロセス数決定部(107)により得た業務ごと日時ごと
の集計単位(401)、業務プログラム名称(402)、平均応答
時間(403)、平均処理要求発生数(404)、平均処理時間(4
05)、プロセス数(406)を格納している。
【0018】図5は業務プログラム情報テーブルであ
る。稼働統計取得部より得た業務ごと日時ごとの業務プ
ログラム名称(501)、処理要求発生時間(502)、開始時間
(503)、終了時間(504)を格納している。
【0019】このようにして、処理受付数を過去の集計
結果から求め、処理受付数分の子プロセスを予め生成し
て、メモリー上の空間を確保しておくことで、効率的に
負荷分散を行うことが可能となる。
【0020】
【発明の効果】本発明は、業務ごとの稼動統計情報を集
計し集計結果を用いてプロセスの数(多重度)を日時ご
との負荷に合わせて業務ごとに制御し負荷分散を行うこ
とで、コンピュータ間での効率化を実現し柔軟性に富ん
だ負荷分散システムを提供することが可能となる。Description: BACKGROUND OF THE INVENTION [0001] 1. Field of the Invention [0002] The present invention relates to an apparatus for executing a process in a computer system via a communication network. 2. Description of the Related Art Conventionally, load distribution is performed by monitoring and managing the number of jobs using a CPU usage rate as disclosed in, for example, Japanese Patent Application Laid-Open No. 11-3323. There is something. [0003] The above-mentioned prior art controls the number of jobs (multiplicity) using the CPU utilization to perform load distribution. It is an object of the present invention to provide a system in which operation statistical information is aggregated for each business and the number of processes (multiplicity) is controlled for each business in accordance with the load for each date and time using the totaled result, thereby distributing the load. . [0004] The load distribution arithmetic unit 101 includes an operation statistics acquisition unit 102, a use condition information acquisition unit 105, an operation statistics aggregation unit 106, a process number determination unit 107, and a process activation unit 108.
And the schedule table management unit 109, which aggregates the execution program operation statistical information for each day-to-day operation, and determines the number of parallel processes (multiplicity) of the process for each operation in accordance with the optimum daily time from the information. Things. As a result, accurate load distribution can be performed, and efficiency of computer use can be improved. An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 shows an embodiment of the present invention. In FIG. 1, a load balancing arithmetic device 101 includes a business program 111 and a DB.
It has a connection 113 and is connected to one or more client computers 112 via a network 110. [0007] The load balancing arithmetic unit 101 compiles the operation program operation statistical information for each day's work, and determines the multiplicity of the process according to the time period of each day from the information. And usage condition information acquisition unit 1
05, an operation statistics totalizing unit 106, a process number determining unit 107, a process starting unit 108, and a schedule table managing unit 109. [0008] Here, a process is an instance of a program executed by an operating system. The operation statistics acquisition unit 102 acquires a program name, a processing request occurrence time, a start time, and an end time of an execution process for each currently used task and stores them in the DB 113. The process information acquisition unit 103 and the time measurement unit Consists of 104. This flow is shown in FIG. A use condition information acquisition unit 105 acquires a target average response time for each task and each date and time defined and set in advance by a user of the present system.
To pass that information on. The operation statistics totalizing unit 106 obtains the operation statistical information from the DB 113, totals the average processing time for each task and for each date and time, and passes the result to the schedule table management unit 109. In the method of counting the average processing time, the difference between the end time and the start time is used as the processing time, the processing time for each task is integrated for each date and time, and the result is divided by the number of members to obtain the average processing time. In addition, the method of counting the average processing request generation intervals is to sort the processing request generation time for each task, count the number of data for each date and time, and use it as the average processing request generation number. The number-of-processes determining unit 107 determines the multiplicity of a process that satisfies the average response time target value condition set in advance by the user based on the average occurrence time and the average processing time for each task and date and time acquired from the schedule table management unit 109. And passes the information to the schedule table management unit 109. This flow is shown in FIG. The process starting unit 108 starts instances of the business program 111 from the schedule table management unit 109 for the number of multiplicity of the process determined for each business and for each date and time. Schedule table management unit 109
Is created by the use condition information acquisition unit 105 and the number-of-processes determination unit 107 for each task and each date. Details of the schedule table management unit 109 are shown in FIG. The DB 113 stores the information of the business program name, the processing request generation time, the start time, and the end time obtained by the operation statistics acquisition unit 102. The details are shown in FIG. FIG. 2 is a flowchart of the operation statistics acquisition unit 102. The operation statistics acquisition unit 102 acquires a processing request generation time (201) upon arrival of a processing request from a client, and acquires a business program name (202). Thereafter, the start time of the business program is obtained (203), the program is executed, and the end time of the business program is obtained (204) and stored in the DB 113 (205). FIG. 3 is a flowchart of the process number determination unit 107. Obtain the average processing time and the average number of processing requests generated for each task and date from the schedule table management unit 109 (301)
Then, a process number determination calculation (302) is performed. In the calculation for determining the number of processes, a generally known process is used. For example, there is queuing theory. (New Version Information Processing Handbook P46) (Priority Measures for Afternoon Problems of Software Development Engineer 2002 P249) The resulting multiplicity of the process for each task is passed to the schedule table management unit 109 (30
3). As an example, the schedule table management unit 109
From the average number of processing request occurrences per business and date and time (404),
Obtain the average processing time (405) and calculate the processing rate.Based on the simplified calculation chart (M / M / m type), the number of service counters within the target Determined as severe. FIG. 4 shows a schedule table management table. Usage condition information acquisition unit 105, operation statistics aggregation unit 10
6.Aggregation unit (401), business program name (402), average response time (403), average processing request occurrence count (404), average processing time (401) Four
05) and the number of processes (406) are stored. FIG. 5 shows a business program information table. Business program name (501), processing request generation time (502), start time for each business and date and time obtained from the operation statistics acquisition unit
(503) and the end time (504). In this way, the number of accepted processes is obtained from the past totaling result, child processes for the number of accepted processes are generated in advance, and the space on the memory is secured, so that the load distribution can be efficiently performed. It is possible to do. According to the present invention, load distribution is performed by totalizing operation statistical information for each business and controlling the number of processes (multiplicity) according to the load for each date and time for each business using the totaled result. As a result, it is possible to realize an efficient load sharing system that realizes efficiency between computers and is flexible.
【図面の簡単な説明】 【図1】負荷分散システム1実施例 【図2】稼働統計取得部102フロー図 【図3】プロセス数決定部107フロー図 【図4】スケジュールテーブル 【図5】業務プログラム情報テーブル 【符号の説明】 101 負荷分散演算装置 102 稼動統計取得部 103 プロセス情報取得部 104 時間計測部 105 利用条件情報取得部 106 稼動統計集計部 107 プロセス数決定部 108 プロセス起動部 109 スケジュールテーブル管理部 110 ネットワーク 111 業務プログラム 112 クライアントコンピュータ 113 データベース[Brief description of the drawings] FIG. 1 shows an embodiment of a load distribution system 1 FIG. 2 is a flowchart of an operation statistics acquisition unit 102; FIG. 3 is a flowchart of a process number determination unit 107; FIG. 4 is a schedule table. FIG. 5 is a business program information table. [Explanation of symbols] 101 load balancing arithmetic unit 102 Operation statistics acquisition unit 103 Process information acquisition unit 104 Time measurement unit 105 Usage condition information acquisition unit 106 Operation statistics aggregation section 107 Process number determination unit 108 Process starter 109 Schedule table management unit 110 network 111 Business Program 112 client computer 113 Database
Claims (1)
ライアントコンピュータに接続されたマルチプロセスコ
ンピュータのプロセス演算装置で、日々のシステムの業
務ごとによる稼働統計情報を集計し、その集計結果と予
め利用者が定義・設定した利用条件情報から、負荷分散
演算装置によって日々の時間帯に合わせた負荷分散を行
う。Claims: 1. A process operation device of a multi-process computer connected to one or a plurality of client computers via a network, and collects operation statistical information for each day's operation of the system and tabulates it. Based on the result and the usage condition information defined and set by the user in advance, the load distribution calculation device performs load distribution in accordance with a daily time zone.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002120212A JP2003316587A (en) | 2002-04-23 | 2002-04-23 | Load distribution system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002120212A JP2003316587A (en) | 2002-04-23 | 2002-04-23 | Load distribution system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003316587A true JP2003316587A (en) | 2003-11-07 |
Family
ID=29536498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002120212A Pending JP2003316587A (en) | 2002-04-23 | 2002-04-23 | Load distribution system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003316587A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012108007A1 (en) * | 2011-02-08 | 2012-08-16 | 富士通株式会社 | Execution control program, execution control device and execution control method |
-
2002
- 2002-04-23 JP JP2002120212A patent/JP2003316587A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012108007A1 (en) * | 2011-02-08 | 2012-08-16 | 富士通株式会社 | Execution control program, execution control device and execution control method |
JP5641064B2 (en) * | 2011-02-08 | 2014-12-17 | 富士通株式会社 | Execution control program, execution control apparatus, and execution control method |
US9378050B2 (en) | 2011-02-08 | 2016-06-28 | Fujitsu Limited | Assigning an operation to a computing device based on a number of operations simultaneously executing on that device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10831633B2 (en) | Methods, apparatuses, and systems for workflow run-time prediction in a distributed computing system | |
US8640132B2 (en) | Jobstream planner considering network contention and resource availability | |
Buddhika et al. | Online scheduling and interference alleviation for low-latency, high-throughput processing of data streams | |
US7979857B2 (en) | Method and apparatus for dynamic memory resource management | |
US7668703B1 (en) | Determining required capacity for a resource | |
Boyer et al. | Load balancing in a changing world: dealing with heterogeneity and performance variability | |
Tiwari et al. | Classification framework of MapReduce scheduling algorithms | |
US7302450B2 (en) | Workload scheduler with resource optimization factoring | |
US20050198636A1 (en) | Dynamic optimization of batch processing | |
CN107003887A (en) | Overloaded cpu setting and cloud computing workload schedules mechanism | |
Etinski et al. | Utilization driven power-aware parallel job scheduling | |
US8103486B1 (en) | Determining feasible variations for assigning applications to resources | |
CN103995735A (en) | Device and method for scheduling working flow | |
Guan et al. | Energy-efficient SLA guarantees for virtualized GPU in cloud gaming | |
Everman et al. | Improving the cost efficiency of large-scale cloud systems running hybrid workloads-A case study of Alibaba cluster traces | |
US20080221857A1 (en) | Method and apparatus for simulating the workload of a compute farm | |
CN107430526B (en) | Method and node for scheduling data processing | |
Cao et al. | Data-driven flexibility assessment for internet data center towards periodic batch workloads | |
Stojkovic et al. | EcoFaaS: Rethinking the Design of Serverless Environments for Energy Efficiency | |
CN109885384A (en) | Task concurrency optimization method, apparatus, computer equipment and storage medium | |
JP2003316587A (en) | Load distribution system | |
Ismail et al. | A formal model of dynamic resource allocation in grid computing environment | |
Molka et al. | Contention-aware workload placement for in-memory databases in cloud environments | |
Zhang et al. | COBRA: Toward provably efficient semi-clairvoyant scheduling in data analytics systems | |
JPH09265459A (en) | Method for controlling data processor |