JP2004038715A - Parallel computing processing method - Google Patents

Parallel computing processing method Download PDF

Info

Publication number
JP2004038715A
JP2004038715A JP2002196882A JP2002196882A JP2004038715A JP 2004038715 A JP2004038715 A JP 2004038715A JP 2002196882 A JP2002196882 A JP 2002196882A JP 2002196882 A JP2002196882 A JP 2002196882A JP 2004038715 A JP2004038715 A JP 2004038715A
Authority
JP
Japan
Prior art keywords
processes
central processing
processing units
cpu
total
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002196882A
Other languages
Japanese (ja)
Inventor
Akira Yoshikawa
吉川 暁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Engineering Co Ltd
Original Assignee
Hitachi Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Engineering Co Ltd filed Critical Hitachi Engineering Co Ltd
Priority to JP2002196882A priority Critical patent/JP2004038715A/en
Publication of JP2004038715A publication Critical patent/JP2004038715A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a parallel computing processing method enhancing CPU operating ratio by effectively using a throughput of a parallel computer. <P>SOLUTION: A process stopping/resuming means 3 is provided for varying the number of processes in executed states by monitoring a working ratio of each central processing unit with respect to the processes and reducing the number of processes in executed states when a total value of the working ratios of all central processing units with respect to the processes is smaller than a predetermined value or newly generating processes in executed states, evaluating the working ratio of each central processing unit with respect to the processes anew, comparing total values of all central processing units with respect to the processes with that before varying the number of processes in executed states, and restoring the number of processes in executed states to the same state as that before the varying of the number of processes when the total sum of all central processing units with respect to the processes has become smaller. By the process stopping/resuming means 3, the total value of the working ratios of the central processing units with respect to processes is maximized. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、複数の中央演算装置(以後、CPUと称する)を有する並列計算機による並列計算処理方法に関する。
【0002】
【従来の技術】
並列計算機は、SMPタイプ、MPPタイプ、およびクラスタタイプの3種類に大別される。SMPタイプは、1つのOSを利用して1つの共有メモリーに複数のCPUを接続する構成の並列計算機であり、MPPタイプは、1つのOSを利用して複数のメモリーに1つないしは複数のCPUを接続する構成の並列計算機である。またクラスタタイプは、単一または複数のCPUを持つ計算機をネットワークにより複数台接続する構成の並列計算機である。このような並列計算機は、従来から科学技術、産業、流通、金融などの多くの分野において利用されている。
【0003】
しかし、一般的に並列計算機の並列計算処理時には、各々のCPU稼働率は100%とはならず、諸所の原因にて稼働率は100%より小さい。これらの原因には、負荷バランスの不均等、通信などの同期待ち、I/O待ちなどがあげられる。この負荷バランスの不均等に対して、特にクラスタタイプの並列計算機においては、例えば、EnFuzion(TurboLinux社)やLSF(プラットフォーム社)といった負荷分散および負荷平準化ユーティリティを用いることにより、CPUを効率良く利用する工夫が行われている。また通信などの同期待ちに対しては、例えば、特開平7−93265号公報に記載のようにCPUの無駄時間を無くすという工夫が行われている。
【0004】
【発明が解決しようとする課題】
しかしながら、従来の負荷分散および負荷平準化ユーティリティを用いた並列計算処理方法は、空きCPUや負荷の低いCPUに対してプロセスをディスパッチするだけであり、ディスパッチ後の制御を行なわない。そのため、あるCPUにプロセスをディスパッチした後に、そのCPUが過負荷状態になり稼働率が低下したとしても、何等解決策を持たない。さらに、多くの並列処理方法の考え方は、単一のジョブに対して、そのジョブを如何にして高速に行なうかという観点で考えられたものであるため、全体時間最適化という観点が無い。ここで全体時間最適化とは、複数のジョブを含めた場合に、CPU稼働率を高めることによりトータルとして計算時間を最短にすることである。
【0005】
本発明の目的は、並列計算機の処理能力を有効に活用してCPU稼働率を高めた並列計算処理方法を提供することにある。
【0006】
【課題を解決するための手段】
本発明は上記目的を達成するために、複数の中央演算装置を有する並列計算機で複数のプロセスを同時に処理する並列計算処理方法において、各々の上記中央演算装置のプロセスに対する稼働率を監視し、上記全中央演算装置のプロセスに対する稼働率の合計値から実行状態のプロセス数の増減を行ない、改めて各々の上記中央演算装置のプロセスに対する稼働率を評価して実行状態のプロセス数の増減以前との上記全中央演算装置のプロセスに対する稼働率の合計値を比較し、全中央演算装置のプロセスに対する稼働率の合計値が小さくなった場合に実行状態のプロセスの増減以前と同じ状態に戻すことを特徴とする。
【0007】
本発明による並列計算処理方法は、各々の中央演算装置のプロセスに対する稼働率を監視し、全中央演算装置のプロセスに対する稼働率の合計値から実行状態のプロセス数の増減を行ない、改めて各々の中央演算装置のプロセスに対する稼働率を評価して実行状態のプロセス数の増減以前との全中央演算装置のプロセスに対する稼働率の合計値を比較し、全中央演算装置のプロセスに対する稼働率の合計値が小さくなった場合に実行状態のプロセスの増減以前と同じ状態に戻すようにしたため、並列処理度数が大きくなることにより発生するメモリなどのリソース不足やプロセス間の同期待ちなどより、並列処理度数を増加させてもCPU稼働率が大きくならない場合、適切な並列処理度数を自動的に選択して処理することができ、並列計算機の処理能力を有効に活用してCPU稼働率を高めることができ、並列計算機の保有コストの低減や並列計算機の有効利用をはかることができる。
【0008】
【発明の実施の形態】
以下、本発明の実施の形態を図面に基づいて説明する。
図1は、本発明の一実施の形態による並列計算処理方法を採用した並列計算機の要部を示すブロック構成図である。
並列計算機は、基本ソフトウェア(OS)1と、CPU稼働率検査手段2と、プロセス停止再開手段3と、プロセス実行手段4と、主記憶手段5と、二次記憶手段6とを有して構成されている。
【0009】
図2は、上述したプロセス停止再開手段3の処理動作を示すフローチャートである。
ここでCPU稼働率は、測定全体時間Δt=10秒で、プロセス実行にCPUが利用された合計時間ts=2+2+1=5秒であったとすると、CPU稼働率=合計時間ts/測定全体時間Δt×100(%)=5/10×100(%)=50%となる。このCPU稼働率に注目すると、あるCPUで実行されているプロセスがメモリバウンドやI/Oバウンドの場合、システムによるメモリスワップ処理やI/O待ち処理の時間が相対的に大きくなり、CPU稼働率は小さくなり、逆に、プロセスがCPUバウンドの場合、システムによるメモリスワップ処理やI/O待ち処理の時間が相対的に小さくなり、CPU稼働率は大きくなる傾向を持っている。
【0010】
まず、図3に示したタイミングチャートを用いてプロセス停止再開手段3の処理動作について説明する。同図は、CPU数が4の並列計算機上で複数のプロセスを動作させたときの各CPUと合計のCPU稼働率を示したタイミングチャートである。
外部のオペレータ等からあるジョブの実行が時刻t0に指示されると、基本ソフトウェア1により、プロセス実行手段4が各CPU上でプロセスの実行を開始する。ここでは時刻t0においてプロセス1〜プロセス3がCPU1〜CPU3上で実行され、この時刻t0以降ではCPU1〜CPU3の稼働率が各々100%となり、合計で100%×3=300%とになっている。
【0011】
また時刻t0より定期的に予め決められた測定全体時間Δtの間隔でCPU稼働率検査手段2はCPU稼働率を監視し、CPU稼働率検査手段2で得られたCPU稼働率により、プロセス停止再開手段4は図2に示したフローチャートに従って処理を実行する。ステップS1において合計CPU稼働率<所定値、かつ、1<実効状態プロセス数か否か判定を行ない、ここで所定値が200%に設定されていると仮定すると、合計CPU稼働率(300%)>所定値(200%)となり、ステップS8の終了となる。
【0012】
次に、このジョブは時刻t1以降において主記憶手段5の利用量が大きくなり、基本ソフトウェア1により主記憶手段5と二次記憶手段6との間でメモリースワッピングが発生し、時刻t1以降では、CPU1〜CPU3の稼働率が各々50%となり、合計で50%×3=150%に小さくなったとする。
【0013】
このときプロセス停止再開手段3は、ステップS1において、合計CPU稼働率(150%)<所定値(200%)、かつ、1<実行プロセス数(3)であるため、ステップS2へ進み時刻t2でCPU3の実行プロセスを停止する。このt2以降では、プロセスが1つ減ったために主記憶手段5に余裕ができ、CPU1〜CPU2の稼働率が90%に大きくなったとする。従って、ステップS3で合計CPU稼働率が大きくなったか否かが判断させると、合計CPU稼働率は90%×2=180%となりステップS2以前より大きくなっているためステップS8で終了となる。
【0014】
一方、時刻t2においてプロセスが1つ減ったにも拘わらず主記憶手段5に十分な余裕ができない場合について、図4に示したタイミングチャートを用いて説明する。
時刻t3〜時刻t5までは、図3の時刻t0〜時刻t2と同様に推移する。しかし時刻t5において主記憶手段5に十分な余裕ができないために、CPU1〜CPU2の稼働率が70%までしか大きくならなかったとする。この場合、ステップS3では合計CPU稼働率が70%×2=140%と、ステップS2以前より小さくなっているためステップS4へ進み、先のステップS2で停止したCPU3のプロセスを時刻t6で元に戻して再開する。さらにステップS5では時刻t7で実行プロセス数を増やしてCPU4でプロセスを実行する。ここで、時刻t7以降CPU1〜CPU4の稼働率が50%になったとすると、ステップS6で合計CPU稼働率が大きくなったか否かが判定され、合計CPU稼働率が40%×4=160%となりステップS5以前より大きくなっているため、ステップS8で終了となる。
【0015】
また、時刻t7においてプロセスが1つ増えたために主記憶手段5に十分な余裕が無くなった場合について、図5に示したタイミングチャートを用いて説明する。
時刻t8〜時刻t12までは、図4の時刻t3〜時刻t7と同様に推移し、時刻t12において主記憶手段5に十分な余裕ができないために、CPU1〜CPU4の稼働率が30%までしか大きくならなかったとする。この場合、ステップS6では、合計CPU稼働率が30%×4=120%となり、ステップS5以前より小さくなっているためステップS7へ進む。このステップS7では、ステップS5の処理を元に戻してCPU4のプロセスを停止し、その後、ステップS8で終了となる。
【0016】
上述の説明から分かるように、並列処理度数が大きくなることにより発生するメモリなどのリソース不足やプロセス間の同期待ちなどより、並列処理度数を増加させてもCPU稼働率が大きくならない場合、適切な並列処理度数を自動的に選択して処理することができる。
【0017】
また、I/Oバウンドの場合は使用するCPU数より大きな値を並列処理度数とすることで、CPU稼働率を大きくすることも可能である。これは、ラウンドロビンCPU割り当て方式において、タイムクォンタムの設定値を減少させたときに、I/Oバウンドのプロセスの処理時間が相対的に短くなることと同じ効果を得られる。つまり、例えば1つのCPUに対して2つのI/Oバウンドのプロセスを割り当てると、1つのプロセスがI/O処理を行なっている間に、もう一方のプロセスがCPUを利用できるため、全体としてCPU稼働率が大きくなることを示している。さらに、単一のジョブの並列処理に対してだけでなく、複数の異なるジョブの同時並行処理に対しても有効である。
【0018】
尚、上述した実施の形態では、合計CPU稼働率と比較する所定値を設定し、合計CPU稼働率が所定値より小さい場合、実効状態のプロセス数を減らすか、または新たに実効状態のプロセスを発生させるかの実行状態のプロセス数の増減を行なうようにしたため、合計CPU稼働率が所定値より大きい状態では、プロセス停止再開手段3による調整をあえて行なわないので、合計CPU稼働率の望ましい状態での不安定な動作を繰り返すこともない。しかし、このような動作が許容されるなら、所定値を必ずしも設定する必要はない。
【0019】
【発明の効果】
以上説明したように本発明の並列計算処理方法によれば、並列計算機の処理能力を有効に活用してCPU稼働率を高めることができ、並列計算機の保有コストの低減や並列計算機の有効利用をはかることができる。
【図面の簡単な説明】
【図1】本発明の一実施の形態による並列計算処理方法を採用した並列計算機の要部を示すブロック構成図である。
【図2】図1に示した並列計算機のプロセス停止再開手段の処理動作を示すフローチャートである。
【図3】図1に示した並列計算機による並列処理を示すタイミングチャートである。
【図4】図1に示した並列計算機による他の並列処理を示すタイミングチャートである。
【図5】図1に示した並列計算機によるさらに他の並列処理を示すタイミングチャートである。
【符号の説明】
1 基本ソフトウェア(OS)
2 CPU稼働率検査手段
3 プロセス停止再開手段
4 プロセス実行手段
5 主記憶手段
6 二次記憶手段
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a parallel computing method using a parallel computer having a plurality of central processing units (hereinafter, referred to as CPUs).
[0002]
[Prior art]
Parallel computers are roughly classified into three types: SMP type, MPP type, and cluster type. The SMP type is a parallel computer configured to connect a plurality of CPUs to one shared memory using one OS, and the MPP type is configured to use one OS to store one or a plurality of memories in a plurality of memories. This is a parallel computer configured to connect a CPU. The cluster type is a parallel computer having a configuration in which a plurality of computers having a single or a plurality of CPUs are connected by a network. Such parallel computers have been conventionally used in many fields such as science and technology, industry, distribution, and finance.
[0003]
However, in general, at the time of parallel calculation processing by a parallel computer, the CPU operation rate does not reach 100%, and the operation rate is smaller than 100% due to various factors. These causes include uneven load balance, synchronization waiting for communication, and I / O waiting. In order to deal with the uneven load balance, especially in a cluster type parallel computer, the CPU is efficiently used by using a load distribution and load leveling utility such as EnFuzion (TurboLinux) or LSF (Platform). Some ingenuity has been made. For synchronization waiting for communication or the like, for example, as described in JP-A-7-93265, a contrivance has been made to eliminate the dead time of the CPU.
[0004]
[Problems to be solved by the invention]
However, the conventional parallel computing method using the load distribution and load leveling utility only dispatches processes to idle CPUs or CPUs with a low load, and does not perform control after dispatching. Therefore, even if the CPU is overloaded and the operation rate is reduced after dispatching a process to a certain CPU, there is no solution. Furthermore, since many parallel processing methods are conceived from the viewpoint of how to execute a single job at high speed, there is no viewpoint of overall time optimization. Here, the overall time optimization is to minimize the total calculation time by increasing the CPU operation rate when a plurality of jobs are included.
[0005]
SUMMARY OF THE INVENTION An object of the present invention is to provide a parallel computing method in which the CPU operating rate is increased by effectively utilizing the processing capacity of a parallel computer.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides a parallel processing method for simultaneously processing a plurality of processes by a parallel computer having a plurality of central processing units. The number of processes in the execution state is increased or decreased from the total value of the operation rates for the processes of all the central processing units, and the operation rate for each of the central processing units is evaluated again. Comparing the total value of the operation rates of the processes of all the central processing units, and when the total value of the operation ratios of the processes of all the central processing units becomes smaller, returning to the same state as before the increase or decrease of the process in the running state. I do.
[0007]
The parallel computing method according to the present invention monitors the operation rate of each central processing unit for a process, increases or decreases the number of processes in an execution state from the total value of the operation rates for all the central processing units, and renews each central processing unit. Evaluate the operation rate of the processing of the processing units and compare the total value of the operation rates of the processes of all the central processing units before and after the increase or decrease in the number of processes in the running state. When the number of processes becomes smaller, the number of running processes is returned to the same state as before. Therefore, the number of parallel processes increases due to lack of resources such as memory and synchronization waiting between processes caused by the increase in the number of parallel processes. If the CPU utilization rate does not increase even if it is performed, an appropriate parallel processing frequency can be automatically selected and processed. Processing power by effectively utilizing the can increase the CPU operation rate, it is possible to achieve effective use of reduction and parallel computer cost of ownership of a parallel computer.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a main part of a parallel computer adopting a parallel computing method according to an embodiment of the present invention.
The parallel computer includes basic software (OS) 1, CPU operation rate checking means 2, process stop / resume means 3, process execution means 4, main storage means 5, and secondary storage means 6. Have been.
[0009]
FIG. 2 is a flowchart showing the processing operation of the process stop / restart means 3 described above.
Here, assuming that the CPU operation rate is the total measurement time Δt = 10 seconds and the total time ts used for the process execution is ts = 2 + 2 + 1 = 5 seconds, the CPU operation rate = total time ts / total measurement time Δt × 100 (%) = 5/10 × 100 (%) = 50%. Paying attention to this CPU operation rate, when a process executed by a certain CPU is a memory bound or an I / O bound, the time of the memory swap processing or the I / O waiting processing by the system becomes relatively long, and the CPU operating rate becomes large. On the other hand, when the process is CPU bound, the time for the memory swap processing and the I / O wait processing by the system is relatively reduced, and the CPU operating rate tends to increase.
[0010]
First, the processing operation of the process stop / restart means 3 will be described with reference to the timing chart shown in FIG. FIG. 11 is a timing chart showing the CPU utilization and the total CPU operation rate when a plurality of processes are operated on a parallel computer having four CPUs.
When the execution of a certain job is instructed by an external operator or the like at time t0, the basic software 1 causes the process execution means 4 to start executing the process on each CPU. Here, at time t0, processes 1 to 3 are executed on CPU1 to CPU3, and after this time t0, the operation rates of CPU1 to CPU3 are each 100%, and the total is 100% × 3 = 300%. .
[0011]
Further, the CPU operating rate inspection means 2 periodically monitors the CPU operating rate at intervals of a predetermined total measurement time Δt from time t0, and resumes the process stop based on the CPU operating rate obtained by the CPU operating rate inspection means 2. The means 4 executes processing according to the flowchart shown in FIG. In step S1, it is determined whether or not the total CPU operation rate <predetermined value and 1 <the number of effective state processes. Here, assuming that the predetermined value is set to 200%, the total CPU operation rate (300%) > Predetermined value (200%), and step S8 ends.
[0012]
Next, in this job, the usage amount of the main storage unit 5 increases after time t1, and memory swapping occurs between the main storage unit 5 and the secondary storage unit 6 by the basic software 1, and after time t1, It is assumed that the operation rates of CPU1 to CPU3 are each 50%, and the total is reduced to 50% × 3 = 150%.
[0013]
At this time, since the total CPU operation rate (150%) <predetermined value (200%) and 1 <the number of executed processes (3) in step S1, the process stop / restart means 3 proceeds to step S2 and at time t2. The execution process of the CPU 3 is stopped. After t2, it is assumed that the main storage unit 5 has a margin because the number of processes is reduced by one, and that the operating rates of the CPU1 and the CPU2 increase to 90%. Therefore, if it is determined in step S3 whether the total CPU operation rate has increased, the total CPU operation rate is 90% × 2 = 180%, which is higher than that before step S2, and the process ends in step S8.
[0014]
On the other hand, a case where a sufficient margin cannot be provided in the main storage unit 5 even though the number of processes has decreased by one at time t2 will be described with reference to a timing chart shown in FIG.
The transition from time t3 to time t5 is similar to that from time t0 to time t2 in FIG. However, at time t5, it is assumed that the operating rate of CPU1 and CPU2 has increased only up to 70% because there is not enough room in main storage unit 5. In this case, in step S3, the total CPU operation rate is 70% × 2 = 140%, which is smaller than that before step S2, so that the process proceeds to step S4, and the process of CPU 3 stopped in the previous step S2 is restored at time t6. Return and resume. In step S5, the number of processes to be executed is increased at time t7, and the CPU 4 executes the processes. Here, assuming that the operating rates of CPU1 to CPU4 have become 50% after time t7, it is determined in step S6 whether or not the total CPU operating rate has increased, and the total CPU operating rate becomes 40% × 4 = 160%. Since it is larger than before step S5, the process ends in step S8.
[0015]
Also, a case where the main storage means 5 has no sufficient margin at time t7 due to the addition of one process will be described with reference to the timing chart shown in FIG.
The transition from the time t8 to the time t12 is similar to the transition from the time t3 to the time t7 in FIG. 4. At the time t12, the main storage unit 5 cannot have a sufficient margin. Suppose you didn't. In this case, in step S6, the total CPU operation rate is 30% × 4 = 120%, which is smaller than that before step S5, so that the process proceeds to step S7. In step S7, the process of step S5 is returned to the original state, the process of the CPU 4 is stopped, and then the process ends in step S8.
[0016]
As can be understood from the above description, if the CPU operation rate does not increase even if the parallel processing frequency is increased due to lack of resources such as memory or synchronization waiting between processes caused by the increase in the parallel processing frequency, an appropriate The degree of parallel processing can be automatically selected and processed.
[0017]
Further, in the case of I / O bound, the CPU operation rate can be increased by setting a value larger than the number of CPUs used as the parallel processing frequency. This has the same effect as reducing the set value of the time quantum in the round-robin CPU allocation method, whereby the processing time of the I / O bound process becomes relatively shorter. That is, for example, if two I / O-bound processes are assigned to one CPU, while one process is performing I / O processing, the other process can use the CPU. This indicates that the operation rate increases. Further, the present invention is effective not only for the parallel processing of a single job but also for the parallel processing of a plurality of different jobs.
[0018]
In the above-described embodiment, a predetermined value to be compared with the total CPU operation rate is set, and when the total CPU operation rate is smaller than the predetermined value, the number of processes in the effective state is reduced or a new process in the effective state is set. Since the number of processes in the execution state is increased or decreased, if the total CPU operation rate is larger than a predetermined value, no adjustment is made by the process stop / restart means 3 so that the total CPU operation rate is not desired. It does not repeat the unstable operation of. However, if such an operation is allowed, it is not necessary to set the predetermined value.
[0019]
【The invention's effect】
As described above, according to the parallel computing method of the present invention, it is possible to increase the CPU utilization rate by effectively utilizing the processing capacity of the parallel computer, to reduce the cost of holding the parallel computer and to effectively use the parallel computer. Can be measured.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a main part of a parallel computer employing a parallel computing method according to an embodiment of the present invention.
FIG. 2 is a flowchart illustrating a processing operation of a process stop / restart unit of the parallel computer illustrated in FIG. 1;
FIG. 3 is a timing chart showing parallel processing by the parallel computer shown in FIG. 1;
FIG. 4 is a timing chart showing another parallel processing by the parallel computer shown in FIG. 1;
FIG. 5 is a timing chart showing still another parallel processing by the parallel computer shown in FIG. 1;
[Explanation of symbols]
1 Basic software (OS)
2 CPU operation rate inspection means 3 Process stop / resume means 4 Process execution means 5 Main storage means 6 Secondary storage means

Claims (1)

複数の中央演算装置を有する並列計算機で複数のプロセスを同時に処理する並列計算処理方法において、各々の上記中央演算装置のプロセスに対する稼働率を監視し、上記全中央演算装置のプロセスに対する稼働率の合計値から実行状態のプロセス数の増減を行ない、改めて各々の上記中央演算装置のプロセスに対する稼働率を評価して実行状態のプロセス数の増減以前との上記全中央演算装置のプロセスに対する稼働率の合計値を比較し、上記全中央演算装置のプロセスに対する稼働率の合計値が小さくなった場合に実行状態のプロセスの増減以前と同じ状態に戻すことを特徴とする並列計算処理方法。In a parallel processing method for simultaneously processing a plurality of processes by a parallel computer having a plurality of central processing units, an operating rate of each of the central processing units for the process is monitored, and a total of operating rates of the processes of all the central processing units is calculated. The number of processes in the execution state is increased / decreased from the value, and the operation rate of each of the central processing units is evaluated again, and the sum of the operation rates of the processes of all the central processing units before and after the increase / decrease in the number of processes in the execution state is evaluated. A parallel computing method comprising comparing the values of the processes and returning to the same state as before the increase or decrease in the number of processes in the execution state when the total value of the operation rates of the processes of all the central processing units decreases.
JP2002196882A 2002-07-05 2002-07-05 Parallel computing processing method Pending JP2004038715A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002196882A JP2004038715A (en) 2002-07-05 2002-07-05 Parallel computing processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002196882A JP2004038715A (en) 2002-07-05 2002-07-05 Parallel computing processing method

Publications (1)

Publication Number Publication Date
JP2004038715A true JP2004038715A (en) 2004-02-05

Family

ID=31704789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002196882A Pending JP2004038715A (en) 2002-07-05 2002-07-05 Parallel computing processing method

Country Status (1)

Country Link
JP (1) JP2004038715A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080583A (en) * 2007-09-25 2009-04-16 Toshiba Corp Information processor, parallel processing optimization system, and program
JP2010055405A (en) * 2008-08-28 2010-03-11 Hitachi Ltd Execution environment selection system, execution environment selecting method, and execution environment selection program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009080583A (en) * 2007-09-25 2009-04-16 Toshiba Corp Information processor, parallel processing optimization system, and program
JP2010055405A (en) * 2008-08-28 2010-03-11 Hitachi Ltd Execution environment selection system, execution environment selecting method, and execution environment selection program

Similar Documents

Publication Publication Date Title
US7152169B2 (en) Method for providing power management on multi-threaded processor by using SMM mode to place a physical processor into lower power state
US8893148B2 (en) Performing setup operations for receiving different amounts of data while processors are performing message passing interface tasks
US8312464B2 (en) Hardware based dynamic load balancing of message passing interface tasks by modifying tasks
US8108876B2 (en) Modifying an operation of one or more processors executing message passing interface tasks
US7441240B2 (en) Process scheduling apparatus, process scheduling method, program for process scheduling, and storage medium recording a program for process scheduling
JP2003241980A (en) Thread dispatch mechanism and method for multiprocessor computer systems
US10528119B2 (en) Dynamic power routing to hardware accelerators
JP2010079622A (en) Multi-core processor system and task control method thereof
US9354934B2 (en) Partitioned shared processor interrupt-intensive task segregator
US20090064166A1 (en) System and Method for Hardware Based Dynamic Load Balancing of Message Passing Interface Tasks
JP2010086145A (en) Distributed processing system
US7441242B2 (en) Monitoring performance of a logically-partitioned computer
EP1393175A2 (en) A resource management method
JP6477260B2 (en) Method and resource manager for executing an application
JP2019114173A (en) Information processing apparatus, information processing method, and program
JP2638065B2 (en) Computer system
CN103034539A (en) Server system and power management method thereof
Zhao et al. Insight and reduction of MapReduce stragglers in heterogeneous environment
Mehta et al. BI batch manager: a system for managing batch workloads on enterprise data-warehouses
JP2004038715A (en) Parallel computing processing method
CN102385529B (en) Multi-CPU (Central Processing Unit) domain mobile electronic device and operating method thereof
Cai et al. A simulation study of dynamic load balancing for network-based parallel processing
Benoit et al. Models and complexity results for performance and energy optimization of concurrent streaming applications
Arndt et al. Batch Queueing in the WINNER Resource Management System.
Nunokawa et al. Conflict-aware workload co-execution on SX-aurora TSUBASA