JP2806262B2 - マルチプロセッサシステムのプロセス割当方法 - Google Patents

マルチプロセッサシステムのプロセス割当方法

Info

Publication number
JP2806262B2
JP2806262B2 JP6119781A JP11978194A JP2806262B2 JP 2806262 B2 JP2806262 B2 JP 2806262B2 JP 6119781 A JP6119781 A JP 6119781A JP 11978194 A JP11978194 A JP 11978194A JP 2806262 B2 JP2806262 B2 JP 2806262B2
Authority
JP
Japan
Prior art keywords
multiprocessor system
matrix
decomposition
processing
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP6119781A
Other languages
English (en)
Other versions
JPH07325806A (ja
Inventor
英一 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP6119781A priority Critical patent/JP2806262B2/ja
Publication of JPH07325806A publication Critical patent/JPH07325806A/ja
Application granted granted Critical
Publication of JP2806262B2 publication Critical patent/JP2806262B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Multi Processors (AREA)
  • Complex Calculations (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はマルチプロセッサシステ
ムのプロセス割当方法に関し、特に行列を上三角行列と
下三角行列の積に分解するさいに発生する処理をマルチ
プロセッサシステムの各プロセスに割り当てるためにマ
ルチプロセッサシステムのプロセス割当方法に関する。
【0002】
【従来の技術】マルチプロセッサシステムは複数のプロ
セッサを有する。これら複数のプロセッサは並列に処理
を実行する。マルチプロセッサシステムは、各プロセッ
サに割り当てられる処理の演算数を均等にすると、処理
効率が向上するという特性を有する。各プロセッサに割
り当てられる演算数が異なると、少数の演算を割り当て
られたプロセッサは、大量の演算を割り当てられたプロ
セッサの処理終了を待機しなくてはならないからであ
る。
【0003】これとは別に、行列Aを上三角行列と下三
角行列の積に分解(LU分解)する計算が、科学技術計
算で頻繁に実行される。連立一次方程式の求解に利用さ
れるためである。また、行列Aが対称行列のとき、行列
Aは上三角行列と対角行列と前記上三角行列の転地行列
との積に分解(LDLT分解)される。これらの計算
は、行列Aの次数の増大とともに、その計算量が急激に
増加する。このため、情報処理装置の特性を利用して、
行列の分解計算を高速化する技術が提案されている。な
お、LDLT分解は、分解される行列が対称行列の場合
のLU分解計算である。
【0004】情報処理装置を用いて行列のLU分解を行
う技術の一例は、津田孝夫著1990年岩波書店発行
「岩波講座ソフトウエア科学9 数値処理プログラミン
グ」第118〜125頁に記載されている。特に同文献
第121頁には、外積形式ガウス法のアルゴリズムが記
載されている。このアルゴリズムにしたがって演算を実
行すれば、行列のLU分解を行うことができる。
【0005】また、行列を複数のブロックに分解してL
DLT分解を行う技術の一例は、丸善株式会社発行「コ
ンピュータによる連立一次方程式の解法−ベクトル計算
機と並列計算機−」第78〜86頁に記載されている。
特に同文献第83頁には、対称行列を複数のブロックに
分解してのLDLT分解を行う方法が数学的に開示され
ている。
【0006】
【発明が解決しようとする課題】これらの従来技術で
は、前述したマルチプロセッサシステムの特性が全く利
用されていなかった。つまり、マルチプロセッサの各プ
ロセッサの演算数が均等になるように、各プロセッサに
処理を割り当てるための処理は行われていない。このた
め、各プロセッサの処理時間は均等になず、行列の分解
計算に時間がかかるという問題点があった。
【0007】
【課題を解決するための手段】上述の問題点に鑑み、本
発明の1つの目的は、行列のLU分解およびLDLT
解の並列計算の高速化にある。より具体的には、本発明
の1つの目的は、マルチプロセッサシステムの特性を利
用して、行列のLU分解計算をより高速に行うためのプ
ロセス割当方法を提供することにある。また、本発明の
他の目的は、ブロック化された行列のLDLT分解計算
の特性を利用して、行列のLDLT分解計算をより高速
に行うためのプロセス割当方法を提供することにある。
また、本発明の他の目的は、ベクトル演算機能の特性を
利用して、行列のLDLT分解計算をより高速に行うた
めのプロセス割当方法を提供することにある。
【0008】本発明の他の目的は、行列のUL分解をマ
ルチプロセッサシステムで実行するときに、操作性の良
いLU分解の並列計算方法を提供することにある。より
具体的には、各プロセッサに割り当てる処理を操作者が
指定する必要のないプロセス割当方法を提供することに
ある。
【0009】上述の目的を達成するため、本発明のマル
チプロセッサのプロセス割当方法は、マルチプロセッサ
システムを用いて次数Nの行列についてのループの繰り
返しからなる処理を含む更新処理と分解処理とを実行し
前記行列を上三角行列と下三角行列の積に分解するとき
に、前記更新処理を前記マルチプロセッサシステムの複
数のプロセッサに割り当てるためのマルチプロセッサシ
ステムのプロセス割当方法において、前記更新処理で実
行される総演算数を計算する第1のステップと、この総
演算数と前記マルチプロセッサシステムのプロセッサ数
とから前記マルチプロセッサシステムの各プロセッサが
実行すべき割当演算数を求める第2のステップと、前記
更新処理における前記ループの繰り返しからなる処理
前記マルチプロセッサシステムのプロセッサ数に等しい
複数の処理に分割しこれら複数の処理の演算数が前記割
当演算数に略一致するように前記複数の処理のそれぞれ
に含まれる前記ループの繰り返し回数を設定する第3の
ステップと、この第3のステップで分割された前記複数
処理を前記マルチプロセッサの各プロセッサにそれぞ
れ割り当てて実行させる第4のステップとを含む。
【0010】 また、別の実施態様では、本発明のマル
チプロセッサのプロセス割当方法は、マルチプロセッサ
システムを用いてブロック化された次数Nの行列の各ブ
ロックについてのループの繰り返しからなる処理を含む
更新処理と分解処理とを実行し前記行列を上三角行列と
対角行列と前記上三角行列の転地行列との積に分解する
ときに前記更新処理および前記分解処理を前記マルチプ
ロセッサシステムの複数のプロセッサに割り当てるため
のマルチプロセッサシステムのプロセス割当方法におい
て前記行列の第m番目のブロックの前記更新処理に要す
る更新演算数を求めるとともに、前記行列の第m+1番
目のブロックの前記分解処理に要する分解演算数を求め
る第1のステップと、前記更新演算数と前記分解演算数
とから前記マルチプロセッサシステムの各プロセッサが
実行すべき割当演算数を求める第2のステップと、前記
行列の第m番目のブロックの前記更新処理における前記
ループの繰り返しからなる処理を前記マルチプロセッサ
システムのプロセッサ数に等しい複数の処理に分割し
の複数の処理のうちの1つの演算数はこの演算数と前記
分解演算数との和が前記割当演算数に略一致し、前記複
数の処理の他のものの演算数は前記割当演算数に略一致
するように前記複数の処理のそれぞれに含まれる前記ル
ープの繰り返し回数を設定する第3のステップと、この
第3のステップで分割された前記複数の繰り返し処理を
前記マルチプロセッサの各プロセッサにそれぞれ割り当
てて実行させる第4のステップとを含む。
【0011】
【実施例】次に本発明の第1の実施例について、図面を
参照して説明する。本実施例は、行列AをLU分解する
ためのものである。
【0012】図1を参照すると、本実施例が適用される
マルチプロセッサシステム10は、複数のプロセッサ1
1〜1Pと、プロセッサ11〜1Pに共有される主記憶
装置20とを含む。
【0013】各プロセッサ11〜1Pは、ベクトルレジ
スタ3を有する。各プロセッサプロセッサ11〜1P
は、ベクトル演算機能を有する。
【0014】主記憶装置20には分解されるべき行列A
の要素aijが格納されている。行列Aの次数はNであ
る。
【0015】次に、通常の外積形式ガウス法によるLU
分解計算の手順を説明する。
【0016】図2を参照すると、本実施例では、LU分
解の計算手順として、外積形式ガウス法が用いられる。
なお、図2ではフォートラン言語の記法を用いて処理手
順を記述している。外積形式ガウス法では、分解処理8
1と更新処理82とが、行列Aの第1〜(N−1)列に
対して行われる。
【0017】図3を参照すると、ステップ2において、
まず分解処理81が行われる。ステップ3において、分
解処理81の計算結果に応じて、更新処理82が行われ
る。ステップ1、4および5によって、ステップ2およ
び3がk=1〜(N−1)の整数に対して繰り返し実行
される。
【0018】図4を参照すると、分解処理81は、行列
Aの領域R0に対して行われる。更新処理82は、行列
Aの領域R1に対して行われる。領域R1は三角形を呈
する。更新処理82の内側のループ79の繰り返し回数
が、外側のループ70の変数jに依存するためである。
具体的には、jの増加に伴って、内側のループ79の繰
り返し回数は減少する。また、更新処理82に要する演
算回数は、分解処理81が要するものと比較してかなり
大きい。
【0019】次に本実施例の手順について説明する。本
実施例は図4のステップ3の処理を複数のプロセッサに
均等に割り当てる。このために、図2のループ70が複
数のループに分割される。
【0020】具体的な手順の説明の前に、図5を参照し
て、関数f(k,N)の定義を行う。
【0021】関数fは、図5(a)に示される2重ルー
プの繰り返し回数である。図5(a)の2重ループにお
いて、変数xをNとすれば、更新処理82の2重ループ
に一致する。つまり、関数fは、更新処理82を途中で
分割したときの演算数を示す。このような関数fは、k
およびNの関数として、図5(b)のように求められ
る。
【0022】次に本実施例の詳細な手順について説明す
る。
【0023】図6を参照すると、図3のステップ3は、
ステップ31〜35を含む。ステップ31〜35は、プ
ロセッサ11〜1P以外の処理装置で実行させること
も、プロセッサ11〜1Pの何れかで実行させることも
できる。
【0024】ステップ31において、更新処理82の総
演算数S=f(k,N)を計算する。
【0025】ステップ32において、割当演算数sに
(S/P)が代入される。ここでPは、マルチプロセッ
サシステム10が有するプロセッサの数である。割当演
算数sは、各プロセッサに割り当てられる演算数であ
る。
【0026】ステップ33において、i・s=f(k,
x)を満たすxi(i=1、…、P−1)が求められ
る。xiは2次方程式の解なので簡単に求められる。xi
は切り捨て等の方法により整数化される。
【0027】ステップ34において、ループ70がルー
プ71〜7Pに分割される。各xiが繰り返し範囲の分
割点となる。このようにして分割されたループ71〜7
Pの演算数は、ほぼsに一致する。つまり、各ループの
演算数はほぼ等しい。
【0028】ステップ35において、ループ71〜7P
を各プロセッサに割り当てる。ループ71〜7Pは、ほ
ぼ等しい演算数を要するので、各プロセッサはほぼ同時
に処理を開始し、ほぼ同時に処理を終了する。このた
め、更新処理82全体の演算速度が向上する。
【0029】次に、N=100、P=2、k=1のとき
の処理を一例として説明する。
【0030】この場合ステップ33では、x1=31が
求められる。図7を参照すると、これに応じて、ステッ
プ34では、ループ70がループ71および72に分割
される。ループ71はプロセッサ11で、ループ72は
プロセッサ12で、それぞれ実行される。図11および
図12を参照すると、ループ71が要する演算数は49
30回、ループ72が要する演算数は4970回でほぼ
一致する。図8を参照すると、更新処理82が行われる
領域は、領域R1およびR2に2分割されている。領域
R1およびR2は、それぞれ、プロセッサ11および1
2が実行する領域である。図8中の領域の面積は、この
領域が要する演算数に比例する。このため、領域R1お
よびR2は、ほぼ等面積である。
【0031】次に、N=100、P=3、k=1のとき
の処理を一例として説明する。
【0032】この場合ステップ33では、x1=20お
よびx2=44が、それぞれ求められる。図9を参照す
ると、これに応じて、ステップ34では、ループ70が
ループ71〜73に3分割される。ループ71〜73
は、それぞれ、プロセッサ11〜13で実行される。図
11および図12を参照すると、ループ71〜73が要
する演算数は、それぞれ、3258回、3336回、3
306回であり、ほぼ等しい。図10を参照すると、更
新処理82が行われる領域は、領域R1〜R3に3分割
されている。領域R1〜R3は、それぞれ、プロセッサ
11〜13が実行する領域である。P=2のときと同
様、領域R1〜R3は、ほぼ等面積である。
【0033】以上のように本実施例では、更新処理82
で要する総演算数Sを求め、この総演算数Sとプロセッ
サ数とから各プロセッサに割り当てる割当演算数を求
め、各ループの演算数が割当演算数にほぼ等しくなるよ
うにループ70を分割し、分割されたループを各プロセ
ッサに割り当てて実行させる。このため、以下のような
効果が達成される。
【0034】第1に、各プロセッサにほぼ同数の演算を
実行させるため、マルチプロセッサシステムの処理能力
が最大限利用され、行列のLU分解計算が高速に行え
る。
【0035】第2に、各プロセッサに処理が自動的に割
り当てられるので、操作性が良い。
【0036】次に、本発明の第2の実施例について、図
面を参照して説明する。本実施例は、対称行列AのLD
T分解を行うためのものである。本実施例では、行列
Aはブロック化され分解される。ブロック化は、プロセ
ッサ11〜1Pと主記憶装置20の間に設けられるキャ
ッシュメモリのヒット率を向上するために用いられる技
術である。本実施例でも、プロセッサ11〜1Pと主記
憶装置20の間には、図示しないキャッシュメモリが設
けられている。
【0037】図13を参照すると、本実施例では、行列
Aがブロック1〜Mに分割されている。分割幅はRであ
る。このように分割幅RでHブロック化された行列Aの
LDLT分解計算は、図14に示される手順で実行でき
る。ただし、図14は、(N−1)がRの倍数のときの
処理を示す。これ以外のとき、最後のブロックは第1の
実施例に示した方法で分解される。
【0038】図14を参照すると、分解処理83および
更新処理84を各ブロック毎に実行することによってL
DLT分解計算が行われる。図14の処理を以下、説明
する。
【0039】図15を参照すると、ステップ2におい
て、ブロックmに対して分解処理83が実行される。
【0040】ステップ3において、ブロックmに対して
更新処理82が実行される。
【0041】ステップ1、4および6によって、m=1
〜(M−1)の範囲で、ステップ2および3が繰り返し
実行される。m=(M−1)のときの処理終了後は、ス
テップ5が実行される。
【0042】ステップ5において、最後のブロックであ
るブロックMに対して、実施例1の分解計算が施され
る。
【0043】このようなLDLT分解計算では、ブロッ
ク(m+1)の分解処理81とブロックmの更新処理8
2とを同時に実行することができる。この点について、
例を用いて説明する。
【0044】図16を参照すると、本例では行列Aがブ
ロック1〜3に3分割されている。
【0045】図17を参照すると、T=1において、ブ
ロック1の分解処理83が実行される。T=2におい
て、ブロック1の更新処理84とブロック2の分解処理
83とが同時に実行される。T=3において、ブロック
2の更新処理84が実行される。T=4において、ブロ
ック3に分解処理81および更新処理82が実行され
る。
【0046】このように、T=2では、分解処理81と
更新処理82とが同時に実行される。行列Aの分割数が
増せば、分解処理81と更新処理82とを並列実行する
機会は増える。本実施例は、ブロック(m+1)の分解
処理81とブロックmの更新処理82とが同時されると
きに、分解処理83に要する計算量をも考慮して、更新
処理84を分割するものである。
【0047】本実施例の手順について説明する前に、関
数を定義する。
【0048】関数fD(L)は、図14の分解処理83
が要する演算数である。fD(L)は、図18のように
なる。
【0049】関数fR(L,x)は、図19(a)に示
される2重ループの繰り返し回数である。図19(a)
の2重ループにおいて、変数xをNとすれば、更新処理
84の2重ループに一致する。つまり、関数fは、更新
処理84を途中で分断したときの演算数を示す。このよ
うな関数fは、LおよびNの関数として、図19(b)
のように求められる。
【0050】次に、本実施例で行われる処理分割につい
て説明する。
【0051】図20を参照すると、本実施例では、ステ
ップmの更新処理84とステップ(m+1)の分解処理
83とが並列実行される。プロセッサ11では、ブロッ
ク(m+1)の分解処理83全部と、ブロックmの更新
処理84の一部が実行される。これら処理に要する演算
数を合計すると、割当演算数sにほぼ等しくなる。プロ
セッサ11以外のプロセッサでは更新処理84の一部が
実行される。各プロセッサが実行する演算数は割当演算
数にほぼ等しい。
【0052】次に、本実施例の詳細な手順について説明
する。
【0053】 図21を参照すると、ブロックmの更新
処理84とブロック(m+1)の分解処理83とが並列
実行可能なとき、図15のステップ2および3は、ステ
ップ31〜35で置き換えられる。
【0054】ステップ31において、ブロックmの更新
処理84とブロック(m+1)の分解処理83との総演
算数S=fD(l+R)+fR(l,N)を計算する。
ここで、lはブロックmに対応するLの値である。つま
り、lはブロックmの先頭列番号である。
【0055】ステップ32において、割当演算数sに
(S/P)が代入される。
【0056】ステップ33において、i・s=fD
(l)+f(l,x)を満たすxi(i=1、…、P−
1)が求められる。xiは切り捨て等の方法により整数
化される。
【0057】ステップ34において、ループ90がルー
プ91〜9Pに分割される。各xiが繰り返し範囲の分
割点となる。
【0058】ステップ35において、プロセッサ11に
は分解処理83およびループ91を、プロセッサ12〜
1Pにはループ72〜7Pを、それぞれ割り当てる。こ
のように処理を割り当てると、各プロセッサの処理演算
数は、ほぼ一致する。このため、各プロセッサはほぼ同
時に処理を開始し、ほぼ同時に処理を終了する。このた
め、更新処理82全体の演算速度が向上する。
【0059】以上のように本実施例では、ブロック化さ
れたLDLT分割計算でブロックmの更新処理84とブ
ロック(m+1)の分解処理83とを並列実行するとき
に、ブロック(m+1)の分解処理83の演算数をも考
慮して更新処理84を分割するようにした。このような
分割では、各プロセッサが実行する演算回数はほぼ一致
し、ブロック化LDLT分解計算が高速に行える。つま
り、ブロック化LDLT分解計算がより高速になる。ま
た、第1の実施例と同様、操作性にも優れている。
【0060】
【発明の効果】以上のように本発明の第1の実施例で
は、更新処理で要する総演算数を求め、この総演算数と
プロセッサ数とから各プロセッサに割り当てる割当演算
数を求め、各ループの演算数が割当演算数にほぼ等しく
なるように更新処理中の繰り返し処理を分割し、分割さ
れた繰り返し処理を各プロセッサに割り当てて実行させ
る。このため、以下のような効果が達成される。
【0061】第1に、各プロセッサがほぼ同数の演算を
実行するため、行列のLU分解計算が高速に行えるとい
う効果が達成される。
【0062】第2に、各プロセッサに処理が自動的に割
り当てられるので、操作性が良いという効果が達成され
る。
【0063】また、本発明の第2の実施例では、ブロッ
ク化されたLDLT分割計算でブロックmの更新処理8
4とブロック(m+1)の分解処理とを並列実行すると
きに、ブロック(m+1)の分解処理の演算数をも考慮
して更新処理を分割するようにした。このため、LDL
T分割計算がより高速になるという効果が達成される。
まだ、第1の実施例と同様に操作性でも優れている。
【図面の簡単な説明】
【図1】 本発明が適用されるマルチプロセッサシステ
ム10の構成を示すブロック図。
【図2】 外積形式ガウス法の手順をフォートランの記
法により示す図。
【図3】 外積形式ガウス法の手順を示すフローチャー
ト。
【図4】 外積形式ガウス法の処理の様子を示す図。
【図5】 関数f(k,N)を示す図。
【図6】 本発明の第1の実施例の手順を示すフローチ
ャート。
【図7】 本発明の第1の実施例の1実行例を示す図。
【図8】 本発明の第1の実施例の1実行例を示す図。
【図9】 本発明の第1の実施例の他の実行例を示す
図。
【図10】 本発明の第1の実施例の他の実行例を示す
図。
【図11】 本発明の第1の実施例の実行例を示す図。
【図12】 本発明の第1の実施例の実行例を示す図。
【図13】 ブロック化された行列Aを示す図。
【図14】 ブロック化LDLT分解の手順をフォート
ランの記法で示す図。
【図15】 ブロック化LDLT分解の手順を示すフロ
ーチャート。
【図16】 ブロック化の一例を示す図。
【図17】 ブロック化LDLT分解の動作例を示す
図。
【図18】 関数fD(L)を示す図。
【図19】 関数fR(L,x)を示す図。
【図20】 本発明の第2の実施例における処理の分割
を示す図。
【図21】 本発明の第2の実施例の手順を示すフロー
チャート。
【符号の説明】
3 ベクトルレジスタ 10 マルチプロセッサシステム 11〜1P プロセッサ 20 主記憶装置 70〜7P ループ 81 分解処理 82 更新処理 83 分解処理 84 更新処理 90〜9P ループ

Claims (5)

    (57)【特許請求の範囲】
  1. 【請求項1】 マルチプロセッサシステムを用いて次数
    Nの行列についてのループの繰り返しからなる処理を含
    む更新処理と分解処理とを実行し、前記行列を上三角行
    列と下三角行列の積に分解するときに、前記更新処理を
    前記マルチプロセッサシステムの複数のプロセッサに割
    り当てるためのマルチプロセッサシステムのプロセス割
    当方法において、 前記更新処理で実行される総演算数を計算する第1のス
    テップと、 この総演算数と前記マルチプロセッサシステムのプロセ
    ッサ数とから前記マルチプロセッサシステムの各プロセ
    ッサが実行すべき割当演算数を求める第2のステップ
    と、 前記更新処理における前記ループの繰り返しからなる処
    を前記マルチプロセッサシステムのプロセッサ数に等
    しい複数の処理に分割し、これら複数の処理の演算数が
    前記割当演算数に略一致するように前記複数の処理のそ
    れぞれに含まれる前記ループの繰り返し回数を設定する
    第3のステップと、 この第3のステップで分割された前記複数の処理を前記
    マルチプロセッサの各プロセッサにそれぞれ割り当てて
    実行させる第4のステップとを含むことを特徴とするマ
    ルチプロセッサシステムのプロセス割当方法。
  2. 【請求項2】 前記第2のステップは、 前記総演算数を前記マルチプロセッサシステムのプロセ
    ッサ数で割って前記マルチプロセッサシステムの各プロ
    セッサが実行すべき割当演算数を求めることを特徴とす
    る請求項1記載のマルチプロセッサシステムのプロセス
    割当方法。
  3. 【請求項3】 マルチプロセッサシステムを用いて、ブ
    ロック化された次数Nの行列の各ブロックについてのル
    ープの繰り返しからなる処理を含む更新処理と分解処理
    とを実行し、前記行列を上三角行列と対角行列と前記上
    三角行列の転地行列との積に分解するときに、前記更新
    処理および前記分解処理を前記マルチプロセッサシステ
    ムの複数のプロセッサに割り当てるためのマルチプロセ
    ッサシステムのプロセス割当方法において、 前記行列の第m番目のブロックの前記更新処理に要する
    更新演算数を求めるとともに、前記行列の第m+1番目
    のブロックの前記分解処理に要する分解演算数を求める
    第1のステップと、 前記更新演算数と前記分解演算数とから前記マルチプロ
    セッサシステムの各プロセッサが実行すべき割当演算数
    を求める第2のステップと、 前記行列の第m番目のブロックの前記更新処理における
    前記ループの繰り返しからなる処理を前記マルチプロセ
    ッサシステムのプロセッサ数に等しい複数の処理に分割
    し、この複数の処理のうちの1つの演算数はこの演算数
    と前記分解演算数との和が前記割当演算数に略一致し、
    前記複数の処理の他のものの演算数は前記割当演算数に
    略一致するように前記複数の処理のそれぞれに含まれる
    前記ループの繰り返し回数を設定する第3のステップ
    と、 この第3のステップで分割された前記複数の処理を前記
    マルチプロセッサの各プロセッサにそれぞれ割り当てて
    実行させる第4のステップとを含むことを特徴とするマ
    ルチプロセッサシステムのプロセス割当方法。
  4. 【請求項4】 前記第2のステップは、 前記更新演算数と前記分解演算数とから総演算数を求め
    る第5のステップと、 前記総演算数を前記マルチプロセッサシステムのプロセ
    ッサ数で割って前記マルチプロセッサシステムの各プロ
    セッサが実行すべき割当演算数を求める第6のステップ
    とを含むことを特徴とする請求項3記載のマルチプロセ
    ッサシステムのプロセス割当方法。
  5. 【請求項5】 前記マルチプロセッサシステムの各プロ
    セッサがベクトル計算機であることを特徴とする請求項
    1乃至4のいずれかに記載のマルチプロセッサシステム
    プロセス割当方法。
JP6119781A 1994-06-01 1994-06-01 マルチプロセッサシステムのプロセス割当方法 Expired - Fee Related JP2806262B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6119781A JP2806262B2 (ja) 1994-06-01 1994-06-01 マルチプロセッサシステムのプロセス割当方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6119781A JP2806262B2 (ja) 1994-06-01 1994-06-01 マルチプロセッサシステムのプロセス割当方法

Publications (2)

Publication Number Publication Date
JPH07325806A JPH07325806A (ja) 1995-12-12
JP2806262B2 true JP2806262B2 (ja) 1998-09-30

Family

ID=14770070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6119781A Expired - Fee Related JP2806262B2 (ja) 1994-06-01 1994-06-01 マルチプロセッサシステムのプロセス割当方法

Country Status (1)

Country Link
JP (1) JP2806262B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006236123A (ja) * 2005-02-25 2006-09-07 Fujitsu Ltd ジョブ分散プログラム、ジョブ分散方法およびジョブ分散装置
JP4653854B2 (ja) * 2010-02-16 2011-03-16 富士通株式会社 ジョブ分散プログラムおよびジョブ分散システム
JP6070717B2 (ja) * 2012-11-01 2017-02-01 日本電気株式会社 分散データ処理システム、及び、分散データ処理方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH079623B2 (ja) * 1989-01-11 1995-02-01 工業技術院長 マルチプロセッサ用コンパイル方式
JP3269639B2 (ja) * 1991-03-15 2002-03-25 富士通株式会社 プログラムのループ並列実行処理方法

Also Published As

Publication number Publication date
JPH07325806A (ja) 1995-12-12

Similar Documents

Publication Publication Date Title
Wang A parallel method for tridiagonal equations
Kiss et al. Parallel realization of the element-by-element FEM technique by CUDA
JP3639206B2 (ja) 共有メモリ型スカラ並列計算機における並列行列処理方法、及び記録媒体
US8433883B2 (en) Inclusive “OR” bit matrix compare resolution of vector update conflict masks
US20090319592A1 (en) Parallel processing method of tridiagonalization of real symmetric matrix for shared memory scalar parallel computer
CN107451097B (zh) 国产申威26010众核处理器上多维fft的高性能实现方法
WO2019053835A1 (ja) 演算回路、演算方法、およびプログラム
US20180373677A1 (en) Apparatus and Methods of Providing Efficient Data Parallelization for Multi-Dimensional FFTs
Zubair et al. An optimized multicolor point-implicit solver for unstructured grid applications on graphics processing units
Waidyasooriya et al. Accelerator architecture for simulated quantum annealing based on resource-utilization-aware scheduling and its implementation using OpenCL
JP2806262B2 (ja) マルチプロセッサシステムのプロセス割当方法
US7870177B2 (en) Method and system for multi-processor FFT/IFFT with minimum inter-processor data communication
Lastovetsky et al. Distributed data partitioning for heterogeneous processors based on partial estimation of their functional performance models
US20200192631A1 (en) Fused convolution and batch normalization for neural networks
JP2020080048A (ja) 並列処理装置およびプログラム
CN112215349B (zh) 基于数据流架构的稀疏卷积神经网络加速方法及装置
Tomar h-p Spectral element method for elliptic problems on non-smooth domains using parallel computers
Cherng et al. Cache efficient simple dynamic programming
Bahig et al. An efficient parallel strategy for high-cost prefix operation
Myllykoski et al. On solving separable block tridiagonal linear systems using a GPU implementation of radix-4 PSCR method
Mallya et al. Matrix reordering effects on a parallel frontal solver for large scale process simulation
Xu et al. parGeMSLR: A parallel multilevel Schur complement low-rank preconditioning and solution package for general sparse matrices
Badcock et al. Integration of an implicit multiblock code into a workstation cluster environment
JP3808925B2 (ja) 多様な行列格納法を使用可能な連立方程式の並列処理装置および方法
Acer et al. Reordering sparse matrices into block-diagonal column-overlapped form

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19980623

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070724

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080724

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090724

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100724

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees