JPH03229363A - Parallel solving system for sparse matrix - Google Patents

Parallel solving system for sparse matrix

Info

Publication number
JPH03229363A
JPH03229363A JP2400090A JP2400090A JPH03229363A JP H03229363 A JPH03229363 A JP H03229363A JP 2400090 A JP2400090 A JP 2400090A JP 2400090 A JP2400090 A JP 2400090A JP H03229363 A JPH03229363 A JP H03229363A
Authority
JP
Japan
Prior art keywords
matrix
block
submatrix
diagonal
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2400090A
Other languages
Japanese (ja)
Inventor
Shintaro Shimogoori
慎太郎 下郡
Yukiko Omura
大村 由紀子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2400090A priority Critical patent/JPH03229363A/en
Publication of JPH03229363A publication Critical patent/JPH03229363A/en
Pending legal-status Critical Current

Links

Landscapes

  • Complex Calculations (AREA)

Abstract

PURPOSE:To decrease the communication quantity between PEs and to execute the processing of the whole at a high speed by forming a block diagonal matrix with an edge by rearranging the line and the row of a sparse matrix, and thereafter, transmitting a value obtained by an LU resolution processing without a communication by the PE at every partial matrix to the PE concerned and executing the LU resolution processing of the whole. CONSTITUTION:With regard to a given sparse matrix 1, it is formed to a block diagonal matrix 2 with an edge by rearranging a line and a line, and a row and a row, and thereafter, partial matrixes of a block (A1) and edge blocks (L1, U1) on the diagonal in the block diagonal matrix 2 with an edge are allocated to a PE (processor), respectively. Subsequently, the PE determines the value obtained by an LU resolution processing of the partial matrix in the block with out a communication to the other PE, and transmits it to the PE concerned in a block (M) which is influenced by its partial matrix so that the LU resolution processing of the whole can be executed. In such a way, by decreasing the communication quantity between the PEs, the processing of the whole can be executed at a high speed.

Description

【発明の詳細な説明】 〔概要〕 スパース行列を並列に求解する並列求解方式に関し、 スパース行列の行・列を並べ変えて縁付きブロック対角
行列にした後、部分行列毎にPEによって通信なしにL
U分解処理した値Mlを該当PEに送信して全体のLU
分解処理を行い、PE間の通信量を少なくして全体の処
理の高速化を図ることを目的とし、 与えられたスパース行列について行・列を並び変えて縁
付きブロック対角行列にした後、当該縁付きブロック対
角行列のうちの対角上のプロ、jり(A□)および縁ブ
ロック(L+ 、u+ )の部分行列をPHにそれぞれ
割り当てて当該PEがブロック内の部分行列のLU分解
処理した値M1を他PEと通信なしに求め、これを当該
部分行列の影響を受けるブロックCM)内の該当PHに
送信して全体のLU分解処理を行うように構成する。
[Detailed Description of the Invention] [Summary] Regarding a parallel solution method for solving sparse matrices in parallel, after rearranging the rows and columns of a sparse matrix to form a block diagonal matrix with edges, each submatrix is solved by PE without communication. L
Send the U-decomposed value Ml to the corresponding PE and calculate the entire LU
The purpose of decomposition processing is to reduce the amount of communication between PEs and speed up the overall processing. The submatrices of the diagonal pro, j (A□), and edge blocks (L+, u+) on the diagonal of the edged block diagonal matrix were assigned to PH, and the PE processed the LU decomposition of the submatrices within the block. The configuration is such that the value M1 is obtained without communication with other PEs, and this is sent to the corresponding PH in the block CM that is affected by the partial matrix to perform the entire LU decomposition process.

〔産業上の利用分野〕[Industrial application field]

本発明は、スパース行列を並列に求解する並列求解方式
に関するものである1回路シミュレーションなどにおい
て、並列計算機による高速化が要求されている。これら
シミュレーションは、大規模なスパース行列を数千〜数
万回解く必要がある。
The present invention relates to a parallel solution method for solving sparse matrices in parallel, and there is a demand for speeding up by a parallel computer in single-circuit simulation and the like. These simulations require solving large sparse matrices thousands to tens of thousands of times.

このスパース行列は連立1次方程式であるため、並列計
算機、特に分散メモリによる並列計算機で効率的に求解
するのが困難であり、高速に求解することが望まれてい
る。
Since this sparse matrix is a simultaneous linear equation, it is difficult to efficiently solve it on a parallel computer, especially a parallel computer using distributed memory, and it is desired to solve it at high speed.

〔従来の技術と発明が解決しようとする課題〕従来、ス
パース行列の求解の代表的な手法であるLU分解を高速
に実行する方式として、第5図に示すように、スパース
行列21の全体について各要素の更新回数と参照先を予
め調べてテーブル(下三角行列の要素用データ、上三角
行列の要素用データ、ピボット用データなど)を作成し
ておき、求解時にこれらのテーブルに従ってデータの送
受信・演算を行い、行列の高速求解する方式が提案され
ている。この第5図方式は、行列求解中にPE間の同期
を取る必要が全くなく、計算を次々実行していくことが
できるので効率的である。
[Prior art and problems to be solved by the invention] Conventionally, as a method for quickly executing LU decomposition, which is a typical method for solving a sparse matrix, as shown in FIG. Check the number of updates and references for each element in advance and create tables (data for elements of lower triangular matrices, data for elements of upper triangular matrices, data for pivots, etc.), and send and receive data according to these tables when solving a solution. - A method has been proposed that performs calculations and solves matrices at high speed. The method shown in FIG. 5 is efficient because there is no need to synchronize the PEs during matrix solving and calculations can be executed one after another.

しかし、第5図方式は、基本的に各要素が別々のPE(
プロセッサ)にffl当させているため、行列求解の基
本処理(A=A−B*C,あるいはA=AlB型の計′
X)毎にPE間に通信を生じ、通信時間により全体の処
理低下を招くという問題があった・ 本発明は、スパース行列の行・列を並べ変えて縁付きブ
ロック対角行列にした後、部分行列毎にPEによって通
信なしにLU分解処理した値M1を該当PHに送信して
全体のLtJ分解処理を行い、PE間の通信量を少なく
して全体の処理の高速化を図ることを目的としている。
However, in the method shown in Figure 5, each element is basically a separate PE (
The basic processing of matrix solution (A=AB*C, or A=AlB type calculation')
There was a problem in that communication occurred between PEs for every The purpose is to reduce the amount of communication between PEs and speed up the overall processing by transmitting the value M1 obtained by LU decomposition processing by the PE to the corresponding PH without communication for each matrix and performing the overall LtJ decomposition processing. There is.

〔課題を解決する手段〕[Means to solve problems]

第1図は、本発明の原理構成・説明図を示す。 FIG. 1 shows the principle configuration and explanatory diagram of the present invention.

第1図において、スパース行列1は、LU分解処理を行
おうとする行列を模式的に表したものである。ここで、
黒点が非零要素である。
In FIG. 1, a sparse matrix 1 schematically represents a matrix on which LU decomposition processing is to be performed. here,
The black dots are nonzero elements.

緑付きブロック対角行列2は、スパース行列1について
行と行、列と列を並び変えて、非零要素を点部に集めた
行列を模式的に表したものである。
The green block diagonal matrix 2 is a schematic representation of a matrix in which the sparse matrix 1 is rearranged row by row and column by column, and non-zero elements are gathered at points.

対角上のブロック(A、)は、縁付きブロック対角行列
2のうちの対角上の任意のブロック(A+)(1=1な
いしn)であって、PEに割り当てる部分行列のブロッ
クである。
The block (A,) on the diagonal is an arbitrary block (A+) (1=1 to n) on the diagonal of the edged block diagonal matrix 2, and is a submatrix block assigned to the PE. .

ブロック(M)は、対角上のブロック(A+ )の部分
行列の影響を受けるブロックである。
Block (M) is a block affected by the submatrix of block (A+) on the diagonal.

〔作用〕[Effect]

本発明は、第1図に示すように、与えられたスパース行
列1について行と行、列と列を並び変えて縁付きブロッ
ク対角行列2にした後、当@縁付きブロック対角行列2
のうちの対角上のブロック(A、)および縁ブロック(
Ll 101 )の部分行列をPEにそれぞれ割り当て
て当該PEがブロック内の部分行列のLtJ分解処理し
た値Mlを他PEとi!信なしに求め、これを当該部分
行列の影響を受けるブロックCM)内の@当PEに送信
して全体のL tJ分解処理を行うようにしている。
As shown in FIG. 1, the present invention rearranges rows and rows and columns of a given sparse matrix 1 to form an edged block diagonal matrix 2, and then
The diagonal block (A, ) and the edge block (
A submatrix of Ll 101 ) is assigned to each PE, and the PE calculates the value Ml obtained by LtJ decomposition of the submatrix within the block with other PEs i! This is then sent to @the PE in the block CM that is affected by the submatrix, and the entire L tJ decomposition process is performed.

従って、スパース行列の行・列を並べ変えて縁付きブロ
ック対角行列にした後、部分行列毎にPEによって通信
なしにLU分解処理した値M、を該当PEに送信して全
体のLU分解処理を行うことにより、PE間の通信量を
少な(して全体の処理の高速化を図ることが可能となる
Therefore, after rearranging the rows and columns of the sparse matrix to form a bordered block diagonal matrix, the PE performs LU decomposition processing for each submatrix without communication, and sends the value M to the corresponding PE to perform the entire LU decomposition processing. By doing so, it is possible to reduce the amount of communication between PEs (and speed up the overall processing).

〔実施例〕〔Example〕

次に、第1図から第4図を用いて本発明のI実施例の構
成および動作を順次詳細に説明する。
Next, the configuration and operation of Embodiment I of the present invention will be sequentially explained in detail using FIGS. 1 to 4.

第1図(イ)は、元のスパース行列lを示す。FIG. 1(a) shows the original sparse matrix l.

これは、LU分解処理をしようとしでいる行列(疎行列
)一部ち連立1次方程式を表す行列を模式的に表したも
のであって、黒点が非零要素である。
This is a schematic representation of a matrix (sparse matrix) representing simultaneous linear equations for which LU decomposition processing is to be performed, and black dots are non-zero elements.

第1図<c>ば、並び換え後の縁付きプロlり対角行列
2を示す、これは、第1図(イ)スパース行列20行と
行、および列と列を並び変えて、非零要素を斜線部に集
めた行列である。この樫、行・列の並び換えに対応して
、第4図(イ)行方向ポインタ、列方向ポインタを変更
する。
Figure 1 <c> shows the edged pro-diagonal matrix 2 after rearrangement. This is a matrix with elements gathered in the shaded area. Corresponding to this rearrangement of rows and columns, the row direction pointer and column direction pointer in FIG. 4(a) are changed.

第1図(ハ)は、IPEで処理する行列を示す。FIG. 1(c) shows a matrix processed by IPE.

これば、第1図(ロフ縁付きブロック対角行列20対角
上の任意のブロック(AI)(1=1ないn)について
LU分解処理する際に必要な部分行列を取り出したもの
であって、1つのPE内で当該小さく分割した部分行列
について、PE間で通信を行うことなくLtJ分解処理
を行い、全体のPE間の通信量を削減したものである。
In this case, the submatrices necessary for performing LU decomposition processing on an arbitrary block (AI) on the diagonal of the block diagonal matrix 20 (1=1 or n) shown in FIG. The LtJ decomposition processing is performed on the sub-matrix divided into small parts within one PE without communication between PEs, thereby reducing the overall amount of communication between PEs.

尚、任意のブ117り(AI)の部分行列の値U、およ
びLl・は、下式(1)、(2)で求められる。
Incidentally, the values U and Ll of the submatrix of arbitrary AI (AI) are obtained by the following equations (1) and (2).

IJr =U+ −L−r XU+−+ −ol−! 
XU+−z−(以降省略) =U+  (2項以降が零のため) ・・・・a)LL
 =L+   L−+ XL+−+  LL−z XL
+−z(以降省略) =L+  (2項以降が零のため)・・・・(2)従っ
て、第1図(ロ)ブロック(AI )の部分行列は、結
果として第1図(ハ)の部分行列にっいて下式(mによ
ってMlを求めればよい。
IJr =U+ -L-r XU+-+ -ol-!
XU+-z- (hereinafter omitted) =U+ (because the second term and subsequent terms are zero) ・・・・a) LL
=L+ L-+ XL+-+ LL-z XL
+-z (hereinafter omitted) =L+ (because the second term and subsequent terms are zero)... (2) Therefore, the submatrix of block (AI) in Figure 1 (B) becomes as shown in Figure 1 (C). Ml can be found using the following formula (m) using the submatrix of .

k=1 ここで、nは対角部分のブロック数を表し、mは縁部分
のブロックの素子数を表し、■ば1ないしnを表し、n
、はブロック■の行列次元を表す。
k=1 Here, n represents the number of blocks on the diagonal part, m represents the number of elements in the block on the edge part, ■ represents 1 to n, and n
, represents the matrix dimension of block ■.

第1図(ニ)は、各PE内で部分行列について計算した
Mlからの結合行列Mの作成を示す。これは、各PE内
で計算して送信されてきたM、から下式(4)によって
全体の結合行列Mを求める。
FIG. 1(d) shows the creation of a coupling matrix M from Ml calculated for submatrices within each PE. This calculates the overall coupling matrix M using the following equation (4) from M calculated and transmitted within each PE.

M=ΣM、 ・ ・ ・ ・ ・ ・ ・ −・ ・ 
−・ ・ ・ ・(4)1=1 次に、第2図を用いて第1図構成の動作を説明する。
M=ΣM, ・ ・ ・ ・ ・ ・ ・ −・ ・
-. . . . (4) 1=1 Next, the operation of the configuration shown in FIG. 1 will be explained using FIG. 2.

第2図(イ)において、■は、行列を並び換えて、縁付
きブロック対角行列2にする。これは、第1図(イ)元
のスノi−ス行列lの行と行、列と列を並び換えて第1
図(ロ)縁付きブロック対角行列2に変換する。
In FIG. 2(a), ■ rearranges the matrix to form a bordered block diagonal matrix 2. This is done by rearranging the rows and columns of the original Snowy matrix l in Figure 1 (a).
Figure (b) Convert to bordered block diagonal matrix 2.

@ば、各PEに担当すべき行列データを渡す。At @, the matrix data to be handled is passed to each PE.

これは、第1図(ロ)任意のブロック(AI )の部分
行列をffl当するPEに当該部分行列のデータをそれ
ぞれ渡す。
This transfers the data of the submatrix of an arbitrary block (AI) to the PE corresponding to ffl in FIG. 1(b).

■は、PE内の右下の行列(結合行列)について、LU
分解時の更新回数・送信先を調べる。
■ is the LU
Check the number of updates and destination during disassembly.

[相]は、結合行列求解時の更新回数テーブル・送信先
テーブルを作成する(第4図(ロ)の更新回数、送信先
テーブルに送信先を予め設定する)。
[Phase] creates an update count table and a destination table when solving the coupling matrix (set the update count and destination in the destination table in advance in FIG. 4(b)).

以上の前処理によって、第1図(ハ)任意のブロック(
A1)毎の部分行列のLU分解処理を受は持つPHに行
列データ、更新回数、送信先などを設定、および第1図
(ニ)結合行列の更新回数、送信先などを設定する。
Through the above preprocessing, any block (
A1) Set the matrix data, number of updates, destination, etc. to the PH that receives the LU decomposition processing of each submatrix, and (d) set the number of updates, destination, etc. of the coupling matrix.

第2図(ロ)において、■は、ブロック内のしU分解を
実行する。このとき、結合行列に対して所定の処理終了
したら、送信先PHに値を送信する。これは、第1図(
ハ)でIPRが処理する行列(部分行列)について、式
(jによって当該部分行列の値M1を求め、これを送信
先(影響を受ける予め設定した送信先)のブロックCM
)内の該当PEに送信する。
In FIG. 2(b), (2) executes U decomposition within the block. At this time, after completing the predetermined processing for the connection matrix, the value is transmitted to the destination PH. This is shown in Figure 1 (
For the matrix (submatrix) processed by IPR in c), calculate the value M1 of the submatrix using the formula (j), and apply this to the block CM of the transmission destination (preset destination that is affected).
) to the corresponding PE.

■は、結合行列要素を受信したら、更新処理を行う。所
定の更新回数分の更新を受けたら送信先PEに送信する
。これは、@で結合行列要素(部分行列)のLtJ分解
処理した値M、を受信したら式(4)によって旧の値を
新の値に更新する。所定の更新回数分の更新をしたら、
送信先PE(影響を受ける予め設定した送信先PE)に
送信する。
(2) performs update processing upon receiving the coupling matrix element. After receiving updates for a predetermined number of times, they are sent to the destination PE. In this case, when @ receives a value M obtained by LtJ decomposition of a joint matrix element (submatrix), the old value is updated to a new value using equation (4). After updating for the specified number of updates,
Send to destination PE (affected preset destination PE).

次に、第3図を用いて本発明の1実施例構成の具体例を
詳細に説明する。
Next, a specific example of the configuration of one embodiment of the present invention will be explained in detail using FIG.

第計図において、■は、ブロックA1の部分行列のLU
分解処理した値M、を求める。これば、左上の縁付きプ
ロ、り対角行列2の任意のブロックA、の部分行列(第
3図左下に示す部分行列)のLU分解処理した値M1を
図示式によって求める(既述した弐(湧参照)。
In the diagram, ■ is the LU of the submatrix of block A1
The decomposed value M is obtained. In this case, the value M1 obtained by performing the LU decomposition process of the submatrix (submatrix shown in the lower left of Fig. 3) of any block A of the diagonal matrix 2 in the upper left edged matrix is calculated using the illustrated formula ( (See Yuu).

■は、■で求めた値M+を対応する場所(プロセッサ、
PE)に送信する(ブロックM内の当該値MIの影響を
受けるPEに送信する)。
■ is the location (processor,
PE) (to the PEs affected by the value MI in block M).

■は、■で送信を受けたブロックM内のPEが図示式に
よって全体のブロックのLU分解処理した値Mを求める
(既述した式(4)参照)、この際、全PEで協調処理
を、右上の説明図に示すように行う、即ち、■で図中の
b(左下のぽ分行列のし、の値)からの送信および図中
C(右上の部分行列のU、の値)からの送信を受けた該
当PEが、先に受信した方を受信バッファに入札、後か
ら受信した要素と掛けて、旧の値から引<(a−bxC
(■の処理を行う))。以上の処理によって部分行列毎
のLU分解処理を行う、そして、この結果を他の影響を
与える該当PEに送信し、全体のLU分解処理を行う。
In ■, the PE in block M that received the transmission in ■ calculates the value M obtained by LU decomposition processing of the entire block using the illustrated formula (see formula (4) already mentioned). At this time, all PEs perform cooperative processing. , as shown in the upper right explanatory diagram, that is, in ■, send from b in the diagram (the value of the partial matrix in the lower left) and from C in the diagram (the value of U in the upper right submatrix) The corresponding PE that received the transmission bids the one received first in the reception buffer, multiplies it by the element received later, and subtracts it from the old value <(a-bxC
(Perform ■)). Through the above processing, LU decomposition processing is performed for each submatrix, and this result is sent to other affected PEs to perform LU decomposition processing on the whole.

第4図は、本発明のデータ構造例を示す。FIG. 4 shows an example data structure of the present invention.

第4ば(イ)は、PE内の部分行列用テーブルを示す。The fourth part (a) shows a submatrix table in the PE.

これは、第1図(ハ>  ipEで処理する行列の各要
素の情報を格納するテーブルである。
This is a table that stores information on each element of the matrix processed by ipE in FIG.

ここで、第1図(イ)元のスパース行列から第1図(ロ
)縁付きブロック対角行列2に変換したときに、行方向
ポインタ、列方向ポインタを変更する。また、更新回数
、送信先などを予め第2図(イ)0で設定する。
Here, when converting from the original sparse matrix in FIG. 1(a) to the edged block diagonal matrix 2 in FIG. 1(b), the row direction pointer and column direction pointer are changed. In addition, the number of updates, destination, etc. are set in advance at 0 in FIG. 2 (a).

第4図(ロ)は、結合行列用テーブルを示す。FIG. 4(b) shows a table for connection matrices.

これは、第1図(ニ)各PE内で計算したM、からの結
合行列Mの各要素の情報を格納するテーブルである。更
新回数、送信先などは予め第2図(イ)@で設定する。
This is a table that stores information on each element of the coupling matrix M from M calculated in each PE in FIG. 1(d). The number of updates, destination, etc. are set in advance using @ in FIG. 2 (A).

〔発明の効果〕〔Effect of the invention〕

以上説明したように、本発明によれば、スパース行列1
の行・列を並べ変えて緑付きブロック対角行列2にした
後、部分行列毎にPEに割り当てて他のPEと通信する
ことな(LU分解処理した[M+をこれらの影響を受け
るブロックM内の該当PEに送信して全体の1.、IJ
分解処理を行う構成を採用しているため、PE間の通信
量を少なくして全体の処理の高速化を図ることができる
As explained above, according to the present invention, the sparse matrix 1
After rearranging the rows and columns of to create a green block diagonal matrix 2, each submatrix is assigned to a PE and communicated with other PEs. Send it to the corresponding PE in 1., IJ of the whole
Since a configuration that performs disassembly processing is adopted, the amount of communication between PEs can be reduced and the overall processing speed can be increased.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の原理構成・説明図、第2図は本発明の
動作説明70−チャート、第3図は本発明の1実施例構
成・説明図、第4図は本発明のデータ構造例、第5閏は
従来の行列求解方式を示す。 図中、1はスパース行列、2は緑付きブロック対角行列
を表す。
Fig. 1 is a diagram explaining the principle configuration of the present invention, Fig. 2 is a 70-chart explaining the operation of the present invention, Fig. 3 is a diagram showing the configuration and explanatory diagram of one embodiment of the present invention, and Fig. 4 is a data structure of the present invention. For example, the fifth leap represents a conventional matrix solving method. In the figure, 1 represents a sparse matrix, and 2 represents a green block diagonal matrix.

Claims (1)

【特許請求の範囲】 スパース行列を並列に求解する並列求解方式において、 与えられたスパース行列(1)について行・列を並び変
えて縁付きブロック対角行列(2)にした後、当該縁付
きブロック対角行列(2)のうちの対角上のブロック(
A_1)および縁ブロック(L_1、U_1)の部分行
列をPEにそれぞれ割り当てて当該PEがブロック内の
部分行列のLU分解処理した値M_1を他PEと通信な
しに求め、これを当該部分行列の影響を受けるブロック
(M)内の該当PEに送信して全体のLU分解処理を行
うように構成したことを特徴とするスパース行列の並列
求解方式。
[Claims] In a parallel solution method for solving sparse matrices in parallel, after rearranging the rows and columns of a given sparse matrix (1) to create a diagonal edged block matrix (2), the edged block pair The diagonal block of the angular matrix (2) (
A_1) and the submatrix of the edge block (L_1, U_1) are assigned to each PE, and the PE calculates the value M_1 obtained by LU decomposition of the submatrix within the block without communicating with other PEs, and calculates the influence of the submatrix in question. 1. A parallel solution method for sparse matrices, characterized in that the sparse matrix is transmitted to a corresponding PE in a receiving block (M) to perform overall LU decomposition processing.
JP2400090A 1990-02-02 1990-02-02 Parallel solving system for sparse matrix Pending JPH03229363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2400090A JPH03229363A (en) 1990-02-02 1990-02-02 Parallel solving system for sparse matrix

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2400090A JPH03229363A (en) 1990-02-02 1990-02-02 Parallel solving system for sparse matrix

Publications (1)

Publication Number Publication Date
JPH03229363A true JPH03229363A (en) 1991-10-11

Family

ID=12126302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2400090A Pending JPH03229363A (en) 1990-02-02 1990-02-02 Parallel solving system for sparse matrix

Country Status (1)

Country Link
JP (1) JPH03229363A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283038A (en) * 1990-12-18 1994-02-01 Saliva Diagnostic Systems, Inc. Fluid sampling and testing device
CN102156777A (en) * 2011-04-08 2011-08-17 清华大学 Deleted graph-based parallel decomposition method for circuit sparse matrix in circuit simulation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5283038A (en) * 1990-12-18 1994-02-01 Saliva Diagnostic Systems, Inc. Fluid sampling and testing device
CN102156777A (en) * 2011-04-08 2011-08-17 清华大学 Deleted graph-based parallel decomposition method for circuit sparse matrix in circuit simulation

Similar Documents

Publication Publication Date Title
Wilson et al. Incompatible displacement models
JPH03229363A (en) Parallel solving system for sparse matrix
CH692310A5 (en) A method for generating an interruption signal in a data processing system and data processing system.
CN114374640A (en) Service scheduling method based on time-triggered Ethernet
JPH0146914B2 (en)
Nikishkov et al. Porting an industrial sheet metal forming code to a distributed memory parallel computer
DeGroot MAPPING COMPUTATION STRUCTURES ONTO SW-BANYAN NETWORKS.
ATE326726T1 (en) DATA STRUCTURE FOR DATA TRANSMISSION ON A TIME-MULTIPLEXED BUS
JPH07143176A (en) Method for specifying route of data block to address thereof
Bojańczyk et al. Parallel solution of certain Toeplitz least-squares problems
Qin et al. A tridiagonal solver for massively parallel computers
Takagi et al. Counting the number of renewals during a random interval in a discrete-time delayed renewal process
Sherman¹ 18. Computations Relating to Inverse Matrices
Utku et al. Parallel solution of closely coupled systems
Luo et al. A flexible transputer network for numerical applications
JPS61222313A (en) Time changing digital filter
JPH0619952A (en) Parallel computer system for solving parallel matrix by lu decomposing method
Shanthikumar et al. An algorithmic approach for a special class of Markov chains
JPH03259383A (en) Picture element arranging method
Chawla et al. A parallel elimination method for the solution of banded linear systems
Hendry et al. Iterative solution of the global element equations
EP0118755A2 (en) Method of digitally transmitting television pictures
JPH02212911A (en) Timing method for digital time unit
Austin et al. A Generalized Multivariable Smith Predictor Arising from New Pseudo-Commutativity Results
JPH04251381A (en) Automatic wiring system for circuit diagram