JPH06175985A - データ処理装置及びデータ処理方法 - Google Patents
データ処理装置及びデータ処理方法Info
- Publication number
- JPH06175985A JPH06175985A JP4324374A JP32437492A JPH06175985A JP H06175985 A JPH06175985 A JP H06175985A JP 4324374 A JP4324374 A JP 4324374A JP 32437492 A JP32437492 A JP 32437492A JP H06175985 A JPH06175985 A JP H06175985A
- Authority
- JP
- Japan
- Prior art keywords
- data
- data processing
- processing
- pen
- capacity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F15/00—Digital computers in general; Data processing equipment in general
- G06F15/76—Architectures of general purpose stored program computers
- G06F15/80—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors
- G06F15/8007—Architectures of general purpose stored program computers comprising an array of processing units with common control, e.g. single instruction multiple data processors single instruction multiple data [SIMD] multiprocessors
Landscapes
- Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Theoretical Computer Science (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Image Processing (AREA)
- Electron Beam Exposure (AREA)
Abstract
(57)【要約】
【目的】 本発明はデータ処理装置の改善に関し、各種
データの被処理領域数を必要以上に多くすることなく、
その割当て方法を工夫して、与えられた副記憶装置のメ
モリ容量内でデータ並列処理の高速化を図ることを目的
とする。 【構成】 各種データDm〔m=1,2,i,j〜m〕
を並列処理する複数のデータ処理プロセッサPEn,〔n
=1,2,i,j〜n〕と、各種データDmを伝送する
データ伝送手段11と、データ処理プロセッサPEnを監
視する主制御手段12とを具備し、主制御手段12がデ
ータ処理プロセッサPEn間のデータ分担調整制御をする
ことを含み構成し、該データ処理プロセッサPEnが、少
なくとも、割り当てられた各種データDmに基づいてデ
ータ処理制御をする副制御手段13と、割り当てられた
各種データDmを一時記憶する副記憶手段14から成る
ことを含み構成する。
データの被処理領域数を必要以上に多くすることなく、
その割当て方法を工夫して、与えられた副記憶装置のメ
モリ容量内でデータ並列処理の高速化を図ることを目的
とする。 【構成】 各種データDm〔m=1,2,i,j〜m〕
を並列処理する複数のデータ処理プロセッサPEn,〔n
=1,2,i,j〜n〕と、各種データDmを伝送する
データ伝送手段11と、データ処理プロセッサPEnを監
視する主制御手段12とを具備し、主制御手段12がデ
ータ処理プロセッサPEn間のデータ分担調整制御をする
ことを含み構成し、該データ処理プロセッサPEnが、少
なくとも、割り当てられた各種データDmに基づいてデ
ータ処理制御をする副制御手段13と、割り当てられた
各種データDmを一時記憶する副記憶手段14から成る
ことを含み構成する。
Description
【0001】〔目 次〕 産業上の利用分野 従来の技術(図7,8) 発明が解決しようとする課題 課題を解決するための手段(図1,2) 作用 実施例(図3〜6) 発明の効果
【0002】
【産業上の利用分野】本発明は、データ処理装置及びデ
ータ処理方法に関するものであり、更に詳しく言えば、
マスクデータの並列処理をする装置及びその方法の改善
に関するものである。
ータ処理方法に関するものであり、更に詳しく言えば、
マスクデータの並列処理をする装置及びその方法の改善
に関するものである。
【0003】近年、半導体集積回路(以下LSIとい
う)装置のレチクルやマスクパターンを作成するマスク
データ処理装置や、その検査工程において画像処理をす
る画像データ処理装置の高機能,高性能化の要求に伴
い、複数のデータ処理プロセッサを用意し、各種データ
の並列演算処理を実行させる並列データ処理装置が開発
されている。
う)装置のレチクルやマスクパターンを作成するマスク
データ処理装置や、その検査工程において画像処理をす
る画像データ処理装置の高機能,高性能化の要求に伴
い、複数のデータ処理プロセッサを用意し、各種データ
の並列演算処理を実行させる並列データ処理装置が開発
されている。
【0004】例えば、マスクデータ処理装置では大容量
メモリに格納されたLSI装置の設計データをチップ全
体を均一なフィールドサイズに分割している。このた
め、LSI装置のパターン密度が高い領域も、それが低
い領域も、一律に同じサイズのフィールドに分割されて
しまう。このことで、パターン密度の低い領域では、必
要以上に設計パターンが分割され、フィールド数が多く
なる。
メモリに格納されたLSI装置の設計データをチップ全
体を均一なフィールドサイズに分割している。このた
め、LSI装置のパターン密度が高い領域も、それが低
い領域も、一律に同じサイズのフィールドに分割されて
しまう。このことで、パターン密度の低い領域では、必
要以上に設計パターンが分割され、フィールド数が多く
なる。
【0005】また、階層毎にマスクパターンデータを扱
う階層構造化したフィールドメモリを有する記憶システ
ムでは、各階層のいずれかの領域での容量不足もデータ
処理を中断してしまうという問題がある。
う階層構造化したフィールドメモリを有する記憶システ
ムでは、各階層のいずれかの領域での容量不足もデータ
処理を中断してしまうという問題がある。
【0006】そこで、各種データのフィールド数を必要
以上に多くすることなく、その割当て方法を工夫して、
与えられたフィールドメモリの容量内でデータ並列処理
の高速化を図ることができる装置及び方法が望まれてい
る。
以上に多くすることなく、その割当て方法を工夫して、
与えられたフィールドメモリの容量内でデータ並列処理
の高速化を図ることができる装置及び方法が望まれてい
る。
【0007】
【従来の技術】図7,8は、従来例に係る説明図であ
る。また、図7(a),(b)は、従来例に係るマスク
データ処理方法の説明図であり、図8(a),(b)
は、その問題点を説明するメモリ容量オーバー時の対処
図をそれぞれ示している。
る。また、図7(a),(b)は、従来例に係るマスク
データ処理方法の説明図であり、図8(a),(b)
は、その問題点を説明するメモリ容量オーバー時の対処
図をそれぞれ示している。
【0008】例えば、LSI装置の設計データDinに基
づいて、そのレチクルやマスクパターンに係る露光デー
タDout を作成するマスクデータ処理装置(並列計算機
システム)は、図7(a)において、大容量メモリ1,
n個のデータ処理プロセッサPE1〜PEn,CPU(中央
演算処理装置)2及び露光データメモリ3等から成る。
なお、各データ処理プロセッサPE1〜PEnには、それぞ
れに割当てられた設計データDinを一時記憶するフィー
ルドメモリMf1〜Mfnが設けられる。
づいて、そのレチクルやマスクパターンに係る露光デー
タDout を作成するマスクデータ処理装置(並列計算機
システム)は、図7(a)において、大容量メモリ1,
n個のデータ処理プロセッサPE1〜PEn,CPU(中央
演算処理装置)2及び露光データメモリ3等から成る。
なお、各データ処理プロセッサPE1〜PEnには、それぞ
れに割当てられた設計データDinを一時記憶するフィー
ルドメモリMf1〜Mfnが設けられる。
【0009】当該装置の機能は、例えば、LSI装置の
設計データDinが大容量メモリ1に伝送されると、CP
U2により該設計データDinが露光フィールド領域に分
割され、その分割された設計データDinに基づいて、n
個のデータ処理プロセッサPE1〜PEnによりデータフォ
ーマット変換処理,論理処理及びサイジング処理等が行
われ、その結果データが露光データDout として露光デ
ータメモリ3に伝送格納される。
設計データDinが大容量メモリ1に伝送されると、CP
U2により該設計データDinが露光フィールド領域に分
割され、その分割された設計データDinに基づいて、n
個のデータ処理プロセッサPE1〜PEnによりデータフォ
ーマット変換処理,論理処理及びサイジング処理等が行
われ、その結果データが露光データDout として露光デ
ータメモリ3に伝送格納される。
【0010】また、図7(b)は、従来例に係るマスク
データの並列処理フローチャートを示している。例え
ば、LSI装置の設計データDinに基づいて、マスクパ
ターンデータの並列処理をする場合、図7(b)におい
て、まず、ステップP1で設計データDinを大容量メモ
リ1 に複写/ 編集し、次に、ステップP2でチップ全体
を均一なフィールドサイズに分割する。これは、1フィ
ールド当たりに存在するパターンデータ数を少なくする
ためであり、フィールドの大きさ(領域)を一律にする
方法を採用することにより、1単位で処理するパターン
データ数を少なくすることができる。ここで、分割され
た各フィールド毎の設計データDinが各データ処理プロ
セッサPE1〜PEnに伝送される。
データの並列処理フローチャートを示している。例え
ば、LSI装置の設計データDinに基づいて、マスクパ
ターンデータの並列処理をする場合、図7(b)におい
て、まず、ステップP1で設計データDinを大容量メモ
リ1 に複写/ 編集し、次に、ステップP2でチップ全体
を均一なフィールドサイズに分割する。これは、1フィ
ールド当たりに存在するパターンデータ数を少なくする
ためであり、フィールドの大きさ(領域)を一律にする
方法を採用することにより、1単位で処理するパターン
データ数を少なくすることができる。ここで、分割され
た各フィールド毎の設計データDinが各データ処理プロ
セッサPE1〜PEnに伝送される。
【0011】その後、並列処理を実行すべく第1のデー
タ処理プロセッサPE1では、ステップP31で当該プロセ
ッサPE1に割当られた設計データDinの格納をする。こ
れに並行して、第2のデータ処理プロセッサPE2では、
ステップP32で処理プロセッサPE2に割当られた設計デ
ータDinを格納する。
タ処理プロセッサPE1では、ステップP31で当該プロセ
ッサPE1に割当られた設計データDinの格納をする。こ
れに並行して、第2のデータ処理プロセッサPE2では、
ステップP32で処理プロセッサPE2に割当られた設計デ
ータDinを格納する。
【0012】次に、ステップP41で第1のフィールドメ
モリMf1がメモリ容量オーバーしたか否かを判断をす
る。この際に、メモリ容量オーバーした場合(YES)に
は、ステップP51でメモリの倍率を変更する。また、そ
れがオーバーしない場合(NO)には、ステップP61に
移行してマスクパターンデータ処理をする。
モリMf1がメモリ容量オーバーしたか否かを判断をす
る。この際に、メモリ容量オーバーした場合(YES)に
は、ステップP51でメモリの倍率を変更する。また、そ
れがオーバーしない場合(NO)には、ステップP61に
移行してマスクパターンデータ処理をする。
【0013】これに並行して、第2のデータ処理プロセ
ッサPE2では、ステップP42で第1のフィールドメモリ
Mf2がメモリ容量オーバーしたか否かを判断をする。こ
の際に、メモリ容量オーバーした場合(YES)には、ス
テップP52でメモリの倍率を変更する。また、それがオ
ーバーしない場合(NO)には、ステップP62に移行し
てマスクパターンデータ処理をする。
ッサPE2では、ステップP42で第1のフィールドメモリ
Mf2がメモリ容量オーバーしたか否かを判断をする。こ
の際に、メモリ容量オーバーした場合(YES)には、ス
テップP52でメモリの倍率を変更する。また、それがオ
ーバーしない場合(NO)には、ステップP62に移行し
てマスクパターンデータ処理をする。
【0014】これにより、各データ処理プロセッサPE1
〜PEnにより設計データDinが並列データ処理され、そ
の結果、LSI装置のレチクルやマスクパターンに係る
露光データDout が得られる。
〜PEnにより設計データDinが並列データ処理され、そ
の結果、LSI装置のレチクルやマスクパターンに係る
露光データDout が得られる。
【0015】
【発明が解決しようとする課題】ところで、従来例によ
れば図8(a)に示すように、大容量メモリ1に格納さ
れたLSI装置の設計データDinを図7(b)の処理フ
ローチャートのステップP2でチップ全体を均一なフィ
ールドサイズに分割している。
れば図8(a)に示すように、大容量メモリ1に格納さ
れたLSI装置の設計データDinを図7(b)の処理フ
ローチャートのステップP2でチップ全体を均一なフィ
ールドサイズに分割している。
【0016】このため、LSI装置のパターン密度が高
い,例えば、トランジスタ素子や配線パターンが入り込
むパターン領域も、それが低いパターン領域も、一律に
同じサイズのフィールドに分割されてしまう。なお、マ
スクパターンデータの並列処理におけるフィールドの分
割条件としては、例えば、被処理対象領域において、パ
ターン密度の高い領域のデータ容量が各データ処理プロ
セッサPE1〜PEnに設けられたフィールドメモリMfnの
メモリ容量以下になるように、チップ全体が均一なフィ
ールドに分割される。
い,例えば、トランジスタ素子や配線パターンが入り込
むパターン領域も、それが低いパターン領域も、一律に
同じサイズのフィールドに分割されてしまう。なお、マ
スクパターンデータの並列処理におけるフィールドの分
割条件としては、例えば、被処理対象領域において、パ
ターン密度の高い領域のデータ容量が各データ処理プロ
セッサPE1〜PEnに設けられたフィールドメモリMfnの
メモリ容量以下になるように、チップ全体が均一なフィ
ールドに分割される。
【0017】このことで、かかる条件を実行するとLS
I装置のパターン密度の低い領域では、必要以上にチッ
プ全体が均一なフィールドサイズに分割され、各データ
処理プロセッサPE1〜PEnに割り当てるフィールド数が
多くなる。これにより、フィールドメモリMfnをアクセ
スする回数が多くなることになり、無駄な処理時間を費
やすこととなる。
I装置のパターン密度の低い領域では、必要以上にチッ
プ全体が均一なフィールドサイズに分割され、各データ
処理プロセッサPE1〜PEnに割り当てるフィールド数が
多くなる。これにより、フィールドメモリMfnをアクセ
スする回数が多くなることになり、無駄な処理時間を費
やすこととなる。
【0018】また、従来例によれば各データ処理プロセ
ッサPEnのフィールドメモリMfnの小容量化が図られ、
当該データ処理プロセッサPEnに割当てた設計データD
inがフィールドメモリMfnのメモリ容量をオーバーする
ときには、図7(b)の処理フローチャートのステップ
P51,P52でその倍率変更が行われる。
ッサPEnのフィールドメモリMfnの小容量化が図られ、
当該データ処理プロセッサPEnに割当てた設計データD
inがフィールドメモリMfnのメモリ容量をオーバーする
ときには、図7(b)の処理フローチャートのステップ
P51,P52でその倍率変更が行われる。
【0019】例えば、図8(a)において、あるデータ
処理プロセッサPEnに割当てた設計データDinがメモリ
容量オーバーを生ずる場合には、図8(b)に示すよう
に、全体の倍率を2倍( 200〔%〕)に拡大してマスク
データ処理をする。
処理プロセッサPEnに割当てた設計データDinがメモリ
容量オーバーを生ずる場合には、図8(b)に示すよう
に、全体の倍率を2倍( 200〔%〕)に拡大してマスク
データ処理をする。
【0020】しかし、全体の倍率を増加したために、フ
ィールド数が4倍に増加をし、アクセス回数が4倍にな
る。このことで、無駄な処理時間を費やすこととなる。
また、設計データDinの大容量化に伴うマスク領域の単
位面積当たりのマスクパターン数が増加をすることか
ら、大容量メモリ1やフィールドメモリMfnの容量不足
を招くこととなる。
ィールド数が4倍に増加をし、アクセス回数が4倍にな
る。このことで、無駄な処理時間を費やすこととなる。
また、設計データDinの大容量化に伴うマスク領域の単
位面積当たりのマスクパターン数が増加をすることか
ら、大容量メモリ1やフィールドメモリMfnの容量不足
を招くこととなる。
【0021】これにより、階層毎にマスクパターンデー
タを扱う階層構造化したフィールドメモリ(以下副記憶
装置ともいう)Mfnを有する記憶システムでは、各階層
のいずれかの領域での容量不足もデータ処理を中断して
しまうという問題がある。このことから、フィールドの
サイズの変更が余儀無くされ、その結果、フィールド
(以下各種データの被処理領域ともいう)の分割再処理
をしなくてはならず、マスクパターンデータ処理の高速
化の妨げとなるという問題がある。
タを扱う階層構造化したフィールドメモリ(以下副記憶
装置ともいう)Mfnを有する記憶システムでは、各階層
のいずれかの領域での容量不足もデータ処理を中断して
しまうという問題がある。このことから、フィールドの
サイズの変更が余儀無くされ、その結果、フィールド
(以下各種データの被処理領域ともいう)の分割再処理
をしなくてはならず、マスクパターンデータ処理の高速
化の妨げとなるという問題がある。
【0022】本発明は、かかる従来例の問題点に鑑み創
作されたものであり、各種データの被処理領域数を必要
以上に多くすることなく、その割当て方法を工夫して、
与えられた副記憶装置のメモリ容量内でデータ並列処理
の高速化を図ることが可能となるデータ処理装置及びデ
ータ処理方法の提供を目的とする。
作されたものであり、各種データの被処理領域数を必要
以上に多くすることなく、その割当て方法を工夫して、
与えられた副記憶装置のメモリ容量内でデータ並列処理
の高速化を図ることが可能となるデータ処理装置及びデ
ータ処理方法の提供を目的とする。
【0023】
【課題を解決するための手段】図1は、本発明に係るデ
ータ処理装置の原理図であり、図2(a)〜(c)は、
本発明に係るデータ処理方法の原理図をそれぞれ示して
いる。
ータ処理装置の原理図であり、図2(a)〜(c)は、
本発明に係るデータ処理方法の原理図をそれぞれ示して
いる。
【0024】本発明のデータ処理装置は図1に示すよう
に、各種データDm〔m=1,2,i,j〜n〕を並列
処理する複数のデータ処理プロセッサPEn,〔n=1,
2,i,j〜n〕と、前記各種データDmを伝送するデ
ータ伝送手段11と、前記データ処理プロセッサPEnを
監視する主制御手段12とを具備し、前記主制御手段1
2がデータ処理プロセッサPEn間のデータ分担調整制御
をすることを特徴とする。
に、各種データDm〔m=1,2,i,j〜n〕を並列
処理する複数のデータ処理プロセッサPEn,〔n=1,
2,i,j〜n〕と、前記各種データDmを伝送するデ
ータ伝送手段11と、前記データ処理プロセッサPEnを
監視する主制御手段12とを具備し、前記主制御手段1
2がデータ処理プロセッサPEn間のデータ分担調整制御
をすることを特徴とする。
【0025】なお、本発明のデータ処理装置において、
前記データ処理プロセッサPEnが、少なくとも、割り当
てられた各種データDmに基づいてデータ処理制御をす
る副制御手段13と、前記割り当てられた各種データD
mを一時記憶する副記憶手段14から成ることを特徴と
する。
前記データ処理プロセッサPEnが、少なくとも、割り当
てられた各種データDmに基づいてデータ処理制御をす
る副制御手段13と、前記割り当てられた各種データD
mを一時記憶する副記憶手段14から成ることを特徴と
する。
【0026】また、本発明のデータ処理装置において、
前記各種データDmの階層構造化したデータを格納する
主記憶手段15が設けられることを特徴とする。さら
に、本発明のデータ処理方法は、図2(a)に示すよう
な複数のデータ処理プロセッサPEn,〔n=1,2,
i,j〜n〕により各種データDmを並列処理する方法
であって、図2(c)の処理フローチャートに示すよう
に、ステップP1で前記データ処理プロセッサPEnのデ
ータ処理能力の監視処理をしながら、ステップP2で前
記監視処理に基づいてデータ処理プロセッサPEn間のデ
ータ分担調整処理をすることを特徴とする。
前記各種データDmの階層構造化したデータを格納する
主記憶手段15が設けられることを特徴とする。さら
に、本発明のデータ処理方法は、図2(a)に示すよう
な複数のデータ処理プロセッサPEn,〔n=1,2,
i,j〜n〕により各種データDmを並列処理する方法
であって、図2(c)の処理フローチャートに示すよう
に、ステップP1で前記データ処理プロセッサPEnのデ
ータ処理能力の監視処理をしながら、ステップP2で前
記監視処理に基づいてデータ処理プロセッサPEn間のデ
ータ分担調整処理をすることを特徴とする。
【0027】なお、本発明のデータ処理方法において、
前記データ分担調整処理は、図2(c)の処理フローチ
ャートのステップP2Aで、任意のデータ処理プロセッサ
PEiに割当てられた分担割当データDiの中の過剰分デ
ータDaを他のデータ処理プロセッサPEjに伝送処理を
することを特徴とする(図2(b)参照)。
前記データ分担調整処理は、図2(c)の処理フローチ
ャートのステップP2Aで、任意のデータ処理プロセッサ
PEiに割当てられた分担割当データDiの中の過剰分デ
ータDaを他のデータ処理プロセッサPEjに伝送処理を
することを特徴とする(図2(b)参照)。
【0028】また、本発明のデータ処理方法において、
前記伝送処理の際に、データ処理能力を越えたデータ処
理プロセッサPEiの記憶容量過剰フラグに基づいて他の
データ処理プロセッサPEjに過剰分データDaを伝送す
ることを特徴とし、上記目的を達成する。
前記伝送処理の際に、データ処理能力を越えたデータ処
理プロセッサPEiの記憶容量過剰フラグに基づいて他の
データ処理プロセッサPEjに過剰分データDaを伝送す
ることを特徴とし、上記目的を達成する。
【0029】
【作 用】本発明のデータ処理装置によれば、図1に示
すようにデータ伝送手段11に接続された複数のデータ
処理プロセッサPEn,〔n=1,2,i,j〜n〕,主
制御手段12及び主記憶手段15が具備され、該主制御
手段12がデータ処理プロセッサPEn間のデータ分担調
整制御をする。
すようにデータ伝送手段11に接続された複数のデータ
処理プロセッサPEn,〔n=1,2,i,j〜n〕,主
制御手段12及び主記憶手段15が具備され、該主制御
手段12がデータ処理プロセッサPEn間のデータ分担調
整制御をする。
【0030】例えば、階層構造化されたパターンデータ
から成る各種データDmが主制御手段12により均一な
被処理領域に分割されると、それらを各データ処理プロ
セッサPEn,〔n=1,2,i,j〜n〕に割当てるべ
く、主記憶手段15から各種データDm〔m=1,2,
i,j〜n〕が読み出される。また、主記憶手段15か
らデータ伝送手段11を介して各データ処理プロセッサ
PEn,〔n=1,2,i,j〜n〕に各種データDmが
伝送されると、複数のデータ処理プロセッサPEn,〔n
=1,2,i,j〜n〕では並列データ処理に移行され
る。
から成る各種データDmが主制御手段12により均一な
被処理領域に分割されると、それらを各データ処理プロ
セッサPEn,〔n=1,2,i,j〜n〕に割当てるべ
く、主記憶手段15から各種データDm〔m=1,2,
i,j〜n〕が読み出される。また、主記憶手段15か
らデータ伝送手段11を介して各データ処理プロセッサ
PEn,〔n=1,2,i,j〜n〕に各種データDmが
伝送されると、複数のデータ処理プロセッサPEn,〔n
=1,2,i,j〜n〕では並列データ処理に移行され
る。
【0031】ここで、各データ処理プロセッサPEnが主
制御手段12により監視され、該主制御手段12により
データ分担調整制御が行われる。例えば、あるデータ処
理プロセッサPEnでは、その副制御手段13を介して副
記憶手段14に先に割り当てられた各種データDmが一
時記憶される。
制御手段12により監視され、該主制御手段12により
データ分担調整制御が行われる。例えば、あるデータ処
理プロセッサPEnでは、その副制御手段13を介して副
記憶手段14に先に割り当てられた各種データDmが一
時記憶される。
【0032】この際に、副記憶手段14のメモリ容量が
オーバーした場合には、その記憶容量過剰フラグが立ち
上がることから、その旨が主制御手段12に認識され、
データ処理プロセッサPEn間のデータ分担を調整すべ
く、当該プロセッサPEnに割り当てられた各種データD
mの中の過剰分データDaが他のデータ処理プロセッサ
PEjに委譲すべく伝送される(データ分担調整制御)。
オーバーした場合には、その記憶容量過剰フラグが立ち
上がることから、その旨が主制御手段12に認識され、
データ処理プロセッサPEn間のデータ分担を調整すべ
く、当該プロセッサPEnに割り当てられた各種データD
mの中の過剰分データDaが他のデータ処理プロセッサ
PEjに委譲すべく伝送される(データ分担調整制御)。
【0033】このため、副記憶手段14のメモリ容量が
オーバーしない場合には、割り当てられた各種データD
mに基づいて副制御手段13によりデータ処理制御され
る。また、他のデータ処理プロセッサPEjでは過剰分デ
ータDaに基づいて副制御手段13によりデータ処理制
御される。例えば、隣接するデータ処理プロセッサPE
i,PEj間におけるデータ伝送処理,各種データDmの
フォーマット変換処理や圧縮された各種データDmの復
元処理等を行うことが可能となる。
オーバーしない場合には、割り当てられた各種データD
mに基づいて副制御手段13によりデータ処理制御され
る。また、他のデータ処理プロセッサPEjでは過剰分デ
ータDaに基づいて副制御手段13によりデータ処理制
御される。例えば、隣接するデータ処理プロセッサPE
i,PEj間におけるデータ伝送処理,各種データDmの
フォーマット変換処理や圧縮された各種データDmの復
元処理等を行うことが可能となる。
【0034】これにより、各種データDmに係る被処理
領域数を必要以上に多くすることなく、その割当て方法
を工夫することにより、与えられた副記憶装置14のメ
モリ容量内でデータ並列処理の高速化を図ることが可能
となる。
領域数を必要以上に多くすることなく、その割当て方法
を工夫することにより、与えられた副記憶装置14のメ
モリ容量内でデータ並列処理の高速化を図ることが可能
となる。
【0035】さらに、本発明のデータ処理方法によれ
ば、図2(c)の処理フローチャートに示すように、ス
テップP2でデータ処理プロセッサPEnのデータ処理能
力の監視処理をしながら、該データ処理プロセッサPEn
間のデータ分担調整処理をする。
ば、図2(c)の処理フローチャートに示すように、ス
テップP2でデータ処理プロセッサPEnのデータ処理能
力の監視処理をしながら、該データ処理プロセッサPEn
間のデータ分担調整処理をする。
【0036】例えば、ステップP2Aで任意のデータ処理
プロセッサPEiに割当てられた分担割当データDiが当
該プロセッサPEiのデータ処理能力の許容値を越える場
合,すなわち、データ処理能力を越えたデータ処理プロ
セッサPEiから記憶容量過剰フラグが発生された場合に
は、その中の過剰分データDaが他のデータ処理プロセ
ッサPEjに伝送処理(データ分担調整処理)される。
プロセッサPEiに割当てられた分担割当データDiが当
該プロセッサPEiのデータ処理能力の許容値を越える場
合,すなわち、データ処理能力を越えたデータ処理プロ
セッサPEiから記憶容量過剰フラグが発生された場合に
は、その中の過剰分データDaが他のデータ処理プロセ
ッサPEjに伝送処理(データ分担調整処理)される。
【0037】このため、各種データDmに係わり高密度
のパターンデータを含む場合や、それが低密度のパター
ンデータを含む場合について、それを一律に同じサイズ
の被処理領域に分割した場合であっても、データ処理プ
ロセッサPEn間のデータ分担を調整するデータ分担調整
制御を行うことで、被処理領域数やその再分割数の増加
を極力抑制することが可能となる。
のパターンデータを含む場合や、それが低密度のパター
ンデータを含む場合について、それを一律に同じサイズ
の被処理領域に分割した場合であっても、データ処理プ
ロセッサPEn間のデータ分担を調整するデータ分担調整
制御を行うことで、被処理領域数やその再分割数の増加
を極力抑制することが可能となる。
【0038】また、本発明によれば当該データ処理プロ
セッサPEnに割当てられた各種データDmが副記憶装置
14のメモリ容量をオーバーするときに、データ分担調
整処理が行われることから、各データ処理プロセッサP
Enの副記憶装置14の小容量化を図る場合でも、従来例
のような倍率変更を行わなくても済む。
セッサPEnに割当てられた各種データDmが副記憶装置
14のメモリ容量をオーバーするときに、データ分担調
整処理が行われることから、各データ処理プロセッサP
Enの副記憶装置14の小容量化を図る場合でも、従来例
のような倍率変更を行わなくても済む。
【0039】例えば、階層毎にマスクパターンデータを
扱う階層構造化した副記憶装置14を有する記憶システ
ムにおいて、並列データ処理が与えられた副記憶装置1
4のメモリ容量内で行われる。
扱う階層構造化した副記憶装置14を有する記憶システ
ムにおいて、並列データ処理が与えられた副記憶装置1
4のメモリ容量内で行われる。
【0040】このため、従来例のような各階層のいずれ
かの領域でのメモリ容量不足という事態が極力抑制さ
れ、これを原因とするデータ処理の中断等を無くすこと
ができる。このことから、被処理領域のサイズ変更処理
が極力抑制され、その結果、各種データの全体の処理領
域の分割再処理をしなくても済む。
かの領域でのメモリ容量不足という事態が極力抑制さ
れ、これを原因とするデータ処理の中断等を無くすこと
ができる。このことから、被処理領域のサイズ変更処理
が極力抑制され、その結果、各種データの全体の処理領
域の分割再処理をしなくても済む。
【0041】これにより、図2(a)に示すような複数
のデータ処理プロセッサPEnにより各種データDmの高
速並列データ処理を行うことが可能となる。また、各種
データDmの大容量化に伴いデータ処理領域の単位面積
当たりのパターンデータ数が増加をした場合であっても
主記憶手段15や副記憶装置14のメモリ容量の増設を
極力抑制することが可能となる。
のデータ処理プロセッサPEnにより各種データDmの高
速並列データ処理を行うことが可能となる。また、各種
データDmの大容量化に伴いデータ処理領域の単位面積
当たりのパターンデータ数が増加をした場合であっても
主記憶手段15や副記憶装置14のメモリ容量の増設を
極力抑制することが可能となる。
【0042】
【実施例】次に、図を参照しながら本発明の実施例につ
いて説明をする。図3〜6は、本発明の実施例に係るデ
ータ処理装置及びデータ処理方法の説明図をそれぞれ示
している。
いて説明をする。図3〜6は、本発明の実施例に係るデ
ータ処理装置及びデータ処理方法の説明図をそれぞれ示
している。
【0043】図3は、本発明の実施例に係るマスクパタ
ーンデータ処理装置の構成図であり、図4は、その高速
図形演算モジュールの説明図である。また、図5は、本
発明の実施例に係るマスクデータ処理のフローチャート
であり、図6はその補足説明図をそれぞれ示している。
ーンデータ処理装置の構成図であり、図4は、その高速
図形演算モジュールの説明図である。また、図5は、本
発明の実施例に係るマスクデータ処理のフローチャート
であり、図6はその補足説明図をそれぞれ示している。
【0044】例えば、データ処理装置の一例となるマス
クデータ処理装置は、LSI装置の設計データDinに基
づいて、そのレチクルやマスクパターンに係る露光デー
タDout を作成するものであり、図3において、システ
ムバス21Aやローカルバス21Bに接続された大容量メモ
リモジュールM1〜M8,高速図形演算モジュールP1
〜P8,表示メモリモジュール27と、該システムバス
21Aに接続された制御コンピュータ22と、その他の表
示装置28,ディスク装置29及びコンソール装置30
等から成る。
クデータ処理装置は、LSI装置の設計データDinに基
づいて、そのレチクルやマスクパターンに係る露光デー
タDout を作成するものであり、図3において、システ
ムバス21Aやローカルバス21Bに接続された大容量メモ
リモジュールM1〜M8,高速図形演算モジュールP1
〜P8,表示メモリモジュール27と、該システムバス
21Aに接続された制御コンピュータ22と、その他の表
示装置28,ディスク装置29及びコンソール装置30
等から成る。
【0045】すなわち、高速図形演算モジュールPE1〜
PE8は複数のデータ処理プロセッサPEn,〔n=8〕の
一実施例であり、各種データDm〔m=1〜m〕の一例
となる設計データ(以下マスクデータD1,D2…とも
いう)Dinに基づいて並列データ処理をし、その結果、
LSI装置のレチクルやマスクパターンを露光する露光
データDout を出力するものである。なお、各高速図形
演算モジュールPEnについては、図4において詳述す
る。
PE8は複数のデータ処理プロセッサPEn,〔n=8〕の
一実施例であり、各種データDm〔m=1〜m〕の一例
となる設計データ(以下マスクデータD1,D2…とも
いう)Dinに基づいて並列データ処理をし、その結果、
LSI装置のレチクルやマスクパターンを露光する露光
データDout を出力するものである。なお、各高速図形
演算モジュールPEnについては、図4において詳述す
る。
【0046】また、制御コンピュータ22は主制御手段
12の一実施例であり、高速図形演算モジュールPE1〜
PE8を監視するものである。例えば、制御コンピュータ
22は、高速図形演算モジュールPE1〜PE8間のデータ
分担調整制御をする。ここで、データ分担調整制御と
は、ある高速図形演算モジュールPE1に割り当てたマス
クデータD1がそのフィールドメモリ24のメモリ容量
をオーバーする場合に、その中の過剰分データDaを他
の高速図形演算モジュールPE2〜PE8に委譲すべく調整
する制御をいうものとする。
12の一実施例であり、高速図形演算モジュールPE1〜
PE8を監視するものである。例えば、制御コンピュータ
22は、高速図形演算モジュールPE1〜PE8間のデータ
分担調整制御をする。ここで、データ分担調整制御と
は、ある高速図形演算モジュールPE1に割り当てたマス
クデータD1がそのフィールドメモリ24のメモリ容量
をオーバーする場合に、その中の過剰分データDaを他
の高速図形演算モジュールPE2〜PE8に委譲すべく調整
する制御をいうものとする。
【0047】例えば、制御コンピュータ22は並列マス
クデータ処理において、ある高速図形演算モジュールP
E1のフィールドメモリ24が容量不足により、メモリオ
ーバーした場合に、そのオーバーフラグを認識し、先に
分割したフィールドによりオーバーしたデータ量から更
に、何分割すれば良いかを判断し、その1フィールド分
のデータを更に分割をする。
クデータ処理において、ある高速図形演算モジュールP
E1のフィールドメモリ24が容量不足により、メモリオ
ーバーした場合に、そのオーバーフラグを認識し、先に
分割したフィールドによりオーバーしたデータ量から更
に、何分割すれば良いかを判断し、その1フィールド分
のデータを更に分割をする。
【0048】すなわち、制御コンピュータ22はオーバ
ーフローしたフィールドサイズを変更して(そのフィー
ルドを再分割して)当該フィールドのみ再処理をした
り、オーバーフローしたフィールドのみを更に細かくフ
ィールドを分割する。これにより、分割したフィールド
のどれか1つがフィールドメモリ24のメモリ容量をオ
ーバーした時は、その当該フィールドを更に分割処理を
し、その分割処理を繰り返す。
ーフローしたフィールドサイズを変更して(そのフィー
ルドを再分割して)当該フィールドのみ再処理をした
り、オーバーフローしたフィールドのみを更に細かくフ
ィールドを分割する。これにより、分割したフィールド
のどれか1つがフィールドメモリ24のメモリ容量をオ
ーバーした時は、その当該フィールドを更に分割処理を
し、その分割処理を繰り返す。
【0049】なお、大容量メモリモジュールM1〜M8
は主記憶手段15の一実施例を構成するものであり、L
SI装置のレチクルやマスクパターンに係る階層構造化
された設計データDinを格納するものである。例えば、
大容量メモリモジュールM1には第1の階層構造化され
た設計データDinが格納され、順次、大容量メモリモジ
ュールM2〜M8には第2〜第8の階層構造化された設
計データDinがそれぞれ格納される。
は主記憶手段15の一実施例を構成するものであり、L
SI装置のレチクルやマスクパターンに係る階層構造化
された設計データDinを格納するものである。例えば、
大容量メモリモジュールM1には第1の階層構造化され
た設計データDinが格納され、順次、大容量メモリモジ
ュールM2〜M8には第2〜第8の階層構造化された設
計データDinがそれぞれ格納される。
【0050】また、表示メモリモジュール27は、マス
クデータ処理に要する図形, 配線,記号及び名称等の表
示データを格納するものであり、表示装置28は表示デ
ータに基づいてそれらを表示するものである。ディスク
装置29は、LSI装置の設計データDinを磁気テープ
MTにして格納するものであり、コンソール装置30
は、それを編集/格納制御するものである。なお、シス
テムバス21Aやローカルバス21Bはデータ伝送手段11
の一例であり、設計データDinを伝送するものである。
クデータ処理に要する図形, 配線,記号及び名称等の表
示データを格納するものであり、表示装置28は表示デ
ータに基づいてそれらを表示するものである。ディスク
装置29は、LSI装置の設計データDinを磁気テープ
MTにして格納するものであり、コンソール装置30
は、それを編集/格納制御するものである。なお、シス
テムバス21Aやローカルバス21Bはデータ伝送手段11
の一例であり、設計データDinを伝送するものである。
【0051】図4(a),(b)は、本発明の実施例に
係る高速図形演算モジュールの説明図であり、図4
(a)はその構成図であり、図4(b)はその動作フロ
ーチャートをそれぞれ示している。例えば、第1の高速
図形演算モジュールPE1は図4(a)において、CPU
(中央演算処理装置)23,フィールドメモリ24,デ
ータ圧縮エディタ25及びその他の処理部26から成
る。
係る高速図形演算モジュールの説明図であり、図4
(a)はその構成図であり、図4(b)はその動作フロ
ーチャートをそれぞれ示している。例えば、第1の高速
図形演算モジュールPE1は図4(a)において、CPU
(中央演算処理装置)23,フィールドメモリ24,デ
ータ圧縮エディタ25及びその他の処理部26から成
る。
【0052】すなわち、CPU(中央演算処理装置)2
3は副制御手段13の一例であり、割り当てられたマス
クデータ(設計データDinの一部)D1に基づいてデー
タ処理制御をするものである。例えば、CPU23はマ
スクデータ処理をしたデータをフィールドメモリ24に
書込みをしたり、1フィールド分のデータ処理が終了し
時点で大容量メモリモジュールM1等に露光データDou
t を伝送制御する。
3は副制御手段13の一例であり、割り当てられたマス
クデータ(設計データDinの一部)D1に基づいてデー
タ処理制御をするものである。例えば、CPU23はマ
スクデータ処理をしたデータをフィールドメモリ24に
書込みをしたり、1フィールド分のデータ処理が終了し
時点で大容量メモリモジュールM1等に露光データDou
t を伝送制御する。
【0053】また、フィールドメモリ24は副記憶手段
14の一例であり、割り当てられた1フィールド分のマ
スクデータD1を一時記憶するものである。例えば、フ
ィールドメモリ24はメモリ容量オーバーした場合に、
記憶容量過剰フラグの一例となるメモリオーバーフラグ
をCPU23に通知し、該CPU23はそれを制御コン
ピュータ22に伝送する。なお、データ圧縮エディタ2
5は、マスクデータ処理をしたデータを圧縮するもので
あり、その他の処理部26は、その圧縮データを元に戻
す機能エディタである。
14の一例であり、割り当てられた1フィールド分のマ
スクデータD1を一時記憶するものである。例えば、フ
ィールドメモリ24はメモリ容量オーバーした場合に、
記憶容量過剰フラグの一例となるメモリオーバーフラグ
をCPU23に通知し、該CPU23はそれを制御コン
ピュータ22に伝送する。なお、データ圧縮エディタ2
5は、マスクデータ処理をしたデータを圧縮するもので
あり、その他の処理部26は、その圧縮データを元に戻
す機能エディタである。
【0054】また、図4(b)は、各高速図形演算モジ
ュールの動作フローチャートであり、図5に示したマス
クデータ処理(メインルーチン)のサブルーチン処理内
容である。なお、当該動作フローチャートについては、
図5において併せて説明をする。
ュールの動作フローチャートであり、図5に示したマス
クデータ処理(メインルーチン)のサブルーチン処理内
容である。なお、当該動作フローチャートについては、
図5において併せて説明をする。
【0055】このようにして、本発明の実施例に係るデ
ータ処理装置によれば、図3に示すようにシステムバス
21Aに接続された8個の高速図形演算モジュールPE1〜
PE8,制御コンピュータ22及び大容量メモリモジュー
ルM1〜M8が具備され、該制御コンピュータ22が高
速図形演算モジュールPE1〜PE8間のデータ分担調整制
御をする。
ータ処理装置によれば、図3に示すようにシステムバス
21Aに接続された8個の高速図形演算モジュールPE1〜
PE8,制御コンピュータ22及び大容量メモリモジュー
ルM1〜M8が具備され、該制御コンピュータ22が高
速図形演算モジュールPE1〜PE8間のデータ分担調整制
御をする。
【0056】例えば、階層構造化されたデータから成る
設計データDinが制御コンピュータ22により均一なフ
ィールドに分割されると、それらを各高速図形演算モジ
ュールPE1〜PE8に割当てるべく、大容量メモリモジュ
ールM1〜M8からマスクデータ(設計データDin)D
1〜D8が読み出される。また、大容量メモリモジュー
ルM1〜M8からシステムバス21Aを介して各高速図形
演算モジュールPE1〜PE8に設計データDinが伝送され
ると、複数の高速図形演算モジュールPE1〜PE8では並
列データ処理に移行される。
設計データDinが制御コンピュータ22により均一なフ
ィールドに分割されると、それらを各高速図形演算モジ
ュールPE1〜PE8に割当てるべく、大容量メモリモジュ
ールM1〜M8からマスクデータ(設計データDin)D
1〜D8が読み出される。また、大容量メモリモジュー
ルM1〜M8からシステムバス21Aを介して各高速図形
演算モジュールPE1〜PE8に設計データDinが伝送され
ると、複数の高速図形演算モジュールPE1〜PE8では並
列データ処理に移行される。
【0057】ここで、各高速図形演算モジュールPE1〜
PE8が制御コンピュータ22により監視され、該制御コ
ンピュータ22によりデータ分担調整制御が行われる。
例えば、第1の高速図形演算モジュールPE1では、その
CPU23を介してフィールドメモリ24に先に割り当
てられたマスクデータD1が一時記憶される。
PE8が制御コンピュータ22により監視され、該制御コ
ンピュータ22によりデータ分担調整制御が行われる。
例えば、第1の高速図形演算モジュールPE1では、その
CPU23を介してフィールドメモリ24に先に割り当
てられたマスクデータD1が一時記憶される。
【0058】この際に、フィールドメモリ24のメモリ
容量がオーバーした場合には、その記憶容量過剰フラグ
が立ち上がることから、その旨が制御コンピュータ22
に認識され、高速図形演算モジュールPE1〜PE8間のデ
ータ分担を調整すべく、当該プロセッサPE1に割り当て
られたマスクデータD1の中の過剰分データDaが他の
高速図形演算モジュールPE2又はPE3〜PE8のいずれか
に伝送される(データ分担調整制御)。
容量がオーバーした場合には、その記憶容量過剰フラグ
が立ち上がることから、その旨が制御コンピュータ22
に認識され、高速図形演算モジュールPE1〜PE8間のデ
ータ分担を調整すべく、当該プロセッサPE1に割り当て
られたマスクデータD1の中の過剰分データDaが他の
高速図形演算モジュールPE2又はPE3〜PE8のいずれか
に伝送される(データ分担調整制御)。
【0059】このため、フィールドメモリ24のメモリ
容量がオーバーしない場合には、割り当てられたマスク
データD1に基づいてCPU23によりデータ処理制御
される。また、他の高速図形演算モジュールPE2又はP
E3〜PE8では過剰分データDaに基づいてCPU23に
よりデータ処理制御される。例えば、隣接する高速図形
演算モジュールPE2,PE3間におけるデータ伝送処理,
マスクデータD2のフォーマット変換処理や圧縮された
露光データDout の復元処理等を行うことが可能とな
る。
容量がオーバーしない場合には、割り当てられたマスク
データD1に基づいてCPU23によりデータ処理制御
される。また、他の高速図形演算モジュールPE2又はP
E3〜PE8では過剰分データDaに基づいてCPU23に
よりデータ処理制御される。例えば、隣接する高速図形
演算モジュールPE2,PE3間におけるデータ伝送処理,
マスクデータD2のフォーマット変換処理や圧縮された
露光データDout の復元処理等を行うことが可能とな
る。
【0060】これにより、設計データDinのフィールド
数を必要以上に多くすることなく、その割当て方法を工
夫することにより、与えられたフィールドメモリ24の
メモリ容量内でデータ並列処理の高速化を図ることが可
能となる。
数を必要以上に多くすることなく、その割当て方法を工
夫することにより、与えられたフィールドメモリ24の
メモリ容量内でデータ並列処理の高速化を図ることが可
能となる。
【0061】次に、本発明の実施例に係るデータ処理方
法について、当該装置の動作を補足しながら説明をす
る。図5は、本発明の実施例に係るマスクデータ並列処
理のフローチャートであり、図6はその監視処理の補足
説明図をそれぞれ示している。例えば、8個の高速図形
演算モジュールPE1〜PE8によりマスクデータDinを並
列処理する場合、図5において、ステップP3で高速図
形演算モジュールPE1〜PE8のデータ処理能力の監視処
理をしながら、ステップP41〜P48で監視処理に基づい
て高速図形演算モジュールPE1〜PE8間のデータ分担調
整処理をする。
法について、当該装置の動作を補足しながら説明をす
る。図5は、本発明の実施例に係るマスクデータ並列処
理のフローチャートであり、図6はその監視処理の補足
説明図をそれぞれ示している。例えば、8個の高速図形
演算モジュールPE1〜PE8によりマスクデータDinを並
列処理する場合、図5において、ステップP3で高速図
形演算モジュールPE1〜PE8のデータ処理能力の監視処
理をしながら、ステップP41〜P48で監視処理に基づい
て高速図形演算モジュールPE1〜PE8間のデータ分担調
整処理をする。
【0062】すなわち、図5において、まず、ステップ
P1で設計データDinを大容量メモリモジュールM1〜
M8に複写/編集する。この際に、ディスク装置29に
格納された磁気テープMTからLSI装置の設計データ
Dinがコンソール装置30を介して大容量メモリモジュ
ールM1〜M8に編集/格納制御される。例えば、LS
I装置のレチクルやマスクパターンに係る階層構造化さ
れた設計データDinが大容量メモリモジュールM1には
第1の階層構造化された設計データDinが格納され、順
次、大容量メモリモジュールM2〜M8には第2〜第8
の階層構造化された設計データDinがそれぞれ格納され
る。
P1で設計データDinを大容量メモリモジュールM1〜
M8に複写/編集する。この際に、ディスク装置29に
格納された磁気テープMTからLSI装置の設計データ
Dinがコンソール装置30を介して大容量メモリモジュ
ールM1〜M8に編集/格納制御される。例えば、LS
I装置のレチクルやマスクパターンに係る階層構造化さ
れた設計データDinが大容量メモリモジュールM1には
第1の階層構造化された設計データDinが格納され、順
次、大容量メモリモジュールM2〜M8には第2〜第8
の階層構造化された設計データDinがそれぞれ格納され
る。
【0063】次に、ステップP2でチップ全体を均一な
フィールドサイズに分割をする。なお、本発明の実施例
に係るマスクデータの並列処理におけるフィールドの分
割条件としては、例えば、全フィールドにおいて、パタ
ーン密度の高い領域のデータ容量とパターン密度の低い
領域のデータ容量との中間のデータ容量が各高速図形演
算モジュールPE1〜PEnに設けられたフィールドメモリ
24フィールドメモリMfnのメモリ容量以下になるよう
に、チップ全体を均一なフィールドに分割する。次い
で、ステップP3で高速図形演算モジュールPE1〜PE8
のデータ処理能力の監視処理をする。
フィールドサイズに分割をする。なお、本発明の実施例
に係るマスクデータの並列処理におけるフィールドの分
割条件としては、例えば、全フィールドにおいて、パタ
ーン密度の高い領域のデータ容量とパターン密度の低い
領域のデータ容量との中間のデータ容量が各高速図形演
算モジュールPE1〜PEnに設けられたフィールドメモリ
24フィールドメモリMfnのメモリ容量以下になるよう
に、チップ全体を均一なフィールドに分割する。次い
で、ステップP3で高速図形演算モジュールPE1〜PE8
のデータ処理能力の監視処理をする。
【0064】これに並行して、ステップP41で第1の高
速図形演算モジュールPE1においてマスクデータ処理を
する。例えば、図4(b)の処理フローチャートにおい
て、まず、ステップP401 でマスクデータ(以下分担割
当データともいう)D1の入力処理をし、ステップP40
2 でそれをフィールドメモリ24に書き込む。
速図形演算モジュールPE1においてマスクデータ処理を
する。例えば、図4(b)の処理フローチャートにおい
て、まず、ステップP401 でマスクデータ(以下分担割
当データともいう)D1の入力処理をし、ステップP40
2 でそれをフィールドメモリ24に書き込む。
【0065】次に、ステップP403 で当該フィールドメ
モリ24のメモリ容量を越えたか否の判断をする。この
際に、メモリ容量を越えた場合(YES)には、ステップ
P404 ,P405 ,P408 にそれぞれ移行する。また、メ
モリ容量を越えない場合(NO)には、ステップP402
に戻って書込み処理を継続する。
モリ24のメモリ容量を越えたか否の判断をする。この
際に、メモリ容量を越えた場合(YES)には、ステップ
P404 ,P405 ,P408 にそれぞれ移行する。また、メ
モリ容量を越えない場合(NO)には、ステップP402
に戻って書込み処理を継続する。
【0066】従って、メモリ容量を越えた場合(YES)
には、まず、ステップP403 でメモリオーバーフラグを
発生する。また、ステップP405 でマスクデータ処理を
開始する。一方、ステップP408 でメモリオーバーフラ
グが立ったか否かの監視をする。この際に、ステップP
404 でメモリオーバーフラグが発生されることで、CP
U23により認識され、それが制御コンピュータ22に
通知される。
には、まず、ステップP403 でメモリオーバーフラグを
発生する。また、ステップP405 でマスクデータ処理を
開始する。一方、ステップP408 でメモリオーバーフラ
グが立ったか否かの監視をする。この際に、ステップP
404 でメモリオーバーフラグが発生されることで、CP
U23により認識され、それが制御コンピュータ22に
通知される。
【0067】これにより、制御コンピュータ22では、
そのオーバーフラグが認識され、先に分割したフィール
ドによりオーバーしたデータ量から更に、何分割すれば
良いかが判断され、その1フィールド分のデータが更に
分割される。
そのオーバーフラグが認識され、先に分割したフィール
ドによりオーバーしたデータ量から更に、何分割すれば
良いかが判断され、その1フィールド分のデータが更に
分割される。
【0068】例えば、図6において、制御コンピュータ
22はオーバーフローしたフィールドサイズを変更し
て、当該フィールドのみ再処理をしたり、オーバーフロ
ーしたフィールドのみを更に細かくフィールドを分割す
る。これにより、分割したフィールドのどれか1つがフ
ィールドメモリ24のメモリ容量をオーバーした時は、
その当該フィールドを更に分割処理をし、その分割処理
を繰り返す。
22はオーバーフローしたフィールドサイズを変更し
て、当該フィールドのみ再処理をしたり、オーバーフロ
ーしたフィールドのみを更に細かくフィールドを分割す
る。これにより、分割したフィールドのどれか1つがフ
ィールドメモリ24のメモリ容量をオーバーした時は、
その当該フィールドを更に分割処理をし、その分割処理
を繰り返す。
【0069】その後、ステップP409 で過剰分データD
aの伝送先の指示を待機し、制御コンピュータ22から
伝送先指示が有った場合(YES)には、その過剰分デー
タDaの伝送をする。なお、ステップP405 でマスクデ
ータ処理において、それをステップP406 で圧縮するか
否かを判断する。この際に、圧縮する場合(YES)に
は、ステップP407 でデータ圧縮処理をし、その後、デ
ータ処理された露光データDout をフィールドメモリ2
4に格納する(図6参照)。
aの伝送先の指示を待機し、制御コンピュータ22から
伝送先指示が有った場合(YES)には、その過剰分デー
タDaの伝送をする。なお、ステップP405 でマスクデ
ータ処理において、それをステップP406 で圧縮するか
否かを判断する。この際に、圧縮する場合(YES)に
は、ステップP407 でデータ圧縮処理をし、その後、デ
ータ処理された露光データDout をフィールドメモリ2
4に格納する(図6参照)。
【0070】同様に、ステップP48で第8の高速図形演
算モジュールPE8においてマスクデータ処理をする。そ
して、メインルーチン処理のステップP5で全マスクデ
ータD1,D2…のデータ処理終了の判断をする。この
際に、それらのデータ処理が終了しない場合(NO)に
は、ステップP2に戻ってチップ全体を均一なフィール
ドサイズに分割をする。また、それらのデータ処理が終
了した場合(YES)には、マスクデータ並列処理を終了
する。
算モジュールPE8においてマスクデータ処理をする。そ
して、メインルーチン処理のステップP5で全マスクデ
ータD1,D2…のデータ処理終了の判断をする。この
際に、それらのデータ処理が終了しない場合(NO)に
は、ステップP2に戻ってチップ全体を均一なフィール
ドサイズに分割をする。また、それらのデータ処理が終
了した場合(YES)には、マスクデータ並列処理を終了
する。
【0071】このようにして、本発明の実施例に係るマ
スクデータ並列処理方法によれば、図5の処理フローチ
ャートに示すように、ステップP3で高速図形演算モジ
ュールPE1〜PE8のデータ処理能力の監視処理をしなが
ら、ステップP41〜P48で高速図形演算モジュールPE1
〜PE8間のデータ分担調整処理をする。
スクデータ並列処理方法によれば、図5の処理フローチ
ャートに示すように、ステップP3で高速図形演算モジ
ュールPE1〜PE8のデータ処理能力の監視処理をしなが
ら、ステップP41〜P48で高速図形演算モジュールPE1
〜PE8間のデータ分担調整処理をする。
【0072】例えば、ステップP41で第1の高速図形演
算モジュールPE1に割当てられた分担割当データD1が
当該プロセッサPE1のデータ処理能力の許容値を越える
場合,すなわち、第1の高速図形演算モジュールPE1か
らメモリオーバーフラグが発生された場合には、その中
の過剰分データDaが他の高速図形演算モジュールPE2
又はPE3〜PE8に伝送処理(データ分担調整処理)され
る。
算モジュールPE1に割当てられた分担割当データD1が
当該プロセッサPE1のデータ処理能力の許容値を越える
場合,すなわち、第1の高速図形演算モジュールPE1か
らメモリオーバーフラグが発生された場合には、その中
の過剰分データDaが他の高速図形演算モジュールPE2
又はPE3〜PE8に伝送処理(データ分担調整処理)され
る。
【0073】このため、LSI装置のパターン密度の高
いトランジスタ素子や配線パターンが複雑に入り込むパ
ターン領域や、それが低いパターン領域を一律に同じサ
イズのフィールドに分割した場合であっても、高速図形
演算モジュールPE1〜PE8間のデータ分担を調整するデ
ータ分担調整制御を行うことで、フィールド数の増加や
フィールド再分割数の増加を極力抑制することが可能と
なる。
いトランジスタ素子や配線パターンが複雑に入り込むパ
ターン領域や、それが低いパターン領域を一律に同じサ
イズのフィールドに分割した場合であっても、高速図形
演算モジュールPE1〜PE8間のデータ分担を調整するデ
ータ分担調整制御を行うことで、フィールド数の増加や
フィールド再分割数の増加を極力抑制することが可能と
なる。
【0074】また、本発明の実施例によれば当該高速図
形演算モジュールPE1に割当てられた設計データDinが
フィールドメモリ24のメモリ容量をオーバーするとき
に、データ分担調整処理が行われることから、各高速図
形演算モジュールPE1〜PE8フィールドメモリ24の小
容量化を図る場合でも、従来例のような倍率変更を行わ
なくても済む。
形演算モジュールPE1に割当てられた設計データDinが
フィールドメモリ24のメモリ容量をオーバーするとき
に、データ分担調整処理が行われることから、各高速図
形演算モジュールPE1〜PE8フィールドメモリ24の小
容量化を図る場合でも、従来例のような倍率変更を行わ
なくても済む。
【0075】例えば、階層毎にマスクデータを扱う階層
構造化したフィールドメモリ24を有する記憶システム
において、並列データ処理が与えられたフィールドメモ
リ24のメモリ容量内で行われる。
構造化したフィールドメモリ24を有する記憶システム
において、並列データ処理が与えられたフィールドメモ
リ24のメモリ容量内で行われる。
【0076】このため、従来例のような各階層のいずれ
かの領域でのメモリ容量不足という事態が抑制され、デ
ータ処理の中断等を無くすことができる。このことか
ら、フィールドのサイズの変更が抑制され、その結果、
チップ全体のフィールドの分割再処理をしなくても済
む。
かの領域でのメモリ容量不足という事態が抑制され、デ
ータ処理の中断等を無くすことができる。このことか
ら、フィールドのサイズの変更が抑制され、その結果、
チップ全体のフィールドの分割再処理をしなくても済
む。
【0077】これにより、図3に示すような8個の高速
図形演算モジュールPE1〜PE8によりマスクデータD
1,D2…の高速並列データ処理を行うことが可能とな
る。また、設計データDinの大容量化に伴いマスク領域
の単位面積当たりのマスクパターン数が増加をした場合
であっても大容量メモリモジュールM1〜M8やフィー
ルドメモリ24のメモリ容量の増設を極力抑制すること
が可能となる。
図形演算モジュールPE1〜PE8によりマスクデータD
1,D2…の高速並列データ処理を行うことが可能とな
る。また、設計データDinの大容量化に伴いマスク領域
の単位面積当たりのマスクパターン数が増加をした場合
であっても大容量メモリモジュールM1〜M8やフィー
ルドメモリ24のメモリ容量の増設を極力抑制すること
が可能となる。
【0078】このことで、LSI装置のパターン密度の
低い領域を必要以上にチップ全体をを細かなフィールド
サイズに分割することも無くなり、各高速図形演算モジ
ュールPE1〜PE8に割り当てるフィールド数が特に多く
なることもない。
低い領域を必要以上にチップ全体をを細かなフィールド
サイズに分割することも無くなり、各高速図形演算モジ
ュールPE1〜PE8に割り当てるフィールド数が特に多く
なることもない。
【0079】また、従来例のように全体の倍率を増加す
ることが無いので、フィールド数が増加することがな
く、フィールドメモリ24をアクセスする回数の低減化
を図ることが可能となり、このことで、無駄な処理時間
を費やすことも無くなる。
ることが無いので、フィールド数が増加することがな
く、フィールドメモリ24をアクセスする回数の低減化
を図ることが可能となり、このことで、無駄な処理時間
を費やすことも無くなる。
【0080】
【発明の効果】以上説明したように、本発明のデータ処
理装置によれば、データ伝送手段に接続された複数のデ
ータ処理プロセッサ,主制御手段及び主記憶手段が具備
され、該主制御手段がデータ処理プロセッサ間のデータ
分担調整制御をする。
理装置によれば、データ伝送手段に接続された複数のデ
ータ処理プロセッサ,主制御手段及び主記憶手段が具備
され、該主制御手段がデータ処理プロセッサ間のデータ
分担調整制御をする。
【0081】このため、副記憶手段のメモリ容量がオー
バーした場合には、その記憶容量過剰フラグが立ち上が
ることから、その旨が主制御手段に認識され、データ処
理プロセッサ間のデータ分担を調整すべく、当該プロセ
ッサに割り当てられた各種データの中の過剰分データが
他のデータ処理プロセッサに委譲すべく伝送することが
可能となる。なお、副記憶手段のメモリ容量がオーバー
しない場合には、割り当てられた各種データに基づいて
副制御手段によりデータ処理制御される。
バーした場合には、その記憶容量過剰フラグが立ち上が
ることから、その旨が主制御手段に認識され、データ処
理プロセッサ間のデータ分担を調整すべく、当該プロセ
ッサに割り当てられた各種データの中の過剰分データが
他のデータ処理プロセッサに委譲すべく伝送することが
可能となる。なお、副記憶手段のメモリ容量がオーバー
しない場合には、割り当てられた各種データに基づいて
副制御手段によりデータ処理制御される。
【0082】さらに、本発明のデータ処理方法によれ
ば、データ処理プロセッサのデータ処理能力の監視処理
をしながら、該データ処理プロセッサ間のデータ分担調
整処理をする。
ば、データ処理プロセッサのデータ処理能力の監視処理
をしながら、該データ処理プロセッサ間のデータ分担調
整処理をする。
【0083】このため、各種データに係わり高密度のパ
ターンデータを含む場合や、それが低密度のパターンデ
ータを含む場合について、それを一律に同じサイズの被
処理領域に分割した場合であっても、データ処理プロセ
ッサ間のデータ分担を調整するデータ分担調整制御を行
うことで、被処理領域数やその再分割数の増加を極力抑
制することが可能となる。
ターンデータを含む場合や、それが低密度のパターンデ
ータを含む場合について、それを一律に同じサイズの被
処理領域に分割した場合であっても、データ処理プロセ
ッサ間のデータ分担を調整するデータ分担調整制御を行
うことで、被処理領域数やその再分割数の増加を極力抑
制することが可能となる。
【0084】また、本発明によれば当該データ処理プロ
セッサに割当てられた各種データが副記憶装置のメモリ
容量をオーバーするときに、データ分担調整処理が行わ
れる。
セッサに割当てられた各種データが副記憶装置のメモリ
容量をオーバーするときに、データ分担調整処理が行わ
れる。
【0085】このため、各データ処理プロセッサの副記
憶装置の小容量化を図る場合でも、従来例のような倍率
変更を行わなくても済む。また、従来例のような各階層
のいずれかの領域でのメモリ容量不足という事態が極力
抑制され、これを原因とするデータ処理の中断等を無く
すことができる。
憶装置の小容量化を図る場合でも、従来例のような倍率
変更を行わなくても済む。また、従来例のような各階層
のいずれかの領域でのメモリ容量不足という事態が極力
抑制され、これを原因とするデータ処理の中断等を無く
すことができる。
【0086】これにより、複数のデータ処理プロセッサ
により各種データの高速並列データ処理を行うことが可
能となる。また、当該データ処理装置の信頼性の向上に
寄与するところが大きい。
により各種データの高速並列データ処理を行うことが可
能となる。また、当該データ処理装置の信頼性の向上に
寄与するところが大きい。
【図1】本発明に係るデータ処理装置の原理図である。
【図2】本発明に係るデータ処理方法の原理図である。
【図3】本発明の実施例に係るマスクデータ処理装置の
構成図である。
構成図である。
【図4】本発明の実施例に係る高速図形演算モジュール
の説明図である。
の説明図である。
【図5】本発明の実施例に係るマスクデータ並列処理
(メインルーチン)のフローチャートである。
(メインルーチン)のフローチャートである。
【図6】本発明の実施例に係る処理フローチャートの補
足説明図である。
足説明図である。
【図7】従来例に係るマスクデータ処理方法の説明図で
ある。
ある。
【図8】従来例に係る問題点を説明するメモリ容量オー
バー時の対処図である。
バー時の対処図である。
PEn,〔n=1,2,i,j〜n〕…データ処理プロセ
ッサ、 11…データ伝送手段、 12…主制御手段、 13…副制御手段、 14…副記憶手段、 15…主記憶手段、 Dm〔m=1,2,i,j〜m〕…各種データ、 Da…過剰分データ、 Di…分担割当てデータ。
ッサ、 11…データ伝送手段、 12…主制御手段、 13…副制御手段、 14…副記憶手段、 15…主記憶手段、 Dm〔m=1,2,i,j〜m〕…各種データ、 Da…過剰分データ、 Di…分担割当てデータ。
Claims (6)
- 【請求項1】 各種データ(Dm〔m=1,2,i,j
〜m〕)を並列処理する複数のデータ処理プロセッサ
(PEn,〔n=1,2,i,j〜n〕)と、前記各種デ
ータ(Dm)を伝送するデータ伝送手段(11)と、前
記データ処理プロセッサ(PEn)を監視する主制御手段
(12)とを具備し、前記主制御手段(12)がデータ
処理プロセッサ(PEn)間のデータ分担調整制御をする
ことを特徴とするデータ処理装置。 - 【請求項2】 請求項1記載のデータ処理装置におい
て、前記データ処理プロセッサ(PEn)が、少なくと
も、割り当てられた各種データ(Dm)に基づいてデー
タ処理制御をする副制御手段(13)と、前記割り当て
られた各種データ(Dm)を一時記憶する副記憶手段
(14)から成ることを特徴とするデータ処理装置。 - 【請求項3】 請求項1記載のデータ処理装置におい
て、前記各種データ(Dm)の階層構造化したデータを
格納する主記憶手段(15)が設けられることを特徴と
するデータ処理装置。 - 【請求項4】 複数のデータ処理プロセッサ(PEn,
〔n=1,2,i,j〜n〕)により各種データ(D
m)を並列処理する方法であって、前記データ処理プロ
セッサ(PEn)のデータ処理能力の監視処理をしなが
ら、前記監視処理に基づいてデータ処理プロセッサ(P
En)間のデータ分担調整処理をすることを特徴とするデ
ータ処理方法。 - 【請求項5】 請求項4記載のデータ処理方法におい
て、前記データ分担調整処理は、任意のデータ処理プロ
セッサ(PEi)に割当てられた分担割当データ(Di)
の中の過剰分データ(Da)を他のデータ処理プロセッ
サ(PEj)に伝送処理をすることを特徴とするデータ処
理方法。 - 【請求項6】 請求項5記載のデータ処理方法におい
て、前記伝送処理の際に、データ処理能力を越えたデー
タ処理プロセッサ(PEi)の記憶容量過剰フラグに基づ
いて他のデータ処理プロセッサ(PEj)に過剰分データ
(Da)を伝送することを特徴とするデータ処理方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4324374A JP2878538B2 (ja) | 1992-12-03 | 1992-12-03 | データ処理装置及びデータ処理方法 |
US08/540,029 US5634107A (en) | 1992-12-03 | 1995-10-06 | Data processor and method of processing data in parallel |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4324374A JP2878538B2 (ja) | 1992-12-03 | 1992-12-03 | データ処理装置及びデータ処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06175985A true JPH06175985A (ja) | 1994-06-24 |
JP2878538B2 JP2878538B2 (ja) | 1999-04-05 |
Family
ID=18165083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4324374A Expired - Fee Related JP2878538B2 (ja) | 1992-12-03 | 1992-12-03 | データ処理装置及びデータ処理方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US5634107A (ja) |
JP (1) | JP2878538B2 (ja) |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6247088B1 (en) * | 1998-05-08 | 2001-06-12 | Lexmark International, Inc. | Bridgeless embedded PCI computer system using syncronous dynamic ram architecture |
US7506136B2 (en) * | 1999-04-09 | 2009-03-17 | Clearspeed Technology Plc | Parallel data processing apparatus |
US20080016318A1 (en) * | 1999-04-09 | 2008-01-17 | Dave Stuttard | Parallel data processing apparatus |
US7802079B2 (en) * | 1999-04-09 | 2010-09-21 | Clearspeed Technology Limited | Parallel data processing apparatus |
US8174530B2 (en) * | 1999-04-09 | 2012-05-08 | Rambus Inc. | Parallel date processing apparatus |
US7966475B2 (en) | 1999-04-09 | 2011-06-21 | Rambus Inc. | Parallel data processing apparatus |
AU3829500A (en) * | 1999-04-09 | 2000-11-14 | Clearspeed Technology Limited | Parallel data processing apparatus |
US7627736B2 (en) * | 1999-04-09 | 2009-12-01 | Clearspeed Technology Plc | Thread manager to control an array of processing elements |
GB2391093B (en) * | 1999-04-09 | 2004-04-07 | Clearspeed Technology Ltd | Parallel data processing systems |
US20070242074A1 (en) * | 1999-04-09 | 2007-10-18 | Dave Stuttard | Parallel data processing apparatus |
US20080162874A1 (en) * | 1999-04-09 | 2008-07-03 | Dave Stuttard | Parallel data processing apparatus |
US8171263B2 (en) * | 1999-04-09 | 2012-05-01 | Rambus Inc. | Data processing apparatus comprising an array controller for separating an instruction stream processing instructions and data transfer instructions |
US8762691B2 (en) * | 1999-04-09 | 2014-06-24 | Rambus Inc. | Memory access consolidation for SIMD processing elements using transaction identifiers |
US20070294510A1 (en) * | 1999-04-09 | 2007-12-20 | Dave Stuttard | Parallel data processing apparatus |
US20080007562A1 (en) * | 1999-04-09 | 2008-01-10 | Dave Stuttard | Parallel data processing apparatus |
US8169440B2 (en) * | 1999-04-09 | 2012-05-01 | Rambus Inc. | Parallel data processing apparatus |
US20080184017A1 (en) * | 1999-04-09 | 2008-07-31 | Dave Stuttard | Parallel data processing apparatus |
US7526630B2 (en) * | 1999-04-09 | 2009-04-28 | Clearspeed Technology, Plc | Parallel data processing apparatus |
US20080008393A1 (en) * | 1999-04-09 | 2008-01-10 | Dave Stuttard | Parallel data processing apparatus |
US6594801B1 (en) * | 2000-11-03 | 2003-07-15 | Motorola, Inc. | Method for compressing a data structure representing a layout of a VLSI device |
US7392390B2 (en) * | 2001-12-12 | 2008-06-24 | Valve Corporation | Method and system for binding kerberos-style authenticators to single clients |
US7290040B2 (en) * | 2001-12-12 | 2007-10-30 | Valve Corporation | Method and system for load balancing an authentication system |
US8108687B2 (en) | 2001-12-12 | 2012-01-31 | Valve Corporation | Method and system for granting access to system and content |
US7373406B2 (en) | 2001-12-12 | 2008-05-13 | Valve Corporation | Method and system for effectively communicating file properties and directory structures in a distributed file system |
US7243226B2 (en) * | 2001-12-12 | 2007-07-10 | Valve Corporation | Method and system for enabling content security in a distributed system |
US6706643B2 (en) | 2002-01-08 | 2004-03-16 | Mattson Technology, Inc. | UV-enhanced oxy-nitridation of semiconductor substrates |
US8872833B2 (en) * | 2003-09-15 | 2014-10-28 | Nvidia Corporation | Integrated circuit configuration system and method |
US8732644B1 (en) | 2003-09-15 | 2014-05-20 | Nvidia Corporation | Micro electro mechanical switch system and method for testing and configuring semiconductor functional circuits |
US8775997B2 (en) | 2003-09-15 | 2014-07-08 | Nvidia Corporation | System and method for testing and configuring semiconductor functional circuits |
US8711161B1 (en) * | 2003-12-18 | 2014-04-29 | Nvidia Corporation | Functional component compensation reconfiguration system and method |
US8723231B1 (en) | 2004-09-15 | 2014-05-13 | Nvidia Corporation | Semiconductor die micro electro-mechanical switch management system and method |
US8711156B1 (en) | 2004-09-30 | 2014-04-29 | Nvidia Corporation | Method and system for remapping processing elements in a pipeline of a graphics processing unit |
US8021193B1 (en) | 2005-04-25 | 2011-09-20 | Nvidia Corporation | Controlled impedance display adapter |
US7793029B1 (en) | 2005-05-17 | 2010-09-07 | Nvidia Corporation | Translation device apparatus for configuring printed circuit board connectors |
US9092170B1 (en) | 2005-10-18 | 2015-07-28 | Nvidia Corporation | Method and system for implementing fragment operation processing across a graphics bus interconnect |
US8417838B2 (en) * | 2005-12-12 | 2013-04-09 | Nvidia Corporation | System and method for configurable digital communication |
US8412872B1 (en) | 2005-12-12 | 2013-04-02 | Nvidia Corporation | Configurable GPU and method for graphics processing using a configurable GPU |
US8724483B2 (en) * | 2007-10-22 | 2014-05-13 | Nvidia Corporation | Loopback configuration for bi-directional interfaces |
US8687639B2 (en) * | 2009-06-04 | 2014-04-01 | Nvidia Corporation | Method and system for ordering posted packets and non-posted packets transfer |
US9176909B2 (en) | 2009-12-11 | 2015-11-03 | Nvidia Corporation | Aggregating unoccupied PCI-e links to provide greater bandwidth |
US9331869B2 (en) * | 2010-03-04 | 2016-05-03 | Nvidia Corporation | Input/output request packet handling techniques by a device specific kernel mode driver |
US9330031B2 (en) | 2011-12-09 | 2016-05-03 | Nvidia Corporation | System and method for calibration of serial links using a serial-to-parallel loopback |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61114363A (ja) * | 1984-11-07 | 1986-06-02 | Hitachi Ltd | 計算機システム間ジヨブ転送方式 |
US5193179A (en) * | 1988-08-09 | 1993-03-09 | Harris Corporation | Activity monitor system non-obtrusive statistical monitoring of operations on a shared bus of a multiprocessor system |
JPH03177961A (ja) * | 1989-12-07 | 1991-08-01 | Mitsubishi Electric Corp | マルチプロセッサ制御装置 |
US5230047A (en) * | 1990-04-16 | 1993-07-20 | International Business Machines Corporation | Method for balancing of distributed tree file structures in parallel computing systems to enable recovery after a failure |
US5218670A (en) * | 1990-08-31 | 1993-06-08 | Texas Instruments Incorporated | Apparatus and methods for the handling of banded frame buffer overflows |
-
1992
- 1992-12-03 JP JP4324374A patent/JP2878538B2/ja not_active Expired - Fee Related
-
1995
- 1995-10-06 US US08/540,029 patent/US5634107A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2878538B2 (ja) | 1999-04-05 |
US5634107A (en) | 1997-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2878538B2 (ja) | データ処理装置及びデータ処理方法 | |
US6336209B1 (en) | Information processing system that processes portions of an application program using programmable logic circuits | |
US8468376B2 (en) | Integrated device, layout method thereof, and program | |
US9164969B1 (en) | Method and system for implementing a stream reader for EDA tools | |
US10311197B2 (en) | Preserving hierarchy and coloring uniformity in multi-patterning layout design | |
US20020010904A1 (en) | Reduced disk access for complex mask generation | |
JPH09282349A (ja) | データ変換処理装置 | |
US5577242A (en) | System for batch transfer file management using a list to organize a batch of blocks into buffers | |
JPS63107041A (ja) | レイアウト設計における配置改良方法 | |
WO2008094160A1 (en) | Independent parallel image processing without overhead | |
US5936642A (en) | Parallel graphic processing system using a network | |
US20030061455A1 (en) | Data processor with a built-in memory | |
US6008822A (en) | Parallel graphic processing system using a network | |
WO2009061551A2 (en) | Distributed mask data preparation | |
KR100546956B1 (ko) | 노광 데이터 작성 방법 | |
JP2809777B2 (ja) | 半導体のマスクデータ変換処理装置 | |
JP2940967B2 (ja) | 半導体のマスクデータ変換処理装置 | |
JP2894758B2 (ja) | 半導体のマスクデータ変換処理装置 | |
JP2813015B2 (ja) | 図形処理プロセッサ | |
Ebner | An associatively controlled functional multiprocessor for real-time applications | |
JPH04137614A (ja) | 荷電ビーム描画方法 | |
JP3536362B2 (ja) | 描画データ生成方法 | |
CN117034826A (zh) | 一种区域约束的方法及装置 | |
JPH04257067A (ja) | 図形演算処理方式 | |
JPH0778806B2 (ja) | 並列計算機システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 19990112 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080122 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090122 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100122 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |