JPH0438815A - 荷電ビーム描画用データの作成方法及び作成装置 - Google Patents

荷電ビーム描画用データの作成方法及び作成装置

Info

Publication number
JPH0438815A
JPH0438815A JP14540790A JP14540790A JPH0438815A JP H0438815 A JPH0438815 A JP H0438815A JP 14540790 A JP14540790 A JP 14540790A JP 14540790 A JP14540790 A JP 14540790A JP H0438815 A JPH0438815 A JP H0438815A
Authority
JP
Japan
Prior art keywords
data
processing
graphic
block
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP14540790A
Other languages
English (en)
Other versions
JP2991459B2 (ja
Inventor
Kiyomi Koyama
清美 小山
Osamu Ikenaga
修 池永
Toshiyuki Umagoe
俊幸 馬越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2145407A priority Critical patent/JP2991459B2/ja
Publication of JPH0438815A publication Critical patent/JPH0438815A/ja
Application granted granted Critical
Publication of JP2991459B2 publication Critical patent/JP2991459B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、LSI設計データからの荷電ビーム描画装置
用の描画データ作成処理(データ変換)を並列に高速で
実行する荷電ビーム描画用データの作成方法及び作成装
置に関する。
(従来の技術) 従来、LSIの設計データ(パターンデータ)から電子
ビーム描画装置に許容される描画データ(EBデデー)
を作成するためのデータ変換処理は、多くの場合ミニコ
ン等の汎用計算機を使ってソフトウェアで行われてきた
。また、大規模データに対処するためメモリのように同
一パターンが繰返し現れるLSIについては、繰返し単
位のみについてデータ処理を施し、残りについては処理
を省略するという手段が使われている。
しかしながら、最近のLSIの集積度の増加により、E
Bデデーへのデータ変換にtする時間が膨大になってき
ている。例えば、先端的メモリデバイスでは計算機処理
に数日〜1週間程度かかるとの報告も出て来ている。繰
返し情報を使って処理の高速化がはかれるメモリパター
ンにおいてもこのような状況で、この手法による処理の
高速化が望めないロジック回路やゲートアレイ等の規則
性が少ないパターンでは更に問題が深刻化するという状
況にある。
従って、このような非規則性LSIパターンに対しても
有効な、データ変換処理の新たな高速化手段を開発する
必要があった。しかもこの要求は、将来ますます大規模
化するLSIに対しても、電子ビーム描画装置を実用に
供していく上で必須の課題となっている。
(発明が解決しようとする課題) このように従来、電子ビーム描画装置を実用に供してい
く上で、LSIパターンデータからEBデデーを高速で
作成する必要が生じている。
また、この問題は電子ビーム描画装置に限らず、イオン
ビーム描画装置についても同様にいえることである。
本発明は、上記事情を考慮してなされたもので、その目
的とするところは、LSIパターンデータから荷電ビー
ム描画装置に許容される描画データを高速で作成するこ
とができ、描画スルーブツトの向上等に寄与し得る荷電
ビーム描画データの作成方法及び作成装置を提供するこ
とにある。
〔発明の構成〕
(課題を解決するための手段) 本発明の骨子は、ブロック単位のパターンデータを並列
処理で高速に描画データに変換することにある。そのた
めの手段として、ホスト計算機から並列プロセッサに転
送されるブロック単位のパターンデータを、パイプライ
ン或いは並列処理等の方式の処理ユニットに順次転送し
、各処理ユニットを並列に動作させて該パターンデータ
を描画データに変換し、処理結果を適当な個数の処理ユ
ニット毎にグループ化し、複数の記憶手段または記憶手
段を有する複数の計算機に分割格納して収集する機能を
具備させる。
即ち本発明は、LSIパターンデータの所定のデータ空
間を互いに相関のない小領域のブロックに分割し、該分
割されたブロック中位のパターンデータを荷電ビーム描
画装置に許容されるフォーマットの描画データに変換す
る荷電ビーム描画用データの作成方法において、異なる
処理を行うプロセッサを複数個直列に接続してなるパイ
プライン構成の処理ユニット、若しくは同じ処理を行う
プロセッサを複数個直列に接続してなる並列処理構成の
処理ユニット、又はパイプライン構成の処理ユニットと
並列処理構成の処理ユニットの双方を複数個用い、これ
らの処理ユニットにホスト計算機から転送されるブロッ
ク単位のパターンデータを順次転送し、各処理ユニット
を並列に動作させて該パターンデータを描画データに変
換し、この変換による処理結果を複数の処理ユニット毎
にグループ化して分割収集することを特徴としている。
また本発明は、LSIパターンデータの所定のデータ空
間を互いに相関のない小領域のブロックに分割し、該分
割されたブロック単位のパターンデータを荷電ビーム描
画装置に許容されるフォーマットの描画データに変換す
る荷電ビーム描画用データの作成装置において、異なる
処理を行う複数のプロセッサを直列に接続してなり、ブ
ロック単位のパターンデータを描画データに変換するパ
イプライン構成の図形演算クラスタをN個並列に設けた
、又は同じ処理を行うプロセッサを複数個直列に接続し
てなる並列構成の図形演算クラスタをN個並列に設けた
図形演算処理部と、ブロック単位のパターンデータを一
時保持するプロセッサをNa直列に接続すると共に各プ
ロセッサを前記図形演算処理部の各図形演算クラスタに
それぞれ接続してなり、ホスト計算機から転送されたブ
ロック単位のパターンデータを次々と先のプロセッサ又
は前記図形演算処理部の1つの図形演算クラスタに転送
するデータ分配部と、ブロック単位の描画データを一時
保持するN個のプロセッサを所定のグループ毎に複数個
直列に接続すると共に各プロセッサを前記図形演算処理
部の各図形演算クラスタにそれぞれ接続してなり、前記
図形演算処理部の各図形演算クラスタで変換されたブロ
ック単位の描画データを収集する結果収集部と、これら
の結果収集部に一時保持された前記変換による処理結果
を、前記グループ毎に分割収集する手段とを具備してな
ることを特徴としている。
(作用) 本発明によれば、異なる処理を行うプロセッサを複数個
直列に接続してなるパイプライン構成の処理ユニット、
又は同じ処理を行うプロセッサを複数個直列に接続して
なる並列処理構成の処理ユニットを複数個用いることに
より、ブロック単位のパターンデータの複数個を同時に
描画データに変換することができ、これによりデータ変
換に要する時間を大幅に短縮することができる。従って
、非規則性LSIパターンに対しても、高速でデータ変
換を行うことかでき、描画スルーブツトに寄与すること
か可能となる。
これに加えて本発明では、パイプライン構成或いは並列
処理構成の処理ユニットを複数個並列動作させて、ブロ
ック単位のパターンデータの複数個を同時に描画データ
に変換するのと平行して、処理結果の収集を分割して並
列に実行する。この結果、処理後のブロックデータ量が
増加しても収集部でのボトルネックを回避、又は大幅に
低減することができ、処理ユニットの並列化の効果が最
大限に生きてくる。
(実施例) まず、実施例を説明する前に、本発明の基本となった先
願について説明する。本発明者らは、前述した問題点を
解決するために、第12図に示すようなパイプライン方
式のデータ作成装置(特願昭63−314298号)、
及び第13図に示すような並列方式のデータ作成装置(
特願平1314192号)を既に提案している。
第12図及び第13図において、1はデータ分配部(分
配クラスタ)、2.4は並列処理ユニット(図形演算ク
ラスタ)、3は結果収集部(マージクラスタ)を示して
いる。これらの装置においては、LSIパターンデータ
の所定のデータ空間を互いに相関のない小領域のブロッ
クに分割し、該分割されたブロック単位のパターンデー
タに種々の図形演算を施し、荷電ビーム描画装置に許容
される描画データに変換する。
荷電ビーム描画用データの作成方法において、第12図
では異なる処理を行うプロセッサを複数個筒タリに接続
してなるパイプライン構成の処理ユニットを複数個用い
、また第13図では同一の処理を行う並列処理構成の処
理ユニットを複数個用い、ホスト計算機から転送される
ブロック単位のパターンデータを順次分配部からいずれ
かの処理ユニットに分配し、各処理ユニットを並列に動
作させて該パターンデータを描画データに変換する方法
をとっている。
より具体的には、少なくとも2つの入出力端か入出力端
に相当する通信用ポートを持つプロセッサを1個以上並
べて処理ユニットを構成し、この処理ユニットを複数個
並列に動作させてブロック単位のデータ変換を実行する
。また、該処理ユニットへのブロック単位のパターンブ
タの分配は同上の特徴を有するプロセッサを複数個カス
ケードに接続し、ホスト計算機から少なくとも1つのプ
ロセッサに転送されたブロック単位のパターンデータを
次々と先のプロセッサに転送し、該処理ユニットからの
要求があれば残りの入出力端を通してブロック11位の
パターンデータを転送することによって行う。
このようfi力式によって、ブロン2111位のパター
ンデータの複数個を同時に描画データに変換することが
でき、これによりデータ変換に飲する時間を大幅に短縮
することができる。従って、非規則性LSIパターンに
対しても、高速でデータ変換を行うことができ、描画ス
ルーブツトに寄与することが可能となる。しかしながら
、第12図及び第13図に示す方式においては、多くの
場合、処理後のブロックデータ量は処理前と比較して大
幅に増加する。このため、これらの方式では結果を収集
する部分での処理速度かボトルネックとなり、処理ユニ
ットを並列化した効果を十分生かしきれない虞れがある
そこで本発明では、ブロック単位のパターンデータの複
数個を同時に描画データに変換するのと平行して、処理
ユニットをグループ分けし、処理結果の収集を分割して
並列に実行することにより、上記問題をも解決している
以下、本発明の実施例を図面を参照して説明する。
第2図は本発明の一実施例に係わるデータ作成装置(並
列変換プロセッサと)ホスト計算機の接続を示すブロッ
ク図である。ホスト計算機6のディスク7に格納された
LSI設計データは、ホスト計算機6でブロックデータ
に分割された後、並列変換プロセッサ9で処理される。
そして、処理後のブロックデータは再びホスト計算機6
に戻される。
第1図は本発明の一実施例に係わるデータ作成2置の具
体的構成を示すブロック図である。
最上段のデータ分配部(分配クラスタ)10てはブロッ
クデータを下段の処理ユニットに分配する機能を持つ。
第2,3段はブロックデータに図形演算を施す図形演算
処理部20で、各処理ユニット2段のパイプラインにな
っている。
処理結果のブロックデータは最下段の結果収集部(マー
ジクラスタ)30で集める。ここまでの構成は先に説明
した第12図の装置と同様であるが、これに加えて本実
施例では、結果収集部30をp個のグループに分け、各
グループで処理ユニット3列毎にまとめてサブ計算機4
1にとりこむようにしている。
より具体的には本実施例では、全体機能を3つに分け、
各機能を専用のクラスタ(プロセ・フサ群)で処理する
。即ち、データの分配を分配クラスタ10で、図形演算
を複数の図形演算クラスタ21(211〜21N)で、
処理結果の収集をマージクラスタ30て処理する。各ク
ラスタでは数百にバイトオーダのローカルメモリを持つ
複数のプロセッサエレメント(P E)がIMバイト/
see程度のデータリンクで結合されている。また、ク
ラスタ間の処理はパイプライン的に実行される。
分配クラスタ10は、ホスト計算機から転送されたブロ
ック単位のパターンデータを、複数の図形演等クラスタ
21からなる図形演算処理部20に分配する。データの
分配は、図形演算クラスタ21から要求を受けたPEが
ブロック単位で転送する、という形で行われる。要求が
無い場合は、他の図形演算クラスタ21の要求に応える
ため次のPEに先送りする。次のPEが一杯の場合、図
形演算クラスタ21の新たな要求を持つか、−杯のPE
か空くのを待つ。このようにして、各図形演算クラスタ
21の負荷がほぼ均等になるようにブロック単位のパタ
ーンデータを供給する役割を果す。
図形演算クラスタ21は、分配クラスタ10から供給さ
れたブロックデータに図形演算処理を施し、結果をマー
ジクラスタ30に出力する。
図示のように図形演算クラスタ21は複数個あって、並
列に動作する。また、クラスタ内部の処理もパイプライ
ンである。各PEがパイプラインステージを構成し、前
後のPEとの通信及びPE内部での図形演算処理を並行
して行う。
バイブステージ間ではブロック単位でデータが移動する
。図形演算クラスタ21では最も処理時間の長いステー
ジでスルーブツトが制限される。このため、各ステージ
で処理時間が均等になるように処理を分割する必要があ
る。
マージクラスタ30は図形演算クラスタ21から処理結
果を受取り、ブロックデータを1単位として出力する。
マージクラスタ30の各PEは図形演算クラスタ21か
らのブロックデータの受取りと次のPEへの転送を並行
して行う。
ここで、マージクラスタ30は複数個(例えば3個)の
プロセッサ毎にグループ分けされ、各グループ毎にサブ
;1算機41(41+〜41F)が接続されている。そ
して、処理結果のブロックデータはグループ毎にサブ=
1算機41のメモリ42(421〜42.)に格納され
、前記ホスト:[算機6に送出されるものとなっている
本実施例では、第3図に示すようなブロックデータを用
いる。サイズ可変のブロックデータを扱うため、第3図
(a)に示すようにデータサイズ、ブロック番号及び図
形データで構成する。
処理前は第3図(b)に示すようにブロック番号順に並
んでいる。但し、ここで全ブロック数はB個としである
第4図は第1グループのサブ計算機41.の主メモリ4
2□に作成するディレクトリとディスク格納イメージを
示している。このグループには2,13,9.・・・B
−9,Bの順で処理済みのブロックデータが現れると仮
定しである。
主記憶にはブロックデータの番号と、ディスク格納番地
からなるディレクトリテーブルが第4図(a)のように
登録される。また、これに対応してディスクにはブロッ
クデータが第4図(b)のように格納される。
第5図(a)は、全ブロック終了後、第にサブ計算機の
主メモリに生成されたディレクトリテーブルである。ブ
ロック番号はランダムである。
これを、ブロック番号でソートすると、第5図(b)が
得られる。この後、各サブ計算機41は第5図(b)の
ようにソートしたディレクトリテーブルからブロック番
号列をホスト計算機6に対して転送する。
一方、ホスト計算機6はブロック番号にサブ計算機番号
を付加して第6図(a)のようなテーブルを作る。これ
も、更にブロック番号でソートして、第6図(b)のデ
ィレクトリテーブルを作る。サブ計算機41に溜め込ま
れた処理結果を収集する際、ホスト計算機6はこのソー
トされたディレクトリに沿って順次与サブ計算機41に
ブロックデータ転送指示を出す。
各サブ計算機41も第5図(b)のようにソートされた
ディレクトリに沿って、ホスト計算機6からブロックデ
ータの転送指示が来る毎にディレクトリテーブルから順
次ディスク番地を取り出して、ディスクの読み田しを行
い、ホスト計算機6に転送する。これにより、ホスト計
算機6のディスクには番号順のブロックデータが形成さ
れる。この方法ではブロックデータがサブ計算機41の
ディスクに分散して格納されている。このため、複数デ
ィスクの読み出しをオーバラップさせて、等任的に読み
出し速度を高めることかできる。
第7図は本発明の第2の実施例の概略構成を示すブロッ
ク図である。なお、第1図と同一部分には同一符号を付
して、その詳しい説明は省略する。この実施例か先に説
明した第1の実施例と異なる点は、サブ計算機の代わり
にバルクメモリを設けたことにある。
この実施例では、収集されたブロックデータはグループ
毎にバルクメモリ50(50,〜50.)に格納される
。そして、−通り処理が終った後に分割収集されたデー
タがホスト計算機6に転送される。第8図(a)はバル
クメモリ50からホスト計算機6に転送されたブロック
データを示す。データ量が少ない場合は主記憶に格納さ
れた状態、多い場合はディスクに格納された状態を示し
ている。この状態では、ブロック番号は全くランダムで
ある。この後、ブロック番号でソートして、第8図(b
)のようにブロック番号順に並んだブロックデータを群
を得る。ディスクに格納されたブロックデータのソート
を高速で行う方法は、例えばDonald E、Knu
th著”The^rt of” Computer P
rogram+eing : Sortlngand 
Searching” (^ddison−Wesle
y社刊)に詳しく掲載されている。
第1及び第2の実施例共に、描画装置にブロックデータ
を転送する際は、ホスト計算機6のディスク7から格納
順に読み出せば良く、ディスクアクセスのオーバヘッド
が大幅に低減できる。
第9図は本発明の第3の実施例の概略構成を示すブロッ
ク図である。なお、第1図と同一部分には同一符号を付
して、その詳しい説明は省略する。この実施例が先の第
1の実施例と異なる点は、図形演算処理部をパイプライ
ン方式とするのではな(、並列方式としたことであり、
それ以外は第1の実施例と同様である。即ち、図形演算
処理部60は、同じ処理を行うプロセッサ(PE)を直
列に接続した図形演算クラスタ61.(ell〜61P
)を並列に配置して構成されている。なお、図形演算ク
ラスタ61の段数は複数段に限るものではなく、1段で
あってもよい。
本実施例の図形演算クラスタ61は、分配クラスタ10
から供給されたブロックデータに図形演算処理を施し、
結果をマージクラスタ30に出力する。図示のように、
図形演算クラスタ61は複数個あって各クラスタのPE
は、前のPEから転送されたブロックデータを転送経路
によって識別し、処理済みのデータの場合そのまま次の
PEに転送し、未処理データの場合図形演算処理を施し
て次のPEに転送する機能を持つ。本実施例では、デー
タ転送経路は先頭(図の最上部)と最後(図の最下部)
を除いて2つあり、それぞれ処理前と処理済みのブロッ
クデータが転送される。
第10図は図形演算クラスタ61の各PEにおける処理
プロセスを示す。図形論理演算プロセス71(図形論理
演算部)、処理済みブロックデータ転送プロセス(処理
済みデータ転送部)72及び処理前ブロツクデータ転送
プロセス(処理前データ転送部)73がある。既に述べ
たように、データ転送経路は2つある。右側の転送経路
を流れてきた処理前のブロックデータは処理前ブロツク
データ転送プロセス73によって、図形論理演算プロセ
ス71が開いていれば該プロセス71に転送され、図形
論理演算プロセス71が開いていなければ次のPEの処
理前ブロツクデータ転送プロセスに転送される。
左側の転送経路を流れてきた処理済みブロックデータは
処理済みブロックデータ転送プロセス72によって、次
のPHの処理済みプロツクブタ転送プロセスに送られる
。また、処理済みブロックデータ転送プロセス72では
、図形論理演算プロセス71から受は取った処理済みブ
ロックデータも、同様に次のPHの処理済みブロックデ
ータ転送プロセスに送られる。
一方、図形論理演算プロセス71は処理前ブロツクデー
タ転送プロセス73から送られたブロックデータに図形
論理演算を施し、処理済みブロックデータ転送プロセス
72に送る。このようにして、3つのプロセスが並行し
て動作する。並行動作する転送経路は、例えば(Inl
os社のトランスピユータチップ)を使って比較的簡単
に実現できた。並行動作するプロセスは並列処理言語(
例えば、Occam2)を使って記述することかできた
。各PEは転送経路を転送されたブロックデータを前記
第3図(a)の第1ワードに示されたデータサイズ分だ
け取り込む。
処理前ブロツクデータならば図形論理演算を施し、処理
結果について新しいデータサイズを書き込んで次のPE
に流す。
また、第10図の変形例として第11図に示す構成にし
てもよい。この例では、処理状態判定プロセス74.入
出カプロセス7576及び図形論理演算プロセス71が
ある。この場合、データ転送経路を1つにするため、第
3図(a)のデータ構造に例えば識別番号の後の1ワー
ドに処理前か処理済みかを示す処理状態コードを付加す
る。入力プロセス75に転送されたブロックデータは処
理状態判定プロセス74に転送される。処理状態判定プ
ロセス74では、処理済みのデータであればそのまま出
力転送プロセスに転送76する。処理前のデータであれ
ば、図形論理演算プロセス71が開いているか否かを判
定し、開いていれば図形演算プロセス71に転送する。
図形論理演算プロセス71が開いていない場合、出力転
送プロセス76に転送する。図形論理演算プロセス71
は処理状態判定プロセス74から送られたブロックデー
タに図形論理演算を施し、このデータを処理状態判定プ
ロセス74に戻す。出力プロセス76では、上記転送さ
れたブロックデータを次のPEに転送する。こめような
構成であっても、第10図と同様の処理がなされる。
分配クラスタ及びマージクラスタの構成は第1図と全く
同様であり、第9図のような図形演算クラスタを用いて
も第1の実施例と同様の効果が得られる。
なお、本発明は上述した実施例に限定されるものではな
い。実施例では図形演算処理部をパイプライン方式又は
並列方式のいずれかとしたが、これらを混在させた方式
としてもよい。また、処理結果を分割収集する記憶手段
又は記憶手段を有する計算機を多重化し、処理結果の書
き込みと読み出しを並列にできるようにしてもよい。さ
らに、分割収集する際のグループ化の手段として、グル
ープ当りの処理ユニット数を負荷状況に合わせて調節す
れば、より有効なデータ変換処理が行える。このために
は、ホスト計算機に近い方がデータを受は取る確率が高
いので、グループ当りの処理ユニット数を、ホスト計算
機に近い方で少なく、遠い方で多くなるように調節すれ
ばよい。
また、ブロックデータとしては、対象電子ビーム描画装
置において、1回のステップ&リピート中に描画する単
位(1メインフイールド又はサブフィールド)と考える
こともできる。さらに、ステージ連続移動方式の電子ビ
ーム描画装置において、1回のステージ連続移動中に描
画する単位(1フレーム)としてもよい。また、LSI
パターンデータが階層的に表現されている場合、上記デ
ータ空間を階層的に表現された1階層(最下位層に限ら
ない)の構成単位とすればよい。さらに、電子ビーム描
画装置が2段偏向方式の場合、前記ブロック単位のデー
タをいずれか一方の偏向領域に相当する単位とすればよ
い。分割して収集した結果をサブ計算機のディスクやバ
ルクメモリに格納せずに直接高速バスに出力してホスト
計算機に転送することも可能である。また、電子ビーム
描画装置に限らず、イオンビーム描画装置にも適用でき
るのは勿論のことである。その他、本発明の要旨を逸脱
しない範囲で、種々変形して実施することができる。
[発明の効果] 以上詳述したように本発明によれば、パイプライン構成
或いは並列処理構成の処理ユニットを複数個並列動作さ
せてデータ変換を行うことにより、データ変換に要する
時間を大幅に短縮することができる。従って、非規則性
LSIパターンに対しても、高速でデータ変換を行うこ
とができ、描画スルーブツトの向上等をはがることがで
きる。
【図面の簡単な説明】
第1図は本発明の第1の実施例に係わるデータ作成装置
の概略構成を示すブロック図、第2図は並列変換プロセ
ッサとホスト計算機の接続を示すブロック図、第3図は
ブロックデータの構造を示す模式図、第4図は第1の実
施例でのサブディスクの格納方法を示す模式図、第5図
は第1の実施例での第に計算機の格納テーブルを示す模
式図、第6図は第1の実施例でホスト計算機に作られる
格納テーブルを示す模式図、第7図は本発明の第2の実
施例の概略構成を示すブロック図、第8図は第2の実施
例でのホスト計算機に形成されたブロックデータ群を示
す模式図、第9図は本発明の第3の実施例の概略構成を
示すブロック図、第10図及び第11図は図形演算クラ
スタ内部のPEで実行するプロセスを示す模式図、第1
2図及び第13図は本発明の基本となるデータ作成装置
の概略構成を示すブロック図である。 1.20.60・・・図形演算処理部、2.21.61
・・図形演算クラスタ、3.30・・・結果収集部(マ
ージクラスタ)、6・・・ホスト計算機、 7・・・ディスク、 9・・・並列変換プロセッサ、 10・・・データ分配部(分配クラスタ)、41・・・
サブ計算機、 42・・・メモリ、 50・・・パル゛クメモリ。 出願人代理人 弁理士 鈴 江 武 彦(b) 畷 図 (b) (a) (b) 箪 図 第 ■ 1・分1己クラスタ 3マーブクラスタ

Claims (7)

    【特許請求の範囲】
  1. (1)LSIパターンデータの所定のデータ空間を互い
    に相関のない小領域のブロックに分割し、該分割された
    ブロック単位のパターンデータを荷電ビーム描画装置に
    許容されるフォーマットの描画データに変換する荷電ビ
    ーム描画用データの作成方法において、 異なる処理を行うプロセッサを複数個直列に接続してな
    るパイプライン構成の処理ユニット、同じ処理を行うプ
    ロセッサを複数個直列に接続してなる並列処理構成の処
    理ユニット、又は上記各処理ユニットの双方を複数個用
    い、 これらの処理ユニットにホスト計算機から転送されるブ
    ロック単位のパターンデータを順次転送し、各処理ユニ
    ットを並列に動作させて該パターンデータを描画データ
    に変換し、 この変換による処理結果を複数の処理ユニット毎にグル
    ープ化して分割収集することを特徴とする荷電ビーム描
    画用データの作成方法。
  2. (2)前記分割収集する手段として、前記処理ユニット
    による処理結果を複数の記憶手段又は記憶手段を有する
    複数の計算機に分割格納することを特徴とする請求項1
    記載の荷電ビーム描画用データの作成方法。
  3. (3)前記記憶手段又は記憶手段を有する計算機を多重
    化し、処理結果の書き込みと読み出しを並列にできるよ
    うにしたことを特徴とする請求項2記載の荷電ビーム描
    画用データの作成方法。
  4. (4)前記分割収集する際のグループ化の手段として、
    グループ当りの処理ユニット数を負荷状況に合わせて調
    節することを特徴とする請求項1記載の荷電ビーム描画
    用データの作成方法。
  5. (5)前記グループ当りの処理ユニット数を、ホスト計
    算機に近い方で少なく、遠い方で多くなるように調節す
    ることを特徴とする請求項4記載の荷電ビーム描画用デ
    ータの作成方法。
  6. (6)LSIパターンデータの所定のデータ空間を互い
    に相関のない小領域のブロックに分割し該分割されたブ
    ロック単位のパターンデータを荷電ビーム描画装置に許
    容されるフォーマットの描画データに変換する荷電ビー
    ム描画用データの作成装置において、 異なる処理を行う複数のプロセッサを直列に接続してな
    り、ブロック単位のパターンデータを描画データに変換
    するパイプライン構成の図形演算クラスタをN個並列に
    設けた図形演算処理部と、 ブロック単位のパターンデータを一時保持するプロセッ
    サをN個直列に接続すると共に各プロセッサを前記図形
    演算処理部の各図形演算クラスタにそれぞれ接続してな
    り、ホスト計算機から転送されたブロック単位のパター
    ンデータを次々と先のプロセッサ又は前記図形演算処理
    部の1つの図形演算クラスタに転送するデータ分配部と
    、 ブロック単位の描画データを一時保持するN個のプロセ
    ッサを所定のグループ毎に複数個直列に接続すると共に
    各プロセッサを前記図形演算処理部の各図形演算クラス
    タにそれぞれ接続してなり、前記図形演算処理部の各図
    形演算クラスタで変換されたブロック単位の描画データ
    を収集する結果収集部と、 これらの結果収集部に一時保持された前記変換による処
    理結果を、前記グループ毎に分割収集する手段とを具備
    してなることを特徴とする荷電ビーム描画用データの作
    成装置。
  7. (7)LSIパターンデータの所定のデータ空間を互い
    に相関のない小領域のブロックに分割し、該分割された
    ブロック単位のパターンデータを荷電ビーム描画装置に
    許容されるフォーマットの描画データに変換する荷電ビ
    ーム描画用データの作成装置において、 同じ処理を行うプロセッサを複数個直列に接続してなる
    並列構成の図形演算クラスタをN個並列に設けた図形演
    算処理部と、 ブロック単位のパターンデータを一時保持するプロセッ
    サをN個直列に接続すると共に各プロセッサを前記図形
    演算処理部の各図形演算クラスタにそれぞれ接続してな
    り、ホスト計算機から転送されたブロック単位のパター
    ンデータを次々と先のプロセッサ又は前記図形演算処理
    部の1つの図形演算クラスタに転送するデータ分配部と
    、 ブロック単位の描画データを一時保持するN個のプロセ
    ッサを所定のグループ毎に複数個直列に接続すると共に
    各プロセッサを前記図形演算処理部の各図形演算クラス
    タにそれぞれ接続してなり、前記図形演算処理部の各図
    形演算クラスタで変換されたブロック単位の描画データ
    を収集する結果収集部と、 これらの結果収集部に一時保持された前記変換による処
    理結果を、前記グループ毎にグループ化して分割収集す
    る手段とを具備してなることを特徴とする荷電ビーム描
    画用データの作成装置。
JP2145407A 1990-06-05 1990-06-05 荷電ビーム描画用データの作成方法及び作成装置 Expired - Lifetime JP2991459B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2145407A JP2991459B2 (ja) 1990-06-05 1990-06-05 荷電ビーム描画用データの作成方法及び作成装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2145407A JP2991459B2 (ja) 1990-06-05 1990-06-05 荷電ビーム描画用データの作成方法及び作成装置

Publications (2)

Publication Number Publication Date
JPH0438815A true JPH0438815A (ja) 1992-02-10
JP2991459B2 JP2991459B2 (ja) 1999-12-20

Family

ID=15384545

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2145407A Expired - Lifetime JP2991459B2 (ja) 1990-06-05 1990-06-05 荷電ビーム描画用データの作成方法及び作成装置

Country Status (1)

Country Link
JP (1) JP2991459B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008001352A (ja) * 2006-05-22 2008-01-10 Denso Corp 空気通路開閉用ドア
JP2009083853A (ja) * 2009-01-26 2009-04-23 Mitsubishi Heavy Ind Ltd 車両用空気調和機
JP2012212829A (ja) * 2011-03-31 2012-11-01 Nuflare Technology Inc 荷電粒子ビーム描画装置及び荷電粒子ビーム描画方法
CN113064852A (zh) * 2021-03-24 2021-07-02 珠海市一微半导体有限公司 一种可重构处理器及配置方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008001352A (ja) * 2006-05-22 2008-01-10 Denso Corp 空気通路開閉用ドア
JP2009083853A (ja) * 2009-01-26 2009-04-23 Mitsubishi Heavy Ind Ltd 車両用空気調和機
JP2012212829A (ja) * 2011-03-31 2012-11-01 Nuflare Technology Inc 荷電粒子ビーム描画装置及び荷電粒子ビーム描画方法
CN113064852A (zh) * 2021-03-24 2021-07-02 珠海市一微半导体有限公司 一种可重构处理器及配置方法
CN113064852B (zh) * 2021-03-24 2022-06-10 珠海一微半导体股份有限公司 一种可重构处理器及配置方法

Also Published As

Publication number Publication date
JP2991459B2 (ja) 1999-12-20

Similar Documents

Publication Publication Date Title
US20140258689A1 (en) Processor for large graph algorithm computations and matrix operations
Gottlieb et al. Networks and algorithms for very-large-scale parallel computation
US20050262288A1 (en) Method and apparatus for connecting a massively parallel processor array to a memory array in a bit serial manner
WO2019147708A1 (en) A deep learning accelerator system and methods thereof
Hwang et al. Vector computer architecture and processing techniques
Lie Cerebras architecture deep dive: First look inside the hardware/software co-design for deep learning
JPH10170605A (ja) メモリlsiの不良解析装置および方法
US7849289B2 (en) Distributed memory type information processing system
JPH0438815A (ja) 荷電ビーム描画用データの作成方法及び作成装置
Kondo et al. Pseudo MIMD array processor—AAP2
JP3071899B2 (ja) 荷電ビーム描画用データ作成装置
WO2001016761A2 (en) Efficient page allocation
JP2710162B2 (ja) 荷電ビーム描画用データの作成方法及び作成装置
JP4620593B2 (ja) 情報処理システムおよび情報処理方法
WO2021080122A1 (en) Method and apparatus for analyzing protein-ligand interaction using parallel operation
JP2839597B2 (ja) 荷電ビーム描画用データの作成装置
WO2012030027A1 (ko) 멀티 코어 프로세서를 기반으로 하는 문자열 매칭 장치 및 그것의 문자열 매칭 방법
Lea et al. Associative massively parallel computers
JPH06505588A (ja) 並列ソフトウェア処理用ネットワーク構造
CN116455612B (zh) 一种隐私计算中间数据流零拷贝装置及方法
JPS62233873A (ja) 並列計算機システム
Hollaar A list merging processor for inverted file information retrieval systems.
Briggs et al. A Shared-Resource Multiple Microprocessor System for Pattern Recognition and Image Processing
JPH04242916A (ja) 露光データの生成方法
KR20060008889A (ko) 정보처리시스템 및 정보처리방법

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 11

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 11