JP2009271830A - 描画データ分散処理方法およびマスク描画装置 - Google Patents

描画データ分散処理方法およびマスク描画装置 Download PDF

Info

Publication number
JP2009271830A
JP2009271830A JP2008123314A JP2008123314A JP2009271830A JP 2009271830 A JP2009271830 A JP 2009271830A JP 2008123314 A JP2008123314 A JP 2008123314A JP 2008123314 A JP2008123314 A JP 2008123314A JP 2009271830 A JP2009271830 A JP 2009271830A
Authority
JP
Japan
Prior art keywords
data
processing
distributed processing
chip
node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008123314A
Other languages
English (en)
Other versions
JP2009271830A5 (ja
Inventor
Toshiaki Yamamoto
俊朗 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nuflare Technology Inc
Original Assignee
Nuflare Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nuflare Technology Inc filed Critical Nuflare Technology Inc
Priority to JP2008123314A priority Critical patent/JP2009271830A/ja
Publication of JP2009271830A publication Critical patent/JP2009271830A/ja
Publication of JP2009271830A5 publication Critical patent/JP2009271830A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Preparing Plates And Mask In Photomechanical Process (AREA)

Abstract

【課題】描画データの分散処理における計算ノードのリソースを有効活用し、トータルスループットの向上を図ることが可能な描画データ分散処理方法およびマスク描画装置を提供することを課題とする。
【解決手段】分散処理を割り当てられた計算ノードが、1つのチップデータの分散処理を実行し、この分散処理されたチップデータを転送用の計算ノードでマスク描画装置に転送すると、この転送処理が終了する前に、リソースの空きがある計算ノードに後続のチップデータの分散処理を割り当てて、前記1つのチップデータの転送処理と前記後続のチップデータの分散処理とを並行処理し、以後、順次この並行処理を実行する描画データ分散処理方法およびマスク描画装置を提供する。
【選択図】図2

Description

本発明は、描画データ分散処理方法及びマスク描画装置に関し、特に、描画データを複数のチップデータに分割し、分割されたチップデータを分散処理する方法及び装置に関する。
半導体デバイスの微細化、高集積化に伴い、マスク描画装置で処理するデータ量が膨大となり、マスク描画装置のオフライン処理となるデータ処理の所要時間が増大し、マスク描画処理全体のスループットの低下、ひいては、生産性の低下を招くという問題が生じていた。
従来、このような問題に対して、設計データから描画データへの変換をオフライン処理となる外部装置で行なわず、マスク描画装置内で行なうようにし、第1番目のデータ処理と転送処理とをパイプライン処理(パイプライン構成)し、転送時間中に順次設計データから描画データへの変換処理を進めることができるマスク描画装置、及びマスク描画方法が提案されていた。
この構成によれば、転送時間中に順次描画データのその後のデータ処理を進めることにより、転送時間と変換時間とデータ処理時間とを重ねることができるため、上記スループットの大幅な短縮を図ることができる。
(例えば、特許文献1参照)。
特開2008−34439(請求項1の記載)
ところで、近年、上記膨大な描画データを効率よく、低コストで処理するために、描画データを複数のチップデータに分割し、各チップデータを複数の計算ノードで処理する分散処理方法が採用されている。上記複数の計算ノードは、相互に高速伝送路で接続され、全体として仮想的に1つの並列計算機としての機能を果たすPCクラスタを形成している。
上記PCクラスタは、通常、上記チップデータの分散処理を実行するために、他の計算ノードへの割り当てを管理する管理ノードと、この管理ノードによって割り当てられたデータの処理を実際に行う分散処理ノードと、分散処理されたデータをマスク描画装置に転送する転送ノードから構成される。
このPCクラスタを利用した分散処理では、管理ノードによって分散処理の割り当てがなされた分散処理ノードでチップデータのデータ処理が実行され、このデータ処理が終了すると、順次、転送ノードからマスク描画装置に転送されていた。
図6は、上記分散処理による従来のチップデータ処理のタイムチャートを示したものである。管理ノードによって割り当てられた分散処理ノードで分散処理を実行し、チップデータ単位でシーケンシャルにマスク描画装置に転送する。すなわち、チップデータC11、チップデータC12、チップデータC13…チップデータC1fの順序でシーケンシャルに処理する場合、チップデータC11の分散処理終了後、転送ノードで転送している間は、分散処理ノードは稼働しておらず、リソースが空き状態になっている。同様に、チップデータC12の分散処理終了後、転送ノードで転送している間は、分散処理ノードは稼働せず、以後、チップデータC13からチップデータC1fまで、マスク描画装置に転送ノードで転送している間は、転送ノードのみが動作し、分散処理ノードは稼働しないという状態が繰り返されていた。
したがって、描画データの分散処理にかかる所要時間t’は、上記分散処理ノードのリソースが空き状態で稼働していない時間も加算されるため、トータルスループットが低下するという不具合が生じていた。
そこで、本発明は、前記問題点に鑑み、描画データの分散処理における計算ノードのリソースを有効活用し、トータルスループットの向上を図ることが可能な描画データ分散処理方法およびこの方法を実施することが可能なマスク描画装置を提供することを課題とする。
上記課題を解決するため、本発明にかかる描画データ分散処理方法は、描画データを複数のチップデータに分割し、この分割された各チップデータを高速伝送路で接続された複数の計算ノードによって分散処理し、順次マスク描画装置に転送する描画データ分散処理方法であって、所定の計算ノードが、他の計算ノードのリソースの空き状況の監視と他の計算ノードに前記チップデータの分散処理の割り当てとを行うために起動する処理工程と、前記分散処理を割り当てられた計算ノードが、1つのチップデータの分散処理を実行する処理工程と、この処理されたチップデータを転送用の計算ノードで前記マスク描画装置に転送する処理工程と、この転送処理が終了する前に、前記所定の計算ノードが、リソースの空きがある計算ノードに後続のチップデータの分散処理を割り当てて、前記1つのチップデータの転送処理と前記後続のチップデータの分散処理とを並行処理する処理工程とを有し、以後、順次この並行処理が実行されることを特徴とする。
この構成によれば、上記所定の計算ノードは、1のチップデータが転送処理されているときに、並行して他の計算ノードに後続のチップデータの分散処理を開始させることが可能になる。
前記各チップデータは、2以上のストライプデータを含む。そこで、たとえば、前記並行処理を開始するタイミングは、前記後続のチップデータの分散処理を前記1つのチップデータの最終のストライプデータの転送処理が開始されるときとすればよい。
前記所定の計算ノードの起動のタイミングは、複数のチップデータから構成されるレイアウトデータのジョブを投入するときにすればよく、前記並行処理は、この投入されたジョブに含まれるすべてのチップデータの分散処理が終了するまで順次繰り返されるようにすればよい。
前記所定の計算ノードは、前記各ストライプデータを2以上の分散処理ブロックデータに分割し、この分散処理ブロックデータ単位に他の計算ノードを割り当てて分散処理を順次実行させ、最終のストライプデータにおける最終の分散処理ブロックデータの実行情報とリソースの空き情報とを取得すると、前記最終の分散処理ブロックデータの転送処理と同時に、リソースが空いている計算ノードに後続のチップデータの分散処理を実行させるようにしてもよい。
上記課題を解決するため、本発明にかかるマスク描画装置は、描画データを2以上のストライプデータから構成される複数のチップデータに分割し、さらに、各ストライプデータを分散処理ブロックデータに分割し、この分割された分散処理ブロックデータを分散処理するために、高速伝送路で相互に接続された複数の計算ノードを備えたマスク描画装置であって、前記複数の計算ノードは、他の計算ノードのリソースの空き状況の監視と他の計算ノードに前記分散処理ブロックデータの割り当てを行う管理ノードと、管理ノードによって割り当てられた前記分散処理ブロックデータの分散処理を実行する分散処理ノードと、前記分散処理されたブロックデータを前記ストライプデータ単位にまとめてチップデータごとにマスク描画装置に転送する転送ノードとから構成されたPCクラスタを形成し、前記管理ノードは、1つのチップデータの分散処理が実行されている間に、他の分散処理ユニットのリソースの空き状況を監視し、前記分散処理が実行されているチップデータの最終分散処理ブロックデータの分散処理が実行され、前記転送ノードで転送処理が実行されると、後続のチップデータの分散処理を開始するものであることを特徴とする。
以上の説明から明らかなように、本発明にかかる描画データ分散方法及びこの分散方法の実施が可能なマスク描画装置は、描画データをチップデータ単位に分散処理する場合に、チップデータの転送処理と分散処理とを並行して実行することができるので、各計算ノードのリソースを有効活用することができ、ひいては、マスク描画装置のトータルスループットの向上を図ることができるという効果を奏する。
図1を参照して、1は、本発明にかかるマスク描画装置本体である。マスク描画装置本体1は、電子光学鏡筒11と描画室12とから構成され、電子光学鏡筒11内の電子銃111から電子ビームBを図示しない偏向器によって偏向し、描画室12内のステージ121上に載置されたマスクMに所望のパターンを描画する。
上記パターンの描画データは、複数のチップデータから構成されており、これらのチップデータのデータ処理は、複数の計算ノードから構成されるPCクラスタ2によって分散処理が実行される。
PCクラスタ2は、他の計算ノードのリソースの空き状態の監視と他の計算ノードに対する上記分散処理の割り当てとを行う管理ノード(Writing Control Unit, 以下「WCU21」という)と、上記分散処理を実行する分散処理ノード(Parallel Processing Unit, 以下「PPU22」という)と、分散処理されたチップデータをマスク描画装置本体1に転送する転送ノード(Output Node, 以下「ON23」という)とから構成されている。
PCクラスタ2内のWCU21、PPU22、ON23は、相互にInfiniBandなど、高速伝送路24によって接続されている。InfiniBandアーキテクチャは、上記クラスタ用のスイッチ型高速I/Oバスアーキテクチャとして好適である。なお、PPU22は、実際に分散処理を実行するユニットであり、複数の計算ノードが接続されている。また、ON23とマスク描画装置本体1とは、光ファイバケーブル25で接続すればよい。
図2は、本発明にかかるチップデータ処理のタイムチャートを示す図である。チップデータC1は、ストライプデータSt11、ストライプデータSt12、ストライプデータSt13…ストライプデータSt1fから構成され、チップデータC2は、ストライプデータSt21、ストライプデータSt22…というように、いずれのチップデータも2以上のストライプデータから構成され、最終のチップデータCfまで順次処理される。
本発明では、以下、処理方法について詳述するが、図1で説明したON23による先行するチップデータC1の転送処理において、最終ストライプデータSt1fの転送時に、図1で説明したPPU22による後続のチップデータC2の最初のストライプデータSt21の分散処理を並行して開始し、以後、順次、この並行処理を実行する。
本発明では、このような処理方法を実行することにより、先行するチップデータの転送時に、PPU22のリソースが空き状態になるという状態を回避し、リソースの有効活用を図って、描画データの分散処理にかかる所要時間tを短縮し、マスク描画装置のトータルスループットを向上させるというものである。
図3は、本発明にかかる描画データ分散処理方法のフローチャートを示す図である。以下、図1を参照しながら説明する。
マスクに描画されるパターンのレイアウトデータを生成し、このレイアウトデータごとのジョブをPCクラスタ2に投入する(S1)。このレイアウトデータは、複数チップデータ(チップ数=n)を含む。
WCU21が起動し(S2)、初回のチップ処理が開始される(S3)。このチップ処理は、サブルーチンとして呼び出されるが、詳細は後述する。初回のチップ処理が終了すると、以後、カウンタにより、処理済チップ数<nかどうかの判断が行われる(S4)。処理済チップ数<nの場合は、さらに、チップ処理ルーチンから、PPU22のリソースの空きについての通知があるかどうか判断し(S5)、通知があるまでこの判断を繰り返す。通知あった場合には、後続(2回目)のチップ処理のために、再びサブルーチンを呼び出し(S6)、以後、処理済チップ数=nになるまでS4〜S6の処理を繰り返す。処理済チップ数=nになると、上記投入されたレイアウトのジョブが終了する。
ここで、時系列的には、S3のチップ処理後、S4、S5の判断を経て、S6のチップ処理が開始されるが、実際には、S3のチップ処理が終了する前に、S6のチップ処理が開始されるため、一部並行処理されており、以後、S6のチップ処理は、先行するチップ処理と後続のチップ処理が順次一部並行処理される。
図4は、図3で説明したチップ処理のサブルーチンのフローチャートを示す図である。以下、フローチャートを説明する前に、本発明にかかる分散処理の実際のデータ構成例を説明する。
図2で説明したように、チップデータは、2以上のストライプデータから構成されているが、上記分散処理は、たとえば、このストライプデータをさらに、2以上の分散処理ブロックデータに分割して処理する。図5は、チップデータとストライプデータとこの分散処理ブロックデータとの関係を模式的に示した図である。
チップデータC1は、ストライプデータSt11、ストライプSt12、ストライプデータSt13…ストライプデータSt1fから構成されているが、各ストライプデータは、それぞれさらに複数の分散処理ブロックデータに分割される。すなわち、ストライプデータSt11は、分散処理ブロックデータb11、b12、b13…b1fに分割され、ストライプSt12は、分散処理ブロックデータb21、b22、b23…b2fに分割され、ストライプデータSt13は、分散処理ブロックデータb31、b32、b33…b3fに分割され、ストライプデータSt1fは、分散処理ブロックデータbf1、bf2、bf3…bffに分割されている。各PPU22は、それぞれこの分散処理ブロックデータ単位でデータ処理を実行する。図4のフローチャートは、この分散処理を前提に説明する。
チップ処理サブルーチンが呼び出されると、当該チップデータにおけるストライプデータの続行の有無を判断する(S101)。すなわち、当該チップ処理において、最終のストライプデータSt1fまでストライプデータのループが繰り返される。最終のストライプデータSt1fの処理が終了すると、図3のS4の判断がなされる。
ストライプデータのループ続行の場合、さらに、分散処理ブロックのループの続行の有無を判断する(S102)。すなわち、当該ストライプ処理において、最終の分散処理ブロックデータbffまで分散処理ブロックデータのループが繰り返される。なお、分散処理ブロックデータbffの処理が終了し、続行しない場合には、次のストライプ処理に移行するために、S101の判断に戻り、ストライプデータの続行の有無が判断される。
分散処理ブロックデータのループを続行する場合、WCU21によるPPU22のリソースの空きの監視が行われ(S103)、PPU22に空きがあるか否かの判断がなされる(S104)。リソースに空きがなければ、引き続きS103のリソースの監視を継続し、空きが生じるまでS103〜S104の処理を繰り返す。
PPU22に空きが生じた場合、現在、実行している当該チップ処理が、最終の分散処理ブロックデータbffか否かの判断を行う(S105)。最終の分散処理ブロックデータbffではない場合、その分散処理ブロックデータを空きのあるPPU22に割り当てて(S107)、この割り当てられたPPU22で分散処理を実行し(S108)、分散処理が終了すると、ON23にデータを送信し、S102の判断がなされ、最終の分散ブロックデータの処理まで、このループが繰り返される。
一方、S105において、最終の分散処理ブロックデータbffの処理が実行される場合、上記PPU22のリソースの空き情報とこの最終分散処理ブロックデータbffの処理であることの情報が、WCU21に通知される(S106)。この通知は、図3で示したS5の通知として受け取られ、後続のチップデータの並行処理を開始するために、S6として、本サブルーチンが再び呼び出され、以後、この並行処理が順次実行される。なお、S106の通知後は、最後の分散処理ブロックデータbffについて上記S107〜S109の処理が実行される。
本発明にかかるマスク描画装置のブロック構成図 本発明にかかるチップデータ処理のタイムチャートを示す図 本発明にかかる描画データ分散処理方法のフローチャートを示す図 チップ処理のサブルーチンのフローチャートを示す図 チップデータとストライプデータとこの分散処理ブロックデータとの関係を模式的に示した図 従来のチップデータ処理のタイムチャートを示す図
符号の説明
1 マスク描画装置本体
2 PCクラスタ
11 電子光学鏡筒
12 描画室
21 WCU(管理ノード、Writing Control Unit)
22 PPU(分散処理ノード、Parallel Processing Unit)
23 ON(転送ノード、Output Node)
24 高速伝送路
25 光ファイバケーブル
111 電子銃
121 ステージ

Claims (5)

  1. 描画データを複数のチップデータに分割し、この分割された各チップデータを高速伝送路で接続された複数の計算ノードによって分散処理し、順次マスク描画装置に転送する描画データ分散処理方法であって、
    所定の計算ノードが、他の計算ノードのリソースの空き状況の監視と他の計算ノードに前記チップデータの分散処理の割り当てとを行うために起動する処理工程と、前記分散処理を割り当てられた計算ノードが、1つのチップデータの分散処理を実行する処理工程と、この処理されたチップデータを転送用の計算ノードで前記マスク描画装置に転送する処理工程と、この転送処理が終了する前に、前記所定の計算ノードが、リソースの空きがある計算ノードに後続のチップデータの分散処理を割り当てて、前記1つのチップデータの転送処理と前記後続のチップデータの分散処理とを並行処理する処理工程とを有し、以後、順次この並行処理が実行されることを特徴とする描画データ分散処理方法。
  2. 前記各チップデータは、2以上のストライプデータを含み、前記後続のチップデータの分散処理は、前記1つのチップデータの最終のストライプデータの転送処理が開始されるときに実行されることを特徴とする請求項1記載の描画データ分散処理方法。
  3. 前記所定の計算ノードは、複数のチップデータから構成されるレイアウトデータのジョブを投入することにより起動し、前記並行処理は、この投入されたジョブに含まれるすべてのチップデータの分散処理が終了するまで順次繰り返されることを特徴とする請求項1または請求項2記載の描画データ分散処理方法。
  4. 前記所定の計算ノードは、前記各ストライプデータを2以上の分散処理ブロックデータに分割し、この分散処理ブロックデータ単位に他の計算ノードを割り当てて分散処理を順次実行させ、最終のストライプデータにおける最終の分散処理ブロックデータの実行情報とリソースの空き情報とを取得すると、前記最終の分散処理ブロックデータの転送処理と同時に、リソースが空いている計算ノードに後続のチップデータの分散処理を実行させることを特徴とする請求項3記載の描画データ分散処理方法。
  5. 描画データを2以上のストライプデータから構成される複数のチップデータに分割し、さらに、各ストライプデータを分散処理ブロックデータに分割し、この分割された分散処理ブロックデータを分散処理するために、高速伝送路で相互に接続された複数の計算ノードを備えたマスク描画装置であって、
    前記複数の計算ノードは、他の計算ノードのリソースの空き状況の監視と他の計算ノードに前記分散処理ブロックデータの割り当てを行う管理ノードと、管理ノードによって割り当てられた前記分散処理ブロックデータの分散処理を実行する分散処理ノードと、前記分散処理されたブロックデータを前記ストライプデータ単位にまとめてチップデータごとにマスク描画装置に転送する転送ノードとから構成されたPCクラスタを形成し、
    前記管理ノードは、1つのチップデータの分散処理が実行されている間に、他の分散処理ユニットのリソースの空き状況を監視し、前記分散処理が実行されているチップデータの最終分散処理ブロックデータの分散処理が実行され、前記転送ノードで転送処理が実行されると、後続のチップデータの分散処理を開始するものであることを特徴とするマスク描画装置。
JP2008123314A 2008-05-09 2008-05-09 描画データ分散処理方法およびマスク描画装置 Pending JP2009271830A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008123314A JP2009271830A (ja) 2008-05-09 2008-05-09 描画データ分散処理方法およびマスク描画装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008123314A JP2009271830A (ja) 2008-05-09 2008-05-09 描画データ分散処理方法およびマスク描画装置

Publications (2)

Publication Number Publication Date
JP2009271830A true JP2009271830A (ja) 2009-11-19
JP2009271830A5 JP2009271830A5 (ja) 2012-01-05

Family

ID=41438302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008123314A Pending JP2009271830A (ja) 2008-05-09 2008-05-09 描画データ分散処理方法およびマスク描画装置

Country Status (1)

Country Link
JP (1) JP2009271830A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021045A (ja) * 2011-07-08 2013-01-31 Nuflare Technology Inc 荷電粒子ビーム描画装置及び荷電粒子ビーム描画方法
US10096452B2 (en) 2015-12-10 2018-10-09 Nuflare Technology, Inc. Data processing method, charged particle beam writing method, and charged particle beam writing apparatus

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844678A (ja) * 1994-07-29 1996-02-16 Canon Inc 画像処理装置及びシステム
JPH11216914A (ja) * 1998-01-30 1999-08-10 Fuji Xerox Co Ltd 描画装置
JP2007128933A (ja) * 2005-11-01 2007-05-24 Nuflare Technology Inc 荷電粒子線描画データの作成方法及び荷電粒子線描画データの変換方法
JP2008034439A (ja) * 2006-07-26 2008-02-14 Nuflare Technology Inc 荷電粒子ビーム描画装置及び荷電粒子ビーム描画方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0844678A (ja) * 1994-07-29 1996-02-16 Canon Inc 画像処理装置及びシステム
JPH11216914A (ja) * 1998-01-30 1999-08-10 Fuji Xerox Co Ltd 描画装置
JP2007128933A (ja) * 2005-11-01 2007-05-24 Nuflare Technology Inc 荷電粒子線描画データの作成方法及び荷電粒子線描画データの変換方法
JP2008034439A (ja) * 2006-07-26 2008-02-14 Nuflare Technology Inc 荷電粒子ビーム描画装置及び荷電粒子ビーム描画方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013021045A (ja) * 2011-07-08 2013-01-31 Nuflare Technology Inc 荷電粒子ビーム描画装置及び荷電粒子ビーム描画方法
US10096452B2 (en) 2015-12-10 2018-10-09 Nuflare Technology, Inc. Data processing method, charged particle beam writing method, and charged particle beam writing apparatus

Similar Documents

Publication Publication Date Title
JP4546413B2 (ja) 並列計算機のリダクション処理方法及び並列計算機
US20150186184A1 (en) Apparatus and method for optimizing system performance of multi-core system
WO2017185285A1 (zh) 图形处理器任务的分配方法和装置
CN108605017B (zh) 查询计划和操作感知的通信缓冲区管理方法及装置
CN115470915A (zh) 量子计算机的服务器系统及其实现方法
JP2009271830A (ja) 描画データ分散処理方法およびマスク描画装置
CN113590281B (zh) 基于动态集中式调度的分布式并行模糊测试方法及系统
KR101994929B1 (ko) 집합 통신 수행 방법 및 이를 이용한 집합 통신 시스템
US9335969B2 (en) Method of entropy randomization on a parallel computer
CN104281636A (zh) 海量报表数据并发分布式处理方法
CN106776032A (zh) 分布式块存储的io请求的处理方法和装置
KR20210031347A (ko) 처리 작업을 수행하는 방법, 장치, 기기 및 저장 매체
US11249722B2 (en) Semiconductor device and method of controlling the semiconductor device
JP5577745B2 (ja) クラスタシステム、プロセス配置方法、及びプログラム
Shenassa et al. A novel intelligent method for task scheduling in multiprocessor systems using genetic algorithm
JP2020126487A (ja) 並列処理装置、データ転送先決定方法およびデータ転送先決定プログラム
CN115469979B (zh) 量子控制系统的调度装置、方法以及量子计算机
KR20050057834A (ko) 멀티프로세서 시스템에서 스케줄러를 이용한 대규모데이터 처리 방법
JP2010244470A (ja) 分散処理システム及び分散処理方法
JP2018120307A (ja) アクセラレータ処理管理装置、ホスト装置、アクセラレータ処理実行システム、方法およびプログラム
JP2007251334A (ja) ネットワークシステムのブロードキャスト処理方法及びネットワークシステム
CN103391225A (zh) 期货与证券行业测试用例并行自动化测试系统
JP2017033095A (ja) 情報処理システム、情報処理方法、プログラム、及び情報処置装置
JP2009271830A5 (ja)
JP2016206817A (ja) 電子制御装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110419

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111114

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121030

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204