JP6497494B1 - Shape correction apparatus and shape correction method for figure pattern - Google Patents

Shape correction apparatus and shape correction method for figure pattern Download PDF

Info

Publication number
JP6497494B1
JP6497494B1 JP2019500682A JP2019500682A JP6497494B1 JP 6497494 B1 JP6497494 B1 JP 6497494B1 JP 2019500682 A JP2019500682 A JP 2019500682A JP 2019500682 A JP2019500682 A JP 2019500682A JP 6497494 B1 JP6497494 B1 JP 6497494B1
Authority
JP
Japan
Prior art keywords
end point
unit
graphic
normal end
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019500682A
Other languages
Japanese (ja)
Other versions
JPWO2019012887A1 (en
Inventor
洋平 大川
洋平 大川
剛哉 下村
剛哉 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Application granted granted Critical
Publication of JP6497494B1 publication Critical patent/JP6497494B1/en
Publication of JPWO2019012887A1 publication Critical patent/JPWO2019012887A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F1/00Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
    • G03F1/36Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/20Exposure; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/027Making masks on semiconductor bodies for further photolithographic processing not provided for in group H01L21/18 or H01L21/34

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Manufacturing & Machinery (AREA)
  • Power Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Preparing Plates And Mask In Photomechanical Process (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Electron Beam Exposure (AREA)

Abstract

単位図形(10)に基づくリソグラフィによって実基板上に実パターンを形成するシミュレーションを行う。まず、単位図形(10)を多角形に分割し(図(a) )、多角形の個々の辺上にベクトル(Va1〜Vd4)を定義する(図(b) )。同一区間に重複して配置されたベクトルを除去し、単位図形(10)の輪郭線に沿ったベクトル(V1〜V10)を残す(図(c) )。各ベクトル(V1〜V10)の始点位置に通常端点(A〜J)を定義し、隣接する通常端点を両端とする輪郭線分(線分AB等)を定義する(図(d) )。各輪郭線分の中点に評価点を定義し、シミュレーションにより各評価点のずれ量を算出する。頂点ではない中間通常端点(B,C,D,G,H,I)の位置には補充端点を追加定義して、左右の輪郭線分ごとに別個の端点を確保し、ずれ量に応じて、各輪郭線分を輪郭線に直交する方向に移動させて補正を行う。A simulation for forming an actual pattern on the actual substrate is performed by lithography based on the unit graphic (10). First, the unit graphic (10) is divided into polygons (FIG. (A)), and vectors (Va1 to Vd4) are defined on individual sides of the polygon (FIG. (B)). The vector arranged overlappingly in the same section is removed, and the vectors (V1 to V10) along the contour line of the unit graphic (10) are left (FIG. (C)). A normal end point (A to J) is defined at the start point position of each vector (V1 to V10), and a contour line segment (line segment AB or the like) having the adjacent normal end points as both ends is defined (FIG. (D)). An evaluation point is defined at the midpoint of each contour line segment, and a deviation amount of each evaluation point is calculated by simulation. A supplementary end point is additionally defined at the position of the intermediate normal end point (B, C, D, G, H, I) that is not the apex, and a separate end point is secured for each of the left and right contour segments, and according to the amount of deviation. Then, correction is performed by moving each contour line segment in a direction orthogonal to the contour line.

Description

本発明は、図形パターンの形状補正装置および形状補正方法に関し、特に、リソグラフィプロセスを経て基板上に形成される図形パターンの形状を補正する技術に関する。   The present invention relates to a figure pattern shape correction apparatus and a shape correction method, and more particularly to a technique for correcting the shape of a figure pattern formed on a substrate through a lithography process.

半導体デバイスの製造プロセスなど、特定の材料層に対して微細なパターニング加工を施す必要がある分野では、光や電子線を用いた描画を伴うリソグラフィプロセスを経て、物理的な基板上に微細なパターンを形成する手法が採られている。通常、コンピュータを利用して微細なマスクパターンを設計し、得られたマスクパターンのデータに基づいて、基板上に形成されたレジスト層に対する露光を行い、これを現像した後、残存レジスト層をマスクとしたエッチングを行い、基板上に微細なパターンを形成することになる。   In fields that require fine patterning of specific material layers, such as semiconductor device manufacturing processes, a fine pattern is formed on a physical substrate through a lithography process that involves drawing using light or an electron beam. The technique to form is taken. Usually, a fine mask pattern is designed using a computer, and the resist layer formed on the substrate is exposed based on the obtained mask pattern data. After developing this, the remaining resist layer is masked. Etching is performed to form a fine pattern on the substrate.

ただ、このようなリソグラフィプロセスを経て基板上に実際に得られる実図形パターンと、コンピュータ上で設計された元図形パターンとの間には、若干の食い違いが生じることになる。これは、上記リソグラフィプロセスには、露光、現像、エッチングという工程が含まれるため、最終的に基板上に形成される実図形パターンは、露光工程で利用された元図形パターンに正確には一致しないためである。特に、露光工程では、光や電子線によってレジスト層に対する描画を行うことになるが、その際に、近接効果(PE:Proximity Effect)によって、レジスト層に実際に描画される露光領域は、元図形パターンよりも若干広い領域になることが知られている。また、エッチング工程では、エッチングのローディング現象が生じるため、現像後のパターンとエッチング後のパターンとでは形状が異なってしまう。このエッチングのローディング現象の効果の大小は、実基板表面のレジスト層から露出した面積に応じて変化することが知られている。描画工程の近接効果や、エッチング工程のローディング現象などは、いずれも元図形パターンの形状と実図形パターンの形状との間に差異を生じさせる原因となる現象であるが、このような現象の影響範囲(スケールサイズ)は、各現象で異なっている。   However, there is a slight discrepancy between the actual graphic pattern actually obtained on the substrate through such a lithography process and the original graphic pattern designed on the computer. This is because the lithography process includes steps of exposure, development, and etching, so that the actual graphic pattern finally formed on the substrate does not exactly match the original graphic pattern used in the exposure process. Because. In particular, in the exposure process, the resist layer is drawn with light or an electron beam. At that time, the exposure area actually drawn on the resist layer by the proximity effect (PE) is the original figure. It is known that the area is slightly wider than the pattern. In addition, since an etching loading phenomenon occurs in the etching process, the pattern after development and the pattern after etching differ in shape. It is known that the effect of the etching loading phenomenon varies depending on the area exposed from the resist layer on the surface of the actual substrate. The proximity effect in the drawing process and the loading phenomenon in the etching process are all phenomena that cause a difference between the shape of the original graphic pattern and the shape of the actual graphic pattern. The range (scale size) is different for each phenomenon.

このような事情から、リソグラフィプロセスを含む半導体デバイスの製造工程などでは、コンピュータ上で所望の元図形パターンを設計した後、この元図形パターンを用いたリソグラフィプロセスをコンピュータ上でシミュレートし、実基板上に形成されるであろう実図形パターンの形状を推定する手順が実行される。そして、シミュレートの結果として得られる実図形パターンの形状(寸法)を踏まえ、必要に応じて、元図形パターンの形状(寸法)に対する補正を行い、この補正により得られる補正図形パターンを用いて実際のリソグラフィプロセスを実行し、実際の半導体デバイスの製造を行うことになる。   Under these circumstances, in a semiconductor device manufacturing process including a lithography process, a desired original figure pattern is designed on a computer, and then the lithography process using the original figure pattern is simulated on a computer, and an actual substrate is obtained. A procedure is performed to estimate the shape of the actual graphic pattern that will be formed above. Based on the shape (dimension) of the actual figure pattern obtained as a result of the simulation, the shape (dimension) of the original figure pattern is corrected if necessary, and the actual figure pattern is obtained using the corrected figure pattern obtained by this correction. The actual lithography process is performed to manufacture an actual semiconductor device.

したがって、設計どおりの精密なパターンを有する最終製品を製造するためには、実際にリソグラフィプロセスを行う前に、シミュレーションによって実図形パターンの形状を正確に推定し、元図形パターンに対して適切な補正を施す必要がある。そこで、たとえば、下記の特許文献1には、元図形パターンのレイアウトを特徴づける特徴因子と、リソグラフィプロセスによって基板上に形成されるレジストパターンの寸法に影響を与える制御因子と、を入力層とするニューラルネットワークを用いて、高精度のシミュレーションを行う方法が開示されている。また、特許文献2には、2組のニューラルネットワークを利用して、シミュレーションの精度を高める方法が開示されており、特許文献3には、フォトマスクのパターンから特徴量を抽出する際に、適切な抽出パラメータを設定することにより、シミュレーションの精度を高める方法が開示されている。   Therefore, in order to produce a final product with a precise pattern as designed, the actual figure pattern shape is accurately estimated by simulation before the lithography process is actually performed, and the original figure pattern is appropriately corrected. It is necessary to apply. Therefore, for example, in Patent Document 1 below, a feature factor that characterizes the layout of the original graphic pattern and a control factor that affects the size of the resist pattern formed on the substrate by the lithography process are used as an input layer. A method of performing a highly accurate simulation using a neural network is disclosed. Patent Document 2 discloses a method for improving the accuracy of simulation using two sets of neural networks, and Patent Document 3 discloses an appropriate method for extracting feature values from a photomask pattern. A method for improving the accuracy of simulation by setting various extraction parameters is disclosed.

特開2008−122929号公報JP 2008-122929 A 特開2010−044101号公報JP 2010-044101 A 特開2010−156866号公報JP 2010-156866 A

上述したように、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する場合、事前にシミュレーションを行い、元図形パターンをそのまま用いた場合に実基板上に形成されるであろう実図形パターンの形状を推定し、当該推定結果に基づいて元図形パターンに対して必要な補正を施して補正図形パターンを得る処理が行われている。このような推定および補正を行うため、前掲の各特許文献に記載されている装置をはじめとして、様々な形状補正装置が提案されている。   As described above, when a real graphic pattern is formed on a real substrate by a lithography process based on the original graphic pattern, it will be formed on the real substrate when a simulation is performed in advance and the original graphic pattern is used as it is. A process of estimating the shape of the actual graphic pattern and performing a necessary correction on the original graphic pattern based on the estimation result to obtain a corrected graphic pattern is performed. In order to perform such estimation and correction, various shape correction devices have been proposed, including the devices described in the aforementioned patent documents.

一般的な形状補正装置では、元図形パターン上の所定位置に評価点を設定し、この評価点の周囲の特徴を示す特徴量に基づいて、当該評価点についての実図形パターン上でのずれ量(プロセスバイアス)をシミュレーションによって求め、当該ずれ量に応じた補正を行うことにより、補正図形パターンが作成される。したがって、元図形パターン上の適切な位置に適切な数の評価点を設定することが非常に重要である。もちろん、評価点の密度を高めて多数の評価点を設定すれば、シミュレーションの精度が向上し、より正確な補正を行うことができる。しかしながら、評価点の数が増えれば増えるほど、シミュレーションの演算負担が増加し、シミュレーションが完了するまでの時間は増大してしまう。このため、実用上十分なシミュレーション精度を維持しつつ、できるだけ演算負担を軽減できる効率的な評価点設定を行うことが望まれている。   In a general shape correction device, an evaluation point is set at a predetermined position on an original graphic pattern, and based on a feature amount indicating a feature around the evaluation point, a deviation amount on the actual graphic pattern about the evaluation point A corrected graphic pattern is created by obtaining (process bias) by simulation and performing correction according to the amount of deviation. Therefore, it is very important to set an appropriate number of evaluation points at appropriate positions on the original graphic pattern. Of course, if the evaluation point density is increased and a large number of evaluation points are set, the accuracy of the simulation is improved and more accurate correction can be performed. However, as the number of evaluation points increases, the computation load of the simulation increases and the time until the simulation is completed increases. For this reason, it is desired to perform efficient evaluation point setting that can reduce the calculation burden as much as possible while maintaining practically sufficient simulation accuracy.

そこで本発明は、元図形パターンに対する補正に必要なシミュレーションを行う際に、実用上十分なシミュレーション精度を維持しつつ、できるだけ演算負担を軽減できる効率的な評価点設定を行うことが可能な図形パターンの形状補正装置を提供することを目的とする。   Therefore, the present invention provides a graphic pattern capable of performing efficient evaluation point setting capable of reducing the calculation burden as much as possible while maintaining a practically sufficient simulation accuracy when performing a simulation necessary for correcting the original graphic pattern. An object of the present invention is to provide a shape correction apparatus.

(1) 本発明の第1の態様は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、実図形パターンが元図形パターンに一致するように、元図形パターンの形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する図形パターンの形状補正装置において、
元図形パターンを構成する個々の単位図形について、内部と外部との境界を示す輪郭線上の所定位置に評価点を設定する評価点設定ユニットと、
元図形パターンについて、評価点の周囲の特徴を示す特徴量を抽出する特徴量抽出ユニットと、
特徴量に基づいて、評価点の元図形パターン上の位置と実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定するバイアス推定ユニットと、
バイアス推定ユニットから出力されるプロセスバイアスの推定値に基づいて、元図形パターンに対する補正を行うことにより、補正図形パターンを作成するパターン補正ユニットと、
を設け、
評価点設定ユニットが、
多角形からなる個々の単位図形を入力する単位図形入力部と、
単位図形を直線状の分割線で分割して複数の多角形からなる分割図形を形成する単位図形分割部と、
各分割図形について、当該分割図形を構成する多角形の輪郭線に沿って所定の順方向まわりに一周するように、多角形の個々の辺上にそれぞれ分割図形ベクトルを定義する分割図形ベクトル定義部と、
分割図形ベクトルの集合から、互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去し、残ったベクトルにより、単位図形の輪郭線に沿って配置された複数の単位図形ベクトルを定義する単位図形ベクトル定義部と、
個々の単位図形ベクトルの始点位置に、それぞれ通常端点を定義する通常端点定義部と、
個々の単位図形の輪郭線上において互いに隣接して配置された2つの通常端点の間に、それぞれ評価点を定義する評価点定義部と、
個々の単位図形について、多角形の頂点を構成しない通常端点である中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点を追加定義する補充端点定義部と、
を有するようにし、
パターン補正ユニットが、
個々の評価点について、単位図形の輪郭線に沿って当該評価点の一方の側に隣接する通常端点もしくは補充端点を第1の端点とし、他方の側に隣接する通常端点もしくは補充端点を第2の端点とする輪郭線分を定義し、個々の評価点についての輪郭線分を、当該評価点のプロセスバイアスの推定値に応じた補正量だけ、輪郭線分に直交する方向に移動させる移動処理を行う輪郭線分移動処理部と、
移動処理前に互いに同じ位置にあった中間通常端点および補充端点が、移動処理後に異なる2つの位置に分離した場合、それぞれの移動処理後の位置を連結する新たな輪郭線分を追加する追加処理を行う輪郭線分追加処理部と、
移動処理前に多角形の頂点を構成していた通常端点である隅部通常端点が、移動処理後に異なる2つの位置に分離した場合、分離後の2つの隅部通常端点が融合して新たな隅部通常端点となるように、分離後の隅部通常端点を含む各輪郭線分をそれぞれ伸縮する伸縮処理を行う輪郭線分伸縮処理部と、
を有するようにし、移動処理、追加処理、伸縮処理を行った後の輪郭線分の集合体を輪郭線とする単位図形によって構成される補正図形パターンを作成するようにしたものである。
(1) In the first aspect of the present invention, when a real graphic pattern is formed on a real substrate by a lithography process based on the original graphic pattern, the original graphic pattern is matched with the original graphic pattern. In the figure pattern shape correction apparatus that corrects the shape and creates a correction figure pattern that is actually used in the lithography process,
An evaluation point setting unit for setting an evaluation point at a predetermined position on the contour line indicating the boundary between the inside and the outside for each unit figure constituting the original figure pattern,
A feature quantity extraction unit that extracts a feature quantity indicating features around the evaluation point for the original graphic pattern;
A bias estimation unit that estimates a process bias indicating the amount of deviation between the position of the evaluation point on the original graphic pattern and the position on the actual graphic pattern based on the feature amount;
A pattern correction unit that creates a corrected graphic pattern by correcting the original graphic pattern based on the estimated value of the process bias output from the bias estimation unit;
Provided,
Evaluation point setting unit
A unit graphic input unit for inputting individual unit graphics made of polygons;
A unit graphic dividing unit for dividing a unit graphic by a linear dividing line to form a divided graphic consisting of a plurality of polygons;
For each divided figure, a divided figure vector definition unit that defines a divided figure vector on each side of the polygon so as to go around the predetermined forward direction along the outline of the polygon constituting the divided figure. When,
Search for overlapping vector pairs that are arranged on overlapping sides of a pair of adjacent polygons that are adjacent to each other from a set of divided graphic vectors, and whose directions are opposite to each other, and an overlapping section portion of the searched overlapping vector pairs And a unit graphic vector definition unit that defines a plurality of unit graphic vectors arranged along the outline of the unit graphic by the remaining vector,
A normal end point definition section for defining normal end points at the start position of each unit graphic vector,
An evaluation point definition unit that defines an evaluation point between two normal end points arranged adjacent to each other on the contour line of each unit graphic;
For each unit graphic, a supplementary endpoint definition unit that searches for a regular normal endpoint that is a regular endpoint that does not constitute a vertex of the polygon, and additionally defines a supplementary endpoint at the same position as the searched regular intermediate point;
And have
The pattern correction unit
For each evaluation point, the normal end point or supplement end point adjacent to one side of the evaluation point along the outline of the unit graphic is the first end point, and the normal end point or supplement end point adjacent to the other side is the second end point. A process of defining a contour line segment that is the end point of each of the evaluation points, and moving the contour line segment of each evaluation point in a direction orthogonal to the contour line segment by a correction amount according to the estimated value of the process bias of the evaluation point An outline segment movement processing unit for performing
If the intermediate normal end point and the replenishment end point that were in the same position before the moving process are separated into two different positions after the moving process, an additional process for adding a new contour segment that connects the positions after the moving process. Contour line addition processing unit for performing,
If the corner normal end point, which is the normal end point that formed the vertex of the polygon before the movement process, is separated into two different positions after the movement process, the two corner normal end points after the separation are merged to form a new one. A contour line segment expansion / contraction processing unit that performs expansion / contraction processing to expand / contract each contour line segment including the corner normal end point after separation so as to be a corner normal end point,
The correction figure pattern comprised by the unit figure which makes the outline the assembly of the outline line segment after performing a movement process, an addition process, and an expansion / contraction process is created.

(2) 本発明の第2の態様は、上述した第1の態様に係る図形パターンの形状補正装置において、
単位図形分割部が、単位図形を分割して、台形からなる分割図形を形成するようにしたものである。
(2) According to a second aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first aspect described above,
The unit graphic dividing unit divides the unit graphic to form a divided graphic consisting of trapezoids.

(3) 本発明の第3の態様は、上述した第1または第2の態様に係る図形パターンの形状補正装置において、
単位図形入力部が、所定の長手方向軸に沿って伸び、互いに平行な直線状の上辺および下辺を有する細長い帯状単位図形を入力したときに、
単位図形分割部が、この帯状単位図形を、長手方向軸に沿って所定間隔で配置された複数の分割線によって分割することにより、長手方向軸に沿って一次元的に並んだ複数の分割図形を形成するようにしたものである。
(3) According to a third aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first or second aspect described above,
When the unit figure input unit inputs an elongated strip-like unit figure that extends along a predetermined longitudinal axis and has straight upper and lower sides parallel to each other,
The unit graphic dividing unit divides the band-shaped unit graphic by a plurality of dividing lines arranged at predetermined intervals along the longitudinal axis, so that a plurality of divided graphics arranged one-dimensionally along the longitudinal axis Is formed.

(4) 本発明の第4の態様は、上述した第1または第2の態様に係る図形パターンの形状補正装置において、
単位図形入力部が、XY平面上に定義された単位図形を入力したときに、
単位図形分割部が、X軸に平行な水平分割線をY軸方向に所定間隔をあけて複数配置し、これら複数の水平分割線によって単位図形を分割することにより、X軸方向に伸びる細長い複数の帯状図形を形成し、更に、複数の帯状図形のそれぞれを、X軸に沿って所定間隔で配置されY軸に平行な複数の垂直分割線によって分割することにより、二次元的に並んだ複数の分割図形を形成するようにしたものである。
(4) According to a fourth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first or second aspect described above,
When the unit graphic input unit inputs a unit graphic defined on the XY plane,
The unit figure dividing unit arranges a plurality of horizontal dividing lines parallel to the X axis at predetermined intervals in the Y axis direction, and divides the unit figure by the plurality of horizontal dividing lines, thereby extending a plurality of elongated plurality of lines extending in the X axis direction. A plurality of two-dimensionally arranged strips by dividing each of the plurality of strip-shaped figures by a plurality of vertical dividing lines arranged at predetermined intervals along the X-axis and parallel to the Y-axis. The divided figure is formed.

(5) 本発明の第5の態様は、上述した第1〜第4の態様に係る図形パターンの形状補正装置において、
単位図形分割部が、リソグラフィプロセスで用いる描画装置のビーム最大成型サイズを設定する機能を有し、単位図形の分割に用いる分割線の配置間隔をビーム最大成型サイズ以下に設定するようにしたものである。
(5) According to a fifth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to fourth aspects described above,
The unit graphic division unit has a function to set the maximum beam forming size of the drawing device used in the lithography process, and the arrangement interval of the dividing lines used for dividing the unit graphic is set to be equal to or less than the maximum beam forming size. is there.

(6) 本発明の第6の態様は、上述した第1〜第5の態様に係る図形パターンの形状補正装置において、
分割図形ベクトル定義部が、K角形からなる分割図形の各頂点に、輪郭線に沿って時計まわりもしくは反時計まわりの順に第1の頂点〜第Kの頂点と番号を付し、第kの頂点を始点とし、第(k+1)の頂点(但し、k=Kの場合は第1の頂点)を終点とする第kの分割図形ベクトルを定義する処理を、k=1〜Kまで繰り返し行うことにより、当該分割図形についての分割図形ベクトルを定義するようにしたものである。
(6) According to a sixth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to fifth aspects described above,
The divided graphic vector definition unit assigns numbers to the vertices of the K-shaped divided graphic in the order of the first vertex to the Kth vertex in the clockwise or counterclockwise order along the contour line, and the k-th vertex. By repeating the process of defining the k-th divided figure vector starting at (k + 1) and ending at the (k + 1) -th vertex (if k = K, the first vertex) from k = 1 to K A divided graphic vector for the divided graphic is defined.

(7) 本発明の第7の態様は、上述した第1〜第6の態様に係る図形パターンの形状補正装置において、
評価点定義部が、単位図形の輪郭線上において互いに隣接して配置された2つの通常端点の中点位置に評価点を定義するようにしたものである。
(7) According to a seventh aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to sixth aspects described above,
The evaluation point definition unit defines an evaluation point at the midpoint position of two normal end points arranged adjacent to each other on the contour line of the unit graphic.

(8) 本発明の第8の態様は、上述した第1〜第7の態様に係る図形パターンの形状補正装置において、
補充端点定義部が、1つの輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼んだときに、第nの通常端点T(n)に着目して、第(n−1)の通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N)),第nの通常端点T(n),第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1))の3点が一直線上にある場合に、第nの通常端点T(n)を中間通常端点と判定し、この中間通常端点と同じ位置に補充端点を追加定義する処理を、n=1〜Nまで繰り返し実行するようにしたものである。
(8) According to an eighth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to seventh aspects described above,
The replenishment endpoint definition unit defines a total of N normal endpoints defined for one contour line in the order along the contour line, respectively, from the first normal endpoint T (1) to the Nth normal endpoint T (N ), When paying attention to the n-th normal end point T (n), the (n-1) -th normal end point T (n-1) (where n = 1, the N-th normal end point T (N)), the nth normal end point T (n), and the (n + 1) th normal end point T (n + 1) (where n = N, the first normal end point T (1)) When it is on a straight line, the nth normal end point T (n) is determined as the intermediate normal end point, and the process of additionally defining the supplementary end point at the same position as the intermediate normal end point is repeatedly executed from n = 1 to N. It is what I did.

(9) 本発明の第9の態様は、上述した第1〜第8の態様に係る図形パターンの形状補正装置において、
輪郭線分伸縮処理部が、ある1つの隅部通常端点が移動処理により第1の移動端点と第2の移動端点とに分離した場合に、第1の移動端点を一方の端点とする第1の移動後輪郭線分を含む直線と第2の移動端点を一方の端点とする第2の移動後輪郭線分を含む直線との交点を求め、当該交点を新たな隅部通常端点とし、第1の移動後輪郭線分および第2の移動後輪郭線分に対して一方の端点が上記新たな隅部通常端点となるような伸縮処理を行うようにしたものである。
(9) According to a ninth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to eighth aspects described above,
When the contour line segment expansion / contraction processing unit separates one corner normal end point into the first moving end point and the second moving end point by the moving process, the first moving end point is set as the first end point. The intersection of the straight line including the post-movement contour line segment and the straight line including the second post-movement contour line segment having the second moving end point as one end point is obtained, and the intersection point is set as a new corner normal end point. Expansion and contraction processing is performed such that one end point becomes the new corner normal end point with respect to one post-movement contour line segment and the second post-movement contour line segment.

(10) 本発明の第10の態様は、上述した第1〜第9の態様に係る図形パターンの形状補正装置において、
評価点設定ユニットに、通常端点定義部によって単位図形の輪郭線上に定義された通常端点に対して、数もしくは位置を修正する再構築を行う端点再構築部を更に設け、
評価点定義部が、上記再構築によって得られた通常端点に基づいて評価点を定義するようにしたものである。
(10) According to a tenth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to ninth aspects described above,
The evaluation point setting unit further includes an end point reconstructing unit that performs reconstruction to correct the number or position of the normal end points defined on the contour line of the unit graphic by the normal end point defining unit,
The evaluation point definition unit is configured to define evaluation points based on the normal end points obtained by the above reconstruction.

(11) 本発明の第11の態様は、上述した第10の態様に係る図形パターンの形状補正装置において、
端点再構築部が、一部もしくは全部の単位図形について、中間通常端点の一部もしくは全部を除去する端点除去処理により、通常端点の再構築を行うようにしたものである。
(11) An eleventh aspect of the present invention is the figure pattern shape correcting apparatus according to the tenth aspect described above,
The end point reconstructing unit reconstructs normal end points by performing end point removal processing for removing some or all of the intermediate normal end points for some or all of the unit graphics.

(12) 本発明の第12の態様は、上述した第11の態様に係る図形パターンの形状補正装置において、
端点再構築部が、1つの単位図形の1本の輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼び、第nの通常端点T(n)に着目して、第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離をL1とし、第nの通常端点T(n)と第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1):以下同様)との間の距離をL2としたときに、
L1およびL2の少なくとも一方が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N)),T(n),T(n+1)の3点が一直線上にある場合に、第nの通常端点T(n)を除去対象とする判定処理を、n=1〜Nまで繰り返し実行し、除去対象となった通常端点を除去する端点除去処理を行うようにしたものである。
(12) A twelfth aspect of the present invention is the figure pattern shape correcting apparatus according to the eleventh aspect described above,
The end point reconstructing unit sets a total of N normal end points defined for one contour line of one unit graphic in the order along the contour line, respectively, in the order of the first normal end points T (1) to Nth. Focusing on the nth normal end point T (n), the nth normal end point T (n) and the normal end point T (n) that is not to be removed immediately before the normal end point T (n) n−m) (where m is a natural number, and when n−m <1, T (n−m + N)) is L1, and the nth normal endpoint T (n) and (n + 1) ) Of the normal end point T (n + 1) (where n = N, the first normal end point T (1): the same applies hereinafter) is defined as L2.
At least one of L1 and L2 is equal to or less than a predetermined reference value Wmerge, and normal end point T (n-1) (where N = 1, Nth normal end point T (N)), T (n) , T (n + 1) are on a straight line, the determination process for removing the n-th normal end point T (n) is repeatedly executed from n = 1 to N, and the normal that has been removed An end point removal process for removing the end points is performed.

(13) 本発明の第13の態様は、上述した第11の態様に係る図形パターンの形状補正装置において、
端点再構築部が、1つの単位図形の1本の輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼び、第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離をL1とし、第nの通常端点T(n)と第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1):以下同様)との間の距離をL2とし、第(n+1)の通常端点T(n+1)と第(n+2)の通常端点T(n+2)(但し、n=N−1の場合は第1の通常端点T(1)、n=Nの場合は第2の通常端点T(2):以下同様)との間の距離をL3としたときに、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N):以下同様),T(n),T(n+1),T(n+2)の4点が一直線上にある場合には、L1<L3であれば通常端点T(n)を除去対象とし、L1>L3であれば通常端点T(n+1)を除去対象とし、L1=L3であれば通常端点T(n)もしくは通常端点T(n+1)のいずれかを除去対象とし、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1),T(n),T(n+1)の3点は一直線上にあるが,通常端点T(n+2)は当該一直線上にない場合には、通常端点T(n)を除去対象とし、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n),T(n+1),T(n+2)の3点は一直線上にあるが、通常端点T(n−1)は当該一直線上にない場合には、通常端点T(n+1)を除去対象とする、
という処理を、n≧Nが満たされるまで、nを1ずつ増加させながら繰り返し実行し、除去対象となった通常端点を除去する端点除去処理を行うようにしたものである。
(13) A thirteenth aspect of the present invention is the figure pattern shape correcting apparatus according to the eleventh aspect described above,
The end point reconstructing unit sets a total of N normal end points defined for one contour line of one unit graphic in the order along the contour line, respectively, in the order of the first normal end points T (1) to Nth. Normal end point T (N), n-th normal end point T (n), and normal end point T (n−m) that is not to be removed immediately before it (where m is a natural number, When n−m <1, the distance from T (n−m + N)) is L1, and the nth normal end point T (n) and the (n + 1) th normal end point T (n + 1) (where n = N In this case, the distance between the first normal end point T (1) (the same applies hereinafter) is L2, and the (n + 1) th normal end point T (n + 1) and the (n + 2) th normal end point T (n + 2) (however, , N = N−1, the distance from the first normal end point T (1), and when n = N, the distance from the second normal end point T (2): When 3 and it was,
L2 is equal to or less than a predetermined reference value Wmerge, and normal end point T (n-1) (where n = 1, Nth normal end point T (N): the same applies hereinafter), T (n), T When the four points (n + 1) and T (n + 2) are on a straight line, if L1 <L3, the normal end point T (n) is to be removed, and if L1> L3, the normal end point T (n + 1) is selected. If it is a removal target, and L1 = L3, either the normal end point T (n) or the normal end point T (n + 1) is the removal target,
L2 is equal to or less than a predetermined reference value Wmerge, and the three normal end points T (n−1), T (n), and T (n + 1) are on a straight line, but the normal end point T (n + 2) is the straight line. If it is not on the line, the normal endpoint T (n) is the removal target,
L2 is equal to or less than a predetermined reference value Wmerge, and the three normal end points T (n), T (n + 1), and T (n + 2) are on a straight line, but the normal end point T (n-1) is the straight line. If it is not on the line, the normal end point T (n + 1) is to be removed,
This process is repeatedly executed while increasing n by 1 until n ≧ N is satisfied, thereby performing an end point removal process for removing the normal end point to be removed.

(14) 本発明の第14の態様は、上述した第10の態様に係る図形パターンの形状補正装置において、
端点再構築部が、一部の輪郭線について、中間通常端点を一旦除去し、当該一部の輪郭線の各辺に新たな中間通常端点を配置する端点再配置処理により、通常端点の再構築を行うようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the tenth aspect described above,
The end point reconstruction unit temporarily removes the intermediate normal end points for a part of the contour lines, and reconstructs the normal end points by the end point rearrangement process in which new intermediate normal end points are arranged on each side of the part of the contour lines. Is to do.

(15) 本発明の第15の態様は、上述した第14の態様に係る図形パターンの形状補正装置において、
端点再構築部が、特定の輪郭線についての中間通常端点を除去した後、当該特定の輪郭線の各辺上に所定間隔で中間通常端点を再配置することにより、端点再配置処理を行うようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the fourteenth aspect described above,
After the end point reconstruction unit removes the intermediate normal end point for the specific contour line, the end point relocation processing is performed by rearranging the intermediate normal end point at predetermined intervals on each side of the specific contour line. It is a thing.

(16) 本発明の第16の態様は、上述した第10の態様に係る図形パターンの形状補正装置において、
端点再構築部が、上述した第11〜第13の態様に係る図形パターンの形状補正装置による端点除去処理と、上述した第14または第15の態様に係る図形パターンの形状補正装置による端点再配置処理と、を単位図形の輪郭線ごとに選択的に実行する機能を有し、
順方向まわりの単位図形ベクトルによって囲まれた正図形上の通常端点に対しては、上記端点除去処理により端点再構築を行い、順方向とは逆の逆方向まわりの単位図形ベクトルによって囲まれた反図形上の通常端点に対しては、上記端点再配置処理により端点再構築を行うようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the shape correction apparatus for a graphic pattern according to the tenth aspect described above,
The end point reconstruction unit performs the end point removal processing by the graphic pattern shape correction device according to the above-described eleventh to thirteenth aspects, and the end point rearrangement by the graphic pattern shape correction device according to the fourteenth or fifteenth aspect described above. And a function to selectively execute the processing for each contour line of the unit graphic,
For normal endpoints on a regular figure surrounded by unit graphic vectors around the forward direction, the endpoints are reconstructed by the above endpoint removal processing, and are surrounded by unit graphic vectors around the opposite direction to the forward direction. For normal end points on the opposite figure, end point reconstruction is performed by the end point rearrangement process.

(17) 本発明の第17の態様は、上述した第1〜第16の態様に係る図形パターンの形状補正装置において、
特徴量抽出ユニットが、パターン補正ユニットによって作成された補正図形パターンについて、当該補正図形パターン上の評価点の周囲の特徴を示す特徴量を抽出する機能を有し、
バイアス推定ユニットが、特徴量に基づいて、評価点の補正図形パターン上の位置と実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定する機能を有し、
パターン補正ユニットが、バイアス推定ユニットから出力されるプロセスバイアスの推定値に基づいて、補正図形パターンに対する更なる補正を行うことにより、新たな補正図形パターンを作成する機能を有し、
補正図形パターンに対する補正が繰り返し実行されるようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the shape correction apparatus for graphic patterns according to the first to sixteenth aspects described above,
The feature amount extraction unit has a function of extracting a feature amount indicating a feature around an evaluation point on the corrected graphic pattern for the corrected graphic pattern created by the pattern correction unit,
The bias estimation unit has a function of estimating a process bias indicating an amount of deviation between the position of the evaluation point on the corrected graphic pattern and the position on the actual graphic pattern based on the feature amount;
The pattern correction unit has a function of creating a new corrected graphic pattern by performing further correction on the corrected graphic pattern based on the estimated value of the process bias output from the bias estimation unit,
The correction for the corrected figure pattern is repeatedly executed.

(18) 本発明の第18の態様は、上述した第17の態様に係る図形パターンの形状補正装置において、
輪郭線分伸縮処理部が、輪郭線分を伸縮する処理を行った後、伸縮処理後の輪郭線分についての評価点の位置を修正する処理を行うようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the shape correction apparatus for a graphic pattern according to the seventeenth aspect described above,
The contour line segment expansion / contraction processing unit performs a process of correcting the position of the evaluation point for the contour line segment after the expansion / contraction process after performing the process of expanding / contracting the contour line segment.

(19) 本発明の第19の態様は、上述した第1〜第18の態様に係る図形パターンの形状補正装置または当該図形パターンの形状補正装置に含まれる評価点設定ユニットもしくはパターン補正ユニットを、コンピュータにプログラムを組み込むことにより構成したものである。   (19) According to a nineteenth aspect of the present invention, there is provided an evaluation point setting unit or a pattern correction unit included in the graphic pattern shape correction device or the graphic pattern shape correction device according to the first to eighteenth aspects described above. It is configured by incorporating a program into a computer.

(20) 本発明の第20の態様は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、実図形パターンが元図形パターンに一致するように、元図形パターンの形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する図形パターンの形状補正方法において、
コンピュータが、元図形パターンを構成する個々の単位図形について、内部と外部との境界を示す輪郭線上の所定位置に評価点を設定する評価点設定段階と、
コンピュータが、元図形パターンについて、評価点の周囲の特徴を示す特徴量を抽出する特徴量抽出段階と、
コンピュータが、特徴量に基づいて、評価点の元図形パターン上の位置と実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定するバイアス推定段階と、
コンピュータが、バイアス推定段階によって得られるプロセスバイアスの推定値に基づいて、元図形パターンに対する補正を行うことにより、補正図形パターンを作成するパターン補正段階と、
を有し、
評価点設定段階が、
多角形からなる個々の単位図形を入力する単位図形入力ステップと、
単位図形を直線状の分割線で分割して複数の多角形からなる分割図形を形成する単位図形分割ステップと、
各分割図形について、当該分割図形を構成する多角形の輪郭線に沿って所定の順方向まわりに一周するように、多角形の個々の辺上にそれぞれ分割図形ベクトルを定義する分割図形ベクトル定義ステップと、
分割図形ベクトルの集合から、互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去し、残ったベクトルにより、単位図形の輪郭線に沿って配置された複数の単位図形ベクトルを定義する単位図形ベクトル定義ステップと、
個々の単位図形ベクトルの始点位置に、それぞれ通常端点を定義する通常端点定義ステップと、
単位図形の輪郭線上において互いに隣接して配置された2つの通常端点の間に、それぞれ評価点を定義する評価点定義ステップと、
個々の単位図形について、多角形の頂点を構成しない通常端点である中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点を追加定義する補充端点定義ステップと、
を有し、
パターン補正段階が、
個々の評価点について、単位図形の輪郭線に沿って当該評価点の一方の側に隣接する通常端点もしくは補充端点を第1の端点とし、他方の側に隣接する通常端点もしくは補充端点を第2の端点とする輪郭線分を定義し、個々の評価点についての輪郭線分を、当該評価点のプロセスバイアスの推定値に応じた補正量だけ、輪郭線分に直交する方向に移動させる移動処理を行う輪郭線分移動ステップと、
移動処理前に互いに同じ位置にあった中間通常端点および補充端点が、移動処理後に異なる2つの位置に分離した場合、それぞれの移動処理後の位置を連結する新たな輪郭線分を追加する追加処理を行う輪郭線分追加ステップと、
移動処理前に多角形の頂点を構成していた通常端点である隅部通常端点が、移動処理後に異なる2つの位置に分離した場合、分離後の2つの隅部通常端点が融合して新たな隅部通常端点となるように、分離後の隅部通常端点を含む各輪郭線分をそれぞれ伸縮する伸縮処理を行う輪郭線分伸縮ステップと、
を有し、移動処理、追加処理、伸縮処理を行った後の輪郭線分の集合体を輪郭線とする単位図形によって構成される補正図形パターンを作成するようにしたものである。
(20) In the twentieth aspect of the present invention, when a real graphic pattern is formed on a real substrate by a lithography process based on the original graphic pattern, the original graphic pattern is matched with the original graphic pattern. In the shape correction method of a graphic pattern that corrects the shape and creates a corrected graphic pattern that is actually used in the lithography process,
An evaluation point setting stage in which the computer sets an evaluation point at a predetermined position on the contour line indicating the boundary between the inside and the outside for each unit figure constituting the original figure pattern;
A feature amount extraction stage in which the computer extracts a feature amount indicating features around the evaluation point for the original graphic pattern;
A bias estimation stage in which a computer estimates a process bias indicating an amount of deviation between the position of the evaluation point on the original graphic pattern and the position on the actual graphic pattern based on the feature amount;
A pattern correction stage in which a computer creates a corrected figure pattern by correcting the original figure pattern based on the estimated value of the process bias obtained by the bias estimation stage;
Have
The evaluation point setting stage
A unit figure input step for inputting individual unit figures consisting of polygons;
A unit graphic dividing step of dividing the unit graphic by a linear dividing line to form a divided graphic consisting of a plurality of polygons;
A divided graphic vector defining step for defining a divided graphic vector on each side of the polygon so that each divided graphic makes a round around a predetermined forward direction along the outline of the polygon constituting the divided graphic. When,
Search for overlapping vector pairs that are arranged on overlapping sides of a pair of adjacent polygons that are adjacent to each other from a set of divided graphic vectors, and whose directions are opposite to each other, and an overlapping section portion of the searched overlapping vector pairs A unit graphic vector defining step for defining a plurality of unit graphic vectors arranged along the outline of the unit graphic by the remaining vector,
A normal endpoint definition step for defining normal endpoints at the start position of each unit graphic vector,
An evaluation point defining step for defining an evaluation point between two normal end points arranged adjacent to each other on the outline of the unit graphic;
For each unit figure, a supplementary endpoint definition step of searching for a regular normal endpoint that is a regular endpoint that does not constitute a vertex of the polygon, and additionally defining a supplementary endpoint at the same position as the searched regular intermediate point;
Have
The pattern correction stage
For each evaluation point, the normal end point or supplement end point adjacent to one side of the evaluation point along the outline of the unit graphic is the first end point, and the normal end point or supplement end point adjacent to the other side is the second end point. A process of defining a contour line segment that is the end point of each of the evaluation points, and moving the contour line segment of each evaluation point in a direction orthogonal to the contour line segment by a correction amount according to the estimated value of the process bias of the evaluation point A contour segment moving step for performing
If the intermediate normal end point and the replenishment end point that were in the same position before the moving process are separated into two different positions after the moving process, an additional process for adding a new contour segment that connects the positions after the moving process. An outline segment adding step for performing
If the corner normal end point, which is the normal end point that formed the vertex of the polygon before the movement process, is separated into two different positions after the movement process, the two corner normal end points after the separation are merged to form a new one. Contour line segment expansion / contraction step for performing expansion / contraction processing to expand / contract each contour line segment including the corner normal end point after separation so as to be a corner normal end point,
The correction figure pattern comprised by the unit figure which makes the outline the assembly of the outline line segment after performing a movement process, an addition process, and an expansion / contraction process is created.

(21) 本発明の第21の態様は、上述した第20の態様に係る図形パターンの形状補正方法において、
評価点設定段階が、通常端点定義ステップによって定義された通常端点に対して、数もしくは位置を修正する再構築を行う端点再構築ステップを更に有し、
評価点定義ステップにおいて、再構築によって得られた通常端点に基づいて評価点を定義するようにしたものである。
(21) According to a twenty-first aspect of the present invention, in the shape correction method for a graphic pattern according to the twentieth aspect described above,
The evaluation point setting stage further includes an end point restructuring step for performing a restructuring to correct the number or position with respect to the normal end point defined by the normal end point defining step,
In the evaluation point definition step, evaluation points are defined based on the normal end points obtained by the reconstruction.

本発明に係る図形パターンの形状補正装置および形状補正方法によれば、元図形パターンを構成する単位図形が多角形に分割された上で、この多角形の頂点位置を基準として端点が定義され、隣接して配置された2つの端点間を結ぶ輪郭線分ごとに評価点が定義され、輪郭線分ごとに位置の補正を行うことができる。このため、元図形パターンに対する補正を行う際に、実用上十分なシミュレーション精度を維持しつつ、できるだけ演算負担を軽減できる効率的な評価点設定を行うことが可能になる。また、多角形の頂点位置を基準として定義した端点に対して、更に端点再構築を行う実施形態を採用すれば、端点の数や位置が修正されるため、より効率的な評価点設定を行うことが可能になる。   According to the shape correction apparatus and shape correction method for a graphic pattern according to the present invention, after the unit graphic constituting the original graphic pattern is divided into polygons, the end points are defined with reference to the vertex positions of the polygons, An evaluation point is defined for each contour segment connecting two adjacent end points, and the position can be corrected for each contour segment. For this reason, when correcting the original graphic pattern, it is possible to perform efficient evaluation point setting that can reduce the calculation burden as much as possible while maintaining practically sufficient simulation accuracy. In addition, if an embodiment in which the end point reconstruction is further performed on the end point defined with respect to the vertex position of the polygon is adopted, the number and positions of the end points are corrected, so that more efficient evaluation point setting is performed. It becomes possible.

先願発明および本発明の基本的実施形態に係る図形パターンの形状補正装置100の構成を示すブロック図である。It is a block diagram which shows the structure of the shape correction apparatus 100 of the figure pattern which concerns on prior invention and basic embodiment of this invention. 元図形パターンと実図形パターンとの間に形状の相違が生じた一例を示す平面図である。It is a top view which shows an example in which the difference in shape produced between the original figure pattern and the real figure pattern. 図2に示す例において、各評価点の設定例および各評価点に生じるプロセスバイアスを示す平面図である。In the example shown in FIG. 2, it is a top view which shows the example of a setting of each evaluation point, and the process bias which arises in each evaluation point. 図1に示す図形パターンの形状補正装置100を用いた製品の設計・製造工程を示す流れ図である。It is a flowchart which shows the design / manufacturing process of a product using the shape correction apparatus 100 of the graphic pattern shown in FIG. 図形パターンの輪郭線上に定義された評価点について、その周囲の特徴を把握する概念を示す平面図である。It is a top view which shows the concept which grasps | ascertains the surrounding characteristic about the evaluation point defined on the outline of a figure pattern. 図1に示す特徴量抽出ユニット120およびバイアス推定ユニット130において実行される処理の概要を示す図である。It is a figure which shows the outline | summary of the process performed in the feature-value extraction unit 120 and the bias estimation unit 130 shown in FIG. 図1に示す特徴量抽出ユニット120において実行される処理手順を示す流れ図である。It is a flowchart which shows the process sequence performed in the feature-value extraction unit 120 shown in FIG. 図1に示す図形パターンの形状補正装置100に与えられる元図形パターン10の具体例を示す平面図である。It is a top view which shows the specific example of the original figure pattern 10 given to the shape correction apparatus 100 of the figure pattern shown in FIG. 図1に示す元画像作成部121において、画素の二次元配列からなるメッシュ上に元図形パターン10を重ね合わせる処理が行われた状態を示す平面図である。It is a top view which shows the state in which the process which superimposes the original figure pattern 10 on the mesh which consists of a two-dimensional arrangement | sequence of a pixel was performed in the original image creation part 121 shown in FIG. 図9に示す元図形パターン10に基づいて作成された面積密度マップM1を示す図である。It is a figure which shows the area density map M1 produced based on the original figure pattern 10 shown in FIG. 図9に示す元図形パターン10に基づいて作成されたエッジ長密度マップM2を示す図である。It is a figure which shows the edge length density map M2 produced based on the original figure pattern 10 shown in FIG. ドーズ量の情報を含んだ元図形パターン10を示す平面図である。It is a top view which shows the original figure pattern 10 containing the information of dose amount. 図12に示すドーズ量付き元図形パターン10に基づいて作成されたドーズ密度マップM3を示す図である。It is a figure which shows the dose density map M3 produced based on the original figure pattern 10 with a dose amount shown in FIG. 第k番目の準備画像QkにガウシアンフィルタGF33を用いたフィルタ処理を施すことにより、第k番目の階層画像Pkを作成する手順を示す平面図である。It is a top view which shows the procedure which produces the kth hierarchy image Pk by performing the filter process which used the Gaussian filter GF33 to the kth preparation image Qk. 図14に示すフィルタ処理により得られた第k番目の階層画像Pkを示す平面図である。It is a top view which shows the kth hierarchy image Pk obtained by the filter process shown in FIG. 図14に示すフィルタ処理に利用する画像処理フィルタの例を示す平面図である。It is a top view which shows the example of the image processing filter utilized for the filter process shown in FIG. 図14に示すフィルタ処理に利用する画像処理フィルタの別な例を示す平面図である。It is a top view which shows another example of the image processing filter utilized for the filter process shown in FIG. 第k番目の階層画像Pkに対して、アベレージ・プーリング処理を施すことにより、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。It is a top view which shows the procedure which produces the (k + 1) th preparation image Q (k + 1) by performing an average pooling process with respect to the kth hierarchy image Pk. 第k番目の階層画像Pkに対して、マックス・プーリング処理を施すことにより、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。It is a top view which shows the procedure which produces the (k + 1) th preparation image Q (k + 1) by performing a max pooling process with respect to the kth hierarchy image Pk. 図1に示す画像ピラミッド作成部122において、n通りの階層画像P1〜Pnからなる画像ピラミッドPPを作成する手順を示す平面図である。It is a top view which shows the procedure which produces the image pyramid PP which consists of n kinds of hierarchy images P1-Pn in the image pyramid creation part 122 shown in FIG. 図1に示す特徴量算出部123において、各階層画像から評価点Eについての特徴量を算出する手順を示す平面図である。FIG. 7 is a plan view showing a procedure for calculating a feature value for an evaluation point E from each hierarchical image in the feature value calculation unit 123 shown in FIG. 1. 図21に示す特徴量算出手順で用いる具体的な演算方法を示す図である。It is a figure which shows the specific calculating method used with the feature-value calculation procedure shown in FIG. 図1に示す画像ピラミッド作成部122において、n通りの差分画像D1〜Dnからなる画像ピラミッドPDを作成する手順を示す平面図である。It is a top view which shows the procedure which produces image pyramid PD which consists of n types of difference images D1-Dn in the image pyramid preparation part 122 shown in FIG. 図1に示す推定演算部132として、ニューラルネットワークを利用した実施例を示すブロック図である。It is a block diagram which shows the Example using a neural network as the estimation calculating part 132 shown in FIG. 図24に示すニューラルネットワークで実行される具体的な演算プロセスを示すダイアグラムである。FIG. 25 is a diagram showing a specific calculation process executed by the neural network shown in FIG. 24. FIG. 図25に示すダイアグラムにおける第1隠れ層の各値を求める演算式を示す図である。FIG. 26 is a diagram illustrating an arithmetic expression for obtaining each value of the first hidden layer in the diagram illustrated in FIG. 25. 図26に示す活性化関数f(ξ)の具体例を示す図である。It is a figure which shows the specific example of the activation function f (ξ) shown in FIG. 図25に示すダイアグラムにおける第2隠れ層〜第N隠れ層の各値を求める演算式を示す図である。It is a figure which shows the computing equation which calculates | requires each value of the 2nd hidden layer-the Nth hidden layer in the diagram shown in FIG. 図25に示すダイアグラムにおける出力層の値yを求める演算式を示す図である。FIG. 26 is a diagram illustrating an arithmetic expression for obtaining a value y of an output layer in the diagram illustrated in FIG. 25. 図24に示すニューラルネットワークが用いる学習情報Lを得るための学習段階の手順を示す流れ図である。It is a flowchart which shows the procedure of the learning step for obtaining the learning information L which the neural network shown in FIG. 24 uses. 図30に示す流れ図におけるステップS84の推定演算部学習の詳細な手順を示す流れ図である。It is a flowchart which shows the detailed procedure of the estimation calculating part learning of step S84 in the flowchart shown in FIG. 本発明の基本的実施形態に係る図形パターンの形状補正装置100(図1参照)内の評価点設定ユニット110の構成を示すブロック図である。It is a block diagram which shows the structure of the evaluation point setting unit 110 in the shape correction apparatus 100 (refer FIG. 1) of the figure pattern which concerns on fundamental embodiment of this invention. 図32に示す単位図形分割部112によって行われた具体的な分割処理の例を示す平面図である。It is a top view which shows the example of the specific division process performed by the unit figure division part 112 shown in FIG. 図32に示す単位図形分割部112によって、平行四辺形型の単位図形10に対して行われた具体的な分割処理の例を示す平面図である。FIG. 33 is a plan view illustrating an example of a specific division process performed on the parallelogram unit graphic 10 by the unit graphic division unit 112 illustrated in FIG. 32. 図32に示す単位図形分割部112による分割処理で得られる台形状の分割図形の例を示す平面図である。It is a top view which shows the example of the trapezoid-shaped division | segmentation figure obtained by the division | segmentation process by the unit figure division part 112 shown in FIG. 図34(c) に示す各分割図形に対して形状補正が行われた状態を示す平面図である。FIG. 35 is a plan view showing a state in which shape correction is performed on each divided figure shown in FIG. 図36に示す補正後の単位図形15に基づく露光工程の一例を示す平面図である。It is a top view which shows an example of the exposure process based on the unit figure 15 after correction | amendment shown in FIG. 図34(c) に示す平行四辺形型の単位図形10に対して、図32に示す分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115による処理が行われた例を示す平面図である。An example in which processing by the divided graphic vector defining unit 113, the unit graphic vector defining unit 114, and the normal end point defining unit 115 shown in FIG. 32 is performed on the parallelogram unit graphic 10 shown in FIG. 34 (c). FIG. L字型の単位図形10に対して、図32に示す単位図形分割部112、分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115による処理が行われた例を示す平面図である。A plane showing an example in which the L-shaped unit graphic 10 is processed by the unit graphic dividing unit 112, the divided graphic vector defining unit 113, the unit graphic vector defining unit 114, and the normal end point defining unit 115 shown in FIG. FIG. ロの字型の単位図形10に対して、図32に示す単位図形分割部112、分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115による処理が行われた例を示す平面図である。An example is shown in which the unit graphic dividing unit 112, the divided graphic vector defining unit 113, the unit graphic vector defining unit 114, and the normal end point defining unit 115 shown in FIG. It is a top view. 図32に示す端点再構築部116による端点再構築処理として、3点式の端点除去処理を採用した場合の手順を示す模式図(図(a) )および流れ図(図(b) )である。FIG. 33 is a schematic diagram (FIG. (A)) and a flow diagram (FIG. (B)) showing a procedure when a three-point endpoint removal process is adopted as the endpoint reconstruction process by the endpoint rebuilding unit 116 shown in FIG. 図38(d) に示す平行四辺形型の単位図形10上の通常端点A〜Jに対して、図41に示す3点式の端点除去処理を適用して端点の再構築を行った例を示す平面図である。An example in which the end points are reconstructed by applying the three-point end point removal processing shown in FIG. 41 to the normal end points A to J on the parallelogram unit graphic 10 shown in FIG. 38 (d). FIG. 図39(f) に示すL字型の単位図形10上の通常端点A〜Iに対して、図41に示す3点式の端点除去処理を適用して端点の再構築を行った例を示す平面図である。An example is shown in which the end points are reconstructed by applying the three-point end point removal processing shown in FIG. 41 to the normal end points A to I on the L-shaped unit graphic 10 shown in FIG. 39 (f). It is a top view. 図32に示す端点再構築部116による端点再構築処理として、4点式の端点除去処理を採用した場合の手順を示す模式図(図(a) )および流れ図(図(b) )である。FIG. 33 is a schematic diagram (FIG. (A)) and a flow chart (FIG. (B)) showing a procedure when a four-point type endpoint removal process is adopted as the endpoint reconstruction process by the endpoint reconstruction unit 116 shown in FIG. 図32に示す端点再構築部116による端点再構築処理として、端点再配置処理を採用した場合の手順を示す模式図である。It is a schematic diagram which shows the procedure at the time of employ | adopting an endpoint rearrangement process as an endpoint reconstruction process by the endpoint reconstruction part 116 shown in FIG. 図32に示す端点再構築部116による端点再構築処理として、端点再配置処理を採用した場合の手順を示す流れ図である。It is a flowchart which shows the procedure at the time of employ | adopting an endpoint rearrangement process as an endpoint reconstruction process by the endpoint reconstruction part 116 shown in FIG. 図40(f) に示すロの字型の単位図形10上の通常端点M〜Tに対して、図46に示す端点再配置処理を適用して端点の再構築を行った例を示す平面図である。The top view which shows the example which applied the end-point rearrangement process shown in FIG. 46 to the end-point rearrangement processing on the normal end points M to T on the square-shaped unit graphic 10 shown in FIG. It is. 図32に示す評価点定義部117によって、図42(b) に示す端点再構築後の平行四辺形型の単位図形10上に評価点1〜8を定義した例を示す平面図である。FIG. 43 is a plan view showing an example in which evaluation points 1 to 8 are defined on the parallelogram type unit graphic 10 after the end point reconstruction shown in FIG. 42B by the evaluation point definition unit 117 shown in FIG. 32. 図32に示す評価点定義部117によって、図43(b) に示す端点再構築後のL字型の単位図形10上に評価点1〜8を定義した例を示す平面図である。It is a top view which shows the example which defined the evaluation points 1-8 on the L-shaped unit figure 10 after the end point reconstruction shown in FIG.43 (b) by the evaluation point definition part 117 shown in FIG. 図32に示す評価点定義部117によって、図47(b) に示す端点再構築後のロの字型の単位図形10上に評価点1〜18を定義した例を示す平面図である。FIG. 47 is a plan view showing an example in which evaluation points 1 to 18 are defined on the square-shaped unit graphic 10 after the end point reconstruction shown in FIG. 47 (b) by the evaluation point definition unit 117 shown in FIG. 図32に示す補充端点定義部118によって、図48(b) ,図49(b) ,図50(b) に示す各単位図形上に補充端点を定義した例を示す平面図である。FIG. 49 is a plan view showing an example in which replenishment end points are defined on each unit graphic shown in FIGS. 48 (b), 49 (b), and 50 (b) by the replenishment end point defining unit 118 shown in FIG. 図32に示す補充端点定義部118によって行われる補充端点定義処理の具体的な手順を示す模式図(図(a) ,(b) )および流れ図(図(c) )である。FIG. 33 is a schematic diagram (FIGS. (A) and (b)) and a flowchart (FIG. (C)) showing a specific procedure of a supplementary endpoint definition process performed by the supplementary endpoint definition unit 118 shown in FIG. 本発明の基本的実施形態に係る図形パターンの形状補正装置100(図1参照)内のパターン補正ユニット140およびこれに関連する構成要素を示すブロック図である。It is a block diagram which shows the pattern correction unit 140 in the shape correction apparatus 100 (refer FIG. 1) of the figure pattern which concerns on fundamental embodiment of this invention, and the component related to this. 図51(b) に示すL字型の単位図形上に定義された各端点および各評価点を示す拡大平面図である。FIG. 52 is an enlarged plan view showing each end point and each evaluation point defined on the L-shaped unit graphic shown in FIG. 51 (b). 図54に示す各端点および各評価点の相互関係を表すデータフォーマットの一例を示す図である。It is a figure which shows an example of the data format showing the mutual relationship of each end point and each evaluation point shown in FIG. 図53に示す輪郭線分移動処理部141によって、図54に示すL字型の単位図形10に対して輪郭線分の移動処理が行われた状態を示す平面図である。FIG. 55 is a plan view showing a state in which the contour line segment movement processing is performed on the L-shaped unit graphic 10 illustrated in FIG. 54 by the contour line segment movement processing unit 141 illustrated in FIG. 53; 図53に示す輪郭線分追加処理部142によって、図56に示す移動処理後のL字型の単位図形に対して輪郭線分の追加処理が行われた状態を示す平面図である。FIG. 57 is a plan view showing a state in which contour line segment addition processing is performed on the L-shaped unit graphic after the movement processing shown in FIG. 56 by the contour line segment addition processing unit 142 shown in FIG. 53; 図53に示す輪郭線分伸縮処理部143によって、図57に示す追加処理後のL字型の単位図形に対して輪郭線分の伸縮処理が行われた状態を示す平面図である。FIG. 58 is a plan view showing a state where the contour line segment expansion / contraction processing is performed on the L-shaped unit graphic after the addition processing illustrated in FIG. 57 by the contour line segment expansion / contraction processing unit 143 illustrated in FIG. 53; 図53に示す輪郭線分伸縮処理部143によって、図58に示す伸縮処理後のL字型の単位図形の輪郭線分について、評価点の位置を修正する処理を行った状態を示す平面図である。FIG. 57 is a plan view showing a state where the contour line segment expansion / contraction processing unit 143 illustrated in FIG. 53 performs processing for correcting the position of the evaluation point for the contour line segment of the L-shaped unit graphic after the expansion / contraction processing illustrated in FIG. is there. 単位図形の個々の辺ごとに所定間隔で端点を定義するという従来手法の手順を示す平面図である。It is a top view which shows the procedure of the conventional method of defining an end point with a predetermined space | interval for every edge | side of a unit figure. 本発明において、単位図形を多角形に分割し、この多角形の頂点位置を基準として端点を定義するメリットを示す平面図である。In this invention, it is a top view which shows the merit which divides | segments a unit figure into a polygon and defines an end point on the basis of the vertex position of this polygon. 補充端点を定義するメリットを示す平面図である。It is a top view which shows the merit which defines a supplement end point. 本発明において、補充端点を輪郭線に直交する方向に移動させるメリットを示す平面図である。In this invention, it is a top view which shows the merit which moves a supplementary end point in the direction orthogonal to an outline. 中間通常端点および補充端点を任意方向に移動させた場合のデメリットを示す平面図である。It is a top view which shows the demerit at the time of moving an intermediate | middle normal endpoint and a supplementary endpoint in arbitrary directions. 図58に示す例において、端点再構築を行わなかった場合のデメリットを示す平面図である。In the example shown in FIG. 58, it is a top view which shows the demerit when not performing an endpoint reconstruction.

以下、本発明を図示する実施形態に基づいて説明する。なお、本発明に係る技術は、特許協力条約に基づく国際出願第PCT/JP2018/022100号(以下、先願と呼ぶ)に記載された発明(以下、先願発明と呼ぶ)に適用するために開発されたものである。そこで、ここでは説明の便宜上、以下の§1〜§4において、まず、先願発明の説明を行い、§5以降において、本発明の特徴を説明することにする。したがって、以下の§1〜§4で述べる内容(図1〜図31に示す内容)は、実質的に先願に記載された基本的実施形態と同じものである。   Hereinafter, the present invention will be described based on the illustrated embodiments. The technology according to the present invention is applied to the invention (hereinafter referred to as the prior application) described in International Application No. PCT / JP2018 / 022100 (hereinafter referred to as the prior application) based on the Patent Cooperation Treaty. It has been developed. Therefore, here, for convenience of explanation, in the following §1 to §4, the invention of the prior application will first be explained, and the features of the present invention will be explained in §5 and thereafter. Therefore, the contents described in the following §1 to §4 (contents shown in FIGS. 1 to 31) are substantially the same as the basic embodiments described in the prior application.

<<< §1. 先願発明に係る形状補正装置の基本構成 >>>
ここでは、先願発明の基本的実施形態に係る図形パターンの形状補正装置100の構成を、図1のブロック図を参照しながら説明する。図示のとおり、この図形パターンの形状補正装置100は、評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140を有している。ここで、評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130の3つのユニットによって、先願発明に係る図形パターンの形状推定装置100′が構成されており、先願発明に係る図形パターンの形状補正装置100は、この図形パターンの形状推定装置100′に、更に第4番目のユニットとしてパターン補正ユニット140を付加することにより構成される。
<<< §1. Basic configuration of shape correction apparatus according to invention of prior application >>>
Here, the configuration of the figure pattern shape correcting apparatus 100 according to the basic embodiment of the invention of the prior application will be described with reference to the block diagram of FIG. As shown in the figure, the figure pattern shape correction apparatus 100 includes an evaluation point setting unit 110, a feature amount extraction unit 120, a bias estimation unit 130, and a pattern correction unit 140. Here, the figure pattern shape estimation device 100 ′ according to the prior application invention is configured by the three units of the evaluation point setting unit 110, the feature amount extraction unit 120, and the bias estimation unit 130. The pattern shape correcting apparatus 100 is configured by further adding a pattern correcting unit 140 as a fourth unit to the figure pattern shape estimating apparatus 100 ′.

<1.1 図形パターンの形状推定装置>
はじめに、図形パターンの形状推定装置100′の構成および機能について説明する。この図形パターンの形状推定装置100′は、元図形パターン10を用いたリソグラフィプロセスをシミュレートすることにより、実基板S上に形成される実図形パターン20の形状を推定する役割を果たす。図1の上方には、元図形パターン10から右方向に向かう一点鎖線の矢印が示され、この矢印の先には、実図形パターン20を有する実基板Sが描かれている。この一点鎖線の矢印は、物理的なリソグラフィプロセスを示している。
<1.1 Shape Estimation Device for Graphic Pattern>
First, the configuration and function of the figure pattern shape estimation apparatus 100 ′ will be described. The figure pattern shape estimation apparatus 100 ′ serves to estimate the shape of the actual figure pattern 20 formed on the actual substrate S by simulating a lithography process using the original figure pattern 10. In the upper part of FIG. 1, an alternate long and short dash line arrow from the original graphic pattern 10 is shown, and an actual substrate S having a real graphic pattern 20 is drawn at the tip of the arrow. This dashed-dotted arrow indicates a physical lithography process.

図示の元図形パターン10は、コンピュータを用いた設計作業によって作成された図形パターンのデータであり、一点鎖線の矢印は、このデータに基づいて、物理的な露光、現像、エッチング等のリソグラフィプロセスを実施することにより、実基板Sが作製されることを示している。この実基板S上には、元図形パターン10に応じた実図形パターン20が形成されることになる。ただ、このようなリソグラフィプロセスを実施すると、元図形パターン10と実図形パターン20との間には、若干の食い違いが生じる。これは、前述したとおり、リソグラフィプロセスに含まれる、露光、現像、エッチングという工程の諸条件により、元図形パターン10どおりの正確な図形を実基板S上に形成することが困難なためである。   The original graphic pattern 10 shown in the figure is graphic pattern data created by design work using a computer, and the alternate long and short dash line arrow indicates a lithography process such as physical exposure, development, and etching based on this data. It is shown that the actual substrate S is manufactured by carrying out. On the actual substrate S, an actual graphic pattern 20 corresponding to the original graphic pattern 10 is formed. However, when such a lithography process is performed, there is a slight discrepancy between the original graphic pattern 10 and the actual graphic pattern 20. This is because, as described above, it is difficult to form an accurate figure on the actual substrate S according to the various conditions of the steps of exposure, development, and etching included in the lithography process.

図2は、元図形パターン10と実図形パターン20との間に形状の相違が生じた具体例を示す平面図である。半導体デバイスなどでは、実際には、非常に微細かつ複雑な図形パターンをシリコン等の実基板Sの表面に形成する必要があるが、ここでは説明の便宜上、図2(a) に示すような単純な図形が元図形パターン10として与えられた場合について説明する。図示の元図形パターン10は、1つの長方形からなるパターンであり、たとえば、実基板S上に、ハッチングを施した長方形内部領域に相当する材料層を形成することを示す元の図形データということになる。   FIG. 2 is a plan view showing a specific example in which a difference in shape occurs between the original graphic pattern 10 and the actual graphic pattern 20. In a semiconductor device or the like, it is actually necessary to form a very fine and complicated figure pattern on the surface of an actual substrate S such as silicon. Here, for the sake of convenience of explanation, a simple pattern as shown in FIG. A case where a simple figure is given as the original figure pattern 10 will be described. The illustrated original figure pattern 10 is a pattern composed of one rectangle, for example, original figure data indicating that a material layer corresponding to the hatched rectangular inner region is formed on the actual substrate S. Become.

実際のリソグラフィ工程では、実基板S上の材料層の上面にレジスト層を形成し、光や電子線による露光を行って、このレジスト層に対する描画を行うことになる。たとえば、レジスト層に対して、図2(a) に示す元図形パターン10の内部領域(ハッチングを施した部分)について露光を行った後、レジスト層を現像して非露光部を除去すれば、露光部が残存レジスト層(ハッチングを施した部分)として残ることになる。更に、この残存レジスト層をマスクとして、材料層に対してエッチングを施せば、理論的には、材料層についても、元図形パターン10の内部領域(ハッチングを施した部分)を残すことができ、実基板S上に、図2(a) に示す元図形パターン10と同一の実図形パターンを得ることができる。   In an actual lithography process, a resist layer is formed on the upper surface of the material layer on the actual substrate S, and exposure to light or an electron beam is performed to perform drawing on the resist layer. For example, if the resist layer is exposed to the inner area (hatched portion) of the original graphic pattern 10 shown in FIG. 2A, the resist layer is developed to remove the non-exposed portion. The exposed portion remains as a remaining resist layer (hatched portion). Furthermore, if the remaining resist layer is used as a mask and the material layer is etched, theoretically, the inner region (hatched portion) of the original figure pattern 10 can be left also for the material layer. On the actual substrate S, the same actual graphic pattern as the original graphic pattern 10 shown in FIG.

しかしながら、実際には、実基板S上に得られる実図形パターン20は、元図形パターン10に正確には一致しない。その原因は、リソグラフィプロセスに含まれる、露光、現像、エッチングという工程の諸条件が、最終的に得られる実図形パターン20の形状に影響を及ぼすためである。たとえば、露光工程では、光や電子線によってレジスト層に対する描画を行うことになるが、その際に、近接効果(PE:Proximity Effect)によって、レジスト層に実際に描画される露光領域は、元図形パターン10よりも若干広い領域になることが知られている。このような近接効果の影響を受けると、実基板S上に得られる実図形パターン20は、図2(b) に示す例のように、元図形パターン10(破線で示す)よりも広がった領域になる。   However, actually, the actual graphic pattern 20 obtained on the actual substrate S does not exactly match the original graphic pattern 10. This is because the conditions of the steps of exposure, development, and etching included in the lithography process affect the shape of the actual figure pattern 20 finally obtained. For example, in the exposure process, the resist layer is drawn with light or an electron beam. At that time, the exposure area actually drawn on the resist layer by the proximity effect (PE) is the original figure. It is known that the area is slightly wider than the pattern 10. Under the influence of such a proximity effect, the actual graphic pattern 20 obtained on the actual substrate S is an area wider than the original graphic pattern 10 (indicated by a broken line), as in the example shown in FIG. become.

この他、現像工程で用いる現像液の特性、エッチング工程で用いるエッチング液やプラスマの特性、現像工程やエッチング工程の時間などの条件も、実図形パターン20の形状に影響を及ぼす要因になる。したがって、実際に半導体デバイスなどを製造する際には、コンピュータ上で所望の元図形パターン10を設計した後、この元図形パターン10を用いたリソグラフィプロセスをコンピュータ上でシミュレートし、実基板S上に形成されるであろう実図形パターン20の形状を推定する手順が実行される。図1に示す図形パターンの形状推定装置100′は、このような推定を行う機能をもった装置であり、実基板Sを作成するリソグラフィプロセス(露光、現像、エッチング工程)を実際に行うことなしに、シミュレーションによって、実基板S上に形成されるであろう実図形パターン20の形状を推定する機能を有している。   In addition, conditions such as the characteristics of the developer used in the development process, the characteristics of the etchant and plasma used in the etching process, the time of the development process and the etching process, and the like are factors that affect the shape of the actual figure pattern 20. Therefore, when actually manufacturing a semiconductor device or the like, after designing a desired original figure pattern 10 on a computer, a lithography process using the original figure pattern 10 is simulated on the computer, and the actual substrate S is formed. The procedure for estimating the shape of the actual graphic pattern 20 that will be formed in the next step is executed. The figure pattern shape estimation apparatus 100 'shown in FIG. 1 is an apparatus having a function of performing such estimation, and does not actually perform a lithography process (exposure, development, etching process) for creating an actual substrate S. In addition, it has a function of estimating the shape of the actual figure pattern 20 that will be formed on the actual substrate S by simulation.

図1に示す図形パターンの形状推定装置100′では、評価点設定ユニット110によって、元図形パターン10上に評価点Eが設定される。具体的には、形状推定装置100′には、元図形パターン10として、図形の内部と外部との境界を示す輪郭線の情報を含む図形データが与えられ、評価点設定ユニット110は、そのような元図形パターン10に基づいて、輪郭線上の所定位置に評価点を設定する処理を行う。   In the figure pattern shape estimation apparatus 100 ′ shown in FIG. 1, an evaluation point E is set on the original figure pattern 10 by the evaluation point setting unit 110. Specifically, the shape estimation apparatus 100 ′ is provided with graphic data including contour information indicating the boundary between the inside and the outside of the figure as the original figure pattern 10, and the evaluation point setting unit 110 performs such processing. Based on the original graphic pattern 10, a process for setting an evaluation point at a predetermined position on the contour line is performed.

図3は、図2(a) に示す元図形パターン10について、いくつかの評価点を設定した例および各評価点に生じるプロセスバイアス(寸法誤差)を示す平面図である。まず図3(a) は、図2(a) に示す元図形パターン10(長方形の図形)の輪郭線上に、評価点E11,E12,E13を設定した例を示す平面図である。図3では、説明の便宜上、3つの評価点E11,E12,E13が設定された簡素な例が示されているが、実際には、長方形の各辺上に、より多数の評価点が設定される。たとえば、輪郭線に沿って所定ピッチで連続的に評価点を設定するように定めておけば、自動的に多数の評価点を設定することができる。なお、本発明は、この評価点設定に関する新たな手法を提案するものであり、その具体的内容は、§5以降で説明する。   FIG. 3 is a plan view showing an example in which several evaluation points are set for the original figure pattern 10 shown in FIG. 2A and a process bias (dimensional error) occurring at each evaluation point. First, FIG. 3A is a plan view showing an example in which evaluation points E11, E12, E13 are set on the contour line of the original figure pattern 10 (rectangular figure) shown in FIG. FIG. 3 shows a simple example in which three evaluation points E11, E12, and E13 are set for convenience of explanation, but actually, a larger number of evaluation points are set on each side of the rectangle. The For example, if it is determined that the evaluation points are set continuously at a predetermined pitch along the contour line, a large number of evaluation points can be automatically set. The present invention proposes a new method for setting the evaluation points, and the specific contents thereof will be described in §5 and later.

ここでは、図2(a) に示す元図形パターン10に基づいて、図2(b) に示すような実図形パターン20が得られた場合を考えてみよう。図3(b) は、図2(b) に示す実図形パターン20の輪郭(実線)を、図2(a) に示す元図形パターン10の輪郭(破線)と対比して示した平面図であり、実線で示す実図形パターン20の輪郭線が、破線で示す元図形パターン10の輪郭線に比べて、寸法yだけ外側に広がっている状態が示されている。このため、元図形パターン10の横幅aは、実図形パターン20では横幅bに広がっている。縦幅についても同様に若干の広がりが生じている。   Here, let us consider a case where an actual graphic pattern 20 as shown in FIG. 2B is obtained based on the original graphic pattern 10 shown in FIG. FIG. 3B is a plan view showing the contour (solid line) of the actual graphic pattern 20 shown in FIG. 2B in contrast to the contour (broken line) of the original graphic pattern 10 shown in FIG. There is shown a state in which the contour line of the real graphic pattern 20 indicated by a solid line extends outward by a dimension y as compared to the contour line of the original graphic pattern 10 indicated by a broken line. For this reason, the horizontal width a of the original graphic pattern 10 extends to the horizontal width b in the actual graphic pattern 20. Similarly, the vertical width slightly expands.

図3(b) において、実図形パターン20上の各評価点E21,E22,E23は、元図形パターン10上の各評価点E11,E12,E13に対応する点として定められた評価点である。ここで、評価点E21は、評価点E11を破線で示す輪郭線の法線方向外側に向かって所定寸法y11だけずらした点として定義されている。同様に、評価点E22は、評価点E12を破線で示す輪郭線の法線方向外側に向かって所定寸法y12だけずらした点として定義され、評価点E23は、評価点E13を破線で示す輪郭線の法線方向外側に向かって所定寸法y13だけずらした点として定義されている。   In FIG. 3B, the evaluation points E21, E22, E23 on the actual graphic pattern 20 are evaluation points defined as points corresponding to the evaluation points E11, E12, E13 on the original graphic pattern 10. Here, the evaluation point E21 is defined as a point shifted from the evaluation point E11 by a predetermined dimension y11 toward the outer side in the normal direction of the contour line indicated by a broken line. Similarly, the evaluation point E22 is defined as a point shifted from the evaluation point E12 by a predetermined dimension y12 toward the outside in the normal direction of the contour line indicated by a broken line, and the evaluation point E23 is a contour line indicating the evaluation point E13 by a broken line. Is defined as a point shifted by a predetermined dimension y13 toward the outside in the normal direction.

図3に示す例のように、ここでは、元図形パターン10に対する実図形パターン20の形状変化を定量的に示すために、各評価点Eについて生じる輪郭線の法線方向についてのずれ量yを用いることにする。また、このずれ量yを、リソグラフィプロセスに起因して生じるバイアス量であることから「プロセスバイアスy」と呼ぶことにする。プロセスバイアスyは正負の符号をもった値であり、以下に示す実施例では、図形の露光部(描画部)が太る方向を正の値、細る方向を負の値と定義することにする。図示の例では、輪郭線で囲まれた図形の内部が露光部(描画部)になるので、輪郭線の外側方向にずれた場合には正の値、輪郭線の内側方向にずれた場合には負の値となる。図3に示す例の場合、各評価点Eはいずれも外側方向にずれを生じているため、プロセスバイアスy11,y12,y13は正の値をとる。   As in the example shown in FIG. 3, here, in order to quantitatively indicate the shape change of the actual graphic pattern 20 with respect to the original graphic pattern 10, the deviation amount y in the normal direction of the contour line generated for each evaluation point E is set. I will use it. Further, this deviation amount y is referred to as “process bias y” because it is a bias amount caused by the lithography process. The process bias y is a value having a positive / negative sign, and in the embodiment described below, the direction in which the figure exposure part (drawing part) is fattened is defined as a positive value, and the direction in which the figure is thinned is defined as a negative value. In the example shown in the figure, the inside of the figure surrounded by the contour line is the exposure part (drawing part), so if it is shifted in the outer direction of the contour line, it is a positive value, and it shifts in the inner direction of the contour line. Is negative. In the case of the example shown in FIG. 3, since each evaluation point E is shifted in the outward direction, the process bias y11, y12, y13 takes a positive value.

なお、図3には、説明の便宜上、3つの評価点E11,E12,E13しか示されていないが、実際には、元図形パターン10の輪郭線上には、より多数の評価点Eが定義される。したがって、各評価点Eのそれぞれについてプロセスバイアスyを推定することができれば、各評価点Eを輪郭線の法線方向にプロセスバイアスyだけずらすことにより、リソグラフィプロセス後の各評価点Eの位置を推定することができ、実図形パターン20の輪郭線位置を推定することができる。   In FIG. 3, only three evaluation points E11, E12, and E13 are shown for convenience of explanation, but actually, more evaluation points E are defined on the contour line of the original graphic pattern 10. The Therefore, if the process bias y can be estimated for each evaluation point E, the position of each evaluation point E after the lithography process is shifted by shifting each evaluation point E by the process bias y in the normal direction of the contour line. The contour position of the actual graphic pattern 20 can be estimated.

もっとも、各評価点Eのプロセスバイアスyの値は、個々の評価点ごとに異なる。たとえば、図3(b) に示す例の場合、プロセスバイアスy11,y12,y13の値はそれぞれ個別の値になる。これは、各評価点E11,E12,E13の元図形パターン10に対する相対位置がそれぞれ異なっているため、リソグラフィプロセスによる影響も異なり、それぞれに生じるずれ量にも差が生じるためである。したがって、元図形パターン10に基づいて実図形パターン20の形状をシミュレーションによって推定する際の推定精度を高めるためには、個々の評価点ごとにリソグラフィプロセスによる影響を適切に予測し、適切なプロセスバイアスyを求めることが重要である。   However, the value of the process bias y at each evaluation point E is different for each evaluation point. For example, in the case of the example shown in FIG. 3B, the values of the process biases y11, y12, and y13 are individual values. This is because the relative positions of the evaluation points E11, E12, and E13 with respect to the original graphic pattern 10 are different, so that the influence of the lithography process is also different, and the amount of deviation that occurs is also different. Therefore, in order to improve the estimation accuracy when the shape of the actual graphic pattern 20 is estimated by simulation based on the original graphic pattern 10, the influence of the lithography process is appropriately predicted for each evaluation point, and an appropriate process bias is determined. It is important to obtain y.

そこで、図1に示す図形パターンの形状推定装置100′では、まず、評価点設定ユニット110により、元図形パターン10上に評価点が設定される。具体的には、元図形パターン10に含まれている図形の内部と外部との境界を示す輪郭線の情報に基づいて、この輪郭線上の所定位置に各評価点Eを設定すればよい。たとえば、輪郭線に沿って所定間隔で連続的に評価点を設定することができる(本発明に固有の評価点設定方法については、§5以降で説明する。)。   Therefore, in the figure pattern shape estimation apparatus 100 ′ shown in FIG. 1, first, an evaluation point is set on the original figure pattern 10 by the evaluation point setting unit 110. Specifically, each evaluation point E may be set at a predetermined position on the contour line based on the contour line information indicating the boundary between the inside and the outside of the figure included in the original figure pattern 10. For example, evaluation points can be set continuously at predetermined intervals along the contour line (an evaluation point setting method unique to the present invention will be described in §5 and later).

続いて、特徴量抽出ユニット120により、元図形パターン10について、各評価点Eの周囲の特徴を示す特徴量を抽出する。ある1つの評価点Eについての特徴量xは、当該評価点Eの周囲の特徴を示す値ということになる。このような特徴量xを抽出する処理を行うため、特徴量抽出ユニット120は、図1に示すとおり、元画像作成部121、画像ピラミッド作成部122、特徴量算出部123を有している。   Subsequently, the feature amount extraction unit 120 extracts a feature amount indicating features around each evaluation point E for the original graphic pattern 10. The feature amount x for one evaluation point E is a value indicating the features around the evaluation point E. In order to perform the process of extracting the feature quantity x, the feature quantity extraction unit 120 includes an original image creation unit 121, an image pyramid creation unit 122, and a feature quantity calculation unit 123, as shown in FIG.

元画像作成部121は、与えられた元図形パターン10に基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像を作成する。たとえば、図2(a) に示すような元図形パターン10が与えられた場合、長方形の内部の画素(図のハッチング部分の画素)については画素値1、長方形の外部の画素については画素値0を付与すれば、二値画像からなる元画像が作成される。   The original image creating unit 121 creates an original image composed of a collection of pixels each having a predetermined pixel value based on the given original graphic pattern 10. For example, when the original figure pattern 10 as shown in FIG. 2A is given, the pixel value is 1 for pixels inside the rectangle (the hatched portion in the figure), and the pixel value is 0 for pixels outside the rectangle. Is added, an original image composed of binary images is created.

画像ピラミッド作成部122は、この元画像を縮小して縮小画像を作成する縮小処理を含む画像ピラミッド作成処理を行い、複数n枚の階層画像からなる画像ピラミッドを作成する。画像ピラミッドの各階層を構成するn枚の階層画像は、いずれも元画像作成部121で作成された元画像に対して、所定の画像処理を施すことにより得られる画像であり、それぞれ異なるサイズをもっている。このような複数の階層画像の集合体を「画像ピラミッド」と呼ぶのは、各階層画像をサイズの大きい方から小さい方へと順に積み上げて階層構造を形成すると、あたかもピラミッドが構成されるように見えるためである。   The image pyramid creation unit 122 performs an image pyramid creation process including a reduction process for creating a reduced image by reducing the original image, and creates an image pyramid including a plurality of n hierarchical images. Each of the n layer images constituting each layer of the image pyramid is an image obtained by performing predetermined image processing on the original image created by the original image creation unit 121, and has different sizes. Yes. Such a set of hierarchical images is called an “image pyramid” because each layered image is stacked in order from the largest to the smallest to form a hierarchical structure, as if a pyramid is formed. This is because it can be seen.

特徴量算出部123は、この画像ピラミッドの階層を構成するn枚の各階層画像について、それぞれ評価点Eの近傍の画素の画素値に基づいて特徴量を算出する。具体的には、1枚目の階層画像における評価点Eの近傍の画素の画素値に基づいて特徴量x1が算出され、2枚目の階層画像における評価点Eの近傍の画素の画素値に基づいて特徴量x2が算出され、同様に、n枚目の階層画像における評価点Eの近傍の画素の画素値に基づいて特徴量xnが算出されることになり、1つの評価点Eについて、n個の特徴量x1〜xnが抽出される。たとえば、図3(a) に示す例の場合、評価点E11について、n通りの特徴量x1(E11)〜xn(E11)が抽出され、評価点E12について、n通りの特徴量x1(E12)〜xn(E12)が抽出され、評価点E13について、n通りの特徴量x1(E13)〜xn(E13)が抽出される。   The feature amount calculation unit 123 calculates a feature amount based on the pixel values of pixels in the vicinity of the evaluation point E for each of the n layer images constituting the layer of the image pyramid. Specifically, the feature amount x1 is calculated based on the pixel value of the pixel near the evaluation point E in the first hierarchical image, and the pixel value of the pixel near the evaluation point E in the second hierarchical image is calculated. On the basis of the feature amount x2, similarly, the feature amount xn is calculated based on the pixel value of the pixel in the vicinity of the evaluation point E in the nth hierarchical image. n feature amounts x1 to xn are extracted. For example, in the example shown in FIG. 3A, n feature values x1 (E11) to xn (E11) are extracted for the evaluation point E11, and n feature values x1 (E12) for the evaluation point E12. -Xn (E12) are extracted, and n feature values x1 (E13) -xn (E13) are extracted for the evaluation point E13.

一方、バイアス推定ユニット130は、特徴量抽出ユニット120によって抽出された特徴量xに基づいて、評価点Eの元図形パターン10上の位置と実図形パターン20上の位置とのずれ量を示すプロセスバイアスyを推定する処理を行う。このような推定処理を行うため、バイアス推定ユニット130は、特徴量入力部131と推定演算部132を有している。特徴量入力部131は、特徴量算出部123によって評価点Eについて算出された特徴量x1〜xnを入力する構成要素であり、推定演算部132は、予め実施された学習段階によって得られた学習情報Lに基づいて、特徴量x1〜xnに応じた推定値を求め、求めた推定値を評価点Eについてのプロセスバイアスの推定値yとして出力する処理を行う。   On the other hand, the bias estimation unit 130 is a process that indicates the amount of deviation between the position of the evaluation point E on the original graphic pattern 10 and the position on the actual graphic pattern 20 based on the feature value x extracted by the feature value extraction unit 120. A process for estimating the bias y is performed. In order to perform such estimation processing, the bias estimation unit 130 includes a feature amount input unit 131 and an estimation calculation unit 132. The feature amount input unit 131 is a component that inputs the feature amounts x1 to xn calculated for the evaluation point E by the feature amount calculation unit 123, and the estimation calculation unit 132 performs learning obtained by a learning stage performed in advance. Based on the information L, an estimated value corresponding to the feature amounts x1 to xn is obtained, and the obtained estimated value is output as the estimated value y of the process bias for the evaluation point E.

より具体的に言えば、推定演算部132は、元図形パターン10を構成する図形の輪郭線上に位置する各評価点Eについて、当該輪郭線の法線方向についてのずれ量としてプロセスバイアスの推定値yを出力することになる。たとえば、図3(a) に示す元図形パターン10については、図3(b) に示すように、評価点E11についてプロセスバイアスy11、評価点E12についてプロセスバイアスy12、評価点E13についてプロセスバイアスy13が、それぞれ推定値として推定演算部132から出力される。こうして、各評価点Eについてのプロセスバイアスの推定値yが得られれば、各評価点Eの新たな位置(輪郭線の法線方向に、プロセスバイアスyだけずらした位置)を決定することができるので、図3(b) に示すように、実図形パターン20の形状を推定することができる。   More specifically, the estimation calculating unit 132 estimates the process bias for each evaluation point E located on the contour line of the graphic constituting the original graphic pattern 10 as a deviation amount in the normal direction of the contour line. y is output. For example, for the original figure pattern 10 shown in FIG. 3A, as shown in FIG. 3B, the process bias y11 for the evaluation point E11, the process bias y12 for the evaluation point E12, and the process bias y13 for the evaluation point E13. , Respectively, are output from the estimation calculation unit 132 as estimated values. Thus, if the estimated value y of the process bias for each evaluation point E is obtained, a new position of each evaluation point E (a position shifted by the process bias y in the normal direction of the contour line) can be determined. Therefore, as shown in FIG. 3B, the shape of the actual graphic pattern 20 can be estimated.

以上が、先願発明に係る図形パターンの形状推定装置100′の基本構成および基本動作である。なお、特徴量抽出ユニット120の具体的な動作は§2で詳述し、バイアス推定ユニット130の具体的な動作は§3で詳述する。   The above is the basic configuration and basic operation of the figure pattern shape estimation apparatus 100 ′ according to the prior invention. The specific operation of the feature quantity extraction unit 120 will be described in detail in §2, and the specific operation of the bias estimation unit 130 will be described in detail in §3.

<1.2 図形パターンの形状補正装置>
続いて、先願発明に係る図形パターンの形状補正装置100の構成および機能について説明する。図形パターンの形状補正装置100は、上述した図形パターンの形状推定装置100′を用いて、元図形パターン10の形状を補正する装置であり、図1に示すとおり、図形パターンの形状推定装置100′の構成要素となる評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130に加えて、更に、パターン補正ユニット140を備えている。パターン補正ユニット140は、バイアス推定ユニット130から出力されるプロセスバイアスの推定値yに基づいて、元図形パターン10に対する補正を行う構成要素であり、このパターン補正ユニット140による補正によって得られる補正図形パターン15が、この図形パターンの形状補正装置100の最終的な出力となる。
<1.2 Shape Pattern Correction Device>
Next, the configuration and function of the figure pattern shape correcting apparatus 100 according to the invention of the prior application will be described. The figure pattern shape correction apparatus 100 is an apparatus that corrects the shape of the original figure pattern 10 using the figure pattern shape estimation apparatus 100 'described above. As shown in FIG. 1, the figure pattern shape estimation apparatus 100' is used. In addition to the evaluation point setting unit 110, the feature amount extraction unit 120, and the bias estimation unit 130 which are constituent elements of the above, a pattern correction unit 140 is further provided. The pattern correction unit 140 is a component that corrects the original graphic pattern 10 based on the estimated value y of the process bias output from the bias estimation unit 130, and the corrected graphic pattern obtained by the correction by the pattern correction unit 140 15 is the final output of the shape correction apparatus 100 for this graphic pattern.

パターン補正ユニット140による補正は、元図形パターン10上の各評価点Eをプロセスバイアスyを相殺する方向に移動させ、各図形の境界線を移動後の各評価点Eの位置に修正することによって行うことができる。たとえば、図3(a) に示す元図形パターン10について、図3(b) に示すような実図形パターン20が推定された場合を考えてみよう。この場合、元図形パターン10に含まれる長方形の横幅aは、実図形パターン20上では横幅bに増加しており、(b−a)/2=yとすれば、長方形の左右の辺の位置をいずれも内側へyだけ移動させれば、元図形パターン10と同じ横幅aを有する長方形が得られることになる。したがって、基本的には、元図形パターン10の横幅aを2yだけ減じる補正を行い、この補正後の図形パターンに基づいてリソグラフィプロセスを実行すれば、実基板S上には、実図形パターン20として、当初の設計どおりの横幅aを有する長方形を得ることができる。   The correction by the pattern correction unit 140 is performed by moving each evaluation point E on the original graphic pattern 10 in a direction to cancel the process bias y, and correcting the boundary line of each graphic to the position of each evaluation point E after the movement. It can be carried out. For example, let us consider a case where an actual graphic pattern 20 as shown in FIG. 3B is estimated for the original graphic pattern 10 shown in FIG. In this case, the horizontal width “a” of the rectangle included in the original graphic pattern 10 increases to the horizontal width “b” on the actual graphic pattern 20, and if (b−a) / 2 = y, the positions of the left and right sides of the rectangle If both are moved inward by y, a rectangle having the same horizontal width a as that of the original graphic pattern 10 is obtained. Therefore, basically, if correction is performed to reduce the width a of the original graphic pattern 10 by 2y, and a lithography process is executed based on the corrected graphic pattern, the actual graphic pattern 20 is formed on the actual substrate S. A rectangle having a width a as originally designed can be obtained.

図3(a) に示す元図形パターン10の場合、評価点E11を左方(長方形の内側)にプロセスバイアスy11だけ移動させ、評価点E12を左方(長方形の内側)にプロセスバイアスy12だけ移動させ、評価点E13を上方(長方形の内側)にプロセスバイアスy13だけ移動させる補正を行えばよい。もちろん、実際には、より多数の評価点が定義されているので、これらすべての評価点について、プロセスバイアスに相当する寸法だけ長方形の内側に移動させる補正を行い、補正後の評価点を結ぶ新たな輪郭線を定義すれば、当該輪郭線で画定される図形を含む補正図形パターン15が得られることになる。このような補正処理自体は公知の技術なので、ここでは詳しい説明は省略する。   In the case of the original graphic pattern 10 shown in FIG. 3A, the evaluation point E11 is moved to the left (inside the rectangle) by the process bias y11, and the evaluation point E12 is moved to the left (inside the rectangle) by the process bias y12. Then, the correction may be performed by moving the evaluation point E13 upward (inside the rectangle) by the process bias y13. Of course, since more evaluation points are actually defined, correction is performed to move all the evaluation points to the inside of the rectangle by a dimension corresponding to the process bias, and new evaluation points are connected. If a simple contour line is defined, a corrected graphic pattern 15 including a graphic defined by the contour line is obtained. Since such correction processing itself is a known technique, detailed description thereof is omitted here.

もっとも、実際には、こうして得られた補正図形パターン15を用いてリソグラフィプロセスを実行し、実基板S上に実図形パターン25(図示省略)を形成しても、得られる実図形パターン25は、設計当初の元図形パターン10には正確には一致しない(たとえば、実基板S上に形成される長方形の横幅は、正確にはaにならない)。なぜなら、元図形パターン10に含まれる図形と補正図形パターン15に含まれる図形とでは、サイズや形状が異なるため、リソグラフィプロセスを実行した場合の近接効果などの影響に相違が生じるためである。   However, actually, even if a lithography process is executed using the corrected graphic pattern 15 obtained in this way and a real graphic pattern 25 (not shown) is formed on the real substrate S, the actual graphic pattern 25 obtained is It does not exactly match the original figure pattern 10 at the beginning of the design (for example, the lateral width of the rectangle formed on the actual substrate S is not exactly a). This is because the graphic included in the original graphic pattern 10 and the graphic included in the corrected graphic pattern 15 are different in size and shape, so that there is a difference in the influence such as the proximity effect when the lithography process is executed.

別言すれば、特定の評価点Eについてシミュレーションを行った結果、プロセスバイアスyが生じることが判明したとしても、単に当該評価点Eの位置をプロセスバイアスyだけ逆方向に移動させただけでは、正確な補正を行うことはできないのである。   In other words, even if it is found that a process bias y occurs as a result of simulation for a specific evaluation point E, simply moving the position of the evaluation point E in the reverse direction by the process bias y Accurate correction cannot be performed.

もちろん、元図形パターン10を用いてリソグラフィプロセスを実行した結果として得られる実図形パターン20に比べれば、補正図形パターン15を用いてリソグラフィプロセスを実行した結果として得られる実図形パターン25の方が、より元図形パターン10に近いパターンになるので、元図形パターン10をそのまま用いて実際のリソグラフィプロセスを実行するよりは、パターン補正ユニット140による補正によって得られる補正図形パターン15を用いて実際のリソグラフィプロセスを実行した方が、実基板S上には、より正確な図形パターンが得られることになる。すなわち、パターン補正ユニット140によって補正を行えば、誤差が縮小することは確かである。   Of course, compared to the actual figure pattern 20 obtained as a result of executing the lithography process using the original figure pattern 10, the actual figure pattern 25 obtained as a result of executing the lithography process using the corrected figure pattern 15 is Since the pattern becomes closer to the original figure pattern 10, the actual lithography process is performed using the corrected figure pattern 15 obtained by the correction by the pattern correction unit 140, rather than executing the actual lithography process using the original figure pattern 10 as it is. The more accurate figure pattern can be obtained on the actual substrate S by executing the above. That is, if correction is performed by the pattern correction unit 140, it is certain that the error is reduced.

そこで、実用上は、図1に示すとおり、パターン補正ユニット140から出力された補正図形パターン15を、再び、図形パターンの形状補正装置100に与える処理を繰り返し行うようにする。すなわち、補正図形パターン15は、図形パターンの形状推定装置100′に新たな元図形パターンとして与えられることになり、この新たな元図形パターン(補正図形パターン15)について、§1.1で述べた処理が実行される。具体的には、評価点設定ユニット110によって補正図形パターン15上に各評価点Eの設定が行われ、特徴量抽出ユニット120によって各評価点Eについての特徴量が抽出され、バイアス推定ユニット130によって各評価点Eについてのプロセスバイアス推定値yが算出される。そして、この算出されたプロセスバイアス推定値yを用いて、パターン補正ユニット140において再度の補正処理が行われる。   Therefore, in practice, as shown in FIG. 1, the process of giving the corrected figure pattern 15 output from the pattern correction unit 140 to the figure pattern shape correcting apparatus 100 is repeated. That is, the corrected figure pattern 15 is given as a new original figure pattern to the figure pattern shape estimation apparatus 100 ', and this new original figure pattern (corrected figure pattern 15) is described in §1.1. Processing is executed. Specifically, each evaluation point E is set on the corrected graphic pattern 15 by the evaluation point setting unit 110, the feature amount for each evaluation point E is extracted by the feature amount extraction unit 120, and the bias estimation unit 130 performs the setting. An estimated process bias value y for each evaluation point E is calculated. Then, the correction process is performed again in the pattern correction unit 140 using the calculated process bias estimated value y.

図1に示す図形パターンの形状補正装置100は、このように、図形パターンに対する補正を繰り返し実行する機能を有している。すなわち、元図形パターン10に基づいて第1の補正図形パターン15が得られ、この第1の補正図形パターン15に基づいて第2の補正図形パターンが得られ、この第2の補正図形パターンに基づいて第3の補正図形パターンが得られ、... という補正処理が繰り返されることになる。補正処理を行うたびに、元図形パターンとシミュレーションにより得られる図形パターンとの形状誤差は縮小してゆく。   The graphic pattern shape correction apparatus 100 shown in FIG. 1 has a function of repeatedly executing correction on a graphic pattern as described above. In other words, a first corrected graphic pattern 15 is obtained based on the original graphic pattern 10, a second corrected graphic pattern is obtained based on the first corrected graphic pattern 15, and based on the second corrected graphic pattern. Thus, the third corrected graphic pattern is obtained, and the correction process of... Is repeated. Each time correction processing is performed, the shape error between the original graphic pattern and the graphic pattern obtained by the simulation is reduced.

したがって、たとえば、元図形パターンとシミュレーションにより得られる図形パターンとの形状誤差が所定の許容範囲内に収束した時点で補正完了とし、最後に得られた補正図形パターンを用いて実際のリソグラフィプロセスを実行すれば、実基板S上には、設計当初の元図形パターン10に近い実図形パターンを形成することができる。かくして、先願発明に係る図形パターンの形状補正装置100を用いれば、元図形パターンの形状を的確に補正することが可能になる。   Therefore, for example, when the shape error between the original figure pattern and the figure pattern obtained by simulation converges within a predetermined tolerance, the correction is completed, and the actual lithography process is executed using the last obtained figure pattern Then, a real graphic pattern close to the original graphic pattern 10 at the initial design can be formed on the real substrate S. Thus, if the figure pattern shape correcting apparatus 100 according to the invention of the prior application is used, the shape of the original figure pattern can be accurately corrected.

なお、図1に示す評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140は、いずれもコンピュータに所定のプログラムを組み込むことによって構成されている。したがって、先願発明に係る図形パターンの形状推定装置100′や図形パターンの形状補正装置100は、実際には、汎用のコンピュータに専用のプログラムを組み込むことによって実現される。   The evaluation point setting unit 110, the feature amount extraction unit 120, the bias estimation unit 130, and the pattern correction unit 140 shown in FIG. 1 are all configured by incorporating a predetermined program into a computer. Therefore, the figure pattern shape estimation apparatus 100 'and the figure pattern shape correction apparatus 100 according to the prior invention are actually realized by incorporating a dedicated program into a general-purpose computer.

図4は、図1に示す図形パターンの形状補正装置100を用いた製品の設計・製造工程を示す流れ図である。まず、ステップS1において、製品設計段階が行われる。この製品設計段階は、半導体デバイスなどを構成するための図形パターンを作成する工程であり、図1に示す元図形パターン10は、この製品設計段階で作成されることになる。なお、半導体デバイスなどの製品設計を行い、図形パターンを作成する装置自体は既に公知の装置であるので、ここでは詳しい説明は省略する。   FIG. 4 is a flowchart showing a product design / manufacturing process using the figure pattern shape correcting apparatus 100 shown in FIG. First, in step S1, a product design stage is performed. This product design stage is a process of creating a graphic pattern for configuring a semiconductor device or the like, and the original graphic pattern 10 shown in FIG. 1 is created at this product design stage. An apparatus for designing a product such as a semiconductor device and creating a graphic pattern is already a known apparatus, and therefore detailed description thereof is omitted here.

次のステップS2の評価点設定段階は、図1に示す評価点設定ユニット110において実行される段階である。たとえば、図2(a) に示すような元図形パターン10が与えられた場合、図3(a) に示すような評価点E11,E12,E13などが設定される。続くステップS3の特徴量抽出段階は、図1に示す特徴量抽出ユニット120において実行される段階であり、前述したとおり、1つの評価点Eについて、n通りの特徴量x1〜xnが抽出される(詳細な抽出手順は、§2で述べる)。そして、ステップS4のプロセスバイアス推定段階は、図1に示すバイアス推定ユニット130において実行される段階であり、前述したとおり、1つの評価点Eについて、n通りの特徴量x1〜xnを用いてプロセスバイアス推定値yが求められる(詳細な算出手順は、§3で述べる)。   The next evaluation point setting stage of step S2 is a stage executed in the evaluation point setting unit 110 shown in FIG. For example, when the original figure pattern 10 as shown in FIG. 2 (a) is given, evaluation points E11, E12, E13 and the like as shown in FIG. 3 (a) are set. The subsequent feature quantity extraction stage of step S3 is a stage executed in the feature quantity extraction unit 120 shown in FIG. 1. As described above, n kinds of feature quantities x1 to xn are extracted for one evaluation point E. (The detailed extraction procedure is described in §2). Then, the process bias estimation stage of step S4 is a stage executed in the bias estimation unit 130 shown in FIG. 1, and as described above, the process is performed using n feature quantities x1 to xn for one evaluation point E. The estimated bias value y is obtained (the detailed calculation procedure is described in §3).

そして、ステップS5のパターン形状補正段階は、図1に示すパターン補正ユニット140において実行される段階であり、前述したとおり、各評価点Eについて求められたプロセスバイアス推定値yを用いて、元図形パターン10に対する補正を行うことにより補正図形パターン15が得られる。このような補正は、1回だけでは不十分であるため、ステップS6において「補正完了」と判断されるまで、ステップS2へ戻る処理が繰り返される。すなわち、ステップS5で得られた補正図形パターン15を、新たな元図形パターン10として取り扱うことにより、ステップS2〜S5の処理が繰り返し実行されることになる。   Then, the pattern shape correction stage in step S5 is a stage executed in the pattern correction unit 140 shown in FIG. 1, and as described above, using the process bias estimated value y obtained for each evaluation point E, the original figure A corrected graphic pattern 15 is obtained by correcting the pattern 10. Since such correction is not sufficient once, the process of returning to step S2 is repeated until it is determined that “correction is completed” in step S6. That is, by treating the corrected graphic pattern 15 obtained in step S5 as a new original graphic pattern 10, the processes in steps S2 to S5 are repeatedly executed.

このような繰り返し処理の結果、ステップS6において「補正完了」と判断されるに至った場合には、ステップS7へと進み、リソグラフィプロセスが実行される。「補正完了」との判断は、たとえば「一定割合の評価点Eについて、元図形パターン上の位置とシミュレーションにより得られる図形パターン上の位置との誤差が、所定の基準値以下になる」というような特定の条件が満たされたことにより行うことができる。ステップS7のリソグラフィプロセスでは、最終的に得られた補正図形パターンに基づいて、露光、現像、エッチングという実工程が行われ、実基板Sの製造が行われる。   If it is determined in step S6 that “correction is complete” as a result of such repeated processing, the process proceeds to step S7, and a lithography process is executed. The determination of “correction completion” is, for example, “the error between the position on the original graphic pattern and the position on the graphic pattern obtained by the simulation is equal to or less than a predetermined reference value for a certain percentage of evaluation points E”. This can be done by satisfying certain specific conditions. In the lithography process in step S7, actual processes such as exposure, development, and etching are performed based on the finally obtained corrected graphic pattern, and the actual substrate S is manufactured.

図4に示す流れ図において、ステップS1〜S6の段階は、計算機(コンピュータ)上で実行するプロセスであり、ステップS7の段階は、実基板S上で実行するプロセスである。   In the flowchart shown in FIG. 4, steps S1 to S6 are processes executed on a computer (computer), and step S7 is a process executed on an actual substrate S.

<1.3 先願発明における特徴量抽出の基本概念>
これまで、図1に示す図形パターンの形状推定装置100′および図形パターンの形状補正装置100の基本構成とその基本動作を述べた。これらの各装置において、先願発明として最も特徴的な構成要素は、特徴量抽出ユニット120である。先願発明は、元図形パターン10から的確な特徴量を抽出して的確なシミュレーションを行い、実基板S上に形成される実図形パターン20の形状を正確に推定するという作用効果を奏するものであるが、このような作用効果を得るために最も重要な役割を果たす構成要素が特徴量抽出ユニット120である。別言すれば、先願発明の重要な特徴は、元図形パターン10から非常にユニークな方法で特徴量の抽出を行う点にある。そこで、ここでは、先願発明における特徴量抽出の基本概念を説明する。
<1.3 Basic Concept of Feature Extraction in Prior Invention>
So far, the basic configuration and basic operation of the figure pattern shape estimation apparatus 100 ′ and the figure pattern shape correction apparatus 100 shown in FIG. 1 have been described. In each of these devices, the most characteristic component as the prior invention is the feature quantity extraction unit 120. The prior application invention has the effect of extracting an accurate feature amount from the original graphic pattern 10 and performing an accurate simulation to accurately estimate the shape of the actual graphic pattern 20 formed on the actual substrate S. However, the component that plays the most important role in obtaining such an effect is the feature quantity extraction unit 120. In other words, an important feature of the prior invention is that feature values are extracted from the original graphic pattern 10 by a very unique method. Therefore, here, the basic concept of feature quantity extraction in the prior application invention will be described.

図5は、長方形からなる図形パターン10の輪郭線上に定義された各評価点E11,E12,E13について、その周囲の特徴を把握する概念を示す平面図である。図5(a) は、長方形の右辺中央に設定された評価点E11について、参考円C1の内部と参考円C2の内部の特徴を抽出した状態を示している。参考円C1,C2は、いずれも評価点E11を中心とする円であるが、参考円C1に比べて参考円C2はより大きな円になっている。同様に、図5(b) は、長方形の右辺下方に設定された評価点E12について、図5(c) は、長方形の下辺中央に設定された評価点E13について、それぞれ2つの参考円C1,C2の内部の特徴を抽出した状態を示している。   FIG. 5 is a plan view showing the concept of grasping the surrounding features of each of the evaluation points E11, E12, E13 defined on the outline of the graphic pattern 10 made of a rectangle. FIG. 5A shows a state in which the features inside the reference circle C1 and the inside of the reference circle C2 are extracted for the evaluation point E11 set at the center of the right side of the rectangle. The reference circles C1 and C2 are both circles centered on the evaluation point E11, but the reference circle C2 is larger than the reference circle C1. Similarly, FIG. 5 (b) shows two reference circles C1, 2 for the evaluation point E12 set below the right side of the rectangle, and FIG. 5 (c) shows the evaluation point E13 set for the center of the lower side of the rectangle. The state where the internal features of C2 are extracted is shown.

ここで、各評価点について、参考円C1の内部の特徴を比較すると、評価点E11と評価点E12については、左半分が図形内部(ハッチング領域)、右半分が図形外部(空白領域)になっており、参考円C1の内部の特徴に関しては差がない。一方、評価点E13についての参考円C1の内部の特徴は、上半分が図形内部(ハッチング領域)、下半分が図形外部(空白領域)になっており、評価点E11,E12の参考円C1内の特徴を90°回転させたものになっているが、ハッチング領域の占有率について差はない。一方、参考円C2の内部の特徴を、各評価点E11,E12,E13について比較すると、ハッチング領域の分布がそれぞれ異なっており、互いに異なる特徴を有していることがわかる。   Here, when the internal features of the reference circle C1 are compared for each evaluation point, for the evaluation points E11 and E12, the left half is inside the figure (hatching area) and the right half is outside the figure (blank area). There is no difference in the internal features of the reference circle C1. On the other hand, the internal features of the reference circle C1 for the evaluation point E13 are such that the upper half is inside the figure (hatched area) and the lower half is outside the figure (blank area), and the inside of the reference circle C1 of the evaluation points E11 and E12 However, there is no difference in the occupation ratio of the hatched area. On the other hand, comparing the internal features of the reference circle C2 with respect to the respective evaluation points E11, E12, E13, it can be seen that the distributions of the hatched regions are different and have different features.

このように、図形パターン10上の各評価点E11,E12,E13について、その近傍の特徴を把握するにしても、参考円C1のような狭い近傍領域の特徴を抽出するか、参考円C2のように若干広い近傍領域の特徴を抽出するか、によって、抽出される特徴は異なる。したがって、ある1つの評価点Eについて、その近傍領域の特徴を何らかの特徴量xとして定量的に抽出する場合、近傍領域の範囲を段階的に変化させれば、より多様な方法で特徴量の抽出が行えることがわかる。   As described above, for each evaluation point E11, E12, E13 on the graphic pattern 10, even if the features of the neighborhood are grasped, the feature of the narrow neighborhood region such as the reference circle C1 is extracted or the reference circle C2 Thus, the extracted features differ depending on whether or not features in a slightly wide neighboring region are extracted. Therefore, when a feature of a neighboring region is quantitatively extracted as some feature amount x with respect to a certain evaluation point E, the feature amount can be extracted by various methods by changing the range of the neighboring region stepwise. You can see that

また、前述したとおり、元図形パターン10に基づいてリソグラフィプロセスを実行した場合、基板上に得られる実図形パターン20は、露光工程における近接効果により、元図形パターン10に対して寸法誤差(プロセスバイアス)を生じることになる。特に、電子線露光における近接効果には、影響範囲が狭い前方散乱に起因する効果や、影響範囲が広い後方散乱に起因する効果など、多様な効果が含まれている。たとえば、前方散乱は、レジスト層などから構成される被成形層に電子ビームを照射したときに、質量の小さい電子が、レジスト内で分子に散乱されながら拡がっていく現象として説明され、後方散乱は、レジスト層の下にある金属基板などの表面付近で散乱されて跳ね返ってきた電子がレジスト層内で拡散してゆく現象として説明されている。また、エッチング工程によってもプロセスバイアスが生じ、その大きさは、エッチング時のローディング現象に応じて変動する。このローディング現象も、上述した露光工程における近接効果と同様に、狭い影響範囲をもつ成分や広い影響範囲をもつ成分など、多様な成分が合わさって生じることになる。   Further, as described above, when the lithography process is executed based on the original graphic pattern 10, the actual graphic pattern 20 obtained on the substrate has a dimensional error (process bias) with respect to the original graphic pattern 10 due to the proximity effect in the exposure process. ) Will occur. In particular, the proximity effect in electron beam exposure includes various effects such as an effect caused by forward scattering having a narrow influence range and an effect caused by back scattering having a wide influence range. For example, forward scattering is explained as a phenomenon in which, when an electron beam is irradiated onto a molding layer composed of a resist layer or the like, electrons having a small mass spread while being scattered by molecules in the resist, It is described as a phenomenon in which electrons scattered and bounced near the surface of a metal substrate or the like under the resist layer are diffused in the resist layer. In addition, a process bias is also generated by the etching process, and the magnitude of the process bias varies depending on a loading phenomenon during etching. Similar to the proximity effect in the exposure process described above, this loading phenomenon is also caused by combining various components such as a component having a narrow influence range and a component having a wide influence range.

結局、ある1つの評価点Eについてのプロセスバイアスyの値は、様々なスケール感をもった現象が融合して決まる値になる。したがって、周囲の狭い範囲に関する特徴量から広い範囲に関する特徴量に至るまで、多様な特徴量を抽出することは、影響範囲がそれぞれ異なる、プロセスバイアスに影響を与える各工程中の様々な現象に対して、正確なシミュレーションを行う上で重要である。そこで、先願発明では、1つの評価点Eについて、近傍から遠方に至るまで、その周囲の様々な領域についての特徴量を抽出するようにしている。このように、1つの評価点Eについて複数の特徴量を抽出するため、先願発明では、それぞれ異なるサイズをもった複数の階層画像からなる「画像ピラミッド」を作成する方法を採用している。この画像ピラミッドには、影響範囲がそれぞれ異なる様々な現象を多重化した情報が含まれていることになる。   After all, the value of the process bias y for a certain evaluation point E becomes a value determined by fusing phenomena having various scale feelings. Therefore, extracting various feature values from feature values related to a narrow range to feature values related to a wide range is different from the various phenomena in each process that affect the process bias that have different influence ranges. This is important for accurate simulation. Accordingly, in the invention of the prior application, for one evaluation point E, feature quantities for various regions around it are extracted from the vicinity to the distance. As described above, in order to extract a plurality of feature amounts for one evaluation point E, the invention of the prior application employs a method of creating an “image pyramid” composed of a plurality of hierarchical images each having a different size. This image pyramid includes information obtained by multiplexing various phenomena having different influence ranges.

図6は、図1に示す特徴量抽出ユニット120およびバイアス推定ユニット130において実行される処理の概要を示す図である。図の上方に示された元画像Q1は、図1に示す元画像作成部121によって作成された画像であり、与えられた元図形パターン10に相当する画像になる。前述したように、元図形パターン10は、半導体デバイスの設計装置などによって作成されるデータであり、図2(a) に示すような図形を示すデータになるが、通常、図形の輪郭線を示すベクトルデータ(各頂点の座標値と各頂点の連結関係を示すデータ)として与えられる。   FIG. 6 is a diagram showing an outline of processing executed in the feature amount extraction unit 120 and the bias estimation unit 130 shown in FIG. An original image Q1 shown in the upper part of the figure is an image created by the original image creating unit 121 shown in FIG. 1 and is an image corresponding to the given original figure pattern 10. As described above, the original graphic pattern 10 is data created by a semiconductor device design apparatus or the like, and is data indicating a graphic as shown in FIG. It is given as vector data (data indicating the coordinate value of each vertex and the connection relationship between each vertex).

元画像作成部121は、与えられた元図形パターン10のデータに基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像Q1を作成する処理を実行する。たとえば、元図形パターン10を構成する図形の内部に画素値1をもった画素を配置し、外部に画素値0をもった画素を配置すれば、多数の画素Uの集合体からなる元画像Q1を作成することができる。図6に示す元画像Q1は、このような画素Uの集合体からなる画像であり、破線で示すように、元図形パターン10に含まれる長方形の図形を画像情報として有している。また、評価点設定ユニット110によって、この図形の輪郭線上に評価点Eが設定されている。なお、図6では、便宜上、1つの評価点Eのみが描かれているが、実際には、図形の輪郭線に沿って、多数の評価点が設定されている。   The original image creation unit 121 executes a process of creating an original image Q1 composed of a collection of pixels each having a predetermined pixel value based on the data of the given original graphic pattern 10. For example, if a pixel having a pixel value of 1 is arranged inside a graphic constituting the original graphic pattern 10 and a pixel having a pixel value of 0 is arranged outside, the original image Q1 composed of an aggregate of a large number of pixels U Can be created. An original image Q1 shown in FIG. 6 is an image composed of such an assembly of pixels U, and has a rectangular figure included in the original figure pattern 10 as image information, as indicated by a broken line. The evaluation point E is set on the contour line of the figure by the evaluation point setting unit 110. In FIG. 6, only one evaluation point E is drawn for convenience, but actually, a large number of evaluation points are set along the contour line of the figure.

図1に示す画像ピラミッド作成部122は、この元画像Q1に基づいて、画像ピラミッドPPを作成する。画像ピラミッドPPは、それぞれ異なるサイズをもった複数の階層画像によって構成される。図には、複数n通り(n≧2)の階層画像P1〜Pnによって構成された画像ピラミッドPPが示されている。元画像Q1から階層画像P1〜Pnを作成する具体的な手順は§2で説明するが、基本的には、階層画像P1〜Pnは、画素数を小さくする縮小処理によって作成される。たとえば、図示の例の場合、階層画像P1は、元画像Q1と同じサイズの画像(縦横の画素数が同じ画像)であるのに対して、階層画像P2は、縮小された小さなサイズの画像になっており、階層画像P3は、階層画像P2を更に縮小した、より小さなサイズの画像になっている。   The image pyramid creation unit 122 shown in FIG. 1 creates an image pyramid PP based on the original image Q1. The image pyramid PP is composed of a plurality of hierarchical images having different sizes. In the figure, an image pyramid PP composed of a plurality of n (n ≧ 2) hierarchical images P1 to Pn is shown. The specific procedure for creating the hierarchical images P1 to Pn from the original image Q1 will be described in Section 2. Basically, the hierarchical images P1 to Pn are created by a reduction process for reducing the number of pixels. For example, in the illustrated example, the hierarchical image P1 is an image having the same size as the original image Q1 (an image having the same number of vertical and horizontal pixels), whereas the hierarchical image P2 is reduced to a small size image. The hierarchical image P3 is an image having a smaller size obtained by further reducing the hierarchical image P2.

このように、先願発明では、元画像Q1に基づいて、画像サイズが徐々に小さくなってゆくような階層画像P1〜Pnが作成される。このように、サイズの異なる複数の階層画像を上下に並べた様子は、図示のようなピラミッドの形態になるため、先願では、これら複数の階層画像P1〜Pnの集合体を画像ピラミッドPPと呼んでいる。階層画像P1〜Pnは、いずれも元画像Q1に基づいて作成されているため、元図形パターン10の情報を有しており、それぞれについて評価点Eの位置を定義することができる。図では、各階層画像P1〜Pnにそれぞれ長方形の図形が描かれており、その輪郭線上に評価点Eが配置されている。   Thus, in the prior application invention, hierarchical images P1 to Pn whose image size is gradually reduced are created based on the original image Q1. In this way, the state in which a plurality of hierarchical images having different sizes are arranged one above the other is in the form of a pyramid as illustrated. Therefore, in the prior application, an aggregate of these plurality of hierarchical images P1 to Pn is referred to as an image pyramid PP. I'm calling. Since each of the hierarchical images P1 to Pn is created based on the original image Q1, the hierarchical images P1 to Pn have information of the original graphic pattern 10, and the position of the evaluation point E can be defined for each. In the figure, a rectangular figure is drawn on each of the hierarchical images P1 to Pn, and an evaluation point E is arranged on the contour line.

図1に示す特徴量算出部123は、画像ピラミッドを構成する各階層画像について、評価点の近傍の画素の画素値に基づいて特徴量を算出する処理を行う。図6には、画像ピラミッドPPを構成するn枚の階層画像P1〜Pnから、それぞれ評価点Eの特徴量x1〜xnが抽出された状態が示されている。図示されている特徴量x1〜xnは、いずれも同じ評価点Eの周囲の特徴を示す値であるが、特徴量x1は、第1の階層画像P1上の評価点Eの近傍画素の画素値に基づいて算出された値であり、特徴量x2は、第2の階層画像P2上の評価点Eの近傍画素の画素値に基づいて算出された値であり、特徴量x3は、第3の階層画像P3上の評価点Eの近傍画素の画素値に基づいて算出された値である。各特徴量x1〜xnの具体的な算出手順は§2で説明する。   The feature amount calculation unit 123 illustrated in FIG. 1 performs a process of calculating a feature amount for each hierarchical image constituting the image pyramid based on the pixel values of pixels near the evaluation point. FIG. 6 shows a state in which feature amounts x1 to xn of the evaluation points E are extracted from n layer images P1 to Pn constituting the image pyramid PP, respectively. The illustrated feature amounts x1 to xn are values indicating features around the same evaluation point E, but the feature amount x1 is a pixel value of a neighboring pixel of the evaluation point E on the first hierarchical image P1. The feature amount x2 is a value calculated based on the pixel values of the neighboring pixels of the evaluation point E on the second hierarchical image P2, and the feature amount x3 is the third value. This is a value calculated based on the pixel values of the neighboring pixels of the evaluation point E on the hierarchical image P3. A specific calculation procedure of each feature amount x1 to xn will be described in §2.

図6には、便宜上、1つの評価点Eのみが描かれているが、実際には、多数の評価点のそれぞれについて、n個の特徴量x1〜xnが算出されることになる。個々の特徴量x1〜xnは、いずれも所定のスカラー値であるが、個々の評価点Eごとにそれぞれn個の特徴量x1〜xnが得られることになる。したがって、このn個の特徴量x1〜xnをn次元ベクトルとして把握すれば、特徴量抽出ユニット120は、1つの評価点Eについて、n次元ベクトルからなる特徴量を抽出する処理を行うことになる。   Although only one evaluation point E is drawn in FIG. 6 for convenience, in practice, n feature amounts x1 to xn are calculated for each of a large number of evaluation points. Each of the individual feature amounts x1 to xn is a predetermined scalar value, but n feature amounts x1 to xn are obtained for each evaluation point E, respectively. Therefore, if the n feature quantities x1 to xn are grasped as n-dimensional vectors, the feature quantity extraction unit 120 performs a process of extracting feature quantities composed of n-dimensional vectors for one evaluation point E. .

こうして抽出された各評価点についての特徴量(n次元ベクトル)は、バイアス推定ユニット130内の特徴量入力部131によって入力され、推定演算部132に与えられる。推定演算部132は、ここに示す実施例の場合、ニューラルネットワークによって構成され、予め実施された学習段階によって得られた学習情報Lに基づいて、n次元ベクトルとして与えられた特徴量x1〜xnに応じて、評価点Eについてのプロセスバイアスの推定値y(スカラー値)を算出する演算を行う。具体的な演算手順は§3で説明する。   The feature amount (n-dimensional vector) for each evaluation point extracted in this way is input by the feature amount input unit 131 in the bias estimation unit 130 and is given to the estimation calculation unit 132. In the case of the embodiment shown here, the estimation calculation unit 132 is configured by a neural network, and based on the learning information L obtained in advance by the learning stage, the estimation calculation unit 132 applies the feature amounts x1 to xn given as n-dimensional vectors. Accordingly, an operation for calculating an estimated value y (scalar value) of the process bias for the evaluation point E is performed. A specific calculation procedure will be described in §3.

このように、先願発明によれば、実際のリソグラフィプロセスに対して、物理的・実験的なシミュレーションモデルが構築されていなくても、あらゆる元図形パターン10に対して正確な特徴量を抽出することができる。また、そもそも物理的・実験的なシミュレーションモデルを構築する必要がないため、後に§3.2で述べるニューラルネットワークの学習段階において、材料物性や工程条件の種々の設定値を考慮する必要もない。   As described above, according to the invention of the prior application, even if a physical / experimental simulation model is not constructed for an actual lithography process, an accurate feature amount is extracted for every original figure pattern 10. be able to. In addition, since it is not necessary to construct a physical / experimental simulation model in the first place, it is not necessary to consider various set values of material properties and process conditions in the learning stage of the neural network described later in §3.2.

以上、先願発明に係る図形パターンの形状推定装置100′および形状補正装置100を、半導体デバイスを製造するためのリソグラフィプロセスに利用する例について説明したが、先願発明や本願発明は、半導体デバイスの製造工程への利用に限定されるものではなく、リソグラフィプロセスを含む様々な製品の製造工程に利用することができる。たとえば、NIL(Nano Imprint Lithography)やEUV(Extreme UltraViolet Lithography)などのリソグラフィプロセスを含む様々な製品の製造工程においても先願発明や本願発明を利用することが可能である。特に、NILにおいては、元図形パターンから露光リソグラフィを通して作製したマスターテンプレート上の実図形パターンが、元図形パターンと一致するように、元図形パターンに対して補正を行ってもよい。あるいは、マスターテンプレートからインプリントを通して作製したレプリカテンプレート上の実図形パターンが、元図形パターンと一致するように、元図形パターンに対する補正を行ってもよい。その他にも、先願発明や本願発明は、MEMS(Micro Electro Mechanical Systems)、LSPM(Large-size Photomask)、リードフレーム、メタルマスク、メタルメッシュセンサー、カラーフィルタなど、リソグラフィプロセスを含むすべての製品分野に適用可能である。   As described above, the example in which the figure pattern shape estimation apparatus 100 ′ and the shape correction apparatus 100 according to the invention of the prior application are used in a lithography process for manufacturing a semiconductor device has been described. The present invention is not limited to use in the manufacturing process, and can be used in various product manufacturing processes including lithography processes. For example, the invention of the prior application or the present invention can be used in the manufacturing process of various products including lithography processes such as NIL (Nano Imprint Lithography) and EUV (Extreme UltraViolet Lithography). In particular, in the NIL, the original graphic pattern may be corrected so that the actual graphic pattern on the master template produced from the original graphic pattern through exposure lithography matches the original graphic pattern. Or you may correct | amend an original figure pattern so that the real figure pattern on the replica template produced through the imprint from the master template may correspond with the original figure pattern. In addition, the invention of the prior application and the present invention are all product fields including lithography processes such as MEMS (Micro Electro Mechanical Systems), LSPM (Large-size Photomask), lead frames, metal masks, metal mesh sensors, color filters, etc. It is applicable to.

<<< §2. 特徴量抽出ユニットの詳細 >>>
続いて、特徴量抽出ユニット120の詳細な処理動作を説明する。図1に示すように、特徴量抽出ユニット120は、元画像作成部121、画像ピラミッド作成部122、特徴量算出部123を有しており、図4の流れ図におけるステップS3の特徴量抽出処理を実行する機能を有している。この特徴量抽出処理は、実際には、図7に示す各手順により実行される。ここで、ステップS31,S32は、元画像作成部121によって実行される手順であり、ステップS33〜S36は、画像ピラミッド作成部122によって実行される手順であり、ステップS37は、特徴量算出部123によって実行される手順である。以下、各部で実行される手順を、具体例を挙げて詳細に説明する。
<<< §2. Details of feature extraction unit >>
Next, a detailed processing operation of the feature amount extraction unit 120 will be described. As shown in FIG. 1, the feature amount extraction unit 120 includes an original image creation unit 121, an image pyramid creation unit 122, and a feature amount calculation unit 123, and performs the feature amount extraction process in step S3 in the flowchart of FIG. Has the function to execute. This feature amount extraction processing is actually executed by each procedure shown in FIG. Here, steps S31 and S32 are procedures executed by the original image creation unit 121, steps S33 to S36 are procedures executed by the image pyramid creation unit 122, and step S37 is a feature amount calculation unit 123. The procedure executed by Hereinafter, a procedure executed by each unit will be described in detail with a specific example.

<2.1 元画像作成部121による処理手順>
元画像作成部121は、与えられた元図形パターン10に基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像を作成する機能を果たし、図7の流れ図のステップS31,S32を実行する。まず、ステップS31において、元図形パターン10を入力する処理が行われ、続くステップS32において、元画像作成処理が行われる。
<2.1 Processing Procedure by Original Image Creation Unit 121>
The original image creation unit 121 performs a function of creating an original image composed of a collection of pixels each having a predetermined pixel value based on the given original graphic pattern 10, and performs steps S31 and S32 in the flowchart of FIG. Run. First, in step S31, the process of inputting the original graphic pattern 10 is performed, and in the subsequent step S32, the original image creation process is performed.

§1では、説明の便宜上、ステップS31で入力される元図形パターン10の一例として、図2(a) のような1つの長方形の図形のみからなる単純なパターンを示した。ここでは、より詳細な説明を行うため、図8に示すような5つの図形F1〜F5(矩形)を含む元図形パターン10が与えられた場合を考えてみよう。前述したように、図形パターンの形状補正装置100に与えられる元図形パターン10は、通常、図形の輪郭線を示すベクトルデータになる。したがって、図8では、各図形F1〜F5の内部にハッチングを施して示しているが、実際には、この元図形パターン10は、5つの長方形F1〜F5の各頂点の座標値とこれら各頂点の連結関係を示すベクトルデータとして与えられる。   In §1, for convenience of explanation, as an example of the original figure pattern 10 input in step S31, a simple pattern including only one rectangular figure as shown in FIG. Here, in order to explain in more detail, let us consider a case where an original graphic pattern 10 including five graphics F1 to F5 (rectangles) as shown in FIG. 8 is given. As described above, the original figure pattern 10 given to the figure pattern shape correction apparatus 100 is usually vector data indicating the outline of the figure. Therefore, in FIG. 8, hatching is shown inside each of the figures F1 to F5. However, in actuality, the original figure pattern 10 includes the coordinate values of the vertices of the five rectangles F1 to F5 and the vertices. Is given as vector data indicating the connection relationship.

ステップS32の元画像作成処理は、このようなベクトルデータとして与えられた元図形パターン10に基づいて、画素の集合体からなる元画像Q1のデータ(ラスターデータ)を作成する処理ということになる。具体的には、元画像作成部121は、画素Uの二次元配列からなるメッシュを定義し、このメッシュ上に元図形パターン10を重ね合わせ、個々の画素Uの位置と元図形パターン10を構成する図形F1〜F5の輪郭線の位置との関係に基づいて、個々の画素Uの画素値を決定する処理を行う。   The original image creation process of step S32 is a process of creating data (raster data) of the original image Q1 composed of a collection of pixels based on the original graphic pattern 10 given as such vector data. Specifically, the original image creation unit 121 defines a mesh composed of a two-dimensional array of pixels U, overlays the original graphic pattern 10 on this mesh, and configures the position of each pixel U and the original graphic pattern 10. The pixel value of each pixel U is determined based on the relationship with the positions of the contour lines of the graphics F1 to F5 to be performed.

図9は、元画像作成部121において、画素Uの二次元配列からなるメッシュ上に元図形パターン10を重ね合わせる処理が行われた状態を示す平面図である。この例では、縦横ともに画素寸法uをもった画素Uを二次元配列させたメッシュが定義されており、多数の画素Uが、縦横ともにピッチuで並べられている。画素寸法uは、各図形F1〜F5の形状を十分な解像度で表現することができる適切な値に設定される。画素寸法uを小さく設定すればするほど、形状表現の解像度は向上するが、後の処理負担は重くなる。一般に、半導体デバイスを製造するために用いられる元図形パターン10は、極めて微細なパターンになるため、画素寸法uとしては、たとえば、u=5〜20nm程度の値を設定するのが好ましい。   FIG. 9 is a plan view showing a state in which processing for superimposing the original graphic pattern 10 on the mesh composed of the two-dimensional array of pixels U is performed in the original image creation unit 121. In this example, a mesh is defined in which pixels U having pixel dimensions u both vertically and horizontally are two-dimensionally arranged, and a large number of pixels U are arranged at a pitch u both vertically and horizontally. The pixel dimension u is set to an appropriate value that can represent the shapes of the figures F1 to F5 with sufficient resolution. The smaller the pixel size u is set, the higher the resolution of shape expression, but the later processing load becomes heavier. In general, since the original figure pattern 10 used for manufacturing a semiconductor device is a very fine pattern, the pixel dimension u is preferably set to a value of about u = 5 to 20 nm, for example.

こうして、画素Uの二次元配列が定義されたら、図形F1〜F5の輪郭線の位置との関係に基づいて、個々の画素Uに画素値を定義する。画素値の定義には、いくつかの方法がある。   Thus, when the two-dimensional array of the pixels U is defined, pixel values are defined for the individual pixels U based on the relationship with the positions of the contour lines of the graphics F1 to F5. There are several methods for defining pixel values.

最も基本的な定義方法は、元図形パターン10に基づいて、各図形F1〜F5の内部領域と外部領域とを認識し、各画素U内における内部領域の占有率を当該画素の画素値とする方法である。図8において、ハッチングが施された領域が各図形F1〜F5の内部領域であり、白い領域が外部領域である。したがって、この方法を採る場合、図9のように重ね合わせた状態において、各画素の画素値は、当該画素内における内部領域(ハッチング領域)の占有率(0〜1)として定義される。このような方法で画素値が定義された画像は、一般に「面積密度マップ」と呼ばれている。   The most basic definition method recognizes the internal area and external area of each graphic F1 to F5 based on the original graphic pattern 10, and uses the occupation rate of the internal area in each pixel U as the pixel value of the pixel. Is the method. In FIG. 8, hatched areas are internal areas of the figures F1 to F5, and white areas are external areas. Therefore, when this method is adopted, the pixel value of each pixel is defined as the occupation ratio (0 to 1) of the internal area (hatched area) in the pixel in the overlapped state as shown in FIG. An image in which pixel values are defined by such a method is generally called an “area density map”.

図10は、図9に示す「元図形パターン10+画素の二次元配列」に基づいて作成された面積密度マップM1を示す図である。ここで、各セルは、図9で定義された各画素であり、セル内の数字は各画素に定義された画素値である。なお、空白のセルは、画素値0をもつ画素である(画素値0の図示は省略されている)。この面積密度マップM1において、たとえば、画素値1.0をもつ画素は、図9におけるハッチング領域の占有率が100%の画素であり、画素値0.5をもつ画素は、図9におけるハッチング領域の占有率が50%の画素である。この面積密度マップM1は、基本的に、図形内部を画素値1、図形外部を画素値0で表現した二値画像ということになるが、図形の輪郭線が位置する画素については、内部領域の割合を示す値が画素値として与えられることになるので、全体としてはモノクロの階調画像ということになる。   FIG. 10 is a diagram showing an area density map M1 created based on the “original graphic pattern 10 + two-dimensional array of pixels” shown in FIG. Here, each cell is each pixel defined in FIG. 9, and the numbers in the cell are pixel values defined for each pixel. A blank cell is a pixel having a pixel value of 0 (illustration of the pixel value of 0 is omitted). In this area density map M1, for example, a pixel having a pixel value of 1.0 is a pixel whose occupancy ratio of the hatching area in FIG. 9 is 100%, and a pixel having a pixel value of 0.5 is the hatching area in FIG. This is a pixel with an occupation ratio of 50%. This area density map M1 is basically a binary image in which the inside of the figure is represented by a pixel value of 1 and the outside of the figure is represented by a pixel value of 0. However, for the pixel where the outline of the figure is located, Since the value indicating the ratio is given as the pixel value, the whole image is a monochrome gradation image.

画素値の別な定義方法として、元図形パターン10に基づいて、各図形F1〜F5の輪郭線を認識し、各画素U内に存在する輪郭線の長さを当該画素の画素値とする方法を採ることもできる。この方法を採る場合、図9のように重ね合わせた状態において、各画素の画素値は、当該画素内に存在する輪郭線の長さの総和として定義される。このような方法で画素値が定義された画像は、一般に「エッジ長密度マップ」と呼ばれている。輪郭線の長さの単位としては、たとえば、画素寸法uを1とした単位を用いればよい。   As another definition method of the pixel value, a method of recognizing the contour lines of the graphics F1 to F5 based on the original graphic pattern 10 and setting the length of the contour line existing in each pixel U as the pixel value of the pixel. Can also be taken. When this method is adopted, the pixel value of each pixel is defined as the total sum of the lengths of the contour lines existing in the pixel in the superimposed state as shown in FIG. An image in which pixel values are defined by such a method is generally called an “edge length density map”. As a unit of the length of the contour line, for example, a unit in which the pixel dimension u is 1 may be used.

図11は、図9に示す「元図形パターン10+画素の二次元配列」に基づいて作成されたエッジ長密度マップM2を示す図である。ここでも、各セルは、図9で定義された各画素であり、セル内の数字は各画素内に存在する輪郭線の長さの総和(画素寸法uを1とした長さ)として定義された画素値である。なお、空白のセルは、画素値0をもつ画素である(画素値0の図示は省略されている)。このエッジ長密度マップM2において、たとえば、画素値1.0をもつ画素は、図9において、画素内に存在する輪郭線の長さがuとなる画素である。このエッジ長密度マップM2は、基本的に、輪郭線の密度分布を示すモノクロの階調画像ということになるので、前述した面積密度マップM1とは性質がかなり異なる画像になる。ただ、輪郭線上に定義された評価点Eについての特徴量を抽出する上では、非常に有用な画像になる。   FIG. 11 is a diagram showing an edge length density map M2 created based on the “original graphic pattern 10 + two-dimensional array of pixels” shown in FIG. Again, each cell is each pixel defined in FIG. 9, and the numbers in the cell are defined as the sum of the lengths of the contour lines existing in each pixel (the length when the pixel dimension u is 1). Pixel value. A blank cell is a pixel having a pixel value of 0 (illustration of the pixel value of 0 is omitted). In the edge length density map M2, for example, a pixel having a pixel value of 1.0 is a pixel having a length u of the contour line existing in the pixel in FIG. Since the edge length density map M2 is basically a monochrome gradation image showing the density distribution of the contour line, the image is considerably different from the area density map M1 described above. However, it is a very useful image in extracting the feature amount for the evaluation point E defined on the contour line.

以上、図8に示す元図形パターン10に基づいて、個々の画素の画素値を定義する方法を述べたが、リソグラフィプロセスに用いる元図形パターン10には、図形の内部と外部との境界を示す輪郭線の幾何学的な情報に加えて、更に、各図形に関するドーズ量の情報が付加されることがある。図12は、このようなドーズ量の情報を含んだ元図形パターン10を示す平面図である。図12に示すドーズ量付きの元図形パターン10は、図8に示す元図形パターン10と同様に、各図形F1〜F5の輪郭線の情報を含んでいるが、それに加えて、各図形F1〜F5のそれぞれについて、ドーズ量を定義する情報を含んでいる。   As described above, the method for defining the pixel value of each pixel based on the original graphic pattern 10 shown in FIG. 8 has been described. However, the original graphic pattern 10 used in the lithography process shows the boundary between the inside and the outside of the graphic. In addition to the geometric information of the contour line, information on a dose amount for each figure may be further added. FIG. 12 is a plan view showing the original graphic pattern 10 including information on such a dose amount. The original figure pattern 10 with a dose amount shown in FIG. 12 includes information on the outlines of the figures F1 to F5, similarly to the original figure pattern 10 shown in FIG. For each of F5, information defining the dose amount is included.

具体的には、図示の例の場合、図形F1〜F3についてはドーズ量100%が定義され、図形F4についてはドーズ量50%が定義され、図形F5についてはドーズ量10%が定義されている。これらのドーズ量は、リソグラフィプロセスの露光工程において、照射する光や電子線の強度(露光の回数によって総エネルギー量を制御する場合も含む)を示すものである。図示の例の場合、図形F1〜F3の内部領域を露光する際には100%の強度で光や電子線を照射するが、図形F4の内部領域を露光する際には50%、図形F5の内部領域を露光する際には10%の強度で光や電子線を照射することになる。このように、露光工程時に、個々の図形ごとにドーズ量を制御するようにすれば、実基板S上に形成される実図形パターン20の寸法を更に細かく調整することができる。   Specifically, in the illustrated example, a dose amount of 100% is defined for the graphics F1 to F3, a dose amount of 50% is defined for the graphics F4, and a dose amount of 10% is defined for the graphics F5. . These dose amounts indicate the intensity of light or electron beam to be irradiated (including the case where the total energy amount is controlled by the number of exposures) in the exposure process of the lithography process. In the case of the illustrated example, when exposing the internal area of the figures F1 to F3, light or an electron beam is irradiated with an intensity of 100%, but when exposing the internal area of the figure F4, 50% of the figure F5 When the internal region is exposed, light or an electron beam is irradiated with an intensity of 10%. As described above, when the dose is controlled for each figure during the exposure process, the dimensions of the actual figure pattern 20 formed on the actual substrate S can be further finely adjusted.

リソグラフィプロセスの露光工程において、このようなドーズ量の制御を行うケースでは、シミュレーションにおいても、ドーズ量を考慮する必要がある。このようなケースでは、元画像の画素値を決定する際に、ドーズ量を考慮した方法を採る必要がある。すなわち、図形の内部と外部との境界を示す輪郭線の情報と、リソグラフィプロセスにおける各図形に関するドーズ量の情報と、を含む元図形パターン10が与えられた場合には、当該元図形パターン10に基づいて、各図形の内部領域と外部領域とを認識し、更に、各図形に関するドーズ量を認識し、各画素内に存在する各図形について「内部領域の占有率と当該図形のドーズ量との積」を求め、当該積の総和を当該画素の画素値とする方法を採ればよい。   In the case of controlling the dose amount in the exposure process of the lithography process, it is necessary to consider the dose amount in the simulation. In such a case, when determining the pixel value of the original image, it is necessary to adopt a method that takes the dose amount into consideration. That is, when an original graphic pattern 10 including information on a contour line indicating the boundary between the inside and the outside of the graphic and information on a dose amount for each graphic in the lithography process is given, Based on this, the internal area and external area of each figure are recognized, the dose amount for each figure is recognized, and for each figure existing in each pixel, the occupancy rate of the internal area and the dose amount of the figure are determined. What is necessary is just to take the method which calculates | requires "a product" and makes the sum total of the said product the pixel value of the said pixel.

この方法を採る場合、図9のように重ね合わせた状態において、各画素の画素値は、当該画素内における特定の図形の内部領域(ハッチング領域)の占有率(0〜1)と当該特定の図形に関するドーズ量の積の総和として定義される。このような方法で画素値が定義された画像は、一般に「ドーズ密度マップ」と呼ばれている。このドーズ密度マップも、全体としてはモノクロの階調画像になる。   When this method is adopted, the pixel value of each pixel in the state of being overlapped as shown in FIG. 9 is determined based on the occupation ratio (0 to 1) of the internal area (hatched area) of the specific figure in the pixel and the specific value. It is defined as the sum of products of doses related to figures. An image in which pixel values are defined by such a method is generally called a “dose density map”. This dose density map also becomes a monochrome gradation image as a whole.

図13は、図12に示すドーズ量付きの元図形パターン10に基づいて作成されたドーズ密度マップM3を示す図である。ここで、各セルは、図9で定義された各画素であり、セル内の数字は各画素に定義された画素値である。なお、空白のセルは、画素値0をもつ画素である(画素値0の図示は省略されている)。このドーズ密度マップM3を、図10に示す面積密度マップM1と比較すると、ドーズ量100%が与えられた図形F1〜F3が配置された画素についての画素値に変わりはないが、ドーズ量50%が与えられた図形F4やドーズ量10%が与えられた図形F5が配置された画素についての画素値は、当該ドーズ量に応じた量だけ減じられていることがわかる。これは、実際の露光工程において、図形F4,F5の内部に対して、強度が減じられた光や電子線が照射される現象を示すものである。   FIG. 13 is a diagram showing a dose density map M3 created based on the original figure pattern 10 with dose shown in FIG. Here, each cell is each pixel defined in FIG. 9, and the numbers in the cell are pixel values defined for each pixel. A blank cell is a pixel having a pixel value of 0 (illustration of the pixel value of 0 is omitted). When this dose density map M3 is compared with the area density map M1 shown in FIG. 10, there is no change in the pixel value for the pixels where the figures F1 to F3 to which the dose amount 100% is given are arranged, but the dose amount 50%. It can be seen that the pixel value of the pixel in which the figure F4 to which the figure is given and the figure F5 to which the dose amount is 10% is arranged is reduced by an amount corresponding to the dose quantity. This shows a phenomenon in which light or an electron beam with reduced intensity is irradiated to the inside of the figures F4 and F5 in the actual exposure process.

以上、元図形パターン10に基づいて、面積密度マップM1、エッジ長密度マップM2、ドーズ密度マップM3という3通りの画像(所定の画素値を有する画素Uの集合体)を作成する例を示した。図7の流れ図におけるステップS32の元画像作成処理では、これら3通りの画像のいずれかを作成して元画像とすればよい。図7では、一例として、面積密度マップM1を元画像Q1とした例が示されている。もちろん、上述した3通り以外の方法で元画像Q1を作成することも可能である。   As described above, an example in which three images (an aggregate of pixels U having a predetermined pixel value), that is, the area density map M1, the edge length density map M2, and the dose density map M3 are created based on the original figure pattern 10 has been shown. . In the original image creation process in step S32 in the flowchart of FIG. 7, any of these three images may be created and used as the original image. FIG. 7 shows an example in which the area density map M1 is the original image Q1. Of course, it is also possible to create the original image Q1 by a method other than the three methods described above.

なお、このステップS32で作成された元画像Q1は、ステップS33のフィルタ処理において、第1番目の準備画像Q1として利用される。ステップS33のフィルタ処理は、後述するように、第k番目の準備画像Qkに画像処理フィルタを作用させて、第k番目の階層画像Pkを作成する処理である。そこで、ステップS32の手順は、パラメータk(k=1,2,3,... )を初期値k=1に設定して、第1番目の準備画像Q1を作成する処理と言うことができる。この第1番目の準備画像Q1は、元図形パターン10に基づいて最初に作成された元画像であり、後述する画像ピラミッド作成工程において最初に用いられる基準の画像ということになる。   The original image Q1 created in step S32 is used as the first preparation image Q1 in the filtering process in step S33. As will be described later, the filtering process in step S33 is a process of creating a kth hierarchical image Pk by applying an image processing filter to the kth preparation image Qk. Therefore, it can be said that the procedure of step S32 is a process of setting the parameter k (k = 1, 2, 3,...) To the initial value k = 1 and creating the first preparation image Q1. . The first preparation image Q1 is an original image that is first created based on the original graphic pattern 10, and is a reference image that is first used in an image pyramid creation process described later.

<2.2 画像ピラミッド作成部122による処理手順>
続いて、画像ピラミッド作成部122による画像ピラミッドの作成処理の手順を説明する。画像ピラミッド作成部122は、図7のステップS32で作成された元画像Q1(たとえば、図10に示す面積密度マップM1)に基づいて、画素数を小さくする縮小処理を行う機能を有し、それぞれ異なるサイズをもった複数の階層画像からなる画像ピラミッドを作成する画像ピラミッド作成処理を行う。ここで述べる実施例の場合、この画像ピラミッド作成処理は、図7の流れ図のステップS33〜S36に示す手順によって実行される。
<2.2 Processing Procedure by Image Pyramid Creation Unit 122>
Subsequently, a procedure of image pyramid creation processing by the image pyramid creation unit 122 will be described. The image pyramid creation unit 122 has a function of performing a reduction process for reducing the number of pixels based on the original image Q1 created in step S32 of FIG. 7 (for example, the area density map M1 shown in FIG. 10). An image pyramid creation process is performed to create an image pyramid composed of a plurality of hierarchical images having different sizes. In the case of the embodiment described here, this image pyramid creation process is executed by the procedure shown in steps S33 to S36 in the flowchart of FIG.

ここでは、ステップS31において、図8に示すような元図形パターン10が入力され、ステップS32において、図10に示す面積密度マップM1が元画像Q1として作成された場合を例にとって、具体的な画像ピラミッド作成処理の手順を説明する。   Here, in step S31, an original graphic pattern 10 as shown in FIG. 8 is input, and in step S32, a specific image is taken as an example where the area density map M1 shown in FIG. 10 is created as the original image Q1. The procedure of the pyramid creation process will be described.

まず、ステップS33では、第k番目の準備画像Qkに画像処理フィルタを作用させて、第k番目の階層画像Pkを作成するフィルタ処理が実行される。このフィルタ処理は、具体的には、たとえば、画像処理フィルタとしてガウシアンフィルタを用いた畳込演算として実行される。図14は、準備画像QkにガウシアンフィルタGF33を用いたフィルタ処理を施すことにより、第k番目の階層画像Pkを作成する手順を示す平面図である。この図14に示されている第k番目の準備画像Qkは、実際には、図10に示す面積密度マップM1と同じものである。   First, in step S33, a filter process for creating a kth hierarchical image Pk by applying an image processing filter to the kth preparation image Qk is executed. Specifically, this filter processing is executed, for example, as a convolution operation using a Gaussian filter as an image processing filter. FIG. 14 is a plan view showing a procedure for creating the k-th hierarchical image Pk by performing the filtering process using the Gaussian filter GF33 on the preparation image Qk. The kth preparation image Qk shown in FIG. 14 is actually the same as the area density map M1 shown in FIG.

すなわち、図10に示す面積密度マップM1は、便宜上、8×8の画素配列として示され、画素値0の記載が省略されているのに対して、図14に示す準備画像Qkは、10×10の画素配列として示され、画素値0も記載されているが、両者は実質的に同一の画像である。要するに、図14では、フィルタ処理を実行する都合上、図10に示す8×8の画素配列からなる面積密度マップM1の周囲に、画素値0を有する画素を配置して10×10の画素配列としているだけである。この段階では、パラメータkは初期値1であり、図14に示す準備画像Qkは、第1番目の準備画像Q1ということになる。上述したとおり、この第1番目の準備画像Q1は、ステップS32における元画像作成処理で作成された元画像に他ならない。   That is, the area density map M1 shown in FIG. 10 is shown as an 8 × 8 pixel array for convenience, and the description of the pixel value 0 is omitted, whereas the preparation image Qk shown in FIG. Although shown as a pixel array of 10 and a pixel value of 0 is also shown, they are substantially the same image. In short, in FIG. 14, for the convenience of executing the filtering process, pixels having a pixel value of 0 are arranged around the area density map M1 including the 8 × 8 pixel array shown in FIG. It is only doing. At this stage, the parameter k has an initial value of 1, and the preparation image Qk shown in FIG. 14 is the first preparation image Q1. As described above, the first preparation image Q1 is nothing but the original image created by the original image creation process in step S32.

図14に示すフィルタ処理では、ガウシアンフィルタGF33を用いた畳込演算が実行される。ガウシアンフィルタGF33は、図示のような3×3の画素配列であり、このガウシアンフィルタGF33を、第k番目の準備画像Qkの所定位置に重ね合わせて積和演算処理を行うことにより、第k番目の階層画像Pk(フィルタ処理画像)が得られる。図15は、図14に示すフィルタ処理により得られた第k番目の階層画像Pkを示す平面図である。この第k番目の階層画像Pkは、第k番目の準備画像Qkと同様に10×10の画素配列からなり、個々の画素の画素値は、ガウシアンフィルタGF33を用いた積和演算によって得られた値になる。   In the filter processing shown in FIG. 14, a convolution operation using the Gaussian filter GF33 is executed. The Gaussian filter GF33 has a 3 × 3 pixel array as shown in the figure. The Gaussian filter GF33 is superposed on a predetermined position of the k-th preparation image Qk to perform a product-sum operation process, thereby performing the k-th operation. Layer image Pk (filtered image). FIG. 15 is a plan view showing the k-th hierarchical image Pk obtained by the filtering process shown in FIG. This k-th hierarchical image Pk has a 10 × 10 pixel array as in the k-th preparation image Qk, and the pixel value of each pixel is obtained by a product-sum operation using the Gaussian filter GF33. Value.

たとえば、図15に示す第k番目の階層画像Pkにおいて、太枠で囲った画素(第4行第3列の画素)に着目すると、この着目画素には画素値0.375が与えられている。当該画素値は、図14に太枠で囲った3×3の画素配列(第4行第3列の画素を中心とした9画素)上に、図示のガウシアンフィルタGF33を重ね、9画素のそれぞれについて、同位置に重ねられた画素同士の画素値の積を求め、9個の積の総和として求められたものである。具体的には、着目画素の画素値0.375は、「(1/16×0)+(2/16×0.25)+(1/16×0.5)+(2/16×0)+(4/16×0.5)+(2/16×1.0)+(1/16×0)+(2/16×0.25)+(1/16×0.5)」なる積和演算値として求められる。このような積和演算によるフィルタ処理は、画像についての畳込演算処理として一般的に知られた処理であるため、ここでは詳しい説明は省略する。   For example, in the k-th hierarchical image Pk shown in FIG. 15, when attention is paid to a pixel surrounded by a thick frame (pixel in the fourth row and third column), a pixel value of 0.375 is given to the target pixel. . The pixel value is obtained by superimposing the illustrated Gaussian filter GF33 on the 3 × 3 pixel array (9 pixels centered on the pixel in the fourth row and third column) surrounded by a thick frame in FIG. , The product of the pixel values of pixels superposed at the same position is obtained, and the product is obtained as the sum of nine products. Specifically, the pixel value 0.375 of the target pixel is “(1/16 × 0) + (2/16 × 0.25) + (1/16 × 0.5) + (2/16 × 0). ) + (4/16 × 0.5) + (2/16 × 1.0) + (1/16 × 0) + (2/16 × 0.25) + (1/16 × 0.5) ” Is obtained as a product-sum operation value. Such filter processing by product-sum operation is generally known as convolution operation processing for an image, and thus detailed description thereof is omitted here.

なお、図14に示すフィルタ処理では、画像処理フィルタとして、図16(a) に示すような3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算を行っているが、図16(b) に示すような3×3の画素配列からなるラプラシアンフィルタLF33を用いた畳込演算を行うようにしてもよい。一般に、ガウシアンフィルタを用いたフィルタ処理は、画像の輪郭をボケさせる効果を与え、ラプラシアンフィルタを用いたフィルタ処理は、画像の輪郭を強調させる効果を与えることが知られている。いずれのフィルタ処理を採用しても、第k番目の準備画像Qkに対して若干特徴が異なる第k番目の階層画像Pkを得ることができるので、それぞれ異なる特徴をもった複数の階層画像からなる画像ピラミッドを作成する上で効果的である。   In the filter processing shown in FIG. 14, a convolution operation is performed using a Gaussian filter GF33 having a 3 × 3 pixel array as shown in FIG. 16A as an image processing filter. A convolution operation using a Laplacian filter LF33 having a 3 × 3 pixel array as shown in b) may be performed. In general, it is known that filter processing using a Gaussian filter gives an effect of blurring the contour of an image, and filter processing using a Laplacian filter gives an effect of enhancing the contour of an image. Regardless of which filter processing is employed, the k-th hierarchical image Pk having slightly different characteristics from the k-th prepared image Qk can be obtained, and thus includes a plurality of hierarchical images each having different characteristics. It is effective in creating an image pyramid.

もちろん、ステップS33のフィルタ処理に用いる画像処理フィルタは、図16(a) に示すガウシアンフィルタGF33や図16(b) に示すラプラシアンフィルタLF33に限定されるものではなく、この他にも種々の画像処理フィルタを利用することが可能である。また、用いる画像処理フィルタのサイズも、3×3の画素配列に限定されることなく、任意のサイズの画像処理フィルタを利用することが可能である。たとえば、図17(a) に示すような5×5の画素配列からなるガウシアンフィルタGF55や、図17(b) に示すような5×5の画素配列からなるラプラシアンフィルタLF55を利用してもよい。   Of course, the image processing filter used for the filter processing in step S33 is not limited to the Gaussian filter GF33 shown in FIG. 16 (a) or the Laplacian filter LF33 shown in FIG. 16 (b). Processing filters can be used. Further, the size of the image processing filter to be used is not limited to the 3 × 3 pixel array, and an image processing filter of an arbitrary size can be used. For example, a Gaussian filter GF55 having a 5 × 5 pixel array as shown in FIG. 17A or a Laplacian filter LF55 having a 5 × 5 pixel array as shown in FIG. 17B may be used. .

こうして、図7の手順におけるステップS33のフィルタ処理が完了すると、ステップS34において、パラメータkが所定の設定値nに到達したか否かが判断され、k<nの場合には、ステップS35の縮小処理が実行される。この縮小処理は、所定の対象画像を元に、当該対象画像よりも画素数の小さな画像を作成する処理である。ここに示す実施例の場合、ステップS33のフィルタ処理で作成された第k番目の階層画像Pkに対して縮小処理を実行することにより、第(k+1)番目の準備画像Q(k+1)を作成する処理が実行される。したがって、準備画像Q(k+1)は、階層画像Pkよりもサイズが小さな画像(画素配列における縦横の画素数が小さな画像)になる。   Thus, when the filtering process in step S33 in the procedure of FIG. 7 is completed, it is determined in step S34 whether or not the parameter k has reached a predetermined set value n. If k <n, the reduction in step S35 is performed. Processing is executed. This reduction processing is processing for creating an image having a smaller number of pixels than the target image based on the predetermined target image. In the case of the example shown here, the (k + 1) th preparation image Q (k + 1) is created by executing the reduction process on the kth hierarchical image Pk created by the filtering process of step S33. Processing is executed. Therefore, the preparation image Q (k + 1) is an image having a smaller size than the hierarchical image Pk (an image having a small number of vertical and horizontal pixels in the pixel array).

このような画像についての縮小処理は、「プーリング処理」とも呼ばれ、ステップS35で行う縮小処理としては、たとえば、「アベレージ・プーリング処理」を採用することができる。図18は、第k番目の階層画像Pkに対して、アベレージ・プーリング処理を施すことにより、縮小画像として、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。具体的には、図18(a) に示す4×4の画素配列からなる階層画像Pkにアベレージ・プーリング処理(縮小処理)を施すことにより、図18(b) に示すような2×2の画素配列からなる準備画像Q(k+1)が縮小画像として作成されている。   Such reduction processing for an image is also referred to as “pooling processing”, and for example, “average pooling processing” can be adopted as the reduction processing performed in step S35. FIG. 18 is a plan view showing a procedure for creating an (k + 1) th preparation image Q (k + 1) as a reduced image by performing an average pooling process on the kth hierarchical image Pk. . Specifically, by applying an average pooling process (reduction process) to the hierarchical image Pk having the 4 × 4 pixel array shown in FIG. 18A, a 2 × 2 pixel as shown in FIG. A preparation image Q (k + 1) having a pixel array is created as a reduced image.

図18に示すアベレージ・プーリング処理は、2×2の画素配列からなる4個の画素を1つの画素に変換(縮小)する処理であり、元の4個の画素の画素値の平均値を、変換後の1つの画素の画素値とすることにより、縮小画像が作成されることになる。たとえば、図18(a) に示す階層画像Pkの左上に配置されている2×2の画素配列からなる4個の画素(太枠内の画素)は、図18(b) の準備画像Q(k+1)上では太枠で示す1画素に変換(縮小)されている。この変換(縮小)後の太枠画素の画素値0.5は、元の4個の画素の画素値の平均値になっている。   The average pooling process shown in FIG. 18 is a process of converting (reducing) four pixels having a 2 × 2 pixel array into one pixel, and an average value of pixel values of the original four pixels is expressed as follows: By using the pixel value of one pixel after conversion, a reduced image is created. For example, four pixels (pixels within a thick frame) having a 2 × 2 pixel arrangement arranged on the upper left of the hierarchical image Pk shown in FIG. 18A are prepared images Q (in FIG. 18B). On (k + 1), it is converted (reduced) to one pixel indicated by a thick frame. The pixel value 0.5 of the thick frame pixel after this conversion (reduction) is an average value of the pixel values of the original four pixels.

一方、図19は、第k番目の階層画像Pkに対して、マックス・プーリング処理を施すことにより、縮小画像として、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。具体的には、図19(a) に示す4×4の画素配列からなる階層画像Pkにマックス・プーリング処理(縮小処理)を施すことにより、図19(b) に示すような2×2の画素配列からなる準備画像Q(k+1)が縮小画像として作成されている。   On the other hand, FIG. 19 is a plan view showing a procedure for creating a (k + 1) th preparation image Q (k + 1) as a reduced image by performing a max pooling process on the kth hierarchical image Pk. It is. Specifically, by performing a max pooling process (reduction process) on the hierarchical image Pk having the 4 × 4 pixel array shown in FIG. 19A, a 2 × 2 pixel as shown in FIG. 19B is obtained. A preparation image Q (k + 1) having a pixel array is created as a reduced image.

図19に示すマックス・プーリング処理は、図18に示すアベレージ・プーリング処理と同様に、2×2の画素配列からなる4個の画素を1つの画素に変換(縮小)する処理であるが、元の4個の画素の画素値の最大値を、変換後の1つの画素の画素値とすることにより、縮小画像が作成されることになる。たとえば、図19(a) に示す階層画像Pkの左上に配置されている2×2の画素配列からなる4個の画素(太枠内の画素)は、図19(b) の準備画像Q(k+1)上では太枠で示す1画素に変換(縮小)されている。この変換(縮小)後の太枠画素の画素値1.0は、元の4個の画素の画素値の最大値になっている。   The maximum pooling process shown in FIG. 19 is a process for converting (reducing) four pixels having a 2 × 2 pixel array into one pixel, similar to the average pooling process shown in FIG. By using the maximum value of the pixel values of the four pixels as the pixel value of one pixel after conversion, a reduced image is created. For example, four pixels (pixels within a thick frame) having a 2 × 2 pixel arrangement arranged at the upper left of the hierarchical image Pk shown in FIG. 19A are prepared images Q (in FIG. 19B). On (k + 1), it is converted (reduced) to one pixel indicated by a thick frame. The pixel value 1.0 of the thick frame pixel after this conversion (reduction) is the maximum value of the pixel values of the original four pixels.

なお、図18および図19に示す各プーリング処理は、2×2の画素配列からなる4個の画素を単一の画素に変換する縮小処理であるが、もちろん、3×3の画素配列からなる9個の画素を単一の画素に変換する縮小処理を行うことも可能であるし、3×2の画素配列からなる6個の画素を単一の画素に変換する縮小処理を行うことも可能である。   Each of the pooling processes shown in FIGS. 18 and 19 is a reduction process for converting four pixels having a 2 × 2 pixel array into a single pixel, but of course, having a 3 × 3 pixel array. It is also possible to perform a reduction process for converting nine pixels into a single pixel, and it is also possible to perform a reduction process for converting six pixels having a 3 × 2 pixel array into a single pixel. It is.

結局、画像ピラミッド作成部122は、ステップS35の縮小処理として、複数m個の隣接画素を、これら複数m個の隣接画素の画素値の平均値を画素値とする単一の画素に置き換えるアベレージ・プーリング処理を実行することにより縮小画像を作成することもできるし、複数m個の隣接画素を、これら複数m個の隣接画素の画素値の最大値を画素値とする単一の画素に置き換えるマックス・プーリング処理を実行することにより縮小画像を作成することもできる。もちろん、ステップS35の縮小処理としては、その他の縮小処理を行うことも可能である。要するに、階層画像Pkに対して画素数を小さくするような変換を施すことにより、サイズの小さな準備画像Q(k+1)を作成することができる処理、別言すれば、「画素数が小さくなった縮小画像」を作成する処理であれば、ステップS35において、どのような縮小処理を実行してもかまわない。   After all, the image pyramid creation unit 122 replaces the plurality of m adjacent pixels with a single pixel having an average value of the pixel values of the plurality of m adjacent pixels as a pixel value as the reduction processing in step S35. It is also possible to create a reduced image by executing the pooling process, and to replace a plurality of m adjacent pixels with a single pixel having the maximum pixel value of the plurality of m adjacent pixels as a pixel value. -It is also possible to create a reduced image by executing a pooling process. Of course, other reduction processing can be performed as the reduction processing in step S35. In short, a process that can create a small-sized preparation image Q (k + 1) by performing conversion that reduces the number of pixels on the hierarchical image Pk, in other words, “the number of pixels has decreased. As long as it is a process for creating a “reduced image”, any reduction process may be executed in step S35.

こうして、ステップS35の縮小処理が完了したら、ステップS36において、パラメータkが1だけ増加され、再びステップS33のフィルタ処理が実行される。結局、上述のように、k=1として第1番目の準備画像Q1(元画像)に対してステップS33でフィルタ処理を行うことにより第1番目の階層画像P1が作成され、続いて、ステップS35で、この階層画像P1に対して縮小処理を行うことにより第2番目の準備画像Q2が作成され、ステップS36でk=2に更新され、再びステップS33において、第2番目の準備画像Q2に対するフィルタ処理を行うことにより第2番目の階層画像P2が作成されることになる。   Thus, when the reduction process of step S35 is completed, the parameter k is increased by 1 in step S36, and the filter process of step S33 is executed again. Eventually, as described above, k = 1 and the first preparation image Q1 (original image) is filtered in step S33 to create the first hierarchical image P1, and then step S35. Thus, the second preparation image Q2 is created by performing the reduction process on the hierarchical image P1, and is updated to k = 2 in step S36. By performing the process, the second hierarchical image P2 is created.

このような繰り返し手順が、ステップS34において、k=nと判断されるまで繰り返し実行される。ここで、nの値としては、画像ピラミッドの階層数(すなわち、画像ピラミッドを構成する階層画像の総数)として適切な値を予め設定しておけばよい。nの値を大きく設定すればするほど、1つの評価点Eについて抽出される特徴量の数nが多くなるので、より正確なシミュレーションが可能になるが、演算負担は増大する。また、ステップS35の縮小処理を繰り返すほど、画像のサイズはどんどん小さくなってゆくので、nの値を大きく設定しすぎると、ステップS35の縮小処理を行うことができなくなる。したがって、実用上は、元画像Q1のサイズや演算負担を考慮して、nの値を適切に設定すればよい。   Such an iterative procedure is repeatedly executed until it is determined in step S34 that k = n. Here, as the value of n, an appropriate value may be set in advance as the number of layers of the image pyramid (that is, the total number of layer images constituting the image pyramid). As the value of n is set larger, the number n of feature quantities extracted for one evaluation point E increases, so that more accurate simulation becomes possible, but the calculation burden increases. Further, as the reduction process in step S35 is repeated, the size of the image becomes smaller. Therefore, if the value of n is set too large, the reduction process in step S35 cannot be performed. Therefore, in practice, the value of n may be set appropriately in consideration of the size of the original image Q1 and the calculation burden.

こうして、ステップS34において、k=nと判断されると、画像ピラミッド作成部122による処理は完了である。この時点で、図6に示すように、複数n通りの階層画像P1〜Pnからなる画像ピラミッドPPが作成されたことになる。そこで、ステップS34からステップS37へと進み、特徴量算出処理が実行される。   Thus, when it is determined in step S34 that k = n, the processing by the image pyramid creation unit 122 is completed. At this time, as shown in FIG. 6, an image pyramid PP composed of a plurality of n hierarchical images P1 to Pn is created. Therefore, the process proceeds from step S34 to step S37, and a feature amount calculation process is executed.

図20は、画像ピラミッド作成部122において、n通りの階層画像P1〜Pnからなる画像ピラミッドPPを作成する手順(図7のステップS33〜S36の手順)を示す平面図である。図の上段左に示す第1の準備画像Q1は、ステップS32の元画像作成処理において、k=1として作成された元画像であり、個々の画素には、たとえば図10に示す面積密度マップM1のような画素値が定義されている。上述したとおり、ステップS33では、この第1の準備画像Q1に対してフィルタ処理が行われる。具体的には、たとえば、3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算により、図20の上段右に示すような第1の階層画像P1が作成される。この第1の階層画像P1のサイズは、第1の準備画像Q1のサイズと同じである。   FIG. 20 is a plan view showing a procedure (steps S33 to S36 in FIG. 7) for creating an image pyramid PP including n hierarchical images P1 to Pn in the image pyramid creation unit 122. The first preparation image Q1 shown in the upper left of the figure is an original image created with k = 1 in the original image creation processing in step S32. The area density map M1 shown in FIG. The pixel value is defined as follows. As described above, in step S33, the filter process is performed on the first preparation image Q1. Specifically, for example, a first hierarchical image P1 as shown in the upper right of FIG. 20 is created by a convolution operation using a Gaussian filter GF33 having a 3 × 3 pixel array. The size of the first hierarchical image P1 is the same as the size of the first preparation image Q1.

続いて、ステップS35の縮小処理において、第1の階層画像P1に対する縮小処理(たとえば、アベレージ・プーリング処理)が行われ、図20の中段左に示す第2の準備画像Q2が作成される。この第2の準備画像Q2のサイズは、第1の階層画像P1のサイズよりも小さなものになる。続いて、ステップS36において、パラメータkの値が2に更新され、再びステップS33のフィルタ処理が実行される。すなわち、3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算により、図20の中段右に示すような第2の階層画像P2が作成される。この第2の階層画像P2のサイズは、第2の準備画像Q2のサイズと同じである。   Subsequently, in the reduction process in step S35, a reduction process (for example, average pooling process) is performed on the first hierarchical image P1, and a second preparation image Q2 shown in the middle left of FIG. 20 is created. The size of the second preparation image Q2 is smaller than the size of the first hierarchical image P1. Subsequently, in step S36, the value of the parameter k is updated to 2, and the filtering process of step S33 is executed again. That is, the second hierarchical image P2 as shown in the middle right of FIG. 20 is created by the convolution operation using the Gaussian filter GF33 having a 3 × 3 pixel array. The size of the second hierarchical image P2 is the same as the size of the second preparation image Q2.

そして再びステップS35の縮小処理が実行される。すなわち、第2の階層画像P2に対する縮小処理(たとえば、アベレージ・プーリング処理)が行われ、図20の下段左に示す第3の準備画像Q3が作成される。この第3の準備画像Q3のサイズは、第2の階層画像P2のサイズよりも小さなものになる。続いて、ステップS36において、パラメータkの値が3に更新され、再びステップS33のフィルタ処理が実行される。すなわち、3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算により、図20の下段右に示すような第3の階層画像P3が作成される。この第3の階層画像P3のサイズは、第3の準備画像Q3のサイズと同じである。   Then, the reduction process in step S35 is executed again. That is, reduction processing (for example, average pooling processing) is performed on the second hierarchical image P2, and a third preparation image Q3 shown on the lower left of FIG. 20 is created. The size of the third preparation image Q3 is smaller than the size of the second hierarchical image P2. Subsequently, in step S36, the value of the parameter k is updated to 3, and the filtering process of step S33 is executed again. That is, a third layer image P3 as shown in the lower right of FIG. 20 is created by a convolution operation using a Gaussian filter GF33 having a 3 × 3 pixel array. The size of the third layer image P3 is the same as the size of the third preparation image Q3.

このような処理が、パラメータk=nになるまで繰り返し実行され、最終的に、第nの準備画像Qnと第nの階層画像が得られることになる。こうして、第1の階層画像P1〜第nの階層画像Pnまでのサイズが異なるn通りの階層画像によって、画像ピラミッドPPが構成されることになる。   Such processing is repeatedly executed until the parameter k = n, and finally, the n-th preparation image Qn and the n-th layer image are obtained. In this way, the image pyramid PP is constituted by n hierarchical images having different sizes from the first hierarchical image P1 to the nth hierarchical image Pn.

結局、図7の手順に示す実施例の場合、画像ピラミッド作成部122は、元画像Q1もしくは縮小画像Q(k+1)に対して、所定の画像処理フィルタを用いたフィルタ処理を行う機能を有しており、このフィルタ処理と縮小処理とを交互に実行することにより、複数の階層画像P1〜Pnからなる画像ピラミッドPPを作成することになる。   After all, in the case of the embodiment shown in the procedure of FIG. 7, the image pyramid creation unit 122 has a function of performing a filter process using a predetermined image processing filter on the original image Q1 or the reduced image Q (k + 1). By alternately executing the filter process and the reduction process, an image pyramid PP composed of a plurality of hierarchical images P1 to Pn is created.

より具体的には、画像ピラミッド作成部122は、元画像作成部121によって作成された元画像を第1の準備画像Q1とし、第kの準備画像Qk(但し、kは自然数)に対するフィルタ処理によって得られる画像を第kの階層画像Pkとし、第kの階層画像Pkに対する縮小処理によって得られる画像を第(k+1)の準備画像Q(k+1)として、第nの階層画像Pnが得られるまでフィルタ処理と縮小処理とを交互に実行することにより、第1の階層画像P1〜第nの階層画像Pnを含む複数n通りの階層画像からなる画像ピラミッドPPを作成することになる。   More specifically, the image pyramid creation unit 122 uses the original image created by the original image creation unit 121 as the first preparation image Q1, and performs a filtering process on the kth preparation image Qk (where k is a natural number). The obtained image is set as the k-th hierarchical image Pk, the image obtained by the reduction process for the k-th hierarchical image Pk is set as the (k + 1) -th prepared image Q (k + 1), and the filter is performed until the n-th hierarchical image Pn is obtained. By alternately executing the processing and the reduction processing, an image pyramid PP composed of a plurality of n hierarchical images including the first hierarchical image P1 to the nth hierarchical image Pn is created.

先願発明における画像ピラミッドPPは、それぞれ異なるサイズをもった複数の階層画像によって構成されるものであればよいので、図7の流れ図に示す手順において、ステップS35の縮小処理は必須の処理になるが、ステップS33のフィルタ処理は必ずしも必要な処理ではない。ただ、フィルタ処理を行うと、個々の画素の画素値に周囲の画素の画素値の影響を作用させることができる。このため、フィルタ処理を加えることにより、バリエーションに富んだ複数の階層画像を作成することができ、より多様な情報を含んだ特徴量を抽出することができるようになり、結果的に、より正確なシミュレーションが可能になる。したがって、実用上は、図7の流れ図に示す手順のように、縮小処理とフィルタ処理とを交互に実行するようにするのが好ましい。   Since the image pyramid PP in the prior application invention only needs to be composed of a plurality of hierarchical images having different sizes, the reduction process in step S35 is an essential process in the procedure shown in the flowchart of FIG. However, the filtering process in step S33 is not necessarily a necessary process. However, when the filter process is performed, the influence of the pixel values of the surrounding pixels can be applied to the pixel values of the individual pixels. For this reason, by adding filter processing, it is possible to create a plurality of hierarchical images rich in variations, and it is possible to extract feature quantities including more diverse information, resulting in more accurate results. Simulation becomes possible. Therefore, in practice, it is preferable to alternately perform the reduction process and the filter process as in the procedure shown in the flowchart of FIG.

<2.3 特徴量算出部123による処理手順>
次に、特徴量算出部123による特徴量算出処理の手順を説明する。特徴量算出部123は、図7のステップS37に示すとおり、画像ピラミッドPPを構成する各階層画像P1〜Pnに基づいて、各評価点Eについての特徴量x1〜xnを算出する処理を行う。ここでは、この特徴量x1〜xnの算出処理の手順を具体的に説明する。
<2.3 Processing Procedure by Feature Quantity Calculation Unit 123>
Next, a procedure of feature amount calculation processing by the feature amount calculation unit 123 will be described. As shown in step S37 of FIG. 7, the feature amount calculation unit 123 performs a process of calculating the feature amounts x1 to xn for each evaluation point E based on the hierarchical images P1 to Pn that form the image pyramid PP. Here, the procedure of calculation processing of the feature amounts x1 to xn will be specifically described.

図21は、特徴量算出部123において、各階層画像P1〜Pnから特定の評価点Eについての特徴量x1〜xnを算出する手順を示す平面図である。具体的には、図21(a) 〜(c) の左側には、それぞれ第1の階層画像P1,第2の階層画像P2,第3の階層画像P3の各画素配列に、元図形パターン10を構成する長方形(太枠で示す)を重ねた状態が示されており、図21(a) 〜(c) の右側には、各階層画像P1,P2,P3に基づいて、特定の評価点Eについての特徴量x1,x2,x3を算出する原理が示されている。   FIG. 21 is a plan view showing a procedure for calculating feature amounts x1 to xn for a specific evaluation point E from the hierarchical images P1 to Pn in the feature amount calculation unit 123. FIG. Specifically, on the left side of FIGS. 21A to 21C, the original graphic pattern 10 is arranged in each pixel arrangement of the first hierarchical image P1, the second hierarchical image P2, and the third hierarchical image P3, respectively. A rectangle (indicated by a thick frame) is formed on the right side of FIGS. 21 (a) to 21 (c), and specific evaluation points are shown on the right side based on the hierarchical images P1, P2, and P3. The principle of calculating feature amounts x1, x2, and x3 for E is shown.

図21に示す各階層画像P1,P2,P3は、画像ピラミッドPPの各階層を構成する画像の一部である。実際には、P1〜Pnまでのn通りの階層画像が用意され、n組の特徴量x1〜xnが抽出されることになるが、図21では、説明の便宜上、3枚の階層画像P1,P2,P3から3組の特徴量x1,x2,x3を抽出する様子が示されている。   Each hierarchical image P1, P2, P3 shown in FIG. 21 is a part of an image constituting each hierarchy of the image pyramid PP. Actually, n hierarchical images from P1 to Pn are prepared and n sets of feature values x1 to xn are extracted. In FIG. 21, for convenience of explanation, three hierarchical images P1, P1 and Pn are extracted. A state in which three sets of feature values x1, x2, and x3 are extracted from P2 and P3 is shown.

ここで、第1の階層画像P1は、元画像Q1(第1の準備画像)に対してフィルタ処理を施すことによって得られた画像であり、図示の例では、16×16の画素配列を有している。これに対して、第2の階層画像P2は、第1の階層画像P1に対して縮小処理およびフィルタ処理を施すことによって得られた画像であり、図示の例では、8×8の画素配列を有している。また、第3の階層画像P3は、第2の階層画像P2に対して縮小処理およびフィルタ処理を施すことによって得られた画像であり、図示の例では、4×4の画素配列を有している。   Here, the first hierarchical image P1 is an image obtained by performing a filtering process on the original image Q1 (first preparation image). In the illustrated example, the first hierarchical image P1 has a 16 × 16 pixel array. doing. In contrast, the second hierarchical image P2 is an image obtained by performing reduction processing and filtering processing on the first hierarchical image P1, and in the illustrated example, an 8 × 8 pixel array is formed. Have. The third hierarchical image P3 is an image obtained by performing reduction processing and filtering processing on the second hierarchical image P2, and has a 4 × 4 pixel array in the illustrated example. Yes.

図21では、各階層画像P1,P2,P3を、その輪郭が同じ大きさの正方形になるように描いているため、いずれも同じ大きさの画像になっているが、画素配列としては、16×16,8×8,4×4と徐々に縮小しており、画像のサイズは徐々に減少したものになっている。ただ、図21では、各階層画像P1,P2,P3の外枠を、同じ大きさの正方形として描いているため、画素の大きさが徐々に大きくなっている。別言すれば、画像の解像度は、階層画像P1,P2,P3の順に低下してゆき、徐々に粗い画像になってゆく。   In FIG. 21, since each of the hierarchical images P1, P2, and P3 is drawn so that the outline thereof becomes a square having the same size, the images are all the same size, but the pixel arrangement is 16 The image size is gradually reduced to x16, 8x8, and 4x4, and the image size is gradually reduced. However, in FIG. 21, the outer frame of each hierarchical image P1, P2, P3 is drawn as a square of the same size, so the size of the pixels gradually increases. In other words, the resolution of the image decreases in the order of the hierarchical images P1, P2, and P3, and gradually becomes a coarse image.

上述したとおり、図には、元図形パターン10を構成する長方形が太枠で描かれている。各階層画像P1,P2,P3は、いずれも画素の集合体からなるラスター画像であるので、図に太枠で描かれた長方形の輪郭線は、実際には、輪郭線そのものの情報として含まれているわけではなく、個々の画素の画素値の情報として含まれていることになる。ただ、図21では、説明の便宜上、各階層画像P1,P2,P3上の長方形の位置を太線で示してある。ここでは、この長方形の輪郭線上に定義された特定の評価点Eについて、特徴量x1〜xnを抽出する処理を説明する。   As described above, in the figure, the rectangles constituting the original graphic pattern 10 are drawn with a thick frame. Since each of the hierarchical images P1, P2, and P3 is a raster image made up of a collection of pixels, the rectangular outline drawn with a thick frame in the figure is actually included as information on the outline itself. However, it is included as information on pixel values of individual pixels. However, in FIG. 21, for the convenience of explanation, the positions of the rectangles on the hierarchical images P1, P2, and P3 are indicated by bold lines. Here, a process of extracting feature amounts x1 to xn for a specific evaluation point E defined on the rectangular outline will be described.

図21(a) 〜(c) を見ればわかるとおり、各階層画像P1,P2,P3に対して、太枠で示す長方形は同じ相対位置に配置されており、特定の評価点Eも同じ相対位置に配置されている。ここに示す実施例の場合、1つの評価点Eについての特徴量は、その近傍の画素の画素値に基づいて算出される。   As can be seen from FIGS. 21 (a) to 21 (c), the rectangles indicated by the thick frames are arranged at the same relative positions with respect to the respective hierarchical images P1, P2, and P3, and the specific evaluation points E are also at the same relative positions. Placed in position. In the case of the embodiment shown here, the feature amount for one evaluation point E is calculated based on the pixel values of the neighboring pixels.

まず、図21(a) に示すように、第1の階層画像P1に基づいて、評価点Eについての特徴量x1が抽出される。具体的には、特徴量算出部123は、図21(a) の右側に示すように、第1の階層画像P1を構成する画素から、評価点Eの近傍に位置する4個の画素(図にハッチングを施した画素)を着目画素として抽出し、これら4個の着目画素の画素値を用いた演算により特徴量x1を算出する。同様に、図21(b) の右側に示すように、第2の階層画像P2を構成する画素から、評価点Eの近傍に位置する4個の画素(図にハッチングを施した画素)を着目画素として抽出し、これら4個の着目画素の画素値を用いた演算により特徴量x2を算出する。また、図21(c) の右側に示すように、第3の階層画像P3を構成する画素から、評価点Eの近傍に位置する4個の画素(図にハッチングを施した画素)を着目画素として抽出し、これら4個の着目画素の画素値を用いた演算により特徴量x3を算出する。   First, as shown in FIG. 21A, a feature quantity x1 for the evaluation point E is extracted based on the first hierarchical image P1. Specifically, as shown on the right side of FIG. 21A, the feature amount calculation unit 123 includes four pixels (see FIG. 5) located in the vicinity of the evaluation point E from the pixels constituting the first hierarchical image P1. Are extracted as the target pixel, and the feature amount x1 is calculated by the calculation using the pixel values of these four target pixels. Similarly, as shown on the right side of FIG. 21 (b), attention is paid to four pixels (hatched pixels in the figure) located in the vicinity of the evaluation point E from the pixels constituting the second hierarchical image P2. Extracted as pixels, the feature amount x2 is calculated by calculation using the pixel values of these four target pixels. Further, as shown on the right side of FIG. 21 (c), four pixels located in the vicinity of the evaluation point E (pixels hatched in the drawing) from the pixels constituting the third hierarchical image P3 are focused pixels. And the feature amount x3 is calculated by calculation using the pixel values of these four target pixels.

このような処理を、第4の階層画像P4〜第nの階層画像Pnについても行えば、特定の評価点Eについて、n組の特徴量x1〜xnを抽出することができる。これらn組の特徴量x1〜xnは、いずれも元図形パターン10上の同じ評価点Eについて、その周囲の特徴を示すパラメータになるが、元図形パターン10から影響を受ける範囲が互いに異なっている。たとえば、第1の階層画像P1から抽出された特徴量x1は、図21(a) の右側の図にハッチングが施された狭い領域内の特徴を示す値になるが、第2の階層画像P2から抽出された特徴量x2は、図21(b) の右側の図にハッチングが施されたより広い領域内の特徴を示す値になり、第3の階層画像P3から抽出された特徴量x3は、図21(c) の右側の図にハッチングが施された更に広い領域内の特徴を示す値になる。   If such processing is also performed for the fourth hierarchical image P4 to the nth hierarchical image Pn, n sets of feature quantities x1 to xn can be extracted for a specific evaluation point E. These n sets of feature amounts x1 to xn are parameters indicating the surrounding features of the same evaluation point E on the original graphic pattern 10, but the ranges affected by the original graphic pattern 10 are different from each other. . For example, the feature quantity x1 extracted from the first hierarchical image P1 is a value indicating the feature in the narrow area hatched in the diagram on the right side of FIG. 21 (a), but the second hierarchical image P2 The feature value x2 extracted from FIG. 21B is a value indicating a feature in a wider area hatched in the diagram on the right side of FIG. 21B, and the feature value x3 extracted from the third hierarchical image P3 is The value on the right side of FIG. 21 (c) is a value indicating a characteristic in a wider area where hatching is performed.

前述したように、ある1つの評価点Eについてのプロセスバイアスyの値は、前方散乱,後方散乱など、様々なスケール感をもった現象が融合して決まる値になる。したがって、同一の評価点Eについての特徴量として、その周囲のごく狭い範囲に関する特徴量x1から、より広い範囲に関する特徴量xnに至るまで、多様な特徴量x1〜xnを抽出すれば、影響範囲がそれぞれ異なる様々な現象を考慮した正確なシミュレーションを行うことができる。図21には、1つの評価点Eについて、n組の特徴量x1〜xnを抽出する処理が示されているが、実際には、元図形パターン10上に定義された多数の評価点のそれぞれについて、n組の特徴量x1〜xnが同様の手順によって抽出されることになる。   As described above, the value of the process bias y for a certain evaluation point E is a value determined by fusing phenomena having various scale feelings such as forward scattering and back scattering. Therefore, if various feature quantities x1 to xn are extracted from the feature quantity x1 related to a very narrow range to the feature quantity xn related to a wider range as the feature quantity for the same evaluation point E, the influence range is extracted. It is possible to perform an accurate simulation in consideration of various phenomena different from each other. FIG. 21 shows a process of extracting n sets of feature amounts x1 to xn for one evaluation point E. Actually, each of a large number of evaluation points defined on the original graphic pattern 10 is shown. N sets of feature quantities x1 to xn are extracted by the same procedure.

評価点Eの近傍にある着目画素の画素値に基づいて特徴量xを算出する方法としては、着目画素の画素値の単純平均を特徴量xとする単純な方法を採ることができる。たとえば、図21(a) に示すように、第1の階層画像P1から評価点Eについての特徴量x1を抽出するには、図にハッチングを施して示した着目画素(評価点Eの近傍にある4個の画素)の画素値の単純平均を特徴量x1とすればよい。ただ、より正確な特徴量を算出するためには、評価点Eと各着目画素との距離に応じた重みを考慮した加重平均を求め、この加重平均の値を特徴量x1とするのが好ましい。   As a method for calculating the feature amount x based on the pixel value of the target pixel near the evaluation point E, a simple method in which the simple average of the pixel values of the target pixel is the feature amount x can be employed. For example, as shown in FIG. 21 (a), in order to extract the feature quantity x1 for the evaluation point E from the first hierarchical image P1, the pixel of interest (in the vicinity of the evaluation point E) indicated by hatching in the figure is shown. A simple average of the pixel values of (four pixels) may be the feature amount x1. However, in order to calculate a more accurate feature quantity, it is preferable to obtain a weighted average that takes into account the weight according to the distance between the evaluation point E and each pixel of interest, and to use the weighted average value as the feature quantity x1. .

図22は、図21に示す特徴量算出手順で用いる具体的な演算方法(加重平均の値を特徴量とする演算方法)を示す図である。ここでは、特定の評価点Eの近傍に位置する着目画素として、4個の画素A,B,C,Dが選択された例が示されている。具体的には、処理対象となる階層画像P上において、評価点Eに近い順に合計4個の画素を選択する処理を行えば、着目画素A,B,C,Dを決定することができる。そこで、この4個の着目画素A,B,C,Dの画素値について、評価点Eと各画素との距離に応じた重みを考慮した加重平均を特徴量xとする演算を行えばよい。   FIG. 22 is a diagram showing a specific calculation method (calculation method using a weighted average value as a feature value) used in the feature value calculation procedure shown in FIG. Here, an example is shown in which four pixels A, B, C, and D are selected as the pixel of interest located in the vicinity of a specific evaluation point E. Specifically, the target pixels A, B, C, and D can be determined by performing a process of selecting a total of four pixels in order from the evaluation point E on the hierarchical image P to be processed. Therefore, for the pixel values of the four target pixels A, B, C, and D, a calculation may be performed using a weighted average considering the weight according to the distance between the evaluation point E and each pixel as the feature amount x.

図22(a) には、各着目画素A,B,C,Dの中心点にx印が表示され、これらx印を連結する破線が描かれている。各着目画素A,B,C,Dの画素寸法は縦横ともにuであり、上記破線は、この画素寸法uをもった画素を半分に分割する分割線になっている。ここに示す実施例の場合、評価点Eと各着目画素A,B,C,Dとの距離として、評価点Eと各着目画素A,B,C,Dの中心点との横方向距離および縦方向距離を採用している。具体的には、図22(a) に示す例の場合、着目画素Aについては、横方向距離a,縦方向距離cになり、着目画素Bについては、横方向距離b,縦方向距離cになり、着目画素Cについては、横方向距離a,縦方向距離dになり、着目画素Dについては、横方向距離b,縦方向距離dになる。   In FIG. 22A, an x mark is displayed at the center point of each pixel of interest A, B, C, D, and a broken line connecting these x marks is drawn. The pixel size of each pixel of interest A, B, C, and D is u both vertically and horizontally, and the broken line is a dividing line that divides the pixel having the pixel size u in half. In the embodiment shown here, the distance between the evaluation point E and each pixel of interest A, B, C, D is the lateral distance between the evaluation point E and the center point of each pixel of interest A, B, C, D, and The vertical distance is adopted. Specifically, in the example shown in FIG. 22 (a), the target pixel A has a horizontal distance a and a vertical distance c, and the target pixel B has a horizontal distance b and a vertical distance c. Thus, the pixel of interest C has a horizontal distance a and a vertical distance d, and the pixel of interest D has a horizontal distance b and a vertical distance d.

この場合、評価点Eの特徴量xは、各着目画素A,B,C,Dの画素値を同じ符号A,B,C,Dで表し、画素寸法u(画素ピッチ)を1とすれば、図22(b) に示すとおり、
G=(A・b+B・a)/2
H=(C・b+D・a)/2
x=(G・d+H・c)/2
なる演算によって求めることができる。
In this case, if the feature value x of the evaluation point E is represented by the same reference symbols A, B, C, and D as the pixel values of the respective target pixels A, B, C, and D, and the pixel size u (pixel pitch) is 1, As shown in FIG. 22 (b),
G = (A · b + B · a) / 2
H = (C · b + D · a) / 2
x = (G · d + H · c) / 2
Can be obtained by the following calculation.

もちろん、4個の着目画素A,B,C,Dの画素値から特徴量xを算出する方法は、この図22に例示する方法に限定されるものではなく、評価点Eの近傍の画素の画素値を反映した特徴量xを算出することができるのであれば、この他にも様々な算出方法を採ることが可能である。また、図21および図22に例示する算出方法では、着目画素として、評価点Eの近傍に位置する4個の画素を選択しているが、特徴量xの算出に利用する着目画素の数は4個に限定されるものではない。たとえば、評価点Eの近傍に位置する3×3の画素配列を構成する9個の画素を着目画素として選択し、これら9個の着目画素の画素値について、評価点Eとの距離に応じた重みを考慮した加重平均を求め、これを評価点Eについての特徴量xとすることも可能である。   Of course, the method of calculating the feature amount x from the pixel values of the four target pixels A, B, C, and D is not limited to the method illustrated in FIG. Various other calculation methods can be employed as long as the feature value x reflecting the pixel value can be calculated. In the calculation methods illustrated in FIGS. 21 and 22, four pixels located in the vicinity of the evaluation point E are selected as the target pixels. However, the number of target pixels used for calculating the feature amount x is as follows. It is not limited to four. For example, nine pixels constituting a 3 × 3 pixel array located in the vicinity of the evaluation point E are selected as the target pixels, and the pixel values of these nine target pixels are set according to the distance from the evaluation point E. It is also possible to obtain a weighted average in consideration of the weight and use this as the feature quantity x for the evaluation point E.

一般論として、特徴量算出部123は、特定の階層画像P上の特定の評価点Eについての特徴量xを算出する際に、当該特定の階層画像Pを構成する画素から、当該特定の評価点Eに近い順に合計j個の画素を着目画素として抽出し、抽出したj個の着目画素の画素値について、当該特定の評価点Eと各着目画素との距離に応じた重みを考慮した加重平均を求める演算を行い、得られた加重平均の値を特徴量xとすることができる。   In general terms, when calculating the feature value x for a specific evaluation point E on the specific hierarchical image P, the feature value calculating unit 123 calculates the specific evaluation from the pixels constituting the specific hierarchical image P. A total of j pixels are extracted as the target pixel in the order close to the point E, and the weight of the extracted pixel values of the j target pixels in consideration of the weight according to the distance between the specific evaluation point E and each target pixel An arithmetic operation for obtaining an average is performed, and the obtained weighted average value can be used as the feature amount x.

<2.4 特徴量抽出処理の変形例>
ここでは、これまで述べてきた特徴量抽出処理の手順についての変形例をいくつか述べておく。
<2.4 Modification of Feature Extraction Process>
Here, some modified examples of the procedure of the feature amount extraction processing described so far will be described.

(1) 差分画像Dkを階層画像とする変形例
§2.2では、画像ピラミッド作成部122による画像ピラミッドPPの作成処理手順として、図7の流れ図に示すステップS33〜S36の処理を例示した。この処理は、元画像Q1(第1の準備画像)を出発点として、フィルタ処理と縮小処理を交互に実行し、図20に示すような手順により、フィルタ処理によって作成されるn枚の画像(以下、フィルタ処理画像と呼ぶ)を、そのまま階層画像P1〜Pnとして採用し、画像ピラミッドPPを作成する処理である。
(1) Modified Example Using Difference Image Dk as Hierarchical Image In §2.2, the processing of steps S33 to S36 shown in the flowchart of FIG. 7 is exemplified as the image pyramid PP creation processing procedure by the image pyramid creation unit 122. In this process, starting from the original image Q1 (first preparation image), the filtering process and the reduction process are executed alternately, and n images (by the procedure shown in FIG. (Hereinafter referred to as “filtered image”) is adopted as the hierarchical images P1 to Pn as they are to create the image pyramid PP.

これに対して、ここで述べる変形例は、図7の流れ図に示すステップS33〜S36の処理を基本としつつ、更に、ステップS33のフィルタ処理が完了した時点で、フィルタ処理により得られた第kのフィルタ処理画像Pk(§2.2では、第kの階層画像Pkと呼んでいた画像)から第kの準備画像Qkを減じる差分演算「Pk−Qk」を行って第kの差分画像Dkを求める処理が付加される。別言すれば、ここで述べる変形例では、図7の流れ図に示すステップS33〜S36の処理がそのまま実行されることになるが、更に、第kのフィルタ処理画像Pkから第kの準備画像Qkを減じる差分演算「Pk−Qk」が余分に行われることになる。   On the other hand, the modified example described here is based on the processing of steps S33 to S36 shown in the flowchart of FIG. 7, and further, when the filtering processing of step S33 is completed, the k-th obtained by the filtering processing. The difference calculation “Pk−Qk” is performed by subtracting the kth preparation image Qk from the filtered image Pk (image called the kth hierarchical image Pk in §2.2) to obtain the kth difference image Dk. The required processing is added. In other words, in the modification described here, the processing of steps S33 to S36 shown in the flowchart of FIG. 7 is executed as it is, and further, from the kth filtered image Pk to the kth prepared image Qk. The difference calculation “Pk−Qk” is reduced.

ここで、差分演算「Pk−Qk」は、第kのフィルタ処理画像Pkと第kの準備画像Qkとについて、画素配列上で同じ位置に配置された画素を対応画素と定義し、画像Pk上の各画素の画素値から画像Qk上の対応画素の画素値を減算して差分をとり、得られた差分を画素値とする新たな画素の集合体からなる差分画像Dkを求める処理である。   Here, the difference calculation “Pk−Qk” defines pixels arranged at the same position on the pixel array as corresponding pixels for the k-th filtered image Pk and the k-th preparation image Qk. This is a process for subtracting the pixel value of the corresponding pixel on the image Qk from the pixel value of each pixel to obtain a difference, and obtaining a difference image Dk composed of a new pixel aggregate with the obtained difference as the pixel value.

図23は、このような差分演算「Pk−Qk」によって、n通りの差分画像D1〜Dnからなる画像ピラミッドPDを作成する手順を示す平面図である。ここで、上段右側に示す第1の階層画像D1は、差分演算「P1−Q1」によって得られる差分画像であり、具体的には、図20の上段右側に示す第1のフィルタ処理画像P1(図20では、第1の階層画像P1と呼ばれている)から上段左側に示す第1の準備画像Q1を減じる差分演算(対応位置にある画素同士の画素値の引き算)によって算出される。   FIG. 23 is a plan view showing a procedure for creating an image pyramid PD including n difference images D1 to Dn by such a difference calculation “Pk−Qk”. Here, the first hierarchical image D1 shown on the upper right side is a difference image obtained by the difference calculation “P1-Q1”. Specifically, the first filtered image P1 ( In FIG. 20, the difference is calculated by subtracting the first preparation image Q1 shown on the upper left side (referred to as the first hierarchical image P1) (subtraction of pixel values of pixels at corresponding positions).

同様に、図23の中段右側に示す第2の階層画像D2は、差分演算「P2−Q2」によって得られる差分画像であり、具体的には、図20の中段右側に示す第2のフィルタ処理画像P2(図20では、第2の階層画像P2と呼ばれている)から中段左側に示す第2の準備画像Q2を減じる差分演算によって算出される。また、図23の下段右側に示す第3の階層画像D3は、差分演算「P3−Q3」によって得られる差分画像であり、具体的には、図20の下段右側に示す第3のフィルタ処理画像P3(図20では、第3の階層画像P3と呼ばれている)から下段左側に示す第3の準備画像Q3を減じる差分演算によって算出される。以下、同様の差分演算が行われ、最終的に、差分演算「Pn−Qn」によって得られる差分画像が、第nの階層画像Dnということになる。   Similarly, the second hierarchical image D2 shown on the right side of the middle stage in FIG. 23 is a difference image obtained by the difference calculation “P2-Q2”. Specifically, the second filter processing shown on the right side of the middle stage in FIG. The difference is calculated by subtracting the second preparation image Q2 shown on the left side of the middle stage from the image P2 (referred to as the second hierarchical image P2 in FIG. 20). Also, the third hierarchical image D3 shown on the lower right side of FIG. 23 is a difference image obtained by the difference calculation “P3-Q3”. Specifically, the third filtered image shown on the lower right side of FIG. The difference is calculated by subtracting the third preparation image Q3 shown on the left side of the lower stage from P3 (referred to as the third hierarchical image P3 in FIG. 20). Hereinafter, the same difference calculation is performed, and the difference image finally obtained by the difference calculation “Pn−Qn” is the n-th layer image Dn.

§2.2で述べた実施例では、図20に示すとおり、第1の階層画像(第1のフィルタ処理画像)P1〜第nの階層画像(第nのフィルタ処理画像)Pnによって画像ピラミッドPPが構成されていたが、ここで述べる変形例では、図23に示すとおり、第1の階層画像(第1の差分画像)D1〜第nの階層画像(第nの差分画像)Dnによって画像ピラミッドPDが構成されることになる。   In the embodiment described in §2.2, as shown in FIG. 20, the image pyramid PP is generated by the first hierarchical image (first filtered image) P1 to the nth hierarchical image (nth filtered image) Pn. In the modification described here, as shown in FIG. 23, the image pyramid is formed by the first layer image (first difference image) D1 to the nth layer image (nth difference image) Dn. The PD is configured.

上述したように、ここで述べる変形例を実施するには、§2.2で述べた実施例の手順に、更に、差分演算の手順を付加すればよい。具体的には、画像ピラミッド作成部122は、元画像作成部121によって作成された元画像を第1の準備画像Q1とし、第kの準備画像Qk(但し、kは自然数)に対するフィルタ処理によって得られるフィルタ処理画像Pkと第kの準備画像Qkとの差分画像Dkを求め、当該差分画像Dkを第kの階層画像Dkとし、第kのフィルタ処理画像Pkに対する縮小処理によって得られる画像を第(k+1)の準備画像Q(k+1)として、第nの階層画像Dnが得られるまでフィルタ処理と縮小処理とを交互に実行することにより、第1の階層画像D1〜第nの階層画像Dnを含む複数n通りの階層画像からなる画像ピラミッドPDを作成すればよい。   As described above, in order to implement the modification described here, a difference calculation procedure may be added to the procedure of the embodiment described in §2.2. Specifically, the image pyramid creation unit 122 uses the original image created by the original image creation unit 121 as the first preparation image Q1, and obtains it by filtering the kth preparation image Qk (where k is a natural number). The difference image Dk between the filtered image Pk and the kth preparation image Qk is obtained, the difference image Dk is set as the kth hierarchical image Dk, and the image obtained by the reduction processing on the kth filtered image Pk is the ( As the preparation image Q (k + 1) of (k + 1), the first hierarchical image D1 to the nth hierarchical image Dn are included by alternately executing the filtering process and the reduction process until the nth hierarchical image Dn is obtained. An image pyramid PD composed of a plurality of n hierarchical images may be created.

結局、この変形例において画像ピラミッドPDの第k番目の階層を構成する第kの階層画像Dkは、フィルタ処理後の画像(フィルタ処理画像Pk)とフィルタ処理前の画像(準備画像Qk)との差分画像ということになり、各画素の画素値は、フィルタ処理前後の画素値の差に相当する。すなわち、§2.2で述べた実施例における第kの階層画像Pkが、フィルタ処理後の画像自体を示しているのに対して、ここで述べる変形例における第kの階層画像Dkは、フィルタ処理によって生じた差を示すことになる。このように、§2.2で述べた実施例で作成される画像ピラミッドPPと、ここで述べた変形例で作成される画像ピラミッドPDとは、その構成要素となる階層画像の意味合いが大きく異なることになるが、いずれも評価点Eについての何らかの特徴を示す画像である点に変わりはない。したがって、ここで述べた変形例で作成される各階層画像D1〜Dnからも、特徴量の抽出を行うことが可能であり、本変形例における特徴量算出部123は、各階層画像D1〜Dnから特徴量x1〜xnを抽出する処理を行うことになる。   After all, in this modification, the k-th layer image Dk constituting the k-th layer of the image pyramid PD is an image after the filter process (filtered image Pk) and an image before the filter process (prepared image Qk). This is a difference image, and the pixel value of each pixel corresponds to the difference between the pixel values before and after the filtering process. That is, the k-th hierarchical image Pk in the embodiment described in §2.2 shows the image after the filtering process, whereas the k-th hierarchical image Dk in the modification described here is a filter. It shows the difference caused by the process. As described above, the image pyramid PP created in the embodiment described in §2.2 and the image pyramid PD created in the modification described here are significantly different in the meaning of the hierarchical image as a component. As a matter of course, there is no change in the points that are images showing some characteristics about the evaluation point E. Therefore, it is possible to extract feature amounts from each of the hierarchical images D1 to Dn created in the modified example described here, and the feature amount calculating unit 123 in this modified example has the hierarchical images D1 to Dn. Thus, the process of extracting the feature amounts x1 to xn is performed.

(2) 複数通りのアルゴリズムにより複数通りの画像ピラミッドを作成する変形例
§2.2で述べた実施例では、図20に示すとおり、元画像(第1の準備画像Q1)に対してフィルタ処理および縮小処理を交互に実行することにより各フィルタ処理画像P1〜Pnを求め、これら各フィルタ処理画像P1〜Pnをそのままn通りの階層画像P1〜Pnとするアルゴリムにより、画像ピラミッドPPが作成されている。これに対して、§2.4(1) で述べた差分画像Dkを階層画像とする変形例では、図23に示すとおり、フィルタ処理画像Pkと準備画像Qkとの差分演算を行うことにより各差分画像D1〜Dnを求め、これら各差分画像D1〜Dnをn通りの階層画像D1〜Dnとするアルゴリムにより、画像ピラミッドPDが作成されている。
(2) Modified Example of Creating Plural Image Pyramids Using Plural Algorithms In the embodiment described in §2.2, as shown in FIG. 20, the original image (first prepared image Q1) is filtered. The image pyramid PP is created by the algorithm that obtains the filter processed images P1 to Pn by alternately executing the reduction processing and the filter processed images P1 to Pn as n hierarchical images P1 to Pn as they are. Yes. On the other hand, in the modified example in which the difference image Dk described in §2.4 (1) is a hierarchical image, as shown in FIG. 23, each difference operation between the filtered image Pk and the preparation image Qk is performed. Difference images D1 to Dn are obtained, and an image pyramid PD is created by an algorithm that uses these difference images D1 to Dn as n hierarchical images D1 to Dn.

また、フィルタ処理に用いる画像フィルタには、図16や図17に示すように様々な種類があり、縮小処理(プーリング処理)の方法にも、図18や図19に示すように様々な種類がある。このように、出発点が同じ元画像(第1の準備画像Q1)であったとしても、採用するアルゴリズムによって、得られる画像ピラミッドを構成する各階層画像の内容は異なってくる。しかも、先願発明を実行する上で、利用する画像ピラミッドは必ずしも1つである必要はなく、複数通りのアルゴリズムにより複数の画像ピラミッドを作成し、個々の画像ピラミッドからそれぞれ特徴量を抽出することも可能である。   Further, there are various types of image filters used for the filter processing as shown in FIGS. 16 and 17, and there are various types of reduction processing (pooling processing) methods as shown in FIGS. is there. Thus, even if the starting point is the same original image (first preparation image Q1), the contents of the hierarchical images constituting the obtained image pyramid differ depending on the algorithm employed. Moreover, it is not always necessary to use one image pyramid for executing the invention of the prior application. A plurality of image pyramids are created by a plurality of algorithms, and feature amounts are extracted from the individual image pyramids. Is also possible.

すなわち、画像ピラミッド作成部122に、1つの元画像(第1の準備画像Q1)について、互いに異なる複数通りのアルゴリズムに基づく画像ピラミッド作成処理を行う機能をもたせておき、複数通りの画像ピラミッドが作成されるようにしてもよい。この場合、特徴量算出部123は、この複数通りの画像ピラミッドのそれぞれを構成する各階層画像について、評価点の位置に応じた画素(評価点の周囲に位置する画素)の画素値に基づいて特徴量を算出する処理を行うようにすればよい。   That is, the image pyramid creation unit 122 has a function of performing image pyramid creation processing based on a plurality of different algorithms for one original image (first preparation image Q1), thereby creating a plurality of image pyramids. You may be made to do. In this case, the feature amount calculation unit 123, for each hierarchical image constituting each of the plurality of image pyramids, based on the pixel value of a pixel (a pixel located around the evaluation point) corresponding to the evaluation point position. What is necessary is just to perform the process which calculates a feature-value.

たとえば、画像ピラミッド作成部122が画像ピラミッド作成処理を行う際に、主アルゴリズムとして、§2.2で述べた実施例のアルゴリズムを採用すれば、図20に示すように、n通りの主階層画像P1〜Pn(フィルタ処理画像)によって構成される主画像ピラミッドPPを作成することができ、副アルゴリズムとして、§2.4(1) で述べた差分画像Dkを階層画像とする変形例のアルゴリズムを採用すれば、図23に示すように、n通りの副階層画像D1〜Dn(差分画像)によって構成される副画像ピラミッドPDを作成することができる。したがって、画像ピラミッド作成部122が、上記2通りのアルゴリズムを用いて画像ピラミッド作成処理を行うようにすれば、主画像ピラミッドPPと副画像ピラミッドPDとの2通りの画像ピラミッドを作成することができる。   For example, when the image pyramid creation unit 122 performs the image pyramid creation process, if the algorithm of the embodiment described in §2.2 is adopted as the main algorithm, as shown in FIG. A main image pyramid PP composed of P1 to Pn (filtered images) can be created, and as a sub-algorithm, an algorithm of a modified example in which the difference image Dk described in §2.4 (1) is a hierarchical image is used. If it employ | adopts, as shown in FIG. 23, the subimage pyramid PD comprised by n types of subhierarchical images D1-Dn (difference image) can be created. Therefore, if the image pyramid creation unit 122 performs image pyramid creation processing using the above two algorithms, it is possible to create two types of image pyramids, the main image pyramid PP and the sub image pyramid PD. .

ここで、図14に例示するようなガウシアンフィルタを用いたフィルタ処理により作成された主画像ピラミッドPPは、ガウシアンピラミッドと呼ぶことができる。また、差分画像を用いて構成された副画像ピラミッドPDは、ラプラシアンピラミッドと呼ぶことができる。ガウシアンピラミッドとラプラシアンピラミッドは、互いに性質が大きく異なる画像ピラミッドになるので、これらを主画像ピラミッドPPおよび副画像ピラミッドPDとして採用し、2通りの画像ピラミッドを利用して特徴量の抽出を行うようにすれば、より多様性をもった特徴量の抽出が可能になる。   Here, the main image pyramid PP created by the filter processing using the Gaussian filter illustrated in FIG. 14 can be called a Gaussian pyramid. Further, the sub-image pyramid PD configured using the difference image can be called a Laplacian pyramid. Since the Gaussian pyramid and the Laplacian pyramid are image pyramids that are greatly different from each other, they are adopted as the main image pyramid PP and the sub image pyramid PD, and feature amounts are extracted using two image pyramids. This makes it possible to extract feature values with more diversity.

一方、特徴量算出部123が、主画像ピラミッドPPを構成する主階層画像P1〜Pnおよび副画像ピラミッドPDを構成する副階層画像D1〜Dnについて、それぞれ評価点Eの近傍の画素の画素値に基づいて特徴量を算出する処理を行うようにすれば、主階層画像P1〜Pnから算出された特徴量xp1〜xpnと副階層画像D1〜Dnから算出された特徴量xd1〜xdnとが得られる。すなわち、1つの評価点Eについて、合計2n個の特徴量が抽出されることになる。この場合、推定演算部132に対しては、1つの評価点Eについての特徴量が、2n次元ベクトルとして与えられることになるので、より正確な推定演算を行うことが可能になる。   On the other hand, the feature quantity calculation unit 123 sets the pixel values of the pixels near the evaluation point E for the main layer images P1 to Pn constituting the main image pyramid PP and the sub layer images D1 to Dn constituting the sub image pyramid PD, respectively. If the process for calculating the feature amount is performed based on the feature amounts, the feature amounts xp1 to xpn calculated from the main layer images P1 to Pn and the feature amounts xd1 to xdn calculated from the sub layer images D1 to Dn are obtained. . That is, a total of 2n feature amounts are extracted for one evaluation point E. In this case, since the feature amount for one evaluation point E is given to the estimation calculation unit 132 as a 2n-dimensional vector, more accurate estimation calculation can be performed.

結局、上述した変形例を実施するには、画像ピラミッド作成部122が、元画像作成部121によって作成された元画像を第1の準備画像Q1とし、第kの準備画像Qk(但し、kは自然数)に対するフィルタ処理によって得られる画像を第kの主階層画像Pkとし、第kの主階層画像Pkに対する縮小処理によって得られる画像を第(k+1)の準備画像Q(k+1)として、第nの主階層画像Pnが得られるまでフィルタ処理と縮小処理とを交互に実行することにより、第1の主階層画像P1〜第nの主階層画像Pnを含む複数n通りの階層画像からなる主画像ピラミッドを作成し、更に、第kの主階層画像Pkと第kの準備画像Qkとの差分画像Dkを求め、当該差分画像Dkを第kの副階層画像Dkとすることにより、第1の副階層画像D1〜第nの副階層画像Dnを含む複数n通りの階層画像からなる副画像ピラミッドを作成するようにすればよい。   Eventually, in order to implement the above-described modification, the image pyramid creation unit 122 sets the original image created by the original image creation unit 121 as the first preparation image Q1, and the kth preparation image Qk (where k is The image obtained by the filtering process for (natural number) is the k-th main layer image Pk, the image obtained by the reduction process for the k-th main layer image Pk is the (k + 1) th preparation image Q (k + 1), and the nth By alternately executing filter processing and reduction processing until the main hierarchy image Pn is obtained, a main image pyramid including a plurality of n types of hierarchy images including the first main hierarchy image P1 to the nth main hierarchy image Pn. And the difference image Dk between the k-th main layer image Pk and the k-th preparation image Qk is obtained, and the difference image Dk is used as the k-th sub-layer image Dk. It is sufficient to create a sub image pyramid consisting of hierarchy images of a plurality n as including a sub-hierarchy image Dn image D1~ the n.

また、特徴量算出部123については、主画像ピラミッドPPおよび副画像ピラミッドPDを構成する各階層画像について、評価点Eの近傍の画素の画素値に基づいて特徴量を算出するようにすればよい。そうすれば、1つの評価点Eについての特徴量として、2n次元ベクトルを抽出することが可能になり、より正確な推定演算を行うことが可能になる。   The feature amount calculation unit 123 may calculate the feature amount based on the pixel values of the pixels near the evaluation point E for each hierarchical image constituting the main image pyramid PP and the sub image pyramid PD. . If it does so, it will become possible to extract a 2n-dimensional vector as a feature-value about one evaluation point E, and it will become possible to perform a more exact estimation calculation.

(3) 複数通りの元画像を作成して複数通りの画像ピラミッドを作成する変形例
上述した§2.4(2) では、同一の元画像に対して、複数通りのアルゴリズムを適用することにより、複数通りの画像ピラミッドを作成する変形例を述べた。ここでは、複数通りの元画像を作成して複数通りの画像ピラミッドを作成する変形例を述べる。
(3) Modified example of creating multiple image pyramids by creating multiple image originals In §2.4 (2) above, multiple algorithms are applied to the same original image. A modification of creating multiple image pyramids was described. Here, a modified example in which a plurality of original images are created to create a plurality of image pyramids will be described.

先願発明に係る図形パターンの形状推定装置100′では、図1に示すように、元画像作成部121が、与えられた元図形パターン10に基づいて元画像を作成する処理を行う。ここで作成される元画像としては、§2.1で述べたとおり、面積密度マップM1(図10)や、エッジ長密度マップM2(図11)や、ドーズ密度マップM3(図13)など、様々な形態の画像を採用することができる。   In the figure pattern shape estimation apparatus 100 ′ according to the prior application invention, as shown in FIG. 1, the original image creation unit 121 performs a process of creating an original image based on the given original figure pattern 10. As the original image created here, as described in §2.1, the area density map M1 (FIG. 10), the edge length density map M2 (FIG. 11), the dose density map M3 (FIG. 13), etc. Various forms of images can be employed.

別言すれば、元画像作成部121は、元図形パターン10に基づいて元画像を作成する際に、様々な作成アルゴリズムを採用することができ、いずれのアルゴリズムを採用したかによって、内容の異なる様々な元画像を作成することができる。たとえば、図10に示す面積密度マップM1,図11に示すエッジ長密度マップM2,図13に示すドーズ密度マップM3は、いずれも同一の元図形パターン10に基づいて作成された画像であるが、個々の画素のもつ画素値は相互に異なっており、それぞれ異なる画像になっている。あるいは、同一の元図形パターン10に基づいて、画素サイズ(1画素の寸法)およびマップサイズ(縦横に並んだ画素の数)が異なる複数の密度マップ(要するに、解像度が異なる複数のマップ)を準備し、これら複数の密度マップのそれぞれを元画像として複数の画像ピラミッドを作成してもよい。もちろん、理論的には、画素サイズが小さく、マップサイズが大きな密度マップ(高解像度の密度マップ)を元画像として用いるのが理想的であるが、計算機のもつメモリは有限であるため、実用上は、画素サイズおよびマップサイズが異なる複数の密度マップを元画像として用いるのが好ましい。   In other words, the original image creation unit 121 can employ various creation algorithms when creating an original image based on the original graphic pattern 10, and the contents differ depending on which algorithm is employed. Various original images can be created. For example, the area density map M1 shown in FIG. 10, the edge length density map M2 shown in FIG. 11, and the dose density map M3 shown in FIG. 13 are all images created based on the same original figure pattern 10. The pixel values of the individual pixels are different from each other, and each has a different image. Alternatively, based on the same original figure pattern 10, a plurality of density maps (in other words, a plurality of maps having different resolutions) having different pixel sizes (dimensions of one pixel) and map sizes (numbers of pixels arranged vertically and horizontally) are prepared. Then, a plurality of image pyramids may be created using each of the plurality of density maps as an original image. Of course, theoretically, it is ideal to use a density map with a small pixel size and a large map size (high-resolution density map) as the original image. However, since the memory of a computer is limited, it is practically used. Preferably, a plurality of density maps having different pixel sizes and map sizes are used as the original image.

そこで、元画像作成部121に、互いに異なる複数通りのアルゴリズムに基づく元画像作成処理を行い、複数通りの元画像を作成する機能をもたせておき、画像ピラミッド作成部122に、この複数通りの元画像に基づいてそれぞれ別個独立した画像ピラミッドを作成する処理を行う機能をもたせておけば、複数通りの画像ピラミッドを作成することができる。そして、特徴量算出部123に、この複数通りの画像ピラミッドのそれぞれを構成する各階層画像について、評価点Eの近傍の画素の画素値に基づいて特徴量を算出する機能をもたせておけば、より高次元のベクトルからなる特徴量を抽出することが可能になり、より正確な推定演算を行うことが可能になる。   Therefore, the original image creation unit 121 has a function of performing original image creation processing based on a plurality of different algorithms to create a plurality of types of original images, and the image pyramid creation unit 122 has a plurality of types of original images. A plurality of image pyramids can be created by providing a function of performing processing for creating separate image pyramids based on images. Then, if the feature amount calculation unit 123 has a function of calculating the feature amount based on the pixel values of the pixels in the vicinity of the evaluation point E for each hierarchical image constituting each of the plurality of image pyramids, It is possible to extract a feature amount composed of a higher-dimensional vector, and it is possible to perform a more accurate estimation calculation.

たとえば、元画像作成部121によって、図10に示す面積密度マップM1からなる第1の元画像と、図11に示すエッジ長密度マップM2からなる第2の元画像と、図13に示すドーズ密度マップM3からなる第3の元画像と、を作成する機能をもたせておけば、画像ピラミッド作成部122は、この3通りの元画像に基づいて、3組の別個独立した画像ピラミッドを作成することができる。いずれの画像ピラミッドも、同一の元図形パターン10に基づいて作成された画像ピラミッドである。特徴量算出部123は、この3通りの画像ピラミッドのそれぞれを構成する各階層画像について、評価点Eの近傍の画素の画素値に基づいて特徴量を算出する処理を行うことができる。1つの画像ピラミッドから、n個の特徴量x1〜xnを抽出することにすれば、同一の評価点Eについて、合計3n個の特徴量を抽出することが可能になる。すなわち、1つの評価点Eについての特徴量として、3n次元ベクトルを与えることができるので、より正確な推定演算を行うことが可能になる。   For example, the original image creation unit 121 performs a first original image composed of the area density map M1 shown in FIG. 10, a second original image composed of the edge length density map M2 shown in FIG. 11, and a dose density shown in FIG. If the function of creating the third original image composed of the map M3 is provided, the image pyramid creation unit 122 creates three sets of independent image pyramids based on the three original images. Can do. All of the image pyramids are image pyramids created based on the same original graphic pattern 10. The feature amount calculation unit 123 can perform a process of calculating a feature amount based on the pixel values of pixels in the vicinity of the evaluation point E for each hierarchical image constituting each of the three image pyramids. If n feature amounts x1 to xn are extracted from one image pyramid, a total of 3n feature amounts can be extracted for the same evaluation point E. That is, since a 3n-dimensional vector can be given as a feature amount for one evaluation point E, more accurate estimation calculation can be performed.

もちろん、ここで述べた変形例に、上述した§2.4(2) の変形例を組み合わせることも可能である。§2.4(2) で述べたとおり、画像ピラミッド作成部122が、画像ピラミッドを作成する際に、異なる2種類のアルゴリズムを採用すれば、主画像ピラミッドPPと副画像ピラミッドPDとの2通りの画像ピラミッドを作成することができる。そこで、上記3通りの元画像のそれぞれに基づいて、主画像ピラミッドPPと副画像ピラミッドPDとの2通りの画像ピラミッドを作成すれば、同一の元図形パターン10に基づいて合計6組の画像ピラミッドを作成することができるので、1つの評価点Eについての特徴量として、6n次元ベクトルを与えることができる。   Of course, the above-described modification of §2.4 (2) can be combined with the modification described above. As described in §2.4 (2), if the image pyramid creation unit 122 employs two different types of algorithms when creating the image pyramid, the main image pyramid PP and the sub-image pyramid PD An image pyramid can be created. Therefore, if two image pyramids of the main image pyramid PP and the sub image pyramid PD are created based on each of the above three original images, a total of six image pyramids based on the same original graphic pattern 10 are created. Therefore, a 6n-dimensional vector can be given as a feature amount for one evaluation point E.

<<< §3. バイアス推定ユニットの詳細 >>>
ここでは、バイアス推定ユニット130の詳細な処理動作を説明する。図1に示すように、バイアス推定ユニット130は、特徴量入力部131と推定演算部132を有しており、図4の流れ図におけるステップS4のプロセスバイアス推定処理を実行する機能を有している。図6に示す実施例の場合、1つの評価点Eについて、x1〜xnなる特徴量(n次元ベクトル)が特徴量入力部131に入力され、推定演算部132による推定演算が実行され、評価点Eについてのプロセスバイアスの推定値yが求められている。図6に示す実施例では、推定演算部132として、ニューラルネットワークが用いられている。そこで、以下、このニューラルネットワークの詳細な構成および動作を説明する。
<<< §3. Bias estimation unit details >>
Here, a detailed processing operation of the bias estimation unit 130 will be described. As shown in FIG. 1, the bias estimation unit 130 includes a feature amount input unit 131 and an estimation calculation unit 132, and has a function of executing the process bias estimation process in step S4 in the flowchart of FIG. . In the case of the embodiment shown in FIG. 6, for one evaluation point E, feature quantities (n-dimensional vectors) x1 to xn are input to the feature quantity input unit 131, and an estimation calculation by the estimation calculation unit 132 is executed. An estimate y of the process bias for E is determined. In the embodiment shown in FIG. 6, a neural network is used as the estimation calculation unit 132. Therefore, the detailed configuration and operation of this neural network will be described below.

<3.1 ニューラルネットワークによる推定演算>
ニューラルネットワークは、近年、人工知能の根幹をなす技術として注目されており、画像処理をはじめとする様々な分野で利用されている。このニューラルネットワークは、生物の脳の構造を模したコンピュータ上での構築物であり、ニューロンとそれを繋ぐエッジによって構成される。
<3.1 Estimate calculation by neural network>
In recent years, neural networks have attracted attention as a technology that forms the basis of artificial intelligence, and are used in various fields including image processing. This neural network is a computer-like structure that mimics the structure of a biological brain, and is composed of neurons and edges that connect them.

図24は、図1に示す推定演算部132として、ニューラルネットワークを利用した実施例を示すブロック図である。図示のとおり、ニューラルネットワークには、入力層、中間層(隠れ層)、出力層が定義され、入力層に与えられた情報に対して、中間層(隠れ層)において所定の情報処理がなされ、出力層にその結果が出力される。先願発明の場合、図示のとおり、ある1つの評価点Eについての特徴量x1〜xnが、n次元ベクトルとして入力層に与えられ、出力層には、当該評価点Eについてのプロセスバイアスの推定値yが出力される。ここで、プロセスバイアスの推定値yは、§1で述べたように、所定の図形の輪郭線上に位置する評価点Eについて、当該輪郭線の法線方向についてのずれ量を示す推定値である。   FIG. 24 is a block diagram showing an embodiment using a neural network as the estimation calculation unit 132 shown in FIG. As shown in the figure, an input layer, an intermediate layer (hidden layer), and an output layer are defined in the neural network, and predetermined information processing is performed on the information given to the input layer in the intermediate layer (hidden layer). The result is output to the output layer. In the case of the prior application invention, as shown in the figure, feature quantities x1 to xn for one evaluation point E are given to the input layer as n-dimensional vectors, and the process layer is estimated for the evaluation point E in the output layer. The value y is output. Here, the estimated value y of the process bias is an estimated value indicating the amount of deviation in the normal direction of the contour line for the evaluation point E located on the contour line of the predetermined graphic as described in §1. .

図24に示す実施例の場合、推定演算部132は、特徴量入力部131が入力した特徴量x1〜xnを入力層とし、プロセスバイアスの推定値yを出力層とするニューラルネットワークを有しており、このニューラルネットワークの中間層は、第1隠れ層,第2隠れ層,..., 第N隠れ層なるN層の隠れ層によって構成されている。これら隠れ層は、多数のニューロン(ノード)を有し、これら各ニューロンを繋ぐエッジが定義されている。   In the case of the embodiment shown in FIG. 24, the estimation calculation unit 132 has a neural network having the feature amounts x1 to xn input by the feature amount input unit 131 as input layers and the process bias estimate y as an output layer. The intermediate layer of the neural network is composed of N hidden layers which are a first hidden layer, a second hidden layer,..., An Nth hidden layer. These hidden layers have a large number of neurons (nodes), and edges connecting these neurons are defined.

入力層に与えられた特徴量x1〜xnは、エッジを介して各ニューロンに信号として伝達されてゆく。そして、最終的に、出力層からプロセスバイアスの推定値yに相当する信号が出力されることになる。ニューラルネットワーク内の信号は、1つの隠れ層のニューロンから次の隠れ層のニューロンへと、エッジを介した演算を経て伝達されてゆく。エッジを介した演算は、学習段階で得られた学習情報L(具体的には、後述するパラメータW,b)を用いて行われる。   The feature amounts x1 to xn given to the input layer are transmitted as signals to the neurons via the edges. Finally, a signal corresponding to the estimated value y of the process bias is output from the output layer. A signal in the neural network is transmitted from one hidden layer neuron to the next hidden layer neuron through computation via an edge. The calculation via the edge is performed using learning information L (specifically, parameters W and b described later) obtained in the learning stage.

図25は、図24に示すニューラルネットワークで実行される具体的な演算プロセスを示すダイアグラムである。図に太線で示す部分は、第1隠れ層,第2隠れ層,..., 第N隠れ層を示しており、各隠れ層内の個々の円はニューロン(ノード)、各円を連結する線はエッジを示している。前述したとおり、入力層には、ある1つの評価点Eについての特徴量x1〜xnが、n次元ベクトルとして与えられ、出力層には、当該評価点Eについてのプロセスバイアスの推定値yがスカラー値(輪郭線の法線方向についてのずれ量を示す寸法値)として出力される。   FIG. 25 is a diagram showing a specific calculation process executed by the neural network shown in FIG. The parts shown in bold lines in the figure indicate the first hidden layer, the second hidden layer,..., The Nth hidden layer, and each circle in each hidden layer is a neuron (node) and connects each circle. Lines indicate edges. As described above, feature values x1 to xn for one evaluation point E are given to the input layer as n-dimensional vectors, and an estimated value y of the process bias for the evaluation point E is scalar in the output layer. It is output as a value (a dimension value indicating the amount of deviation in the normal direction of the outline).

図示の例の場合、第1隠れ層はM(1)次元の層であり、合計M(1)個のニューロンh(1,1)〜h(1,M(1))によって構成され、第2隠れ層はM(2)次元の層であり、合計M(2)個のニューロンh(2,1)〜h(2,M(2))によって構成され、第N隠れ層はM(N)次元の層であり、合計M(N)個のニューロンh(N,1)〜h(N,M(N))によって構成されている。   In the illustrated example, the first hidden layer is an M (1) -dimensional layer, and is configured by a total of M (1) neurons h (1,1) to h (1, M (1)). The second hidden layer is an M (2) -dimensional layer and is configured by a total of M (2) neurons h (2,1) to h (2, M (2)), and the Nth hidden layer is M (N ) Dimension layer, which is composed of a total of M (N) neurons h (N, 1) to h (N, M (N)).

ここで、第1隠れ層のニューロンh(1,1)〜h(1,M(1))に伝達される信号の演算値を、同じ符号を用いて、それぞれ演算値h(1,1)〜h(1,M(1))と表すことにすると、これら演算値h(1,1)〜h(1,M(1))の値は、図26の上段に示す行列の式で与えられる。この式の右辺の関数f(ξ)としては、図27(a) に示すシグモイド関数、図27(b) に示す正規化線形関数ReLU、図27(c) に示す正規化線形関数Leakey ReLUなどの活性化関数を用いることができる。   Here, the calculation values of signals transmitted to the neurons h (1,1) to h (1, M (1)) of the first hidden layer are respectively calculated using the same symbols. ˜h (1, M (1)), the values of these calculated values h (1,1) to h (1, M (1)) are given by the matrix equation shown in the upper part of FIG. It is done. As the function f (ξ) on the right side of this equation, a sigmoid function shown in FIG. 27A, a normalized linear function ReLU shown in FIG. 27B, a normalized linear function Leakey ReLU shown in FIG. The activation function can be used.

また、関数f(ξ)の引数として記載されているξは、図26の中段に示すように、行列[W]と行列[x1〜xn](入力層にn次元ベクトルとして与えられた特徴量)との積に、行列[b]を加えた値になる。ここで、行列[W]および行列[b]の内容は、図26の下段に示すとおりであり、行列の個々の成分(重みパラメータW(u,v)とバイアスパラメータb(u,v))は、後述する学習段階によって得られた学習情報Lである。すなわち、行列[W]および行列[b]を構成する個々の成分(パラメータW(u,v),b(u,v))の値は、学習情報Lとして与えられており、図26に示された演算式を用いれば、入力層に与えられた特徴量x1〜xnに基づいて、第1隠れ層の演算値h(1,1)〜h(1,M(1))を算出することができる。   Further, ξ described as an argument of the function f (ξ) is a matrix [W] and a matrix [x1 to xn] (features given to the input layer as n-dimensional vectors, as shown in the middle of FIG. ) And the product of the matrix [b]. Here, the contents of the matrix [W] and the matrix [b] are as shown in the lower part of FIG. 26, and each component of the matrix (weight parameter W (u, v) and bias parameter b (u, v)). Is learning information L obtained by a learning stage described later. That is, the values of the individual components (parameters W (u, v), b (u, v)) constituting the matrix [W] and the matrix [b] are given as learning information L, and are shown in FIG. Using the calculated calculation formula, the calculation values h (1, 1) to h (1, M (1)) of the first hidden layer are calculated based on the feature amounts x1 to xn given to the input layer. Can do.

一方、図28は、図25に示すダイアグラムにおける第2隠れ層〜第N隠れ層の各値を求める演算式を示す図である。具体的には、第(i+1)隠れ層(1≦i≦N)のニューロンh(i+1,1)〜h(i+1,M(i+1))に伝達される信号の演算値を、同じ符号を用いて、それぞれ演算値h(i+1,1)〜h(i+1,M(i+1))と表すことにすると、これら演算値h(i+1,1)〜h(i+1,M(i+1))の値は、図28の上段に示す行列の式で与えられる。この式の右辺の関数f(ξ)としては、前述したように、図27に示す各関数などを用いることができる。   On the other hand, FIG. 28 is a diagram showing an arithmetic expression for obtaining each value of the second hidden layer to the Nth hidden layer in the diagram shown in FIG. Specifically, the same sign is used for the operation value of the signal transmitted to the neurons (i + 1, 1) to h (i + 1, M (i + 1)) in the (i + 1) th hidden layer (1 ≦ i ≦ N). Thus, if expressed as operation values h (i + 1, 1) to h (i + 1, M (i + 1)), the values of these operation values h (i + 1, 1) to h (i + 1, M (i + 1)) are It is given by the matrix equation shown in the upper part of FIG. As the function f (ξ) on the right side of this equation, as described above, each function shown in FIG. 27 can be used.

また、関数f(ξ)の引数として記載されているξは、図28の中段に示すように、行列[W]と行列[h(i,1)〜h(i,M(i))](1つ前の第i隠れ層のニューロンh(i,1)〜h(i,M(i))の演算値)との積に、行列[b]を加えた値になる。ここで、行列[W]および行列[b]の内容は、図28の下段に示すとおりであり、行列の個々の成分(パラメータW(u,v),b(u,v))は、やはり、後述する学習段階によって得られた学習情報Lである。   Further, ξ described as an argument of the function f (ξ) is a matrix [W] and a matrix [h (i, 1) to h (i, M (i))] as shown in the middle part of FIG. It is a value obtained by adding the matrix [b] to the product of (the calculated value of the neuron h (i, 1) to h (i, M (i)) of the previous i-th hidden layer). Here, the contents of the matrix [W] and the matrix [b] are as shown in the lower part of FIG. 28, and the individual components of the matrix (parameters W (u, v), b (u, v)) are This is learning information L obtained by a learning stage described later.

ここでも、行列[W]および行列[b]を構成する個々の成分(パラメータW(u,v),b(u,v))の値は、学習情報Lとして与えられており、図28に示された演算式を用いれば、第i隠れ層で求められた演算値[h(i,1)〜h(i,M(i))]に基づいて、第(i+1)隠れ層の演算値h(i+1,1)〜h(i+1,M(i+1))を算出することができる。よって、図25に示すダイアグラムにおける第2隠れ層〜第N隠れ層の各値は、図28に示す演算式に基づいて順次求めることができる。   Again, the values of the individual components (parameters W (u, v), b (u, v)) constituting the matrix [W] and the matrix [b] are given as learning information L, and are shown in FIG. Using the arithmetic expression shown, based on the arithmetic values [h (i, 1) to h (i, M (i))] obtained in the i-th hidden layer, the arithmetic values in the (i + 1) -th hidden layer h (i + 1, 1) to h (i + 1, M (i + 1)) can be calculated. Therefore, each value of the second hidden layer to the Nth hidden layer in the diagram shown in FIG. 25 can be sequentially obtained based on the arithmetic expression shown in FIG.

図29は、図25に示すダイアグラムにおける出力層の値yを求める演算式を示す図である。具体的には、出力値y(評価点Eについてのプロセスバイアスの推定値:スカラー値)は、図29の上段に示す行列の式で与えられる。すなわち、出力値yは、行列[W]と行列[h(N,1)〜h(N,M(N))](第N隠れ層のニューロンh(N,1)〜h(N,M(N))の値)との積に、スカラー値b(N+1)を加えた値になる。ここで、行列[W]の内容は、図29の下段に示すとおりであり、行列[W]の個々の成分(パラメータW(u,v))およびスカラー値b(N+1)は、やはり、後述する学習段階によって得られた学習情報Lである。   FIG. 29 is a diagram showing an arithmetic expression for obtaining the value y of the output layer in the diagram shown in FIG. Specifically, the output value y (estimated value of process bias for the evaluation point E: scalar value) is given by the matrix equation shown in the upper part of FIG. That is, the output value y is expressed as a matrix [W] and a matrix [h (N, 1) to h (N, M (N))] (Nth hidden layer neurons h (N, 1) to h (N, M). (N)) and the scalar value b (N + 1). Here, the contents of the matrix [W] are as shown in the lower part of FIG. 29, and the individual components (parameters W (u, v)) and the scalar value b (N + 1) of the matrix [W] are also described later. This is the learning information L obtained by the learning stage.

このように、図25に示すダイアグラムにおける第1隠れ層の各値は、入力層として与えられた特徴量x1〜xnに、学習情報Lとして予め準備されているパラメータW(1,v),b(1,v)を作用させることにより求めることができ、第2隠れ層の各値は、第1隠れ層の各値に、学習情報Lとして予め準備されているパラメータW(2,v),b(2,v)を作用させることにより求めることができ、... 、第N隠れ層の各値は、第(N−1)隠れ層の各値に、学習情報Lとして予め準備されているパラメータW(N,v),b(N,v)を作用させることにより求めることができ、出力層yの値は、第N隠れ層の各値に、学習情報Lとして予め準備されているパラメータパラメータW(N+1,v),b(N+1)を作用させることにより求めることができる。具体的な演算式は、図26〜図29に示すとおりである。   As described above, the values of the first hidden layer in the diagram shown in FIG. 25 are the parameters W (1, v), b prepared in advance as learning information L for the feature amounts x1 to xn given as the input layers. (1, v) can be obtained by applying each parameter of the second hidden layer to each value of the first hidden layer using parameters W (2, v), can be obtained by acting b (2, v),..., each value of the Nth hidden layer is prepared in advance as learning information L for each value of the (N−1) th hidden layer. The values of the output layer y are prepared in advance as learning information L for each value of the Nth hidden layer. The parameter parameters W (N + 1, v) and b (N + 1) are applied. It can be obtained more. Specific arithmetic expressions are as shown in FIGS.

なお、§2.4の(2) ,(3) で述べたように、複数通りの画像ピラミッドを作成する変形例を採用する場合は、入力層として与えられる特徴量が、n次元のベクトル(x1〜xn)ではなく、V・n次元(Vは、画像ピラミッドの総数)のベクトルになるが、図25に示すダイアグラムにおける入力層の数値がV・n個に増加するだけで、ニューラルネットワークの基本的な構成および動作に変わりはない。   Note that, as described in §2.4 (2) and (3), when adopting a modified example of creating a plurality of image pyramids, the feature value given as the input layer is an n-dimensional vector ( x1-xn), but a vector of V.n dimensions (V is the total number of image pyramids), but the number of input layers in the diagram shown in FIG. There is no change in the basic configuration and operation.

以上、図25に示すニューラルネットワークを用いて、ある1つの評価点Eについてのプロセスバイアスの推定値yを求める演算を説明したが、実際には、元図形パターン10に含まれる図形の輪郭線上に定義された多数の評価点について同様の演算が行われ、個々の評価点について、それぞれプロセスバイアスの推定値yが求められることになる。図1に示す図形パターンの形状補正装置100では、パターン補正ユニット140が、こうして求められた個々の評価点についてのプロセスバイアスの推定値yに基づいてパターン形状の補正処理(図4のステップS5)を実行することになる。   As described above, the calculation for obtaining the estimated value y of the process bias for a certain evaluation point E has been described using the neural network shown in FIG. The same calculation is performed for a large number of defined evaluation points, and an estimated value y of the process bias is obtained for each evaluation point. In the figure pattern shape correction apparatus 100 shown in FIG. 1, the pattern correction unit 140 corrects the pattern shape based on the estimated value y of the process bias for each evaluation point thus obtained (step S5 in FIG. 4). Will be executed.

<3.2 ニューラルネットワークの学習段階>
上述したとおり、図24に示す実施例の場合、推定演算部132は、ニューラルネットワークによって構成されており、予め設定されている学習情報Lを利用して、各ニューロンに伝達される信号値を演算することになる。ここで、学習情報Lの実体は、図26の下段、図28の下段、図29の下段に行列[W],[b]の各成分として記載されたパラメータW(u,v),b(u,v)等の値である。したがって、このようなニューラルネットワークを構築するには、予め実行した学習段階によって、学習情報Lを得ておく必要がある。
<3.2 Learning stage of neural network>
As described above, in the case of the embodiment shown in FIG. 24, the estimation calculation unit 132 is configured by a neural network, and uses the learning information L set in advance to calculate the signal value transmitted to each neuron. Will do. Here, the substance of the learning information L is the parameters W (u, v), b () described as the components of the matrices [W], [b] in the lower part of FIG. 26, the lower part of FIG. 28, and the lower part of FIG. u, v) and the like. Therefore, in order to construct such a neural network, it is necessary to obtain learning information L by a learning stage executed in advance.

すなわち、推定演算部132に含まれるニューラルネットワークは、多数のテストパターン図形を用いたリソグラフィプロセスによって実基板S上に実際に形成される実図形パターン20の実寸法測定によって得られた寸法値と、各テストパターン図形から得られる特徴量と、を用いた学習段階によって得られたパラメータW(u,v),b(u,v)等を学習情報Lとして用い、プロセスバイアスの推定処理を行うことになる。このようなニューラルネットワークの学習段階の処理自体は公知の技術であるが、ここでは先願発明に利用するニューラルネットワークの学習段階に適した処理の概要を簡単に説明しておく。   That is, the neural network included in the estimation calculation unit 132 includes dimension values obtained by actual dimension measurement of the actual figure pattern 20 actually formed on the actual substrate S by a lithography process using a large number of test pattern figures. Process bias estimation processing is performed using, as learning information L, parameters W (u, v), b (u, v), and the like obtained in the learning stage using the feature amounts obtained from each test pattern figure. become. Such a process in the learning stage of the neural network is a known technique, but here, an outline of a process suitable for the learning stage of the neural network used in the invention of the prior application will be briefly described.

図30は、図24に示すニューラルネットワークが用いる学習情報Lを得るための学習段階の手順を示す流れ図である。まず、ステップS81において、テストパターン図形の作成処理が実行される。ここで、テストパターン図形は、たとえば、図2(a) に示すような元図形パターン10に相当するものであり、通常、長方形やL字型図形などの単純な図形が用いられる。実際には、サイズや形状が異なる数千個ものテストパターン図形が作成される。   FIG. 30 is a flowchart showing a learning stage procedure for obtaining learning information L used by the neural network shown in FIG. First, in step S81, a test pattern graphic creation process is executed. Here, the test pattern graphic corresponds to, for example, the original graphic pattern 10 as shown in FIG. 2A, and a simple graphic such as a rectangle or an L-shaped graphic is usually used. Actually, thousands of test pattern figures having different sizes and shapes are created.

続いて、ステップS82において、各テストパターン図形上に評価点Eが設定される。具体的には、個々のテストパターン図形の輪郭線上に、所定間隔で多数の評価点Eを定義する処理を行えばよい。そして、ステップS83において、各評価点Eについて、それぞれ特徴量が抽出される。このステップS83の特徴量抽出処理は、§2で述べた処理と同様であり、特徴量抽出ユニット120と同等の機能を有するユニットによって実行される。§2で述べた手順によれば、個々の評価点Eについて、それぞれ特徴量x1〜xnが抽出されることになる。   Subsequently, in step S82, an evaluation point E is set on each test pattern graphic. Specifically, a process of defining a large number of evaluation points E at predetermined intervals on the contour lines of individual test pattern figures may be performed. In step S83, a feature amount is extracted for each evaluation point E. The feature quantity extraction process in step S83 is the same as the process described in §2, and is executed by a unit having a function equivalent to that of the feature quantity extraction unit 120. According to the procedure described in §2, the feature amounts x1 to xn are extracted for each evaluation point E, respectively.

ステップS84の推定演算部学習処理は、ステップS83で抽出された特徴量を利用して、学習情報L(すなわち、パラメータW(u,v),b(u,v)等)を決定する処理である。この学習処理を実行するためには、実際のリソグラフィプロセスにより得られた実寸法が必要になる。そこで、ステップS85では、ステップS81で作成されたテストパターン図形に基づいて、実際にリソグラフィプロセスが実行され、実基板Sが作成される。そして、ステップS86において、この実基板S上に形成された実図形パターンに対して、個々の図形の実寸法測定が行われる。この測定結果は、ステップS84の学習処理に利用されることになる。   The estimation calculation unit learning process in step S84 is a process of determining learning information L (that is, parameters W (u, v), b (u, v), etc.) using the feature amount extracted in step S83. is there. In order to execute this learning process, actual dimensions obtained by an actual lithography process are required. Therefore, in step S85, the lithography process is actually executed based on the test pattern graphic created in step S81, and the actual substrate S is created. In step S86, the actual dimension of each figure is measured for the actual figure pattern formed on the actual substrate S. This measurement result is used for the learning process in step S84.

このように、図30に示す学習段階のプロセスは、ステップS81〜S84からなる計算機上で実行するプロセス(コンピュータプログラムにより実行されるプロセス)と、ステップS85,S86からなる実基板上で実行するプロセスと、によって構成される。ステップS84の推定演算部学習処理は、計算機上の処理で得られた特徴量x1〜xnと実基板上で測定された実寸法とに基づいて、ニューラルネットワークに利用される学習情報Lを決定する処理ということになる。   As described above, the learning stage process shown in FIG. 30 includes a process (process executed by a computer program) executed on the computer consisting of steps S81 to S84 and a process executed on the actual board consisting of steps S85 and S86. And composed of In the estimation calculation unit learning process in step S84, the learning information L used for the neural network is determined based on the feature amounts x1 to xn obtained by the processing on the computer and the actual dimensions measured on the actual board. It will be processing.

図31は、図30に示す流れ図におけるステップS84の推定演算部学習の詳細な手順を示す流れ図である。まず、ステップS841において、各評価点の設計位置および特徴量が入力される。ここで、評価点の設計位置は、ステップS82において設定された評価点のテストパターン図形上の位置であり、評価点の特徴量は、ステップS83において抽出された特徴量x1〜xnである。続いて、ステップS842において、各評価点の実位置が入力される。ここで、評価点の実位置は、ステップS86において実測された実基板S上の各図形の実寸法に基づいて決定される。そして、ステップS843において、各評価点の実バイアスが算出される。この実バイアスは、ステップS841で入力された評価点の設計位置とステップS842で入力された評価点の実位置とのずれ量に相当する。   FIG. 31 is a flowchart showing a detailed procedure of the estimation calculation unit learning in step S84 in the flowchart shown in FIG. First, in step S841, the design position and feature amount of each evaluation point are input. Here, the design position of the evaluation point is the position on the test pattern figure of the evaluation point set in step S82, and the feature amount of the evaluation point is the feature amount x1 to xn extracted in step S83. Subsequently, in step S842, the actual position of each evaluation point is input. Here, the actual position of the evaluation point is determined based on the actual dimension of each figure on the actual substrate S actually measured in step S86. In step S843, the actual bias of each evaluation point is calculated. This actual bias corresponds to the amount of deviation between the design position of the evaluation point input in step S841 and the actual position of the evaluation point input in step S842.

たとえば、ステップS81において、図3(a) に示す元図形パターン10のような長方形がテストパターン図形として作成された場合、ステップS82において、この長方形の輪郭線上に、評価点E11,E12,E13等が設定され、ステップS83において、これら各評価点E11,E12,E13のそれぞれについて、特徴量x1〜xnが抽出される。各評価点E11,E12,E13の位置および特徴量は、ステップS841において入力される。   For example, when a rectangle such as the original graphic pattern 10 shown in FIG. 3A is created as a test pattern graphic in step S81, the evaluation points E11, E12, E13, etc. are formed on the rectangular outline in step S82. In step S83, feature amounts x1 to xn are extracted for each of these evaluation points E11, E12, and E13. The position and feature amount of each evaluation point E11, E12, E13 are input in step S841.

一方、ステップS85のリソグラフィプロセスによって、実基板S上には、たとえば、図3(b) に示すような実図形パターン20が形成され、ステップS86の実寸法測定によって、この実図形パターン20を構成する長方形の各辺について、実寸法が測定される。この測定により、各評価点E11,E12,E13を、それぞれ輪郭線の法線方向に移動させた点として、評価点の実位置E21,E22,E23が決定される。各評価点の実位置E21,E22,E23は、ステップS842において入力される。   On the other hand, the actual figure pattern 20 as shown in FIG. 3B, for example, is formed on the actual substrate S by the lithography process in step S85, and the actual figure pattern 20 is formed by measuring the actual dimension in step S86. The actual dimensions are measured for each side of the rectangle. By this measurement, the actual positions E21, E22, and E23 of the evaluation points are determined as the points where the evaluation points E11, E12, and E13 are moved in the normal direction of the contour line, respectively. The actual positions E21, E22, E23 of each evaluation point are input in step S842.

そこで、ステップS843では、図3(b) に示すように、各評価点E11,E12,E13の設計位置と実位置E21,E22,E23との差として、実バイアスy11,y12,y13が算出される。実際には、たとえば、図3(b) に示す実図形パターン20を構成する長方形の横幅bと、図3(a) に示す元図形パターン10を構成する長方形の横幅aとの差「b−a」を2で除した値yを求める作業により、実バイアスを決定するようにしてもよい。もちろん、実際には、数千個という規模のテストパターン図形が作成され、個々の図形の輪郭線上に多数の評価点が設定されるので、ステップS841〜S843の手順は、膨大な数の評価点についてそれぞれ実行されることになる。ここで、1つの評価点Eについて着目すると、当該評価点Eについては、特徴量x1〜xnと実バイアスyとの組み合わせが、学習材料として準備されたことになる。   Therefore, in step S843, as shown in FIG. 3B, the actual bias y11, y12, y13 is calculated as the difference between the design position of each evaluation point E11, E12, E13 and the actual position E21, E22, E23. The Actually, for example, the difference “b− between the horizontal width b of the rectangular pattern forming the actual graphic pattern 20 shown in FIG. 3B and the horizontal width a of the rectangular pattern forming the original graphic pattern 10 shown in FIG. The actual bias may be determined by obtaining a value y obtained by dividing “a” by 2. Of course, in actuality, test pattern figures having a scale of several thousand are created, and a large number of evaluation points are set on the contour lines of the individual figures. Therefore, the procedure of steps S841 to S843 is a huge number of evaluation points. Will be executed for each. Here, focusing on one evaluation point E, for the evaluation point E, a combination of the feature amounts x1 to xn and the actual bias y is prepared as a learning material.

続いて、ステップS844において、パラメータW,bが初期値に設定される。ここで、パラメータW,bは、図26の下段、図28の下段、図29の下段に行列[W],[b]の各成分として記載されたパラメータW(u,v),b(u,v)等に相当し、学習情報Lを構成する値になる。初期値としては、乱数によってランダムな値を与えればよい。別言すれば、学習前の当初の段階では、学習情報Lを構成するパラメータW,bはデタラメな値になっている。   Subsequently, in step S844, the parameters W and b are set to initial values. Here, the parameters W and b are the parameters W (u, v) and b (u described as the components of the matrices [W] and [b] in the lower part of FIG. 26, the lower part of FIG. 28, and the lower part of FIG. , V) and the like, and becomes a value constituting the learning information L. As an initial value, a random value may be given by a random number. In other words, at the initial stage before learning, the parameters W and b that constitute the learning information L have frank values.

続いて実行されるステップS845〜S848の各段階は、実際の学習プロセスであり、この学習プロセスを行うことにより、当初はデタラメな値が設定されていたパラメータW,bが徐々に更新されてゆき、やがて学習情報Lとして十分に機能する程度の正確な値に修正される。まず、ステップS845では、特徴量x1〜xnからプロセスバイアスyを推定する演算が実行される。   Each of the subsequent steps S845 to S848 is an actual learning process, and by performing this learning process, the parameters W and b, which were initially set to frank values, are gradually updated. Eventually, the value is corrected to an accurate value that sufficiently functions as the learning information L. First, in step S845, an operation for estimating the process bias y from the feature amounts x1 to xn is executed.

具体的には、図24に示すようなニューラルネットワークを準備する。もちろん、この段階では、学習情報Lを構成するパラメータW,bには、初期値として乱数が与えられており、このニューラルネットワークは、推定演算部132としての正常な機能を果たすことはできない不完全なものである。この不完全なニューラルネットワークの入力層に、ステップS841で入力した特徴量x1〜xnを与え、不完全な値からなる学習情報Lを用いた演算を行い、出力層としてプロセスバイアスの推定値yを算出する。もちろん、当初得られるプロセスバイアスの推定値yは、観測された実バイアスとはかけ離れた値になる。   Specifically, a neural network as shown in FIG. 24 is prepared. Of course, at this stage, random numbers are given as initial values to the parameters W and b constituting the learning information L, and this neural network cannot perform a normal function as the estimation calculation unit 132. It is a thing. The feature quantities x1 to xn input in step S841 are given to the input layer of this incomplete neural network, the calculation using the learning information L consisting of incomplete values is performed, and the estimated value y of the process bias is used as the output layer. calculate. Of course, the estimated value y of the process bias obtained initially is far from the observed actual bias.

そこで、ステップS846において、その時点における実バイアスに対する残差を算出する。すなわち、ステップS845で得られたプロセスバイアスの推定値yと、ステップS843で得られた実バイアスの算出値との差を求め、この差を、当該評価点Eについての残差とする。この残差が所定の許容値以下になれば、その時点での学習情報L(すなわち、パラメータW(u,v),b(u,v)等)は、十分に実用性をもった学習情報であると判断できるので、学習段階を終了することができる。   Therefore, in step S846, a residual with respect to the actual bias at that time is calculated. That is, a difference between the estimated value y of the process bias obtained in step S845 and the calculated actual bias value obtained in step S843 is obtained, and this difference is set as a residual for the evaluation point E. If this residual is less than or equal to a predetermined tolerance, the learning information L at that time (that is, parameters W (u, v), b (u, v), etc.) is sufficiently practical learning information. Therefore, the learning stage can be completed.

ステップS847は、学習段階を終了できるか否かを判定する手順である。実際には、膨大な数の評価点のそれぞれについて残差が求められるので、実用上は、たとえば、残差二乗和の改善量が規定値を下回っていたら、学習終了とする判断を行うような判定方法を採用すればよい。学習終了と判定されなかった場合は、ステップS848において、パラメータW(u,v),b(u,v)等の更新が行われる。具体的には、残差を減少させる作用が生じるように、各パラメータW(u,v),b(u,v)等の値を所定量だけ増減する更新が行われる。具体的な更新方法については、ニューラルネットワークにおける学習手法として様々なアルゴリズムに基づく方法が知られているので、ここでは説明を省略するが、基本方針としては、多数のテストパターン図形の評価点についての残差を総合的に勘案して、それぞれの残差が全体的に少なくなるような総合的な調整を行うアルゴリズムが採用される。   Step S847 is a procedure for determining whether or not the learning stage can be completed. Actually, since a residual is obtained for each of a large number of evaluation points, in practice, for example, if the amount of improvement in the residual sum of squares is below a specified value, a determination is made to end learning. A determination method may be adopted. If it is not determined that the learning has ended, the parameters W (u, v), b (u, v), etc. are updated in step S848. Specifically, updating is performed to increase or decrease the values of the parameters W (u, v), b (u, v), etc. by a predetermined amount so that the effect of reducing the residual occurs. As for the specific update method, methods based on various algorithms are known as learning methods in neural networks, so the explanation is omitted here, but the basic policy is to evaluate the evaluation points of many test pattern figures. An algorithm is employed that comprehensively considers the residuals and performs a total adjustment such that each residual is reduced overall.

こうして、ステップS847において肯定的な判定がなされるまで、ステップS845〜S848の手順が繰り返し実行される。その結果、学習情報Lを構成するパラメータW(u,v),b(u,v)等の値は、残差を減少させる方向に徐々に修正されてゆき、最終的には、ステップS847において肯定的な判定がなされ、学習段階は終了する。この学習終了段階で得られた学習情報L(パラメータW(u,v),b(u,v)等)は、実バイアスに近いプロセスバイアスの推定値yを出力層に得るのに適した情報になっている。したがって、学習終了段階で得られた学習情報Lを含むニューラルネットワークは、先願発明における推定演算部132として機能することになる。   In this way, steps S845 to S848 are repeatedly executed until a positive determination is made in step S847. As a result, the values of the parameters W (u, v), b (u, v), etc. constituting the learning information L are gradually corrected in the direction of decreasing the residual, and finally in step S847. A positive determination is made and the learning phase ends. The learning information L (parameters W (u, v), b (u, v), etc.) obtained at the learning end stage is information suitable for obtaining an estimated value y of the process bias close to the actual bias in the output layer. It has become. Therefore, the neural network including the learning information L obtained at the learning end stage functions as the estimation calculation unit 132 in the prior invention.

<<< §4. 先願発明に係る図形パターンの形状推定方法 >>>
これまで先願発明を、図1に示す構成を有する図形パターンの形状推定装置100′もしくは図形パターンの形状補正装置100として捉え、その構成および動作を説明した。ここでは、先願発明を、図形パターンの形状推定方法という方法発明として捉えた説明を簡単に行っておく。
<<< §4. Geometric pattern shape estimation method according to the prior invention >>>
The invention of the prior application has been described as the figure pattern shape estimation apparatus 100 ′ or the figure pattern shape correction apparatus 100 having the configuration shown in FIG. Here, a brief description will be given of the invention of the prior application as a method invention called a figure pattern shape estimation method.

先願発明を図形パターンの形状推定方法の発明として把握した場合、当該方法は、元図形パターンを用いたリソグラフィプロセスをシミュレートすることにより、実基板上に形成される実図形パターンの形状を推定する方法ということになる。そして、この方法は、コンピュータが、図形の内部と外部との境界を示す輪郭線の情報を含む元図形パターン10を入力する元図形パターン入力段階(図4のステップS1で作成されたパターンを入力する段階)と、コンピュータが、入力した図形の輪郭線上の所定位置に評価点Eを設定する評価点設定段階(図4のステップS2)と、コンピュータが、入力した元図形パターン10について、各評価点Eの周囲の特徴を示す特徴量x1〜xnを抽出する特徴量抽出段階(図4のステップS3)と、コンピュータが、抽出した特徴量x1〜xnに基づいて、各評価点Eの元図形パターン10上の位置と実図形パターン20上の位置とのずれ量を示すプロセスバイアスyを推定するプロセスバイアス推定段階(図4のステップS4)と、によって構成される。   When the invention of the prior application is grasped as an invention of a figure pattern shape estimation method, the method estimates the shape of an actual figure pattern formed on an actual substrate by simulating a lithography process using the original figure pattern. It will be a way to do. Then, in this method, the computer inputs the original graphic pattern input stage in which the original graphic pattern 10 including the contour line information indicating the boundary between the inside and the outside of the graphic is input (the pattern created in step S1 in FIG. And an evaluation point setting step (step S2 in FIG. 4) in which the computer sets an evaluation point E at a predetermined position on the contour line of the input graphic, and each evaluation for the original graphic pattern 10 input by the computer. A feature amount extraction stage (step S3 in FIG. 4) for extracting feature amounts x1 to xn indicating features around the point E, and an original figure of each evaluation point E based on the extracted feature amounts x1 to xn A process bias estimation step (step S4 in FIG. 4) for estimating a process bias y indicating the amount of deviation between the position on the pattern 10 and the position on the actual graphic pattern 20; Constructed.

ここで、特徴量抽出段階(図4のステップS3)は、元図形パターン10に基づいて、それぞれ所定の画素値を有する画素Uの集合体からなる元画像Q1を作成する元画像作成段階(図7のステップS32)と、この元画像Q1に基づいて、縮小画像Qk(準備画像)を作成する縮小処理(図7のステップS35)を含む画像ピラミッド作成処理を行い、それぞれ異なるサイズをもった複数の階層画像P1〜Pnからなる画像ピラミッドPPを作成する画像ピラミッド作成段階(図7のステップS33〜S35)と、作成された画像ピラミッドPPを構成する各階層画像P1〜Pnについて、各評価点Eの近傍の画素の画素値に基づいて特徴量x1〜xnを算出する特徴量算出段階(図7のステップS37)と、を含んでいる。   Here, in the feature amount extraction stage (step S3 in FIG. 4), based on the original figure pattern 10, an original image creation stage (FIG. 7 and step S32) and image pyramid creation processing including reduction processing (step S35 in FIG. 7) for creating a reduced image Qk (preparation image) based on the original image Q1. The image pyramid creation stage (steps S33 to S35 in FIG. 7) for creating the image pyramid PP composed of the layer images P1 to Pn, and the evaluation points E for the respective layer images P1 to Pn constituting the created image pyramid PP. A feature amount calculating step (step S37 in FIG. 7) for calculating feature amounts x1 to xn based on pixel values of pixels in the vicinity of

ここで、上記プロセスバイアス推定段階(図4のステップS4)は、予め実施された学習段階によって得られた学習情報Lに基づいて、評価点Eについての特徴量x1〜xnに応じた推定値を求め、求めた推定値を当該評価点Eについてのプロセスバイアスの推定値yとして出力する推定演算段階を含んでいる。   Here, in the process bias estimation stage (step S4 in FIG. 4), an estimated value corresponding to the feature amounts x1 to xn for the evaluation point E is calculated based on the learning information L obtained in the learning stage performed in advance. And an estimation calculation step of outputting the calculated estimated value as the estimated value y of the process bias for the evaluation point E.

なお、§2で述べた特徴量抽出ユニット120を使用した場合は、上記画像ピラミッド作成段階で、元画像Q1もしくは縮小画像Qkに対して所定の画像処理フィルタを用いたフィルタ処理を行うフィルタ処理段階(図7のステップS33)と、このフィルタ処理後の画像Pkに対して縮小処理を行う縮小処理段階(図7のステップS35)と、を交互に実行することにより、複数の階層画像P1〜Pnからなる画像ピラミッドPPを作成することができる。   When the feature amount extraction unit 120 described in §2 is used, a filter processing stage that performs a filter process using a predetermined image processing filter on the original image Q1 or the reduced image Qk in the image pyramid creation stage. (Step S33 in FIG. 7) and the reduction processing stage (Step S35 in FIG. 7) for performing the reduction processing on the image Pk after the filter processing are alternately executed, whereby a plurality of hierarchical images P1 to Pn are executed. An image pyramid PP consisting of can be created.

具体的には、§2.2で述べた手順では、画像ピラミッド作成段階で、フィルタ処理後の画像(図7のステップS33で得られたフィルタ処理画像Pk)を階層画像P1〜Pnとする画像ピラミッドPPが作成されている。これに対して、§2.4(1) で述べた変形例の手順では、画像ピラミッド作成段階で、フィルタ処理後の画像(フィルタ処理画像Pk)とフィルタ処理前の画像(準備画像Qk)との差分画像Dkが作成され、作成した差分画像を階層画像D1〜Dnとする画像ピラミッドPDが作成されている。   Specifically, in the procedure described in §2.2, images in which the filtered image (filtered image Pk obtained in step S33 in FIG. 7) is set as hierarchical images P1 to Pn at the image pyramid creation stage. A pyramid PP has been created. On the other hand, in the procedure of the modified example described in §2.4 (1), in the image pyramid creation stage, the image after filtering (filtered image Pk) and the image before filtering (prepared image Qk) The difference image Dk is created, and an image pyramid PD is created in which the created difference images are the hierarchical images D1 to Dn.

<<< §5. 本発明に係る形状補正装置の基本構成 >>>
さて、これまで§1〜§4において、先願発明に係る図形パターンの形状補正装置の説明を行った。前述したとおり、本発明に係る技術は、この先願発明に係る図形パターンの形状補正装置に適用するために開発されたものである。もっとも、本発明は、先願発明への適用に限定されるものではない。本発明の特徴は、リソグラフィプロセスのシミュレーションを行う際に、ユニークな方法で評価点の設定を行い、この評価点に基づくシミュレーションの結果に基づいて元図形パターンに対する形状補正を行う点にある。したがって、本発明は、従来から知られている一般的な図形パターンの形状補正装置に広く適用可能である。ただ、この§5以降では、説明の便宜上、§1〜§4で述べた先願発明に係る図形パターンの形状補正装置に本発明を適用した具体的な実施例を述べることにする。
<<< §5. Basic Configuration of Shape Correction Device According to the Present Invention >>
So far, in §1 to §4, the shape correction apparatus for graphic patterns according to the prior invention has been described. As described above, the technique according to the present invention has been developed for application to the figure pattern shape correcting apparatus according to the prior invention. However, the present invention is not limited to application to the prior application invention. A feature of the present invention is that, when performing a simulation of a lithography process, an evaluation point is set by a unique method, and shape correction is performed on an original graphic pattern based on the result of simulation based on the evaluation point. Therefore, the present invention can be widely applied to conventionally known general graphic pattern shape correction apparatuses. However, in this section 5 and later, for convenience of explanation, a specific embodiment in which the present invention is applied to the figure pattern shape correcting apparatus according to the prior invention described in sections 1 to 4 will be described.

ここで述べる実施例に係る図形パターンの形状補正装置の基本構成は、§1〜§4で述べた先願発明に係る装置と同じである。すなわち、ここで述べる形状補正装置100は、図1に示すとおり、評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140を備えており、元図形パターン10に基づくリソグラフィプロセスによって実基板S上に実図形パターン20を形成する際に、実図形パターン20が元図形パターン10に一致するように、元図形パターン10の形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターン15を作成する機能を有している。   The basic configuration of the figure pattern shape correcting apparatus according to the embodiment described here is the same as the apparatus according to the invention of the prior application described in §1 to §4. That is, the shape correction apparatus 100 described here includes an evaluation point setting unit 110, a feature amount extraction unit 120, a bias estimation unit 130, and a pattern correction unit 140 as shown in FIG. When the actual figure pattern 20 is formed on the actual substrate S by the process, the shape of the original figure pattern 10 is corrected so that the actual figure pattern 20 matches the original figure pattern 10, and correction actually used in the lithography process It has a function of creating a graphic pattern 15.

実際には、上記図形パターンの形状補正装置100としての機能は、汎用のコンピュータに専用のプログラムを組み込むことによって実現される。したがって、上述した評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140は、それぞれコンピュータに所定のプログラムを組み込むことにより構成される。   Actually, the function of the graphic pattern shape correction apparatus 100 is realized by incorporating a dedicated program into a general-purpose computer. Therefore, the evaluation point setting unit 110, the feature amount extraction unit 120, the bias estimation unit 130, and the pattern correction unit 140 described above are each configured by incorporating a predetermined program into a computer.

ここで、評価点設定ユニット110は、§1で述べたように、元図形パターン10を構成する個々の図形(以下、単位図形と呼び、元図形パターンと同じ符号10を付して示す)について、内部と外部との境界を示す輪郭線上の所定位置に評価点Eを設定する役割を果たす。図3(a) には、矩形状の単位図形10上に3つの評価点E11,E12,E13が設定された例が示されているが、実際には、単位図形10の輪郭線上を一回りする経路上に多数の評価点が設定される。本発明の特徴は、この評価点の設定手法にある。具体的な評価点設定手法については、§6で詳述する。   Here, as described in §1, the evaluation point setting unit 110 is for individual figures constituting the original figure pattern 10 (hereinafter referred to as unit figures and denoted by the same reference numeral 10 as the original figure pattern). The evaluation point E is set at a predetermined position on the contour line indicating the boundary between the inside and the outside. FIG. 3 (a) shows an example in which three evaluation points E11, E12, E13 are set on the rectangular unit graphic 10, but in actuality, it goes around the outline of the unit graphic 10 once. A number of evaluation points are set on the route to be performed. A feature of the present invention resides in this evaluation point setting method. A specific evaluation point setting method will be described in detail in §6.

特徴量抽出ユニット120は、元図形パターン10について、個々の評価点Eの周囲の特徴を示す特徴量x1〜xnを抽出する役割を果たす。§2では、先願発明に固有の特徴量抽出方法として、画像ピラミッドPP,PDを用いる手順を示した。もちろん、本発明を実施する上でも、画像ピラミッドPP,PDを用いて特徴量を抽出する方法を採用することができる。ただ、本発明に用いる特徴量抽出ユニット120は、§2で述べた方法で特徴量を抽出するものに限定されるものではない。本発明を実施するにあたって、特徴量抽出ユニット120として、任意の方法で特徴量を抽出するユニットを採用してかまわない。たとえば、複数n通りの階層画像P1〜Pnからなる画像ピラミッドPPを用いる代わりに、複数n通りの算出関数を用いて各評価点Eについてのn通りの特徴量x1〜xnを算出する処理を行うことも可能である。各算出関数としては、座標値X,Yに位置する評価点E(X,Y)について、当該座標値X,Yを変数として代入することにより、評価点E(X,Y)と元図形パターン10に含まれる各図形との位置関係を定量化して所定の関数値を算出することができる関数(たとえば、先願の付加的実施形態に用いられている関数)を用いればよい。   The feature amount extraction unit 120 plays a role of extracting feature amounts x1 to xn indicating features around each evaluation point E for the original graphic pattern 10. In §2, a procedure using image pyramids PP and PD as a feature amount extraction method unique to the invention of the prior application is shown. Of course, a method of extracting feature amounts using the image pyramids PP and PD can also be adopted in implementing the present invention. However, the feature quantity extraction unit 120 used in the present invention is not limited to one that extracts feature quantities by the method described in Section 2. In carrying out the present invention, as the feature quantity extraction unit 120, a unit that extracts feature quantities by an arbitrary method may be adopted. For example, instead of using the image pyramid PP composed of a plurality of n hierarchical images P1 to Pn, a process of calculating n feature values x1 to xn for each evaluation point E using a plurality of n calculation functions is performed. It is also possible. As each calculation function, for the evaluation point E (X, Y) located at the coordinate values X and Y, by assigning the coordinate value X and Y as a variable, the evaluation point E (X, Y) and the original graphic pattern A function (for example, a function used in the additional embodiment of the prior application) that can calculate a predetermined function value by quantifying the positional relationship with each figure included in the graph 10 may be used.

バイアス推定ユニット130は、特徴量抽出ユニット120が抽出した各評価点についての特徴量x1〜xnに基づいて、各評価点の元図形パターン10上の位置と実図形パターン20上の位置とのずれ量を示すプロセスバイアスyを推定する役割を果たす。§3では、ニューラルネットワークによる推定演算により、プロセスバイアスyを推定する手順を示した。もちろん、本発明を実施する上でも、同様の手順を採用することができる。ただ、本発明に用いるバイアス推定ユニット130は、§3で述べた方法でプロセスバイアスyを推定するものに限定されるものではない。本発明を実施するにあたって、バイアス推定ユニット130として、任意の方法でプロセスバイアスyを推定するユニットを採用してかまわない。   The bias estimation unit 130 shifts the position of each evaluation point on the original graphic pattern 10 and the position on the actual graphic pattern 20 based on the feature values x1 to xn for each evaluation point extracted by the feature value extraction unit 120. It serves to estimate the process bias y that represents the quantity. In §3, the procedure for estimating the process bias y by the estimation calculation by the neural network is shown. Of course, the same procedure can be adopted in implementing the present invention. However, the bias estimation unit 130 used in the present invention is not limited to the one that estimates the process bias y by the method described in §3. In carrying out the present invention, a unit that estimates the process bias y by an arbitrary method may be adopted as the bias estimation unit 130.

パターン補正ユニット140は、バイアス推定ユニット130から出力されるプロセスバイアスの推定値yに基づいて、元図形パターン10に対する補正を行うことにより、補正図形パターン15を作成する役割を果たす。このパターン補正ユニット140による補正処理は、評価点設定ユニット110によって設定された個々の評価点Eの位置と当該評価点Eについて推定されたプロセスバイアスの推定値yとを考慮して実行されることになる。そこで、本発明に係る具体的な補正処理については、§7で詳述する。   The pattern correction unit 140 plays the role of creating the corrected graphic pattern 15 by correcting the original graphic pattern 10 based on the estimated value y of the process bias output from the bias estimation unit 130. The correction processing by the pattern correction unit 140 is executed in consideration of the position of each evaluation point E set by the evaluation point setting unit 110 and the estimated value y of the process bias estimated for the evaluation point E. become. Therefore, specific correction processing according to the present invention will be described in detail in §7.

結局、本発明に係る形状補正装置100は、図1に示す先願発明に係る形状補正装置100と同様に、評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140なる構成要素を備えており、これら各構成要素の基本機能は、先願発明に係る装置と同様である。ただ、本発明の特徴は、評価点設定ユニット110およびパターン補正ユニット140に、固有の処理機能を採用した点にある。以下、この点について詳述する。   In the end, the shape correction apparatus 100 according to the present invention is similar to the shape correction apparatus 100 according to the prior application invention shown in FIG. The basic functions of these components are the same as those of the device according to the prior application. However, a feature of the present invention is that the evaluation point setting unit 110 and the pattern correction unit 140 employ unique processing functions. Hereinafter, this point will be described in detail.

<<< §6. 評価点設定ユニットの詳細 >>>
ここでは、本発明に係る形状補正装置100における評価点設定ユニット110の詳細な構成およびその動作について説明する。図32は、本発明の基本的実施形態に係る図形パターンの形状補正装置100(図1参照)内の評価点設定ユニット110の構成を示すブロック図である。この評価点設定ユニット110の基本機能は、元図形パターン10を構成する個々の単位図形について、内部と外部との境界を示す輪郭線上の所定位置に評価点Eを設定することにある。
<<< §6. Details of evaluation point setting unit >>
Here, a detailed configuration and operation of the evaluation point setting unit 110 in the shape correction apparatus 100 according to the present invention will be described. FIG. 32 is a block diagram showing the configuration of the evaluation point setting unit 110 in the figure pattern shape correcting apparatus 100 (see FIG. 1) according to the basic embodiment of the present invention. The basic function of the evaluation point setting unit 110 is to set an evaluation point E at a predetermined position on the contour line indicating the boundary between the inside and the outside of each unit graphic constituting the original graphic pattern 10.

そのような基本機能を実現するために、図32に示す評価点設定ユニット110は、単位図形入力部111、単位図形分割部112、分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115、端点再構築部116、評価点定義部117、補充端点定義部118を備えている。これらの各要素は、実際には、コンピュータに所定のプログラムを組み込むことにより構成される。なお、端点再構築部116は本発明にとって必須の構成要素ではないので、本発明を実施するにあたり、端点再構築部116は省略することも可能である。ただ、実用上は、端点再構築部116を設けた方が、より効率的な評価点設定を行うことが可能である。したがって、以下、端点再構築部116を設けた好適な実施例を説明する。   In order to realize such a basic function, the evaluation point setting unit 110 shown in FIG. 32 includes a unit graphic input unit 111, a unit graphic dividing unit 112, a divided graphic vector defining unit 113, a unit graphic vector defining unit 114, and normal end points. A definition unit 115, an endpoint reconstruction unit 116, an evaluation score definition unit 117, and a supplemental endpoint definition unit 118 are provided. Each of these elements is actually configured by incorporating a predetermined program into a computer. Note that the endpoint reconstruction unit 116 is not an essential component for the present invention, and therefore, the endpoint reconstruction unit 116 may be omitted when implementing the present invention. However, in practice, it is possible to set the evaluation point more efficiently if the end point reconstruction unit 116 is provided. Therefore, a preferred embodiment provided with the end point reconstruction unit 116 will be described below.

図示のとおり、ここに示す評価点設定ユニット110には、入力として、元図形パターン10とビーム最大成型サイズBmax が与えられている。ここで、元図形パターン10は、図1に示すように、リソグラフィプロセスの元になる図形パターンであり、通常、多数の単位図形の集合体によって構成される。一方、ビーム最大成型サイズBmax は、リソグラフィプロセスで用いる描画装置のビーム最大成型サイズであり、描画装置によって照射される光ビームや電子ビームの1回のショットによる最大照射範囲の寸法に相当する。   As shown in the figure, the evaluation point setting unit 110 shown here is given the original graphic pattern 10 and the maximum beam forming size Bmax as inputs. Here, as shown in FIG. 1, the original figure pattern 10 is a figure pattern that becomes the basis of the lithography process, and is usually constituted by an assembly of a large number of unit figures. On the other hand, the maximum beam forming size Bmax is the maximum beam forming size of the drawing apparatus used in the lithography process, and corresponds to the size of the maximum irradiation range by one shot of the light beam or electron beam irradiated by the drawing apparatus.

一方、この評価点設定ユニット110からは、第1の端点T1と第2の端点T2とに挟まれた輪郭線分Oの情報が評価点Eの情報とともに出力される。各端点T1,T2は、元図形パターン10を構成する個々の単位図形の輪郭線上に定義された点であり、輪郭線分Oの両端を画定するための点である。また、ここに示す実施例の場合、評価点Eは、輪郭線分Oの中点に定義された点である。図32には、1組の輪郭線分Oしか描かれていないが、実際には、個々の単位図形の輪郭線上に多数の輪郭線分が設定され、それぞれの輪郭線分について評価点が設定されることになる。以下、このような出力を得るための具体的な手順を説明する。   On the other hand, from the evaluation point setting unit 110, information on the contour line segment O sandwiched between the first end point T1 and the second end point T2 is output together with information on the evaluation point E. Each of the end points T1 and T2 is a point defined on the contour line of each unit graphic constituting the original graphic pattern 10, and is a point for defining both ends of the contour line segment O. Moreover, in the case of the Example shown here, the evaluation point E is a point defined in the midpoint of the outline O. In FIG. 32, only one set of contour line segment O is drawn, but actually, a large number of contour line segments are set on the contour line of each unit graphic, and an evaluation point is set for each contour segment. Will be. Hereinafter, a specific procedure for obtaining such an output will be described.

<6.1 単位図形の分割>
図32に示す単位図形入力部111は、元図形パターン10を構成する個々の単位図形を入力する構成要素である。ここで述べる実施形態の場合、個々の単位図形は多角形によって構成されており、図2(a) には、元図形パターン10として矩形が入力された例が示されている。半導体デバイスなどを製造するために用いられる実際の元図形パターン10は、様々な形状をもった微細な単位図形を多数集めた複雑な図形集合体によって構成されることになるが、通常、個々の単位図形は多角形によって構成されている。
<6.1 Division of unit graphic>
A unit graphic input unit 111 shown in FIG. 32 is a component for inputting individual unit graphics constituting the original graphic pattern 10. In the case of the embodiment described here, each unit graphic is constituted by a polygon, and FIG. 2A shows an example in which a rectangle is input as the original graphic pattern 10. An actual original figure pattern 10 used for manufacturing a semiconductor device or the like is constituted by a complex figure assembly in which a large number of fine unit figures having various shapes are collected. The unit figure is composed of polygons.

図32に示す単位図形分割部112は、単位図形入力部111が入力した個々の単位図形を直線状の分割線で分割して複数の分割図形を形成する処理を実行する。上述したとおり、個々の単位図形は多角形であるので、これを直線状の分割線で分割して得られる個々の分割図形も多角形になる。図33は、単位図形分割部112によって行われた具体的な分割処理の例を示す平面図である。ここでは説明の便宜上、1つの単位図形からなる元図形パターン10が入力された場合を例にとり、当該単位図形についても元図形パターンと同様に符号「10」を付して示すことにする。   The unit graphic dividing unit 112 shown in FIG. 32 executes a process of dividing each unit graphic input by the unit graphic input unit 111 with a linear dividing line to form a plurality of divided graphics. As described above, since each unit graphic is a polygon, each divided graphic obtained by dividing the unit graphic by a straight dividing line also becomes a polygon. FIG. 33 is a plan view showing an example of a specific division process performed by the unit graphic division unit 112. Here, for convenience of explanation, the case where the original figure pattern 10 composed of one unit figure is inputted is taken as an example, and the unit figure is also denoted by the reference numeral “10” similarly to the original figure pattern.

図33(a) は、寸法Wsplit の幅をもった細長い帯状単位図形10に対して、単位図形分割部112による分割が行われた例を示す平面図である。具体的には、単位図形入力部111が、所定の長手方向軸(図示の例の場合X軸)に沿って伸び、互いに平行な直線状の上辺および下辺を有する細長い帯状単位図形10を入力したという想定で、単位図形分割部112が、この帯状単位図形10を、長手方向軸(X軸)に沿って所定間隔で配置された複数の分割線(図では破線で示す)によって分割することにより、当該長手方向軸(X軸)に沿って一次元的に並んだ複数の分割図形10a,10b,10c,……,10j,10k,10lが形成されている(後述するように、各分割図形の符号a,b,c,……の並び順は、左右の端から交互に中央へ向かう順になっている)。   FIG. 33 (a) is a plan view showing an example in which the unit figure dividing unit 112 performs division on the elongated strip-like unit figure 10 having the width of the dimension Wsplit. Specifically, the unit graphic input unit 111 inputs a long and narrow strip-shaped unit graphic 10 that extends along a predetermined longitudinal axis (X-axis in the illustrated example) and has linear upper and lower sides parallel to each other. Assuming that the unit figure dividing unit 112 divides the band-like unit figure 10 by a plurality of dividing lines (indicated by broken lines in the figure) arranged at predetermined intervals along the longitudinal axis (X axis). A plurality of divided figures 10a, 10b, 10c,..., 10j, 10k, 10l are formed in a one-dimensional manner along the longitudinal axis (X axis) (as will be described later, each divided figure). Are arranged in order from the left and right ends alternately toward the center).

図示の例の場合、左端位置と右端位置のそれぞれから、帯状単位図形10の幅と同じ寸法Wsplit の間隔で破線で示す分割線が配置されている。具体的には、まず、一点鎖線で示す左端位置から右方へWsplit の位置に分割線を配置して分割図形10aを画定し、次に、一点鎖線で示す右端位置から左方へWsplit の位置に分割線を配置して分割図形10bを画定し、続いて、分割図形10aの右の分割線から右方へWsplit の位置に分割線を配置して分割図形10cを画定し、……というように、左右の端から交互に中央に向かって分割線を配置してゆく。そして、中央部に残された残余部分の幅Wrestが、Wrest ≦ 2×Wsplit になったら、この残余部分を2分割する分割線を配置して、分割図形10k,10lを画定する。このため、分割図形10a〜10jは一辺がWsplit の正方形になり、中央の分割図形10k,10lは横幅が端数の寸法をもつ長方形になる。   In the case of the illustrated example, dividing lines indicated by broken lines are arranged from the left end position and the right end position at intervals of the same dimension Wsplit as the width of the band-shaped unit graphic 10. Specifically, first, a dividing line is arranged at a position Wsplit from the left end position indicated by the alternate long and short dash line to define the divided figure 10a, and then the position of Wsplit from the right end position indicated by the alternate long and short dash line to the left A dividing line is arranged to define a divided figure 10b, and then a dividing line is arranged at a position Wsplit from the right dividing line to the right of the dividing figure 10a to define a divided figure 10c, and so on. The dividing lines are alternately arranged from the left and right ends toward the center. When the width Wrest of the remaining portion left in the central portion becomes Wrest ≦ 2 × Wsplit, dividing lines 10k and 10l are defined by arranging dividing lines for dividing the remaining portion into two. For this reason, the divided figures 10a to 10j are squares with Wsplit on one side, and the divided figures 10k and 10l at the center are rectangles with dimensions of the horizontal width.

半導体デバイスなどには、図33(a) に示すような細長い帯状単位図形10が、配線層などを構成するパターンとして多用されている。もちろん、分割線の配置間隔は、必ずしも帯状単位図形10の縦幅Wsplit に一致させる必要はなく、任意の寸法に設定してもかまわない。この場合、各分割図形は長方形になる。なお、図33(a) に示す例のように、所定間隔Wsplit の幅で左右両端から交互に分割を行ってゆき、最後に、Wrest/2の幅をもつ分割図形10k,10lが中央に配置されるようにするのは、単位図形10の左右両端の直近に分割線が配置されることを避けるためである。後述するように、評価点は各分割図形の辺の中点位置に設定されるため、図示されている両端の分割図形10a,10bの横幅が小さくなると、評価点が帯状単位図形10の頂点直近に設定されることになり好ましくない。図33(a) に示す方法で分割すれば、両端の分割図形10a,10bの横幅をWsplit にすることができ、頂点から距離Wsplit /2だけ離れた位置(頂点の直近ではなく、ある程度離れた位置)に評価点を設定することができる。   In a semiconductor device or the like, an elongated strip-shaped unit graphic 10 as shown in FIG. 33A is frequently used as a pattern constituting a wiring layer or the like. Of course, the arrangement interval of the dividing lines does not necessarily have to coincide with the vertical width Wsplit of the band-shaped unit graphic 10, and may be set to an arbitrary dimension. In this case, each divided figure becomes a rectangle. As in the example shown in FIG. 33 (a), division is performed alternately from the left and right ends at a predetermined interval Wsplit, and finally, divided figures 10k and 10l having a width of Wrest / 2 are arranged at the center. The reason for doing so is to avoid placing dividing lines in the immediate vicinity of the left and right ends of the unit graphic 10. As will be described later, since the evaluation point is set at the midpoint position of the side of each divided figure, when the horizontal width of the divided figures 10a and 10b at both ends is reduced, the evaluation point is closest to the vertex of the band-like unit figure 10. This is not preferable. If divided by the method shown in FIG. 33 (a), the horizontal width of the divided figures 10a and 10b at both ends can be set to Wsplit, and the position separated by a distance Wsplit / 2 from the vertex (not a distance from the vertex but a certain distance). An evaluation point can be set at (position).

図33(b) は、より広い縦幅をもった矩形状の単位図形10に対して、単位図形分割部112による分割が行われた例を示す平面図である。このように、単位図形入力部111が、XY平面上に広がる単位図形10を入力したときには、単位図形分割部112は、まず、X軸に平行な水平分割線をY軸方向に所定間隔をあけて複数配置し、これら複数の水平分割線によって単位図形10を分割することにより、X軸方向に伸びる細長い複数の帯状図形を形成する。   FIG. 33B is a plan view showing an example in which the unit graphic dividing unit 112 performs division on the rectangular unit graphic 10 having a wider vertical width. Thus, when the unit graphic input unit 111 inputs the unit graphic 10 that spreads on the XY plane, the unit graphic dividing unit 112 first sets a horizontal dividing line parallel to the X axis at a predetermined interval in the Y axis direction. A plurality of strip-like figures extending in the X-axis direction are formed by dividing the unit figure 10 by the plurality of horizontal dividing lines.

図33(b) に示す例では、破線で示す水平分割線が、上端位置と下端位置のそれぞれから、所定寸法Wsplit を基準とする間隔で配置されている。具体的には、まず、一点鎖線で示す上端位置から下方にWsplit の位置に水平分割線を配置して分割図形10aを画定し、次に、一点鎖線で示す下端位置から上方にWsplit の位置に水平分割線を配置して分割図形10bを画定し、続いて、分割図形10aの下の水平分割線から下方へWsplit の位置に水平分割線を配置して分割図形10cを画定し、……というように、上下の端から交互に中央に向かって水平分割線を配置してゆく。そして、中央部に残された残余部分の縦幅Wrestが、Wrest ≦ 2×Wsplit になったら、この残余部分を2分割する水平分割線を配置して、分割図形10d,10eを画定する。このため、縦幅Wsplit をもつ細長い帯状図形10a,10b,10cと、縦幅が端数の寸法をもつ細長い帯状図形10d,10eが形成されている。このように、所定間隔Wsplit の幅で上下両端から交互に分割を行ってゆき、最後に、Wrest/2の幅をもつ分割図形10d,10eが中央に配置されるようにするのは、やはり評価点が単位図形10の頂点直近に設定されることを避けるためである。   In the example shown in FIG. 33 (b), horizontal dividing lines indicated by broken lines are arranged from the upper end position and the lower end position at intervals based on a predetermined dimension Wsplit. Specifically, first, a horizontal dividing line is arranged at the Wsplit position below the upper end position indicated by the alternate long and short dash line to define the divided graphic 10a, and then the lower end position indicated by the alternate long and short dashed line is moved upward to the Wsplit position. A horizontal dividing line is arranged to define a divided figure 10b, and then a horizontal dividing line is arranged at a position Wsplit downward from a horizontal dividing line below the divided figure 10a to define a divided figure 10c. In this way, horizontal dividing lines are alternately arranged from the upper and lower ends toward the center. Then, when the vertical width Wrest of the remaining portion left in the center portion becomes Wrest ≦ 2 × Wsplit, a horizontal dividing line for dividing the remaining portion into two is arranged to define the divided figures 10d and 10e. For this reason, elongated strip-shaped figures 10a, 10b, 10c having a vertical width Wsplit and elongated strip-shaped figures 10d, 10e having a vertical width with a fractional dimension are formed. As described above, it is also evaluated that the divided figures 10d and 10e having the width of Wrest / 2 are arranged at the center by alternately dividing from the upper and lower ends with the width of the predetermined interval Wsplit. This is to avoid the point being set immediately near the vertex of the unit graphic 10.

こうして、元の矩形状の単位図形10が、複数の帯状図形10a,10b,10c,10d,10eに分割されたら、更に、これら複数の帯状図形10a,10b,10c,10d,10eのそれぞれを、X軸に沿って所定間隔で配置されY軸に平行な複数の垂直分割線によって分割することにより、二次元的に並んだ複数の分割図形(図示省略)を形成することができる。すなわち、各帯状図形10a,10b,10c,10d,10eは、いずれも図33(a) に示すようなX軸方向に伸びる細長い図形になるので、図33(a) に示す例と同様に、それぞれ横方向に分割すれば、二次元的に並んだ複数の分割図形を得ることができる。たとえば、X軸に沿ってWsplit の間隔で配置された垂直分割線によって分割すれば、一辺がWsplit の多数の正方形を含む分割図形群を得ることができる。   Thus, when the original rectangular unit figure 10 is divided into a plurality of band-like figures 10a, 10b, 10c, 10d, and 10e, each of the plurality of band-like figures 10a, 10b, 10c, 10d, and 10e By dividing by a plurality of vertical dividing lines arranged at predetermined intervals along the X axis and parallel to the Y axis, a plurality of divided figures (not shown) arranged two-dimensionally can be formed. That is, since each of the strip-like figures 10a, 10b, 10c, 10d, and 10e is an elongated figure extending in the X-axis direction as shown in FIG. 33 (a), as in the example shown in FIG. 33 (a), If each is divided horizontally, a plurality of divided figures arranged two-dimensionally can be obtained. For example, if divided by vertical dividing lines arranged at intervals of Wsplit along the X axis, a divided figure group including a large number of squares each having Wsplit can be obtained.

図33(c) は、幅Wsplit を有するL字型の帯からなる単位図形10に対して、単位図形分割部112による分割が行われた例を示す平面図である。この例についても、図33(b) と同じ手法を適用すれば、まず、X軸に平行な水平分割線をY軸に沿ってWsplit の間隔で配置し、これら水平分割線による分割が行われる。図33(c) は、このような分割が行われた状態を示しており、4組の正方形10a,10b,10c,10dと、1組の細長い帯状図形10eが形成されている。そこで、更に、細長い帯状図形10eを、X軸に沿って所定間隔(たとえば、Wsplit )で配置されY軸に平行な複数の垂直分割線によって分割すれば、図33(a) と同様に、帯状図形10eを複数の分割図形(図示省略)に分割することができる。たとえば、X軸に沿ってWsplit の間隔で配置された垂直分割線によって帯状図形10eを分割すれば、一辺がWsplit の正方形をX軸方向に並べた分割図形群を得ることができる。   FIG. 33 (c) is a plan view showing an example in which the unit graphic dividing unit 112 performs division on the unit graphic 10 formed of an L-shaped band having a width Wsplit. Also in this example, if the same method as in FIG. 33 (b) is applied, first, horizontal division lines parallel to the X axis are arranged at intervals of Wsplit along the Y axis, and division by these horizontal division lines is performed. . FIG. 33 (c) shows a state in which such division is performed, and four sets of squares 10a, 10b, 10c, and 10d and a set of elongated strip-like figures 10e are formed. Therefore, if the elongated band-shaped figure 10e is further divided by a plurality of vertical dividing lines arranged at a predetermined interval (for example, Wsplit) along the X axis and parallel to the Y axis, the band shape is obtained as in FIG. The figure 10e can be divided into a plurality of divided figures (not shown). For example, if the band-like figure 10e is divided by vertical dividing lines arranged at intervals of Wsplit along the X axis, a divided figure group in which squares whose sides are Wsplit are arranged in the X axis direction can be obtained.

以上、長方形もしくは長方形の組み合わせからなる形状を有する単位図形についての分割例を示したが、元図形パターンには、斜めの辺をもった単位図形が含まれる場合もある。図34は、図32に示す単位図形分割部112によって、平行四辺形型の単位図形10に対して行われた具体的な分割処理の例を示す平面図である。   In the above, an example of division for a unit graphic having a shape made of a rectangle or a combination of rectangles has been shown. However, the original graphic pattern may include a unit graphic having an oblique side. FIG. 34 is a plan view showing an example of a specific division process performed on the parallelogram type unit graphic 10 by the unit graphic dividing unit 112 shown in FIG.

いま、単位図形入力部111によって、図34(a) に示すような平行四辺形型の単位図形10が入力されたものとしよう。この単位図形10は、高さがWsplit の平行四辺形をしており、横方向に細長い形状をしている。このような平行四辺形型の単位図形10に対しても、前述した図33(a) に示す分割方法を適用することができる。すなわち、単位図形分割部112は、図34(b) に示すように、一点鎖線で示す左端位置から、たとえば寸法Wsplit の間隔で破線で示す分割線を配置し、この分割線によって、単位図形10を4分割することができる。その結果、単位図形10は、図34(c) に示すように、4つの分割図形10a,10b,10c,10dに分割される。   Assume that the unit graphic input unit 111 inputs a parallelogram unit graphic 10 as shown in FIG. The unit graphic 10 is a parallelogram having a height of Wsplit and is elongated in the horizontal direction. The above-described dividing method shown in FIG. 33A can also be applied to such a parallelogram unit graphic 10. That is, as shown in FIG. 34 (b), the unit graphic dividing unit 112 arranges dividing lines indicated by broken lines, for example, at intervals of the dimension Wsplit from the left end position indicated by the alternate long and short dash line. Can be divided into four. As a result, the unit figure 10 is divided into four divided figures 10a, 10b, 10c, and 10d as shown in FIG. 34 (c).

ここで、中間に位置する分割図形10b,10cは一辺がWsplitの正方形になるが、両端に位置する分割図形10a,10dは高さがWsplitの台形になる。前述した図33(b) に示す分割方法を適用すれば、任意形状の単位図形10を、複数の水平分割線によって分割することにより、X軸方向に伸びる細長い複数の帯状図形を形成することができ、これを更に垂直分割線によって分割することにより、最終的には、複数の台形からなる分割図形を形成することができる。実用上は、単位図形入力部111が、多角形からなる単位図形10を入力し、単位図形分割部112が、この単位図形10を分割して、台形からなる分割図形を形成するようにするのが好ましい。   Here, the divided figures 10b and 10c located in the middle are squares with one side being Wsplit, but the divided figures 10a and 10d located at both ends are trapezoids whose height is Wsplit. If the dividing method shown in FIG. 33 (b) is applied, the unit figure 10 having an arbitrary shape is divided by a plurality of horizontal dividing lines, thereby forming a plurality of strip-like figures extending in the X-axis direction. This can be further divided by a vertical dividing line to finally form a divided figure composed of a plurality of trapezoids. In practice, the unit graphic input unit 111 inputs the unit graphic 10 formed of a polygon, and the unit graphic dividing unit 112 divides the unit graphic 10 to form a divided graphic formed of a trapezoid. Is preferred.

ここで、「台形」とは、一般的には「1組の対辺が平行な四辺形(広辞苑第六版)」と定義されている。図35(a) は、このような定義に合致する典型的な「台形」であり、この例では、高さおよび下底が寸法Wsplit に設定されている。図35(b) は、一辺がWsplit の正方形であり、上底,下底、高さがいずれも寸法Wsplit に設定され、2組の対辺が平行な四辺形ということになる。上底,下底が寸法Wsplit ではない場合は長方形になる。一方、図35(c) は、底辺が寸法Wsplit より小さく、高さがWsplit の三角形であるが、上底の長さが0の特殊な台形ということもできる。そこで、本願における「台形」なる用語は、一般的な台形の定義に該当する図形のみならず、正方形、長方形、三角形も含むような拡張した定義に該当する図形を広く含むものとする。   Here, the “trapezoid” is generally defined as “a set of quadrilaterals whose opposite sides are parallel (Kojien 6th edition)”. FIG. 35 (a) is a typical “trapezoid” meeting such a definition, and in this example, the height and the bottom base are set to the dimension Wsplit. FIG. 35B is a square with one side being Wsplit, and the upper base, the lower base, and the height are all set to the dimension Wsplit, and two sets of opposite sides are parallelograms. If the upper and lower bases are not of dimension Wsplit, they are rectangular. On the other hand, FIG. 35C shows a special trapezoid whose bottom is smaller than the dimension Wsplit and whose height is Wsplit but whose upper base is zero. Therefore, the term “trapezoid” in the present application widely includes not only a figure corresponding to a general trapezoid definition but also a figure corresponding to an expanded definition including a square, a rectangle, and a triangle.

上述したとおり、図33(b) に示す分割方法を適用すれば、任意の多角形からなる単位図形10を、図35に示すような「台形」からなる分割図形に分割することができる。しかも、分割線の間隔を所定間隔Wsplit に設定すれば、図35(a) ,(b) ,(c) に示すように、いずれも縦幅Wsplit 以下、横幅Wsplit 以下となるような台形状の分割図形にすることが可能である。本発明を実施する上では、単位図形分割部112に、所定寸法Wsplit を設定して、縦幅Wsplit 以下、横幅Wsplit 以下となる台形状の分割図形を形成させることが好ましい。以下にその理由を説明する。   As described above, by applying the dividing method shown in FIG. 33 (b), the unit figure 10 made of an arbitrary polygon can be divided into divided figures made of “trapezoids” as shown in FIG. In addition, if the interval between the dividing lines is set to the predetermined interval Wsplit, as shown in FIGS. 35 (a), (b), and (c), the trapezoidal shape is such that the width is Wsplit or less and the width Wsplit or less. It can be divided into figures. In practicing the present invention, it is preferable to set a predetermined dimension Wsplit in the unit graphic dividing unit 112 to form a trapezoidal divided graphic having a vertical width Wsplit or less and a horizontal width Wsplit or less. The reason will be described below.

図1に示す図形パターンの形状補正装置100によって作成された補正図形パターンは、実際のリソグラフィプロセスに利用される。ここで、実際のリソグラフィプロセスには、光描画装置や電子線描画装置を用いて、光ビームや電子ビームを実基板S上に照射する露光工程が含まれる。この露光工程において、実基板S上に1ショットのビーム照射によって露光可能な最大照射可能領域は、個々の描画装置のビーム最大成型サイズBmax によって定まる。   The corrected graphic pattern created by the graphic pattern shape correcting apparatus 100 shown in FIG. 1 is used in an actual lithography process. Here, the actual lithography process includes an exposure step of irradiating the actual substrate S with a light beam or an electron beam using an optical drawing apparatus or an electron beam drawing apparatus. In this exposure step, the maximum irradiable area that can be exposed by one-shot beam irradiation on the actual substrate S is determined by the maximum beam forming size Bmax of each drawing apparatus.

たとえば、台形状に成型したビームを照射可能な描画装置において、そのビーム最大成型サイズBmax が20nmであった場合、当該描画装置による1ショットのビーム照射では、最大で一辺が20nmの正方形状の照射領域しか形成することができない。したがって、たとえば、一辺が30nmの正方形状の領域に対して露光を行いたい場合は、照射位置を縦方向および横方向にずらしながら、合計4ショットの照射が必要になる。このような点を考慮すると、できるだけ効率的な露光工程を行うためには、実際のリソグラフィプロセスに用いられる補正図形パターン15を構成する個々の単位図形も、描画装置のビーム最大成型サイズBmax の値を考慮した形状にしておくのが好ましい。   For example, in a drawing apparatus capable of irradiating a trapezoidal shaped beam, if the maximum beam forming size Bmax is 20 nm, the one-shot beam irradiation by the drawing apparatus irradiates in a square shape having a maximum side of 20 nm. Only regions can be formed. Therefore, for example, when it is desired to perform exposure on a square region having a side of 30 nm, it is necessary to irradiate a total of four shots while shifting the irradiation position in the vertical and horizontal directions. Considering these points, in order to perform the exposure process as efficiently as possible, individual unit figures constituting the correction figure pattern 15 used in the actual lithography process are also the values of the maximum beam forming size Bmax of the drawing apparatus. It is preferable to make the shape into consideration.

ここでは、図34(a) に示すような平行四辺形型の単位図形10についての形状補正を行う場合を考えてみる。上述した分割方法によれば、当該単位図形10は、図34(c) に示すような4組の分割図形10a,10b,10c,10dに分割される。このとき、単位図形分割部112に、リソグラフィプロセスで用いる描画装置のビーム最大成型サイズBmax を設定する機能を設けておけば、単位図形の分割に用いる分割線の配置間隔Wsplit を、このビーム最大成型サイズBmax 以下に設定した分割処理を行うことができる。   Here, let us consider a case where shape correction is performed on the parallelogram unit graphic 10 as shown in FIG. According to the dividing method described above, the unit graphic 10 is divided into four sets of divided graphics 10a, 10b, 10c, and 10d as shown in FIG. At this time, if the unit graphic dividing unit 112 has a function of setting the maximum beam forming size Bmax of the drawing apparatus used in the lithography process, the arrangement interval Wsplit of the dividing lines used for dividing the unit graphic is set to the maximum beam forming. The division process set to the size Bmax or less can be performed.

上述した分割方法を採用すれば、図35に示すように、分割処理によって得られる個々の分割図形は、いずれも縦幅Wsplit 以下、横幅Wsplit 以下の台形になる。したがって、単位図形分割部112が、分割線の配置間隔Wsplit を、ビーム最大成型サイズBmax 以下に設定すれば、分割処理によって得られる個々の分割図形は、いずれも縦幅Bmax 以下、横幅Bmax 以下の台形になる。これは、最終的に得られる補正図形パターン15を用いて実際のリソグラフィプロセスを行う場合、露光工程の効率化(トータルショット数の低減)を図る上で有利である。   If the dividing method described above is employed, as shown in FIG. 35, each divided figure obtained by the dividing process becomes a trapezoid having a vertical width Wsplit or less and a horizontal width Wsplit or less. Therefore, if the unit figure dividing unit 112 sets the arrangement interval Wsplit of the dividing lines to be equal to or less than the maximum beam forming size Bmax, each of the divided figures obtained by the dividing process is less than the vertical width Bmax and less than the horizontal width Bmax. It becomes a trapezoid. This is advantageous in improving the efficiency of the exposure process (reducing the total number of shots) when an actual lithography process is performed using the corrected figure pattern 15 finally obtained.

後述するように、単位図形分割部112による分割処理で得られた個々の分割図形の辺のいくつかは、パターン補正ユニット140が補正図形パターンを作成する際に移動させる輪郭線分として採用され、移動後の輪郭線分により、補正図形パターンの輪郭が形成されることになる。   As will be described later, some of the sides of the individual divided graphics obtained by the division processing by the unit graphic dividing unit 112 are adopted as contour segments to be moved when the pattern correction unit 140 creates the corrected graphic pattern, The contour of the corrected graphic pattern is formed by the contour line segment after the movement.

図36は、図34(c) に示す単位図形10を構成する各分割図形10a,10b,10c,10dに対する形状補正を行うことにより得られた補正後の単位図形15の一例を示す平面図である。図示のとおり、各分割図形10a,10b,10c,10dは、それぞれ分割図形15a,15b,15c,15dに補正されており、これら補正後の分割図形15a,15b,15c,15dによって、補正後の単位図形15が構成されている。具体的には、この例の場合、図34(c) に示す分割図形10b,10dの上辺および下辺を輪郭線分として移動させることにより、若干縦幅が縮まった分割図形15b,15dが得られている。   FIG. 36 is a plan view showing an example of the corrected unit graphic 15 obtained by performing shape correction on each of the divided graphics 10a, 10b, 10c, and 10d constituting the unit graphic 10 shown in FIG. 34 (c). is there. As shown in the figure, the divided figures 10a, 10b, 10c, and 10d are corrected to the divided figures 15a, 15b, 15c, and 15d, respectively. After the correction, the divided figures 15a, 15b, 15c, and 15d are corrected. A unit graphic 15 is configured. Specifically, in the case of this example, by moving the upper and lower sides of the divided figures 10b and 10d shown in FIG. 34 (c) as outline segments, the divided figures 15b and 15d having a slightly reduced vertical width are obtained. ing.

この例の場合、図1に示す形状補正装置100は、元図形パターン10に含まれていた図34(c) に示す単位図形10に対する補正を行うことにより、図36に示す補正後の単位図形15を含む補正図形パターン15を作成する形状補正処理を行うことになり、この補正図形パターン15が実際のリソグラフィプロセスに利用されることになる。ここで、この実際のリソグラフィプロセスにおいて、図36に示す補正後の単位図形15に基づいてどのような露光工程が行われるかを考えてみる。   In the case of this example, the shape correcting apparatus 100 shown in FIG. 1 corrects the unit graphic 10 shown in FIG. 34 (c) included in the original graphic pattern 10 to thereby correct the unit graphic after correction shown in FIG. Thus, a shape correction process for creating a corrected graphic pattern 15 including 15 is performed, and this corrected graphic pattern 15 is used in an actual lithography process. Here, let us consider what exposure process is performed based on the corrected unit graphic 15 shown in FIG. 36 in this actual lithography process.

図37は、図36に示す補正後の単位図形15に基づく露光工程の一例を示す平面図である。ここで、太線の正方形は、一辺がビーム最大成型サイズBmax の照射領域を示している。別言すれば、実際のリソグラフィプロセスに用いられる露光装置は、1ショットの照射で、この太線の正方形内の領域に対して光ビームや電子ビームを照射する機能を有している。もちろん、実際の照射領域は、単位図形15の内側領域に対応する部分のみになる。   FIG. 37 is a plan view showing an example of an exposure process based on the corrected unit graphic 15 shown in FIG. Here, a thick square represents an irradiation area with one side having the maximum beam forming size Bmax. In other words, an exposure apparatus used in an actual lithography process has a function of irradiating a light beam or an electron beam onto a region within the thick square by one shot irradiation. Of course, the actual irradiation area is only the portion corresponding to the inner area of the unit graphic 15.

したがって、図37に示す例の場合、合計4ショットによって、単位図形15に基づく露光工程は完了する。すなわち、1回目のショットでは、図37(a) の太線の正方形内のうちハッチングが施された分割図形15aの内部領域に対する照射露光が行われ、2回目のショットでは、図37(b) の太線の正方形内のうちハッチングが施された分割図形15bの内部領域に対する照射露光が行われ、3回目のショットでは、図37(c) の太線の正方形内のうちハッチングが施された分割図形15cの内部領域に対する照射露光が行われ、4回目のショットでは、図37(d) の太線の正方形内のうちハッチングが施された分割図形15dの内部領域に対する照射露光が行われる。   Therefore, in the example shown in FIG. 37, the exposure process based on the unit graphic 15 is completed by a total of four shots. That is, in the first shot, irradiation exposure is performed on the hatched divided figure 15a in the thick square in FIG. 37 (a), and in the second shot, in FIG. 37 (b). Irradiation exposure is performed on the inner area of the hatched divided figure 15b in the thick square, and in the third shot, the hatched divided figure 15c in the thick square in FIG. Irradiation exposure is performed on the inner area, and in the fourth shot, irradiation exposure is performed on the inner area of the hatched divided figure 15d in the thick square in FIG.

このように、補正後の単位図形15に基づく露光工程が、合計4ショットで済んだのは、単位図形分割部112に、縦幅Bmax 以下、横幅Bmax 以下となる台形状の分割図形を形成させ、パターン補正ユニット140に、この分割図形の辺を個々の輪郭線分として移動させる補正を行うことにより補正後の単位図形15を作成させたためである。   In this way, the exposure process based on the corrected unit graphic 15 has been completed for a total of four shots. The unit graphic dividing unit 112 is caused to form a trapezoidal divided graphic having a vertical width Bmax or less and a horizontal width Bmax or less. This is because the unit graphic 15 after correction is created by performing correction for moving the sides of the divided graphic as individual contour lines in the pattern correction unit 140.

もちろん、このような分割処理や補正処理を採用したとしても、必ずしも露光工程時のショット数を低減させる効果が得られるとは限らない。たとえば、図36の例では、分割図形15b,15dは、分割図形10b,10dの縦幅を若干縮めた図形になっているが、逆に、縦幅を若干広げた図形になった場合には、図37(b) ,(d) の露光工程は、1ショットで行うことはできなくなる。しかしながら、上述した分割処理や補正処理を採用すれば、多数の単位図形を含む図形パターン全体としてみたときに、露光工程の効率化を図ることが可能な補正図形パターン15を得ることができる。   Of course, even if such division processing or correction processing is adopted, the effect of reducing the number of shots during the exposure process is not always obtained. For example, in the example of FIG. 36, the divided figures 15b and 15d are figures obtained by slightly reducing the vertical width of the divided figures 10b and 10d. 37 (b) and 37 (d) cannot be performed in one shot. However, if the above-described division processing and correction processing are employed, it is possible to obtain a corrected graphic pattern 15 that can improve the efficiency of the exposure process when viewed as a whole graphic pattern including a large number of unit graphics.

図32に示す評価点設定ユニット110のブロック図では、ビーム最大成型サイズBmax が、単位図形分割部112に与えられているが、これは単位図形分割部112が、実際のリソグラフィプロセスで用いる描画装置のビーム最大成型サイズBmax を設定し、単位図形の分割に用いる分割線の配置間隔をこのビーム最大成型サイズBmax 以下に設定する機能を有していることを示している。もちろん、このような機能は、本発明を実施する上で必須の機能ではないが、実用上は、このような機能をもたせておけば、上述したように露光工程の効率化を図る上で好ましい。   In the block diagram of the evaluation point setting unit 110 shown in FIG. 32, the maximum beam forming size Bmax is given to the unit graphic dividing unit 112. This is a drawing apparatus used by the unit graphic dividing unit 112 in the actual lithography process. The maximum beam forming size Bmax is set, and the arrangement interval of the dividing lines used for dividing the unit graphic is set to be equal to or less than the maximum beam forming size Bmax. Of course, such a function is not an indispensable function for carrying out the present invention. However, in practice, if such a function is provided, it is preferable for improving the efficiency of the exposure process as described above. .

<6.2 ベクトルおよび通常端点の定義>
続いて、図32に示す評価点設定ユニット110における分割図形ベクトル定義部113,単位図形ベクトル定義部114,通常端点定義部115の処理機能について説明する。§6.1で述べたとおり、単位図形分割部112による分割処理によって、単位図形10は複数の分割図形に分割される。そして、この分割図形の辺のいくつかは、補正の際に移動させる輪郭線分として採用される。
<6.2 Definition of vector and normal end point>
Next, processing functions of the divided graphic vector defining unit 113, the unit graphic vector defining unit 114, and the normal endpoint defining unit 115 in the evaluation point setting unit 110 shown in FIG. 32 will be described. As described in §6.1, the unit graphic 10 is divided into a plurality of divided graphics by the division processing by the unit graphic dividing unit 112. Then, some of the sides of the divided figure are employed as outline segments to be moved during correction.

たとえば、図34(c) に示す例の場合、単位図形10は4組の分割図形10a,10b,10c,10dに分割されている。これらの分割図形はいずれも4辺を有する台形であるから、分割図形の辺の数の合計は16になる。ただ、元の単位図形10の輪郭線を構成する辺の数は合計10である。そこで、合計16組の辺の中から、輪郭線を構成する10組の辺を抽出する処理が必要になる。分割図形ベクトル定義部113および単位図形ベクトル定義部114の役割は、このように、単位図形10の輪郭線を構成する特定の辺を抽出することにあり、通常端点定義部115の役割は、こうして抽出された各辺の両端に通常端点を定義することにある。   For example, in the example shown in FIG. 34 (c), the unit graphic 10 is divided into four sets of divided graphics 10a, 10b, 10c, and 10d. Since each of these divided figures is a trapezoid having four sides, the total number of sides of the divided figure is 16. However, the total number of sides constituting the contour line of the original unit graphic 10 is ten. Therefore, it is necessary to perform processing for extracting 10 sets of sides constituting the contour line from a total of 16 sets of sides. The role of the divided graphic vector defining unit 113 and the unit graphic vector defining unit 114 is to extract a specific side constituting the outline of the unit graphic 10 in this way, and the role of the normal end point defining unit 115 is thus It is to define normal end points at both ends of each extracted side.

図38は、図34(c) に示す四分割後の平行四辺形型の単位図形10に対して、図32に示す分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115による処理が行われた例を示す平面図である。以下、この平行四辺形型の単位図形10を例にとって、各定義部113,114,115による処理を具体的に説明する。   FIG. 38 shows a divided figure vector definition unit 113, a unit figure vector definition unit 114, and a normal end point definition unit 115 shown in FIG. 32 for the quadrilateral unit graphic 10 after the four divisions shown in FIG. FIG. Hereinafter, the processing performed by the definition units 113, 114, and 115 will be described in detail, taking the parallelogram unit graphic 10 as an example.

まず、分割図形ベクトル定義部113は、単位図形分割部112による分割処理によって形成された各分割図形について、当該分割図形を構成する多角形の輪郭線に沿って所定の順方向まわりに一周するように、多角形の個々の辺上にそれぞれ分割図形ベクトルを定義する処理を行う。たとえば、図34(c) に示す例の場合、4組の分割図形10a,10b,10c,10dが形成されている。そこで、各分割図形について、たとえば、時計まわりの方向を順方向と定義すれば、図38(a) に示すように、各分割図形10a,10b,10c,10d内に時計まわりの順方向矢印A1〜A4を定義することができ、この順方向矢印A1〜A4が示す方向に各分割図形を構成する台形の輪郭線を一周するように、各台形の辺上に分割図形ベクトルを定義することができる。   First, the divided graphic vector defining unit 113 makes a round around a predetermined forward direction along the outline of the polygon that forms the divided graphic for each divided graphic formed by the division processing by the unit graphic dividing unit 112. Then, a process for defining divided graphic vectors on each side of the polygon is performed. For example, in the example shown in FIG. 34 (c), four sets of divided figures 10a, 10b, 10c, and 10d are formed. Therefore, for each divided figure, for example, if the clockwise direction is defined as the forward direction, as shown in FIG. 38 (a), a clockwise forward arrow A1 in each divided figure 10a, 10b, 10c, 10d. ~ A4 can be defined, and a divided figure vector can be defined on the side of each trapezoid so that the outline of the trapezoid constituting each divided figure goes around in the directions indicated by the forward arrows A1 to A4. it can.

図38(b) は、このようにして定義された分割ベクトルを示す平面図である。たとえば、分割図形10aを構成する台形は、図38(a) に示すように、4つの頂点ξ1〜ξ4を有しており、第1の辺ξ1−ξ2と、第2の辺ξ2−ξ3と、第3の辺ξ3−ξ4と、第4の辺ξ4−ξ1とを有している。このため、分割図形ベクトル定義部113は、分割図形10aについて、図38(b) に示すように、4組の分割図形ベクトルVa1,Va2,Va3,V4aを定義する処理を行う。   FIG. 38 (b) is a plan view showing the divided vectors defined in this way. For example, the trapezoid constituting the divided figure 10a has four vertices ξ1 to ξ4 as shown in FIG. 38 (a), and the first side ξ1-ξ2 and the second side ξ2-ξ3 , A third side ξ3-ξ4 and a fourth side ξ4-ξ1. Therefore, the divided graphic vector defining unit 113 performs a process of defining four sets of divided graphic vectors Va1, Va2, Va3, V4a for the divided graphic 10a as shown in FIG.

別言すれば、分割図形ベクトルVa1は、頂点ξ1を始点、頂点ξ2を終点として、第1の辺ξ1−ξ2に沿ったベクトルであり、分割図形ベクトルVa2は、頂点ξ2を始点、頂点ξ3を終点として、第2の辺ξ2−ξ3に沿ったベクトルであり、分割図形ベクトルVa3は、頂点ξ3を始点、頂点ξ4を終点として、第3の辺ξ3−ξ4に沿ったベクトルであり、分割図形ベクトルVa4は、頂点ξ4を始点、頂点ξ1を終点として、第4の辺ξ4−ξ1に沿ったベクトルである。   In other words, the divided graphic vector Va1 is a vector along the first side ξ1-ξ2 with the vertex ξ1 as the start point and the vertex ξ2 as the end point. The divided graphic vector Va2 has the vertex ξ2 as the start point and the vertex ξ3 as the start point. The divided figure vector Va3 is a vector along the third side ξ3-ξ4 with the vertex ξ3 as the start point and the vertex ξ4 as the end point as the end point. The vector Va4 is a vector along the fourth side ξ4-ξ1 with the vertex ξ4 as the start point and the vertex ξ1 as the end point.

しかも、これら4組のベクトルVa1,Va2,Va3,Va4は、順方向矢印A1に沿って、分割図形10aを構成する台形の輪郭線を一周する向きに定義されており、1つのベクトルの終点が次のベクトルの始点となる関係にある。よって、4組のベクトルVa1,Va2,Va3,Va4の集合体は、分割図形10aを構成する台形の輪郭線を時計まわりに一周するベクトル群を構成することになる。   Moreover, these four sets of vectors Va1, Va2, Va3, and Va4 are defined in a direction that goes around the trapezoidal outline forming the divided figure 10a along the forward arrow A1, and the end point of one vector is The relationship is the starting point of the next vector. Therefore, an assembly of the four sets of vectors Va1, Va2, Va3, and Va4 constitutes a vector group that goes around the trapezoidal outline forming the divided figure 10a clockwise.

もちろん、分割図形ベクトル定義部113は、反時計まわりの方向を順方向と定義して同様の処理を行ってもかまわない。その場合、4組のベクトルVa1,Va2,Va3,Va4の集合体は、分割図形10aを構成する台形の輪郭線を反時計まわりに一周するベクトル群を構成することになる。このように、順方向を時計まわりとするか、反時計まわりとするかは、任意に設定することができるが、いずれか一方の設定をすべての分割図形について共通して適用する必要がある。たとえば、図38(a) に示す例の場合、順方向矢印A1〜A4はすべて時計まわりの矢印になっているが、これらすべてを反時計まわりの矢印にしてもかまわない。ただ、順方向矢印A1は時計まわり、順方向矢印A2は反時計まわり、というように、各分割図形ごとに設定を変えることはできない(後述するように、重複ベクトル対を除去するため)。   Of course, the divided figure vector defining unit 113 may define the counterclockwise direction as the forward direction and perform the same processing. In that case, an assembly of four sets of vectors Va1, Va2, Va3, and Va4 constitutes a vector group that goes around the trapezoidal outline forming the divided figure 10a counterclockwise. As described above, whether the forward direction is clockwise or counterclockwise can be arbitrarily set, but one of the settings needs to be commonly applied to all the divided figures. For example, in the example shown in FIG. 38 (a), the forward arrows A1 to A4 are all clockwise, but they may be all counterclockwise. However, the setting cannot be changed for each divided figure such that the forward arrow A1 is clockwise and the forward arrow A2 is counterclockwise (to eliminate duplicate vector pairs as will be described later).

図38には、分割図形が四角形の場合の例が示されているが、一般論で述べれば、分割図形ベクトル定義部113は、K角形からなる分割図形の各頂点に、輪郭線に沿って時計まわりもしくは反時計まわりの順に第1の頂点〜第Kの頂点と番号を付し、第kの頂点を始点とし、第(k+1)の頂点(但し、k=Kの場合は第1の頂点)を終点とする第kの分割図形ベクトルを定義する処理を、k=1〜Kまで繰り返し行うことにより、当該分割図形についての分割図形ベクトルを定義する処理を行うことになる。   FIG. 38 shows an example in which the divided figure is a quadrangle, but in general terms, the divided figure vector definition unit 113 extends along the contour line to each vertex of the divided figure formed of a K-gon. Numbers are assigned to the first vertex to the Kth vertex in the order of clockwise or counterclockwise, and the kth vertex is the starting point, and the (k + 1) th vertex (provided that k = K, the first vertex) The process of defining the divided figure vector for the divided figure is performed by repeatedly performing the process of defining the k-th divided figure vector with) as the end point from k = 1 to K.

かくして、分割図形ベクトル定義部113によって、図38(b) に示すように、各分割図形10a,10b,10c,10dの各4辺上に、合計16組の分割図形ベクトルVa1〜Vd4が定義されることになる。なお、図38(b) では、図示の便宜上、同一の辺上に定義される2本のベクトルが、当該辺の位置から若干ずらして描かれているが、実際には、これら2本のベクトルは同一辺上に重複して定義されたベクトルである。たとえば、図38(b) に示すベクトルVa2とVb4とは、いずれも辺ξ2−ξ3上に定義されたベクトルである。   Thus, the divided figure vector defining unit 113 defines a total of 16 sets of divided figure vectors Va1 to Vd4 on each of the four sides of each divided figure 10a, 10b, 10c, and 10d, as shown in FIG. Will be. In FIG. 38 (b), for convenience of illustration, two vectors defined on the same side are depicted with a slight shift from the position of the side, but actually these two vectors are drawn. Are vectors defined redundantly on the same side. For example, the vectors Va2 and Vb4 shown in FIG. 38B are both vectors defined on the sides ξ2-ξ3.

単位図形ベクトル定義部114は、こうして定義された分割図形ベクトルの集合から、互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去し、残ったベクトルにより、単位図形10の輪郭線に沿って配置された複数の単位図形ベクトルを定義する処理を行う。   The unit graphic vector defining unit 114 searches for overlapping vector pairs that are arranged on overlapping sides of a pair of adjacent polygons adjacent to each other from the set of divided graphic vectors defined in this way, and whose directions are opposite to each other. The overlapping section portion of the searched overlapping vector pair is removed, and processing for defining a plurality of unit graphic vectors arranged along the contour line of the unit graphic 10 is performed with the remaining vectors.

たとえば、図38(b) に示す例の場合、合計16組の分割図形ベクトルVa1〜Vd4が定義されているので、これら16組の分割図形ベクトルVa1〜Vd4の中から、重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去する処理が行われる。ここで、重複ベクトル対とは、上述したように、「互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である一対のベクトル」であるから、図38(b) に示す例の場合、ベクトルVa2,Vb4が第1の重複ベクトル対として探索され、ベクトルVb2,Vc4が第2の重複ベクトル対として探索され、ベクトルVc2,Vd4が第3の重複ベクトル対として探索される。   For example, in the example shown in FIG. 38 (b), since a total of 16 sets of divided graphic vectors Va1 to Vd4 are defined, an overlapping vector pair is searched from these 16 sets of divided graphic vectors Va1 to Vd4. Then, the process of removing the overlapping section portion of the searched overlapping vector pair is performed. Here, the overlapping vector pair is, as described above, “a pair of vectors that are arranged on overlapping sides of a pair of adjacent polygons adjacent to each other and whose directions are opposite to each other”. In the example shown in b), the vectors Va2 and Vb4 are searched as the first overlapping vector pair, the vectors Vb2 and Vc4 are searched as the second overlapping vector pair, and the vectors Vc2 and Vd4 are searched as the third overlapping vector pair. Explored.

これら各重複ベクトル対は、全区間において重複しているため、そのままそっくり除去する処理が行われる。図38(c) は、このような除去処理が行われた後の状態を示す平面図であり、図38(b) に示す重複ベクトル対(Va2,Vb4),(Vb2,Vc4),(Vc2,Vd4)がすべて除去されていることがわかる。ここでは、図38(b) に示す16組のベクトルVa1〜Vd4を「分割図形ベクトル」と呼んでいるので、図38(c) に示す10組のベクトルは、図38(b) に示す16組のベクトルと区別するために「単位図形ベクトル」と呼ぶことにし、符号をV1〜V10に付け直すことにする。したがって、図38(c) に示す単位図形ベクトルV1〜V10は、実際には、図38(b) に示す分割図形ベクトルVa1,Vb1,……,Va3,Va4と同じものである。   Since each of these overlapping vector pairs overlaps in all the sections, a process of removing them as they are is performed. FIG. 38 (c) is a plan view showing a state after such removal processing is performed, and the overlapping vector pairs (Va2, Vb4), (Vb2, Vc4), (Vc2) shown in FIG. 38 (b). , Vd4) are all removed. Here, the 16 sets of vectors Va1 to Vd4 shown in FIG. 38 (b) are referred to as “divided graphic vectors”, so the 10 sets of vectors shown in FIG. 38 (c) are the 16 sets shown in FIG. 38 (b). In order to distinguish from a set of vectors, they will be referred to as “unit graphic vectors”, and the reference numerals will be reassigned to V1 to V10. Therefore, the unit graphic vectors V1 to V10 shown in FIG. 38 (c) are actually the same as the divided graphic vectors Va1, Vb1,..., Va3, Va4 shown in FIG.

こうして得られた単位図形ベクトルV1〜V10は、単位図形10の輪郭線上に配置されたベクトルであり、しかも順方向(図示の例の場合、時計まわり方向)に輪郭線を一周する向きに定義されており、1つのベクトルの終点が次のベクトルの始点となる関係にある。よって、10組の単位図形ベクトルV1〜V10の集合体は、単位図形10の輪郭線を時計まわりに一周するベクトル群を構成することになる。   The unit graphic vectors V1 to V10 obtained in this way are vectors arranged on the contour line of the unit graphic 10, and are defined in a direction that goes around the contour line in the forward direction (clockwise direction in the illustrated example). And the end point of one vector is the start point of the next vector. Therefore, an aggregate of ten unit graphic vectors V1 to V10 constitutes a vector group that goes around the outline of the unit graphic 10 clockwise.

通常端点定義部115は、こうして定義された個々の単位図形ベクトルの始点位置(終点位置でも同じ)に、それぞれ通常端点を定義する処理を行う。図38(d) は、図38(c) に示す10組の単位図形ベクトルV1〜V10の始点位置に通常端点A〜J(図では、x印で示す)を定義した状態を示す平面図である。こうして定義された各通常端点A〜Jは、結局、図38(a) に示す分割図形10a,10b,10c,10dの各頂点のうち、単位図形10の輪郭線上に位置する頂点ということになる。別言すれば、各通常端点A〜Jは、各分割図形の辺のうち、単位図形10の輪郭線上に位置する辺の両端を画定する端点ということになる。なお、このようにして定義された端点を「通常端点」と呼ぶのは、後述する補充端点定義部118によって追加定義される「補充端点」と区別するための便宜である。   The normal end point definition unit 115 performs a process of defining normal end points at the start point positions (the same applies to the end point positions) of the individual unit graphic vectors thus defined. FIG. 38 (d) is a plan view showing a state in which normal end points A to J (indicated by x in the figure) are defined at the start positions of the 10 sets of unit graphic vectors V1 to V10 shown in FIG. 38 (c). is there. Each of the normal end points A to J defined in this way is a vertex located on the outline of the unit graphic 10 among the vertices of the divided graphics 10a, 10b, 10c, and 10d shown in FIG. . In other words, each of the normal end points A to J is an end point that defines both ends of the side located on the outline of the unit graphic 10 among the sides of each divided graphic. Note that the endpoint defined in this way is referred to as a “normal endpoint” for the purpose of distinguishing it from a “replenishment endpoint” additionally defined by a supplemental endpoint definition unit 118 described later.

一方、図39は、L字型の単位図形10に対して、図32に示す単位図形分割部112、分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115による処理が行われた例を示す平面図である。単位図形入力部111によって、図39(a) に示すようなL字型の単位図形10が入力されると、単位図形分割部112によって、図39(b) に示すような分割処理が行われ、3組の分割図形10a,10b,10cが形成される。   39, the L-shaped unit graphic 10 is processed by the unit graphic dividing unit 112, the divided graphic vector defining unit 113, the unit graphic vector defining unit 114, and the normal end point defining unit 115 shown in FIG. It is a top view which shows a broken example. When the L-shaped unit graphic 10 as shown in FIG. 39 (a) is input by the unit graphic input unit 111, the unit graphic dividing unit 112 performs a dividing process as shown in FIG. 39 (b). Three sets of divided figures 10a, 10b, and 10c are formed.

そして、これら分割図形10a,10b,10cについて、図示のような時計まわりの向きに順方向矢印A1〜A3が設定され、分割図形ベクトル定義部113によって、図39(c) に示すように、合計12組の分割図形ベクトルVa1〜Vc4が定義される。続いて、単位図形ベクトル定義部114によって、重複ベクトル対が探索され、探索された重複ベクトル対のうちの重複区間部分を除去する処理が行われる。前述した図38(b) に示す例の場合、探索された重複ベクトル対の全区間が重複区間部分となっていたため、重複ベクトル対がそっくり除去されることになったが、図39(c) に示す例の場合、一部のみが重複する重複ベクトル対が存在する。   Then, for these divided figures 10a, 10b, and 10c, forward arrows A1 to A3 are set in the clockwise direction as shown in the figure, and the divided figure vector definition unit 113 calculates the total as shown in FIG. 39 (c). Twelve sets of divided graphic vectors Va1 to Vc4 are defined. Subsequently, the unit graphic vector definition unit 114 searches for overlapping vector pairs, and performs a process of removing the overlapping section portion of the searched overlapping vector pairs. In the case of the example shown in FIG. 38 (b) described above, since the entire section of the searched overlapping vector pair is the overlapping section portion, the overlapping vector pair is completely removed, but FIG. 39 (c) In the example shown in FIG. 2, there are overlapping vector pairs that are partially duplicated.

具体的には、図39(c) に示す例の場合、ベクトルVa3,Vb1が第1の重複ベクトル対として探索され、ベクトルVb2,Vc4が第2の重複ベクトル対として探索される。ここで、第2の重複ベクトル対Vb2,Vc4は、全区間が重複区間部分となっているため、これらをそっくり除去する処理が行われるが、第1の重複ベクトル対Va3,Vb1は、図39(d) の上段に示すとおり、一部のみが重複区間部分(太線で示す部分)となっているため、この重複区間部分のみを除去する処理が行われる。その結果、図39(d) の下段に示すとおり、非重複区間部分のみが単位図形ベクトルV3として残ることになる。   Specifically, in the example shown in FIG. 39 (c), the vectors Va3 and Vb1 are searched as the first overlapping vector pair, and the vectors Vb2 and Vc4 are searched as the second overlapping vector pair. Here, since the second overlapping vector pair Vb2 and Vc4 are all overlapping section parts, a process for removing them completely is performed. However, the first overlapping vector pair Va3 and Vb1 is shown in FIG. As shown in the upper part of (d), since only a part is an overlapping section part (part indicated by a bold line), processing for removing only the overlapping section part is performed. As a result, as shown in the lower part of FIG. 39 (d), only the non-overlapping section part remains as the unit graphic vector V3.

図39(e) は、単位図形ベクトル定義部114によって、上述のような除去処理が行われた後の状態を示す平面図であり、9組の単位図形ベクトルV1〜V9が残った状態が示されている。こうして得られた単位図形ベクトルV1〜V9は、図39(a) に示すL字型の単位図形10の輪郭線上に配置されたベクトルであり、しかも順方向(図示の例の場合、時計まわり方向)に輪郭線を一周する向きに定義されており、1つのベクトルの終点が次のベクトルの始点となる関係にある。よって、これら9組の単位図形ベクトルV1〜V9の集合体は、単位図形10の輪郭線を時計まわりに一周するベクトル群を構成することになる。   FIG. 39 (e) is a plan view showing a state after the above-described removal processing is performed by the unit graphic vector definition unit 114, and shows a state in which nine sets of unit graphic vectors V1 to V9 remain. Has been. The unit graphic vectors V1 to V9 thus obtained are vectors arranged on the contour line of the L-shaped unit graphic 10 shown in FIG. 39 (a), and are forward (in the illustrated example, the clockwise direction). ) In a direction that goes around the contour line, and the end point of one vector is the start point of the next vector. Therefore, an aggregate of these nine sets of unit graphic vectors V1 to V9 constitutes a vector group that goes around the outline of the unit graphic 10 clockwise.

通常端点定義部115は、こうして定義された個々の単位図形ベクトルの始点位置に、それぞれ通常端点を定義する処理を行う。図39(f) は、図39(e) に示す9組の単位図形ベクトルV1〜V9の始点位置に通常端点A〜I(図では、x印で示す)を定義した状態を示す平面図である。   The normal end point definition unit 115 performs a process of defining normal end points at the start point positions of the individual unit graphic vectors thus defined. FIG. 39 (f) is a plan view showing a state in which normal end points A to I (indicated by x in the figure) are defined at the start positions of the nine unit graphic vectors V1 to V9 shown in FIG. 39 (e). is there.

続いて、内部に図形外の領域が存在する、いわゆる穴開きの単位図形についての処理例を述べる。図40は、ロの字型の単位図形10に対して、図32に示す単位図形分割部112、分割図形ベクトル定義部113、単位図形ベクトル定義部114、通常端点定義部115による処理が行われた例を示す平面図である。この例は、単位図形入力部111によって、図40(a) に示すようなロの字型の単位図形10が入力された場合の例である。図示のロの字型の単位図形10の場合、図形本体部10Xはハッチングを施した領域であるが、内部に矩形状の穴開き部10Yが存在する。すなわち、このような穴開きの単位図形10は、外側輪郭線Ooutと内側輪郭線Oinとを有していることになる。このような穴開きの単位図形10が入力された場合でも、基本的には、これまで述べてきた処理と同様の処理を実行すればよい。   Next, an example of processing for a so-called perforated unit graphic in which a region outside the graphic exists inside will be described. In FIG. 40, processing by the unit graphic dividing unit 112, the divided graphic vector defining unit 113, the unit graphic vector defining unit 114, and the normal endpoint defining unit 115 shown in FIG. It is a top view which shows the example. In this example, the unit graphic input unit 111 inputs a square-shaped unit graphic 10 as shown in FIG. In the case of the illustrated square-shaped unit graphic 10, the graphic main body 10 </ b> X is a hatched area, but a rectangular hole 10 </ b> Y exists inside. That is, such a perforated unit graphic 10 has an outer contour line Oout and an inner contour line Oin. Even when such a perforated unit graphic 10 is input, basically, the same processing as described above may be executed.

まず、単位図形分割部112によって、図40(b) に示すような分割処理が行われ、8組の分割図形10a〜10hが形成される。そして、これら分割図形10a〜10hについて、図40(c) に示すように、時計まわりの向きに順方向矢印A1〜A8が設定され、分割図形ベクトル定義部113によって、図40(d) に示すように、合計32組の分割図形ベクトルVa1〜Vh4が定義される。続いて、単位図形ベクトル定義部114によって、重複ベクトル対が探索され、探索された重複ベクトル対のうちの重複区間部分を除去する処理が行われる。   First, the unit graphic dividing unit 112 performs a dividing process as shown in FIG. 40B to form eight sets of divided figures 10a to 10h. For these divided figures 10a to 10h, as shown in FIG. 40 (c), forward arrows A1 to A8 are set in the clockwise direction, and the divided figure vector defining unit 113 shows them in FIG. 40 (d). Thus, a total of 32 sets of divided graphic vectors Va1 to Vh4 are defined. Subsequently, the unit graphic vector definition unit 114 searches for overlapping vector pairs, and performs a process of removing the overlapping section portion of the searched overlapping vector pairs.

図40(e) は、単位図形ベクトル定義部114によって、上述した除去処理が行われた後の状態を示す平面図であり、20組の単位図形ベクトルV1〜V20が残った状態が示されている。ここで留意すべき点は、単位図形ベクトルV1〜V12は、図40(a) に示すロの字型の単位図形10の外側輪郭線Oout上に配置されたベクトルであり、しかも順方向(図示の例の場合、時計まわり方向)に輪郭線を一周する向きに定義されているのに対して、単位図形ベクトルV13〜V20は、図40(a) に示すロの字型の単位図形10の内側輪郭線Oin上に配置されたベクトルであり、しかも逆方向(図示の例の場合、反時計まわり方向)に輪郭線を一周する向きに定義されている点である。   FIG. 40 (e) is a plan view showing a state after the above-described removal processing is performed by the unit graphic vector definition unit 114, and shows a state in which 20 sets of unit graphic vectors V1 to V20 remain. Yes. It should be noted that the unit graphic vectors V1 to V12 are vectors arranged on the outer outline Oout of the square-shaped unit graphic 10 shown in FIG. In the case of the example shown in FIG. 40, the unit graphic vectors V13 to V20 are defined in the direction that goes around the contour line in the clockwise direction). It is a vector arranged on the inner contour line Oin, and is defined in a direction that makes a round of the contour line in the reverse direction (in the example shown, the counterclockwise direction).

本願では、このような穴開きの単位図形について、外側輪郭線Ooutを構成する図形を「正図形」と呼び、内側輪郭線Oinを構成する図形を「反図形」と呼ぶことにする。図示の例の場合、単位図形ベクトルV1〜V12は、正図形を順方向に一周するベクトル群であり、単位図形ベクトルV13〜V20は、反図形を逆方向に一周するベクトル群である。したがって、穴開きの単位図形の場合、ベクトル群が輪郭線に沿って順方向に一周する場合、当該輪郭線は単位図形の外側輪郭線Ooutを構成する正図形であると判断でき、ベクトル群が輪郭線に沿って反方向に一周する場合、当該輪郭線は単位図形の内側輪郭線Oinを構成する反図形であると判断できる。このような正図形と反図形の相違は、§6.3で述べる端点再構築処理に利用することができる。   In the present application, for such a unit graphic of perforation, a figure constituting the outer contour line Oout is called a “normal figure”, and a figure constituting the inner outline Oin is called an “anti-figure”. In the case of the illustrated example, the unit graphic vectors V1 to V12 are a vector group that goes around the normal graphic in the forward direction, and the unit graphic vectors V13 to V20 are a vector group that goes around the anti-graphic in the reverse direction. Therefore, in the case of a perforated unit graphic, when the vector group makes a round in the forward direction along the contour line, it can be determined that the contour line is a regular graphic that constitutes the outer contour line Oout of the unit graphic. When making a round in the opposite direction along the contour line, it can be determined that the contour line is an anti-graphic that constitutes the inner contour line Oin of the unit graphic. Such a difference between a regular figure and an opposite figure can be used for the endpoint reconstruction process described in §6.3.

通常端点定義部115は、こうして定義された個々の単位図形ベクトルの始点位置に、それぞれ通常端点を定義する処理を行う。図40(f) は、図40(e) に示す20組の単位図形ベクトルV1〜V20の始点位置に通常端点A〜T(図では、x印で示す)を定義した状態を示す平面図である。図示のとおり、穴開きの単位図形10の外側輪郭線Ooutと内側輪郭線Oinとの双方に、それぞれ通常端点が定義されることになる。   The normal end point definition unit 115 performs a process of defining normal end points at the start point positions of the individual unit graphic vectors thus defined. FIG. 40 (f) is a plan view showing a state in which normal end points A to T (indicated by x in the figure) are defined at the start positions of the 20 sets of unit graphic vectors V1 to V20 shown in FIG. 40 (e). is there. As illustrated, normal end points are defined for both the outer contour line Oout and the inner contour line Oin of the unit graphic 10 with a hole.

<6.3 端点の再構築>
続いて、図32に示す評価点設定ユニット110における端点再構築部116の機能について説明する。この端点再構築部116は、通常端点定義部115によって単位図形の輪郭線上に定義された通常端点に対して、数もしくは位置を修正する再構築を行う構成要素である。§6.2で述べたとおり、通常端点定義部115は、個々の分割図形の頂点位置を基準にして通常端点の定義を行うことになるので、単位図形分割部112による分割処理が適切に行われていれば、定義された通常端点の数や位置も適切になされるはずである。ただ、実際には、こうして定義された通常端点について、数や位置を調整した方が、より効率的な評価点設定が可能になる。
<6.3 Reconstruction of endpoints>
Next, the function of the end point reconstruction unit 116 in the evaluation point setting unit 110 shown in FIG. 32 will be described. The end point reconstruction unit 116 is a component that performs reconstruction for correcting the number or position of the normal end points defined on the outline of the unit graphic by the normal end point definition unit 115. As described in §6.2, the normal end point definition unit 115 defines the normal end points based on the vertex positions of the individual divided figures, so that the division processing by the unit figure division unit 112 is appropriately performed. If so, the number and location of defined normal endpoints should be appropriate. In practice, however, more efficient evaluation point setting is possible by adjusting the number and position of the normal end points defined in this way.

そこで、ここで述べる実施形態の場合、通常端点定義部115によって定義された通常端点に対して、端点再構築部116による再構築を行っている。もちろん、このような再構築処理は、本発明にとって必須の処理ではない。したがって、本発明を実施するにあたり、端点再構築部116は省略することも可能である。ただ、実用上は、端点再構築部116を設けた方が、より効率的な評価点設定を行うことが可能になる。端点再構築部116は、通常端点定義部115によって定義された通常端点について、その数を減らしたり位置を修正したりして再構築を行う。以下、具体的に再構築を行ういくつかの方法を説明する。   Therefore, in the case of the embodiment described here, the end point restructuring unit 116 performs reconstruction on the normal end point defined by the normal end point defining unit 115. Of course, such a reconstruction process is not an essential process for the present invention. Therefore, the end point reconstruction unit 116 may be omitted when implementing the present invention. However, in practice, it is possible to set the evaluation point more efficiently if the end point reconstruction unit 116 is provided. The end point reconstruction unit 116 reconstructs the normal end points defined by the normal end point definition unit 115 by reducing the number or correcting the positions. Hereinafter, several methods for concrete reconstruction will be described.

(1) 3点式の端点除去処理による再構築
図41は、図32に示す端点再構築部116による端点再構築処理として、3点式の端点除去処理を採用した場合の手順を示す模式図(図41(a) )および流れ図(図41(b) )である。端点除去処理は、通常端点定義部115によって定義された一部もしくは全部の単位図形について、通常端点(実際には、単位図形を構成する多角形の頂点を構成しない通常端点)の一部もしくは全部を除去する処理であり、通常端点の数を減じることによって再構築を行う処理ということができる。
(1) Reconstruction by three-point end point removal processing FIG. 41 is a schematic diagram showing a procedure when a three-point end point removal processing is adopted as the end point reconstruction processing by the end point reconstruction unit 116 shown in FIG. (FIG. 41 (a)) and a flow chart (FIG. 41 (b)). In the end point removal processing, a part or all of the normal end points (actual end points that do not actually constitute the vertices of the polygons constituting the unit figure) are defined for some or all of the unit figures defined by the normal end point definition unit 115. It can be said that the reconstruction is performed by reducing the number of end points.

§6.2で述べたとおり、通常端点定義部115によって定義された通常端点は、単位図形10の輪郭線上に所定の順序で定義されている。たとえば、図38(d) に示す例の場合、単位図形10の輪郭線上にA〜Jという順序で通常端点が定義されており、図39(f) に示す例の場合、単位図形10の輪郭線上にA〜Iという順序で通常端点が定義されており、図40(f) に示す例の場合、単位図形10の外側輪郭線Oout上にA〜L、内側輪郭線Oin上にM〜Tという順序で通常端点が定義されている。ここで述べる3点式の端点除去処理は、判定対象となる通常端点について、1つ前の通常端点と1つ後の通常端点との距離を参照して、除去すべきか否かの判定を行う手法を採用するものである。   As described in §6.2, the normal end points defined by the normal end point definition unit 115 are defined on the contour line of the unit graphic 10 in a predetermined order. For example, in the example shown in FIG. 38 (d), the normal end points are defined in the order of A to J on the outline of the unit graphic 10, and in the example shown in FIG. 39 (f), the contour of the unit graphic 10 is defined. In the example shown in FIG. 40 (f), A to L are defined on the line in the order of A to I, and A to L on the outer contour line Oout of the unit graphic 10 and M to T on the inner contour line Oin. The end points are usually defined in this order. The three-point end point removal processing described here determines whether or not to remove a normal end point to be determined with reference to the distance between the previous normal end point and the next normal end point. The method is adopted.

いま、単位図形の1つの輪郭線上に合計N個の通常端点T(1)〜T(N)が定義されており、そのうちの第nの通常端点T(n)を判定対象として、当該通常端点T(n)を除去すべきか否かを判定する場合を考える。この場合、図41(a) に示すように、除去判定対象となる第nの通常端点T(n)と1つ前の第(n−1)の通常端点T(n−1)との距離L1と、除去判定対象となる第nの通常端点T(n)と1つ後の第(n+1)の通常端点T(n+1)との距離L2と、を求める。   Now, a total of N normal end points T (1) to T (N) are defined on one contour line of the unit graphic, and the normal end point is set with the n-th normal end point T (n) as a determination target. Consider a case where it is determined whether or not T (n) should be removed. In this case, as shown in FIG. 41 (a), the distance between the nth normal end point T (n) to be removed and the previous (n-1) th normal end point T (n-1). L1 and a distance L2 between the nth normal end point T (n) to be removed and the next (n + 1) th normal end point T (n + 1) are obtained.

ただし、距離L1については、若干留意する点がある。たとえば、図41(a) において、通常端点T(n−1)が既に除去対象となっていた場合には、その1つ前の通常端点T(n−2)とT(n)との距離をL1とする。また、通常端点T(n−2)も除去対象となっていた場合には、更にその1つ前の通常端点T(n−3)とT(n)との距離をL1とする。結局、ここでの距離L1は、一般論として言えば、除去判定対象となる第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離と定義されることになる。こうして、距離L1,L2を定義した上で、次の2つの判定条件が共に満たされた場合に、第nの通常端点T(n)を除去対象と判定する。   However, there are some points to be noted about the distance L1. For example, in FIG. 41 (a), when the normal end point T (n-1) has already been removed, the distance between the previous normal end point T (n-2) and T (n). Is L1. When the normal end point T (n-2) is also a removal target, the distance between the previous normal end point T (n-3) and T (n) is further set to L1. After all, the distance L1 here is, in general terms, the n-th normal end point T (n) to be removed and the normal end point T (n−m) that is not immediately to be removed. (However, m is a natural number, and when nm <1, it is defined as a distance to T (n−m + N)). Thus, after the distances L1 and L2 are defined, the n-th normal end point T (n) is determined as a removal target when both of the following two determination conditions are satisfied.

第1の判定条件は、「L1およびL2の少なくとも一方が所定の基準値Wmerge以下である」という条件である。ここで、Wmergeは、予め設定された所定の基準値であり、一般的には、単位図形分割部112が分割処理に用いたWsplitよりも小さな値を設定するのが好ましい。基準値Wmergeは、除去判定対象となる通常端点T(n)が、隣接する通常端点T(n−m)もしくはT(n+1)にある程度接近していた場合に、通常端点T(n)を除去して通常端点T(n−m)もしくはT(n+1)に融合させるべき、と判定する際の臨界となる接近距離を定める値である。   The first determination condition is a condition that “at least one of L1 and L2 is equal to or less than a predetermined reference value Wmerge”. Here, Wmerge is a predetermined reference value set in advance, and in general, it is preferable to set a value smaller than Wsplit used by the unit graphic dividing unit 112 for the dividing process. The reference value Wmerge removes the normal end point T (n) when the normal end point T (n) to be removed is close to the adjacent normal end point T (n−m) or T (n + 1) to some extent. Thus, it is a value that defines a critical approach distance when it is determined that the normal end point T (n−m) or T (n + 1) should be fused.

この基準値Wmergeを大きく設定すれば、通常端点T(n)を除去すべきと判定される可能性は高くなり、小さく設定すれば可能性は低くなる。もちろん、除去すべきと判定される可能性が高くなれば、それだけ演算負担は軽減されるがシミュレーションの精度は低下し、可能性が低くなれば、それだけシミュレーションの精度は向上するが演算負担は大きくなる。よって、実用上は、シミュレーションの精度維持と演算負担の軽減とのバランスを考慮して、基準値Wmergeを適切な値に設定すればよい。   If the reference value Wmerge is set large, the possibility that it is determined that the normal end point T (n) should be removed increases, and if the reference value Wmerge is set small, the possibility decreases. Of course, if the possibility that it should be removed increases, the calculation burden will be reduced accordingly, but the simulation accuracy will decrease, and if the possibility decreases, the simulation accuracy will increase, but the calculation load will increase. Become. Therefore, in practice, the reference value Wmerge may be set to an appropriate value in consideration of the balance between maintaining the accuracy of the simulation and reducing the calculation burden.

第2の判定条件は、「通常端点T(n−1),T(n),T(n+1)の3点が一直線上にある」という条件である。図41(a) には、そのような条件が満足された状態が図示されているが、たとえば、通常端点T(n)が単位図形の頂点である場合、通常端点T(n−1)とT(n+1)とは別々の辺上の端点になるため、当該条件は満足されないことになる。したがって、この第2の判定条件は、「上記3点が同一の辺上にある」という条件ということになる。別言すれば、単位図形を構成する多角形の頂点を構成しない通常端点を中間通常端点と呼ぶことにすれば、第2の判定条件は、「除去判定対象である通常端点T(n)が中間通常端点である」という条件になる。   The second determination condition is a condition that “the three normal end points T (n−1), T (n), and T (n + 1) are on a straight line”. FIG. 41 (a) shows a state where such a condition is satisfied. For example, when the normal end point T (n) is the vertex of the unit graphic, the normal end point T (n−1) is Since T (n + 1) is an end point on a separate side, the condition is not satisfied. Therefore, the second determination condition is a condition that “the three points are on the same side”. In other words, if the normal end point that does not constitute the vertex of the polygon that forms the unit graphic is called an intermediate normal end point, the second determination condition is “the normal end point T (n) that is the removal determination target is“ The condition is “intermediate normal end point”.

図41(b) は、このような3点式の端点除去処理に基づく端点再構築の手順を示す流れ図である。まず、ステップSS1において、除去判定対象となる通常端点の番号を示すパラメータnをn=1に設定し、ステップSS2において、L1≦Wmergeか否かを判定する。ここで否定的な判定がなされた場合には、ステップSS3において、L2≦Wmergeか否かを判定する。ステップSS2,SS3のいずれかにおいて肯定的な判定がなされたら、続いて、ステップSS3において、T(n−1),T(n),T(n+1)の3点が一直線上にあるか否かが判定され、肯定的な判定がなされたら、ステップSS5において、通常端点T(n)を除去対象とする処理が行われる。一方、ステップSS3もしくはSS4において否定的な判定がなされたら、ステップSS6において、通常端点T(n)を除去対象としない処理が行われる。   FIG. 41 (b) is a flowchart showing a procedure of endpoint reconstruction based on such a three-point endpoint removal process. First, in step SS1, a parameter n indicating the number of the normal end point to be removed is set to n = 1, and in step SS2, it is determined whether L1 ≦ Wmerge. If a negative determination is made here, it is determined in step SS3 whether L2 ≦ Wmerge. If a positive determination is made in either step SS2 or SS3, then in step SS3, whether or not the three points T (n-1), T (n), and T (n + 1) are on a straight line. Is determined and a positive determination is made, in step SS5, a process for removing the normal end point T (n) is performed. On the other hand, if a negative determination is made in step SS3 or SS4, in step SS6, a process is performed in which the normal end point T (n) is not a removal target.

このような処理が、ステップSS7およびSS8を介して、パラメータnを1ずつ増加させながら、n=Nに到達するまで繰り返し実行される。そして、n=Nに到達したら、ステップSS7からSS9へと移行し、除去対象とされた通常端点が一括して除去される。   Such a process is repeatedly executed through steps SS7 and SS8 until n = N is reached while increasing the parameter n by 1. When n = N is reached, the process proceeds from step SS7 to SS9, and the normal end points to be removed are collectively removed.

なお、上記処理手順において、n=1の場合は、除去判定対象が第1の通常端点T(1)ということになるので、上記各判定条件における通常端点T(n−1)は、第Nの通常端点T(N)と読み替える必要がある。同様に、n=Nの場合は、除去判定対象が第Nの通常端点T(N)ということになるので、上記各判定条件における通常端点T(n+1)は、第1の通常端点T(1)と読み替える必要がある。   In the above processing procedure, when n = 1, the removal determination target is the first normal end point T (1). Therefore, the normal end point T (n−1) in each determination condition is Nth. Needs to be read as the normal end point T (N). Similarly, when n = N, the removal determination target is the Nth normal end point T (N). Therefore, the normal end point T (n + 1) in each determination condition is the first normal end point T (1 ).

結局、ここで述べる3点式の端点除去処理による再構築を採用する場合を一般論として述べれば、端点再構築部116は、1つの単位図形の1本の輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼び、第nの通常端点T(n)に着目して、第(n−1)の通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N):以下同様)と第nの通常端点T(n)との間の距離をL1とし、第nの通常端点T(n)と第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1):以下同様)との間の距離をL2としたときに、L1およびL2の少なくとも一方が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1),T(n),T(n+1)の3点が一直線上にある場合に、第nの通常端点T(n)を除去対象とする判定処理を、n=1〜Nまで繰り返し実行し、除去対象となった通常端点を除去する端点除去処理を行うことになる。   Eventually, if the reconstruction using the three-point end point removal processing described here is adopted as a general theory, the end point reconstruction unit 116 is defined as a total N defined for one outline of one unit graphic. The normal end points are referred to as the first normal end point T (1) to the Nth normal end point T (N) in order along the contour line, and attention is paid to the nth normal end point T (n). The (n-1) th normal end point T (n-1) (where n = 1, the Nth normal end point T (N): the same applies hereinafter) and the nth normal end point T (n) The distance between them is L1, and the nth normal end point T (n) and the (n + 1) th normal end point T (n + 1) (however, when n = N, the first normal end point T (1): the same applies hereinafter). And L2 is at least one of L1 and L2 is equal to or less than a predetermined reference value Wmerge, and the normal end point T ( -1), T (n), and T (n + 1), when the three points are on a straight line, the determination process for removing the nth normal end point T (n) is repeatedly executed from n = 1 to N. Then, the end point removal process for removing the normal end point that is the removal target is performed.

図42は、図38(d) に示す平行四辺形型の単位図形10上の通常端点A〜Jに対して、図41に示す3点式の端点除去処理を適用して端点の再構築を行った例を示す平面図である。ここで、図42(a) は、再構築前に、通常端点D,I(図では、白抜き三角形で示されている)が除去対象と判定された状態を示し、図42(b) は、これら除去対象と判定された通常端点D,Iを除去した再構築後の状態を示す。   42 applies the three-point end point removal processing shown in FIG. 41 to the normal end points A to J on the parallelogram unit graphic 10 shown in FIG. It is a top view which shows the example done. Here, FIG. 42A shows a state in which the normal end points D and I (indicated by white triangles) are determined to be removed before reconstruction, and FIG. The state after the reconstruction in which the normal end points D and I determined to be removed are removed is shown.

図42に示す例において、通常端点Dが除去対象と判定された理由は、端点D,E間の距離Ldeについて、「Lde≦Wmerge」なる第1の判定条件が満たされるとともに、「3つの端点C,D,Eが一直線上にある」という第2の判定条件が満たされたためである。同様に、通常端点Iが除去対象と判定された理由は、端点I,J間の距離Lijについて、「Lij≦Wmerge」なる第1の判定条件が満たされるとともに、「3つの端点H,I,Jが一直線上にある」という第2の判定条件が満たされたためである。結局、端点再構築処理により、端点Dは端点Eに融合され、端点Iは端点Jに融合されたことになり、10個の通常端点は8個に減少したことになる。   In the example shown in FIG. 42, the reason why the normal end point D is determined to be removed is that the first determination condition “Lde ≦ Wmerge” is satisfied for the distance Lde between the end points D and E, and “three end points This is because the second determination condition that “C, D, and E are on a straight line” is satisfied. Similarly, the reason that the normal end point I is determined to be removed is that the first determination condition “Lij ≦ Wmerge” is satisfied for the distance Lij between the end points I and J, and “three end points H, I, This is because the second determination condition that “J is on a straight line” is satisfied. Eventually, by the end point reconstruction process, the end point D is merged with the end point E, the end point I is merged with the end point J, and the ten normal end points are reduced to eight.

端点D,Iを除去したことにより、後に行われるシミュレーションの精度は若干低下することになるが、距離Lde,Lijは、いずれも基準値Wmerge以下であるため、実用上、大きな支障はない。一方、端点D,Iを除去したことにより、シミュレーションの演算負担は軽減される。   By removing the end points D and I, the accuracy of the simulation performed later will be slightly reduced. However, since the distances Lde and Lij are both equal to or less than the reference value Wmerge, there is no practical problem. On the other hand, by removing the end points D and I, the calculation load of the simulation is reduced.

図43は、図39(f) に示すL字型の単位図形10上の通常端点A〜Iに対して、図41に示す3点式の端点除去処理を適用して端点の再構築を行った例を示す平面図である。ここで、図43(a) は、再構築前に、通常端点D(図では、白抜き三角形で示されている)が除去対象と判定された状態を示し、図43(b) は、この除去対象と判定された通常端点Dを除去した再構築後の状態を示す。   FIG. 43 shows the reconstruction of the end points by applying the three-point end point removal processing shown in FIG. 41 to the normal end points A to I on the L-shaped unit graphic 10 shown in FIG. 39 (f). It is a top view which shows the example. Here, FIG. 43 (a) shows a state where the normal end point D (indicated by a white triangle) is determined to be removed before reconstruction, and FIG. 43 (b) shows this state. The state after the reconstruction in which the normal end point D determined as the removal target is removed is shown.

図43に示す例において、通常端点Dが除去対象と判定された理由は、端点C,D間の距離Lcdについて、「Lcd≦Wmerge」なる第1の判定条件が満たされるとともに、「3つの端点C,D,Eが一直線上にある」という第2の判定条件が満たされたためである。結局、端点再構築処理により、端点Dは端点Cに融合されたことになり、9個の通常端点は8個に減少したことになる。やはり、この再構築により、後に行われるシミュレーションの精度は若干低下することになるが、距離Lcdは基準値Wmerge以下であるため、実用上、大きな支障はない。一方、端点Dを除去したことにより、シミュレーションの演算負担は軽減される。   In the example shown in FIG. 43, the reason why the normal end point D is determined to be removed is that the first determination condition “Lcd ≦ Wmerge” is satisfied for the distance Lcd between the end points C and D, and “three end points” This is because the second determination condition that “C, D, and E are on a straight line” is satisfied. Eventually, by the end point reconstruction process, the end point D is merged with the end point C, and the nine normal end points are reduced to eight. Again, this reconstruction will slightly reduce the accuracy of the simulation performed later. However, since the distance Lcd is equal to or less than the reference value Wmerge, there is no practical problem. On the other hand, by removing the end point D, the calculation burden of simulation is reduced.

(2) 4点式の端点除去処理による再構築
図44は、図32に示す端点再構築部116による端点再構築処理として、4点式の端点除去処理を採用した場合の手順を示す模式図(図44(a) )および流れ図(図44(b) )である。ここで説明する端点除去処理は、上述した3点式の端点除去処理と同様に、通常端点定義部115によって定義された一部もしくは全部の単位図形について、中間通常端点の一部もしくは全部を除去する処理であり、通常端点の数を減じることによって再構築を行う処理である。ただ、ここで述べる4点式の端点除去処理は、隣接する2組の通常端点を除去判定対象とするものであり、この除去判定対象となる2組の通常端点について、1つ前の通常端点と1つ後の通常端点との距離を参照して、除去すべきか否かの判定とともに、どちらを除去すべきかの判定を行う手法を採用するものである。
(2) Reconstruction by 4-point type endpoint removal processing FIG. 44 is a schematic diagram showing a procedure in a case where 4-point type endpoint removal processing is adopted as the endpoint reconstruction processing by the endpoint reconstruction unit 116 shown in FIG. (FIG. 44 (a)) and flowchart (FIG. 44 (b)). The end point removal processing described here removes some or all of the intermediate normal end points for some or all of the unit graphics defined by the normal end point definition unit 115, as in the above-described three-point end point removal processing. This is a process for performing reconstruction by reducing the number of normal end points. However, the four-point end point removal processing described here uses two adjacent normal endpoints as a removal determination target, and the two normal end points that are the determination target are the previous normal end points. And a distance from the next normal end point, and a method of determining which to remove as well as judging whether to remove is adopted.

いま、単位図形の1つの輪郭線上に合計N個の通常端点T(1)〜T(N)が定義されており、そのうちの第nの通常端点T(n)および第(n+1)の通常端点T(n+1)の2点を判定対象として、当該判定対象を除去すべきか否か、除去すべき場合は2点のうちのどちらを除去すべきか、を判定する場合を考える。この場合、図44(a) に示すように、除去判定対象となる第nの通常端点T(n)および第(n+1)の通常端点T(n+1)の2点間の距離L2を求め、次の2つの判定条件が共に満たされた場合に、いずれか一方を除去対象と判定する。   Now, a total of N normal end points T (1) to T (N) are defined on one contour line of the unit graphic, of which the nth normal end point T (n) and the (n + 1) th normal end point are defined. Consider a case where two points of T (n + 1) are set as determination targets, and it is determined whether or not the determination target is to be removed and which of the two points is to be removed. In this case, as shown in FIG. 44 (a), a distance L2 between two points of the nth normal end point T (n) and the (n + 1) th normal end point T (n + 1) to be removed is obtained. When both of these determination conditions are satisfied, one of them is determined as a removal target.

第1の判定条件は、「L2が所定の基準値Wmerge以下である」という条件である。ここで、Wmergeは、上述した3点式の端点除去処理と同様に、予め設定された所定の基準値であり、一般的には、単位図形分割部112が分割処理に用いたWsplitよりも小さな値を設定するのが好ましい。基準値Wmergeは、除去判定対象となる2組の通常端点T(n),T(n+1)が、ある程度接近していた場合に、いずれか一方を除去することにより両者を融合させるべき、と判定する際の臨界となる接近距離を定める値である。したがって、3点式の端点除去処理と同様に、シミュレーションの精度維持と演算負担の軽減とのバランスを考慮して、基準値Wmergeを適切な値に設定すればよい。   The first determination condition is a condition that “L2 is a predetermined reference value Wmerge or less”. Here, Wmerge is a predetermined reference value set in advance as in the above-described three-point end point removal processing, and is generally smaller than Wsplit used by the unit graphic division unit 112 for the division processing. It is preferable to set a value. The reference value Wmerge is determined that, when two sets of normal end points T (n) and T (n + 1) to be removed are close to each other, by removing one of them, both should be merged It is a value that determines the critical approach distance when doing. Therefore, similarly to the three-point end point removal processing, the reference value Wmerge may be set to an appropriate value in consideration of the balance between maintaining the accuracy of the simulation and reducing the calculation burden.

第2の判定条件は、第nの通常端点T(n)の1つ前の第(n−1)の通常端点T(n−1)と、第(n+1)の通常端点T(n+1)の1つ後の第(n+2)の通常端点T(n+2)とを考慮して、「通常端点T(n−1),T(n),T(n+1),T(n+2)の4点が一直線上にある」という条件である。図44(a) には、そのような条件が満足された状態が図示されているが、たとえば、通常端点T(n)が単位図形の頂点である場合、通常端点T(n−1)とT(n+1)とは別々の辺上の端点になるため、当該条件は満足されないことになる。したがって、この第2の判定条件は、「上記4点が同一の辺上にある」という条件ということになる。別言すれば、単位図形を構成する多角形の頂点を構成しない通常端点を中間通常端点と呼ぶことにすれば、第2の判定条件は、「除去判定対象である通常端点T(n)およびT(n+1)が中間通常端点である」という条件になる。   The second determination condition is that the (n-1) th normal end point T (n-1) immediately before the nth normal end point T (n) and the (n + 1) th normal end point T (n + 1). Considering the next (n + 2) th normal end point T (n + 2), “the four normal end points T (n−1), T (n), T (n + 1), T (n + 2) are straight It is on the line. FIG. 44 (a) shows a state where such a condition is satisfied. For example, when the normal end point T (n) is the vertex of the unit graphic, the normal end point T (n−1) is Since T (n + 1) is an end point on a separate side, the condition is not satisfied. Therefore, the second determination condition is a condition that “the four points are on the same side”. In other words, if the normal end point that does not constitute the vertex of the polygon that forms the unit graphic is called an intermediate normal end point, the second determination condition is “the normal end point T (n) that is a removal determination target and T (n + 1) is an intermediate normal end point ”.

上記2つの判定条件が共に満たされた場合には、通常端点T(n)およびT(n+1)のいずれか一方が除去対象と判定される。ここで、いずれを除去対象とすべきかは、通常端点T(n)とT(n−1)との距離をL1とし、通常端点T(n+1)とT(n+2)との距離をL3としたときに、距離L1,L3の大小関係に基づいて決定すればよい。すなわち、L1<L3の場合は通常端点T(n)を除去対象とし、L1>L3の場合は通常端点T(n+1)を除去対象とする。そうすれば、除去対象となった端点を挟む2組の端点間距離(前者の場合はL1+L2,後者の場合はL2+L3)をできるだけ小さくすることができるので、除去処理によるシミュレーション精度低下の影響をできるだけ小さくすることができる。なお、L1=L3の場合は、通常端点T(n),T(n+1)のいずれを除去対象にしてもよい。また、4点は一直線上にないが、3点は一直線上にある、という場合は、前述した3点式の端点除去処理に準じた方法を実行すればよい。   When both of the above two determination conditions are satisfied, one of the normal end points T (n) and T (n + 1) is determined as a removal target. Here, which is to be removed is determined by setting the distance between the normal end points T (n) and T (n−1) to L1, and the distance between the normal end points T (n + 1) and T (n + 2) to L3. Sometimes, it may be determined based on the magnitude relationship between the distances L1 and L3. That is, when L1 <L3, the normal end point T (n) is the removal target, and when L1> L3, the normal end point T (n + 1) is the removal target. By doing so, the distance between the two end points (L1 + L2 in the former case and L2 + L3 in the latter case) sandwiching the end point to be removed can be made as small as possible. Can be small. When L1 = L3, either normal end point T (n) or T (n + 1) may be the removal target. If the four points are not on a straight line but the three points are on a straight line, a method according to the above-described three-point end point removal processing may be executed.

なお、ここでも距離L1については、若干留意する点がある。たとえば、図44(a) において、通常端点T(n−1)が既に除去対象となっていた場合には、その1つ前の通常端点T(n−2)とT(n)との距離をL1とする。また、通常端点T(n−2)も除去対象となっていた場合には、更にその1つ前の通常端点T(n−3)とT(n)との距離をL1とする。結局、ここでの距離L1は、一般論として言えば、除去判定対象となる第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離と定義されることになる。   Here, there are some points to be noted about the distance L1. For example, in FIG. 44 (a), when the normal end point T (n-1) has already been removed, the distance between the previous normal end point T (n-2) and T (n). Is L1. When the normal end point T (n-2) is also a removal target, the distance between the previous normal end point T (n-3) and T (n) is further set to L1. After all, the distance L1 here is, in general terms, the n-th normal end point T (n) to be removed and the normal end point T (n−m) that is not immediately to be removed. (However, m is a natural number, and when nm <1, it is defined as a distance to T (n−m + N)).

図44(b) は、このような4点式の端点除去処理に基づく端点再構築の手順を示す流れ図である。まず、ステップSS11において、除去判定対象となる通常端点の番号を示すパラメータnをn=1に設定し、ステップSS12において、L2≦Wmergeか否かを判定する。ここで肯定的な判定がなされた場合には、ステップSS13において、T(n−1),T(n),T(n+1),T(n+2)の4点が一直線上にあるか否かが判定される。ここで、肯定的な判定がなされたら、T(n),T(n+1)のいずれか一方を除去対象とすることになるが、どちらを除去対象とすべきかを決めるために、ステップSS14において、L1≦L3なる条件判定を行う(代わりに、L1<L3なる条件判定を行ってもよい)。ここで肯定的な判定がなされた場合には、ステップSS15において端点T(n)を除去対象とし、否定的な判定がなされた場合には、ステップSS16において端点T(n+1)を除去対象とする。   FIG. 44 (b) is a flowchart showing a procedure of endpoint reconstruction based on such a four-point endpoint removal process. First, in step SS11, a parameter n indicating the number of the normal end point to be removed is set to n = 1, and in step SS12, it is determined whether L2 ≦ Wmerge. If a positive determination is made here, whether or not the four points T (n−1), T (n), T (n + 1), and T (n + 2) are on a straight line in step SS13. Determined. Here, if a positive determination is made, one of T (n) and T (n + 1) is to be removed, but in order to determine which should be removed, in step SS14, A condition determination that satisfies L1 ≦ L3 is performed (instead, a condition determination that satisfies L1 <L3 may be performed). If an affirmative determination is made here, the end point T (n) is a removal target in step SS15, and if a negative determination is made, the end point T (n + 1) is a removal target in step SS16. .

一方、ステップSS13において否定的な判定がなされたら、ステップSS17においてT(n−1),T(n),T(n+1)の3点が一直線上にあるか否かが判定される。ここで肯定的な判定がなされたら、ステップSS15へと進み、端点T(n)を除去対象とし、否定的な判定がなされたら、ステップSS18へと進み、T(n),T(n+1),T(n+2)の3点が一直線上にあるか否かが判定される。そして、このステップSS18で肯定的な判定がなされたら、ステップSS16へと進み、端点T(n+1)を除去対象とする。これは、前述した3点式の端点除去処理と同様の処理である。また、ステップSS12で否定的な判定がなされた場合や、ステップSS18で否定的な判定がなされた場合は、ステップSS19へ進み、T(n),T(n+1)はいずれも除去対象としない処理が行われる。   On the other hand, if a negative determination is made in step SS13, it is determined in step SS17 whether or not three points T (n-1), T (n), and T (n + 1) are on a straight line. If an affirmative determination is made here, the process proceeds to step SS15, where the end point T (n) is to be removed, and if a negative determination is made, the process proceeds to step SS18, where T (n), T (n + 1), It is determined whether or not three points T (n + 2) are on a straight line. If a positive determination is made in step SS18, the process proceeds to step SS16, and the end point T (n + 1) is set as a removal target. This is the same processing as the above-described three-point end point removal processing. If a negative determination is made in step SS12 or a negative determination is made in step SS18, the process proceeds to step SS19, where T (n) and T (n + 1) are not targeted for removal. Is done.

このような処理が、ステップSS20およびSS21を介して、n≧Nが満たされるまで、パラメータnを1ずつ増加させながら繰り返し実行される。なお、通常端点T(n)が既に除去対象となっていた場合には、当該パラメータnについての処理手順はスキップすることができる。そして、n≧Nが満たされたら、ステップSS20からSS22へと移行し、除去対象とされた通常端点が一括して除去される。   Such processing is repeatedly executed through steps SS20 and SS21 while increasing parameter n by 1 until n ≧ N is satisfied. If the normal end point T (n) has already been removed, the processing procedure for the parameter n can be skipped. When n ≧ N is satisfied, the process proceeds from step SS20 to SS22, and the normal end points to be removed are collectively removed.

なお、上記処理手順において、n=1の場合は、図44における左側の除去判定対象が第1の通常端点T(1)ということになるので、上記各判定条件における通常端点T(n−1)は、第Nの通常端点T(N)と読み替える必要がある。同様に、n=N−1の場合は、左側の除去判定対象が第(N−1)の通常端点T(N−1)、右側の除去判定対象が第Nの通常端点T(N)ということになるので、上記各判定条件における通常端点T(n+2)は、第1の通常端点T(1)と読み替える必要がある。また、n=Nの場合は、左側の除去判定対象が第Nの通常端点T(N)ということになるので、上記各判定条件における通常端点T(n+1)は、第1の通常端点T(1)と読み替え、通常端点T(n+2)は、第2の通常端点T(2)と読み替える必要がある。   In the above processing procedure, when n = 1, the removal determination target on the left side in FIG. 44 is the first normal end point T (1). Therefore, the normal end point T (n−1) in each determination condition described above. ) Needs to be read as the Nth normal end point T (N). Similarly, when n = N−1, the left removal determination target is the (N−1) th normal end point T (N−1), and the right removal determination target is the Nth normal end point T (N). Therefore, the normal end point T (n + 2) in the above determination conditions needs to be read as the first normal end point T (1). In addition, when n = N, the removal determination target on the left side is the Nth normal end point T (N). Therefore, the normal end point T (n + 1) in each determination condition is the first normal end point T ( It is necessary to replace the normal end point T (n + 2) with the second normal end point T (2).

結局、ここで述べる4点式の端点除去処理による再構築を採用する場合を一般論として述べれば、端点再構築部116は、1つの単位図形の1本の輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼び、除去判定対象となる第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離をL1とし、第nの通常端点T(n)と第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1):以下同様)との間の距離をL2とし、第(n+1)の通常端点T(n+1)と第(n+2)の通常端点T(n+2)(但し、n=N−1の場合は第1の通常端点T(1)、n=Nの場合は第2の通常端点T(2):以下同様)との間の距離をL3としたときに、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N):以下同様),T(n),T(n+1),T(n+2)の4点が一直線上にある場合には、L1<L3であれば通常端点T(n)を除去対象とし、L1>L3であれば通常端点T(n+1)を除去対象とし、L1=L3であれば通常端点T(n)もしくは通常端点T(n+1)のいずれかを除去対象とし、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1),T(n),T(n+1)の3点は一直線上にあるが,通常端点T(n+2)は当該一直線上にない場合には、通常端点T(n)を除去対象とし、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n),T(n+1),T(n+2)の3点は一直線上にあるが、通常端点T(n−1)は当該一直線上にない場合には、通常端点T(n+1)を除去対象とする、
という処理を、n≧Nが満たされるまで、nを1ずつ増加させながら繰り返し実行し、除去対象となった通常端点を除去する端点除去処理を行うことになる。
Eventually, if the reconstruction using the four-point end point removal processing described here is adopted as a general theory, the end point reconstruction unit 116 has a total N defined for one contour line of one unit graphic. The normal end points are referred to as the first normal end point T (1) to the Nth normal end point T (N) in order along the contour line, respectively, and the nth normal end point T (n ) And the normal end point T (n−m) that is not to be removed immediately before that (where m is a natural number, and when n−m <1, T (n−m + N)) The distance is L1, and the nth normal end point T (n) and the (n + 1) th normal end point T (n + 1) (however, when n = N, the first normal end point T (1): the same applies hereinafter) The distance between them is L2, and the (n + 1) th normal end point T (n + 1) and the (n + 2) th normal end point T (n + 2) However, when n = N−1, the distance between the first normal end point T (1) and n = N when the distance between the second normal end point T (2) (the same applies hereinafter) is L3. ,
L2 is equal to or less than a predetermined reference value Wmerge, and normal end point T (n-1) (where n = 1, Nth normal end point T (N): the same applies hereinafter), T (n), T When the four points (n + 1) and T (n + 2) are on a straight line, if L1 <L3, the normal end point T (n) is to be removed, and if L1> L3, the normal end point T (n + 1) is selected. If it is a removal target, and L1 = L3, either the normal end point T (n) or the normal end point T (n + 1) is the removal target,
L2 is equal to or less than a predetermined reference value Wmerge, and the three normal end points T (n−1), T (n), and T (n + 1) are on a straight line, but the normal end point T (n + 2) is the straight line. If it is not on the line, the normal endpoint T (n) is the removal target,
L2 is equal to or less than a predetermined reference value Wmerge, and the three normal end points T (n), T (n + 1), and T (n + 2) are on a straight line, but the normal end point T (n-1) is the straight line. If it is not on the line, the normal end point T (n + 1) is to be removed,
This process is repeatedly executed while increasing n by 1 until n ≧ N is satisfied, and end point removal processing is performed to remove the normal end point that is the removal target.

端点再構築部116が実行する端点再構築の処理として、このような4点式の端点除去処理を採用した場合も、上述した3点式の端点除去処理を採用した場合とほぼ同様の結果が得られる。ただ、上述したように、4点式の端点除去処理の方が3点式の端点除去処理に比べて、除去対象としてより好ましい端点を選択することができるので、除去処理によるシミュレーション精度低下の影響をより小さくすることができる。   As the end point reconstruction process executed by the end point reconstructing unit 116, even when such a four-point end point removal process is adopted, the result is almost the same as when the above-described three-point end point removal process is adopted. can get. However, as described above, the four-point end point removal process can select a more preferable end point as a removal target than the three-point end point removal process. Can be made smaller.

(3) 端点再配置処理による再構築
これまで述べてきた3点式もしくは4点式の端点除去処理は、端点再構築部116によって、既存の通常端点を除去することにより端点の再構築を行うものであったが、ここで述べる端点再配置処理は、一部の輪郭線について、中間通常端点を一旦除去し、当該一部の輪郭線の各辺に新たな中間通常端点を配置する端点再配置処理により、通常端点の再構築を行うものである。
(3) Reconstruction by end point rearrangement processing In the three-point or four-point end point removal processing described so far, the end point reconstruction unit 116 reconstructs end points by removing existing normal end points. However, the end point rearrangement process described here removes the intermediate normal end points from a part of the contour lines, and places new intermediate normal end points on each side of the part of the contour lines. The end point is normally reconstructed by the placement process.

図45は、図32に示す端点再構築部116による端点再構築処理として、端点再配置処理を採用した場合の手順を示す模式図である。いま、特定の単位図形の特定の輪郭線を構成する一辺に、図45(a) に示すように、通常端点A〜Hが定義されているものとしよう(これらの通常端点は、通常端点定義部115によって定義されたものである)。ここでは、説明の便宜上、これら通常端点A〜Hのうち、単位図形となる多角形の頂点を構成する通常端点A,Hを隅部通常端点と呼び、頂点を構成しない通常端点B〜Gを中間通常端点と呼ぶことにする。   FIG. 45 is a schematic diagram illustrating a procedure when the end point rearrangement process is adopted as the end point reconstruction process by the end point reconstruction unit 116 illustrated in FIG. 32. Assume that normal end points A to H are defined on one side constituting a specific outline of a specific unit graphic as shown in FIG. 45 (a) (these normal end points are defined as normal end point definitions). Part 115). Here, for convenience of explanation, among these normal end points A to H, the normal end points A and H constituting the vertexes of the polygon as the unit graphic are called corner normal end points, and the normal end points B to G not forming the vertices are called. It will be called an intermediate normal end point.

ここで述べる端点再配置処理による再構築を行う場合、端点再構築部116は、まず、この輪郭線上に定義されている中間通常端点を一旦除去する処理を行う。図45(b) は、図45(a) に示す通常端点A〜Hから、中間通常端点B〜Gを除去した状態を示している。なお、図45には、1本の輪郭線を構成する多角形の上辺のみが示されているが、実際には、1本の輪郭線は多角形の各辺に沿ったループを構成しており、輪郭線の個々の辺について、中間通常端点を一旦除去する処理が行われる。図45(b) には、輪郭線の上辺についての中間通常端点を除去することにより、隅部通常端点A,Hのみが残された状態が示されている。   When reconstruction is performed by the endpoint rearrangement process described here, the endpoint reconstruction unit 116 first performs a process of temporarily removing intermediate normal endpoints defined on the contour line. FIG. 45 (b) shows a state in which intermediate normal end points B to G are removed from normal end points A to H shown in FIG. 45 (a). In FIG. 45, only the upper side of the polygon constituting one contour line is shown, but actually, one contour line constitutes a loop along each side of the polygon. Thus, a process of once removing the intermediate normal end point is performed for each side of the contour line. FIG. 45 (b) shows a state in which only the corner normal end points A and H are left by removing the intermediate normal end point for the upper side of the contour line.

続いて、端点再構築部116は、中間通常端点の除去を行った輪郭線の各辺上に所定間隔で中間通常端点を再配置することにより、端点再配置処理を行う。図45(c) ,(d) ,(e) は、いずれも上記輪郭線の上辺について中間通常端点を再配置した例を示している。より具体的には、図45(c) は、所定の基準間隔Lregを設定し、左端の隅部通常端点Aの位置を始点として、基準間隔Lregごとに中間通常端点を再配置した例である。通常端点A〜Eまでは、隣接端点の間隔は基準間隔Lregになるが、通常端点E−H間は端数間隔Loddになる。たとえば、辺AHの長さが45nmであり、基準間隔Lreg=10nmに設定した場合、端数間隔Lodd=5nmになる。   Subsequently, the end point reconstruction unit 116 performs end point rearrangement processing by rearranging the intermediate normal end points at predetermined intervals on each side of the contour line from which the intermediate normal end points have been removed. 45 (c), (d), and (e) show examples in which intermediate normal end points are rearranged on the upper side of the contour line. More specifically, FIG. 45 (c) is an example in which a predetermined reference interval Lreg is set, and the intermediate normal end points are rearranged every reference interval Lreg starting from the position of the left corner normal end point A. . For the normal end points A to E, the interval between the adjacent end points becomes the reference interval Lreg, but the normal end point E-H becomes the fraction interval Lodd. For example, when the length of the side AH is 45 nm and the reference interval Lreg is set to 10 nm, the fraction interval Lodd = 5 nm.

これに対して、図45(d) は、中央部分の通常端点C,D間を端数間隔Loddとし、通常端点A−B間、B−C間、D−E間、E−H間を基準間隔Lregとした例である。一般に、半導体デバイスのような微細な図形パターンの場合、多角形の頂点付近における露光時の誤差が大きくなる傾向にあり、本来は角ばっている形状が丸みを帯びる傾向にある。このような事情から、隅部通常端点とこれに隣接する中間通常端点との間隔はできるだけ離した方が、シミュレーションの演算負担を軽減できる。このような観点から、端数間隔Loddは、図45(c) に示すように、隅部通常端点Hに隣接する位置に配置するよりも、図45(d) に示すように、辺AHの中央付近に配置した方が好ましい。辺AHの長さが45nmの場合、各端点の間隔は、左から順に、10,10,5,10,10nmということになる。   On the other hand, in FIG. 45 (d), the interval between the normal end points C and D in the central portion is the fraction interval Lodd, and the normal end points A to B, B to C, D to E, and E to H are used as references. In this example, the interval Lreg is used. In general, in the case of a fine graphic pattern such as a semiconductor device, an error at the time of exposure near the vertex of a polygon tends to be large, and the originally rounded shape tends to be rounded. For this reason, the calculation load of the simulation can be reduced if the interval between the corner normal end point and the intermediate normal end point adjacent thereto is as far as possible. From this point of view, the fractional interval Lodd is set at the center of the side AH as shown in FIG. 45 (d), rather than being arranged at a position adjacent to the corner normal end point H as shown in FIG. 45 (c). It is preferable to arrange in the vicinity. When the length of the side AH is 45 nm, the interval between the end points is 10, 10, 5, 10, 10 nm in order from the left.

図45(e) は、すべての端点間隔を等間隔Levenに設定した例である。Levenの値として予め最適値を定めておけば、当該最適値に最も近い等間隔Levenが得られるように、辺AHを等分割した位置に中間通常端点を再配置することができる。たとえば、Levenの最適値が10nmに設定されている場合、辺AHの長さが45nmであったとすると、これを4分割する場合はLeven=11.25nm、5分割する場合はLeven=9nm、6分割する場合はLeven=7.5nmになるので、最適値の10nmに最も近い値として、Leven=9nmが得られる。そこで、図示のように、辺AHを5分割して、等間隔Leven=9nmおきに中間通常端点を再配置すればよい。   FIG. 45 (e) shows an example in which all the end point intervals are set to the equal interval Leven. If an optimal value is determined in advance as the value of Leven, the intermediate normal end points can be rearranged at positions where the side AH is equally divided so that the equal interval Leven closest to the optimal value is obtained. For example, when the optimum value of Leven is set to 10 nm, if the length of the side AH is 45 nm, Leven = 11.25 nm when dividing this into four, and Leven = 9 nm when dividing into five, 6 In the case of division, Leven = 7.5 nm, so that Leven = 9 nm is obtained as the value closest to the optimum value of 10 nm. Therefore, as shown in the figure, the side AH may be divided into five, and intermediate normal end points may be rearranged at equal intervals of Leven = 9 nm.

図46は、図45に示す端点再配置処理を採用した場合の端点の再構築の基本手順を示す流れ図である。まず、ステップSS31において、処理対象となる特定の輪郭線上の中間通常端点(頂点を構成しない通常端点)を一旦除去する処理が行われる。続いて、ステップSS32において、当該輪郭線を構成する多角形の各辺に、新たな中間通常端点を配置する処理が行われる。具体的な方法は、図45(c) 〜(e) に示したとおりである。   FIG. 46 is a flowchart showing a basic procedure for reconstructing endpoints when the endpoint rearrangement process shown in FIG. 45 is adopted. First, in step SS31, a process of temporarily removing intermediate normal end points (normal end points not constituting a vertex) on a specific contour to be processed is performed. Subsequently, in step SS32, a process of arranging a new intermediate normal end point on each side of the polygon constituting the contour line is performed. A specific method is as shown in FIGS. 45 (c) to (e).

(4) 端点除去処理と端点再配置処理の使い分け
これまで3点式もしくは4点式の端点除去処理(図41〜図44)と端点再配置処理(図45〜図46)とを説明した。ここで、端点除去処理は、任意の単位図形の任意の輪郭線に対して適用することができ、元図形パターン10に含まれるすべての単位図形のすべての輪郭線に適用してもかまわない。これに対して、端点再配置処理は、輪郭線によっては、適用すると不適切なケースがある。
(4) Different Use of End Point Removal Processing and End Point Rearrangement Processing So far, the three-point or four-point end point removal processing (FIGS. 41 to 44) and the end point rearrangement processing (FIGS. 45 to 46) have been described. Here, the end point removal processing can be applied to any contour line of any unit graphic, and may be applied to all contour lines of all unit graphics included in the original graphic pattern 10. On the other hand, there are cases where the end point rearrangement process is inappropriate when applied depending on the contour line.

これは、そもそも本発明は、単位図形を複数の分割図形に分割し、この分割図形の頂点位置に基づいて通常端点を定義することを特徴としているため、分割図形の頂点位置に基づいて定義された一部の通常端点を除去する処理(通常端点の数を減少させる処理)を行っても、「分割図形の頂点位置に基づいて定義された通常端点」という特徴が失われることはないが、通常端点を再配置する処理(位置を修正する処理)を行うと、再配置された中間通常端点については上記特徴が失われてしまうためである。   In the first place, the present invention is characterized in that the unit figure is divided into a plurality of divided figures and the normal end points are defined based on the vertex positions of the divided figures. Therefore, the unit figure is defined based on the vertex positions of the divided figures. However, even if a process that removes some normal endpoints (a process that reduces the number of normal endpoints) is performed, the feature of “normal endpoints defined based on the vertex positions of the split figure” will not be lost. This is because when the process of rearranging the normal end points (the process of correcting the position) is performed, the above characteristics are lost for the rearranged intermediate normal end points.

たとえば、図42に示す例では、白抜き三角形で示す通常端点D,Iが除去されることになるが、それ以外の各通常端点は、「図34(c) に示す4組の分割図形10a〜10dの頂点位置に基づいて定義された通常端点」という特徴を有している。ここで、各通常端点が分割図形10a〜10dの頂点位置に基づく位置に定義されていると、図36,図37で説明したように、補正図形パターン15に基づく露光工程において、露光ビームのショット数を低減できるというメリットが得られる。これは、図38(d) に示す単位図形10の上辺に定義された中間通常端点B,C,Dの水平方向位置と、下辺に定義された中間通常端点I,H,Gの水平方向位置とが揃うためである。   For example, in the example shown in FIG. 42, the normal end points D and I indicated by white triangles are removed, but each of the other normal end points is “four sets of divided figures 10a shown in FIG. 34 (c)”. It has a feature of “normal end points defined based on vertex positions of ˜10d”. Here, if each normal end point is defined at a position based on the vertex positions of the divided figures 10a to 10d, the exposure beam shot is performed in the exposure process based on the corrected figure pattern 15 as described with reference to FIGS. The advantage is that the number can be reduced. This is because the horizontal position of the intermediate normal end points B, C, D defined on the upper side of the unit graphic 10 shown in FIG. 38 (d) and the horizontal direction position of the intermediate normal end points I, H, G defined on the lower side. This is because they are aligned.

ところが、図38(d) に示す単位図形10の例に対して端点再配置処理を行うと、隅部通常端点A,E,F,Jの位置は変わらないものの、中間通常端点B,C,D,G,H,Iの位置は修正され、4組の分割図形10a〜10dの頂点位置とは無関係な位置に再配置されることになる。そうなると、単位図形10の上辺に定義された中間通常端点の水平位置と下辺に定義された中間通常端点の水平位置とが揃わない可能性があり、露光ビームのショット数を低減できるというメリットが得られなくなるおそれがある。   However, when the end point rearrangement process is performed on the example of the unit graphic 10 shown in FIG. 38 (d), the positions of the corner normal end points A, E, F, J are not changed, but the intermediate normal end points B, C, The positions of D, G, H, and I are corrected and rearranged at positions that are unrelated to the vertex positions of the four sets of divided figures 10a to 10d. Then, there is a possibility that the horizontal position of the intermediate normal end point defined on the upper side of the unit graphic 10 and the horizontal position of the intermediate normal end point defined on the lower side are not aligned, and there is an advantage that the number of exposure beam shots can be reduced. There is a risk of being lost.

したがって、図42に示す単位図形や、図43に示す単位図形については、端点除去処理(図41〜図44)に基づく端点の再配置を行うのが好ましい。これに対して、図40(f) に示すようなロの字型の単位図形(いわゆる穴開きの単位図形)については、外側輪郭線Ooutに対しては端点除去処理(図41〜図44)に基づく端点の再配置を行い、内側輪郭線Oinに対しては端点再配置処理(図45〜図46)に基づく端点の再配置を行うのが好ましい。   Therefore, for the unit graphic shown in FIG. 42 and the unit graphic shown in FIG. 43, it is preferable to rearrange the end points based on the end point removal processing (FIGS. 41 to 44). On the other hand, with respect to the square-shaped unit graphic (so-called perforated unit graphic) as shown in FIG. It is preferable to perform rearrangement of the end points based on the above, and rearrange the end points based on the end point rearrangement processing (FIGS. 45 to 46) for the inner contour line Oin.

図47は、図40(f) に示すロの字型の単位図形10の内側輪郭線Oin上の通常端点M〜Tに対して、図46の手順に基づく端点再配置処理を適用して端点の再構築を行った例を示す平面図である。具体的には、内側輪郭線Oinを構成する矩形の下辺NQ上の中間通常端点O,Pと上辺MR上の中間通常端点S,Tとを一旦除去し、下辺NQ上には新たな中間通常端点Uを配置し、上辺MR上には新たな中間通常端点Vを配置したものである。   47 applies the end point rearrangement process based on the procedure of FIG. 46 to the normal end points M to T on the inner outline Oin of the square-shaped unit graphic 10 shown in FIG. 40 (f). It is a top view which shows the example which performed reconstruction. Specifically, intermediate normal end points O and P on the lower side NQ of the rectangle constituting the inner contour line Oin and intermediate normal end points S and T on the upper side MR are temporarily removed, and a new intermediate normal point is set on the lower side NQ. An end point U is arranged, and a new intermediate normal end point V is arranged on the upper side MR.

このような端点再配置処理を行うことにより、内側輪郭線Oin上の中間通常端点U,Vは、図40(b) に示す8組の分割図形10a〜10hの頂点位置とは無関係な位置に配置されることになる。しかしながら、外側輪郭線Ooutで囲まれた図形内部は露光領域になるのに対して、内側輪郭線Oinで囲まれた図形内部は非露光領域になるため、内側輪郭線Oin上の中間通常端点U,Vの位置が任意の位置に設定されていても、露光ビームのショット数を低減できるメリットに影響は及ばない。   By performing such end point rearrangement processing, the intermediate normal end points U and V on the inner contour line Oin are in positions that are not related to the vertex positions of the eight divided figures 10a to 10h shown in FIG. Will be placed. However, since the inside of the figure surrounded by the outer contour line Oout becomes an exposure area, the inside of the figure surrounded by the inner contour line Oin becomes a non-exposure area. Therefore, the intermediate normal end point U on the inner contour line Oin. , V are set at arbitrary positions, the merit of reducing the number of exposure beam shots is not affected.

その一方で、図47(a) に示す各中間通常端点の配置を見ればわかるとおり、外側輪郭線Oout上の中間通常端点B,C,E,F,H,I,K,Lは、必ず隅部通常端点A,D,G,Jからある程度離れた位置(基本的には、Wsplitだけ離れた位置)に定義されるのに対して、内側輪郭線Oin上の中間通常端点O,P,S,Tは、隅部通常端点M,N,Q,Rのごく近傍に定義される可能性がある。しかも、前述したように、多角形の頂点付近における露光時の誤差は大きくなり、本来は角ばっている形状が丸みを帯びる傾向にある。そのため、隅部通常端点とこれに隣接する中間通常端点との間隔はできるだけ離した方が、シミュレーションの演算負担を軽減できる。   On the other hand, as can be seen from the arrangement of the intermediate normal end points shown in FIG. 47 (a), the intermediate normal end points B, C, E, F, H, I, K, and L on the outer contour line Oout are always In contrast to the corner normal end points A, D, G, J, which are defined to a certain extent (basically, a position separated by Wsplit), the intermediate normal end points O, P, S and T may be defined very close to the corner normal end points M, N, Q, and R. Moreover, as described above, the error at the time of exposure near the vertex of the polygon increases, and the originally rounded shape tends to be rounded. For this reason, it is possible to reduce the computational burden of the simulation if the interval between the corner normal end point and the intermediate normal end point adjacent thereto is as far as possible.

このような事情を踏まえると、外側輪郭線Oout上に定義された中間通常端点については、端点除去処理(図41〜図44)に基づく端点の再配置を行い、各分割図形の頂点位置に応じた配置がそのまま維持されるようにし、露光ビームのショット数を低減できるメリットが享受できるようにするのが好ましい。これに対して、内側輪郭線Oin上に定義された中間通常端点については、端点再配置処理(図45〜図46)に基づく端点の再配置を行い、隅部通常端点からできるだけ離れた位置に新たな中間通常端点が配置されるようにし、シミュレーションの演算負担を軽減できるメリットが享受できるようにするのが好ましい。   In consideration of such circumstances, the intermediate normal end points defined on the outer contour line Oout are rearranged based on the end point removal processing (FIGS. 41 to 44), and are determined according to the vertex positions of the respective divided figures. It is preferable that the arrangement is maintained as it is, so that the advantage of reducing the number of exposure beam shots can be enjoyed. On the other hand, for the intermediate normal end points defined on the inner contour line Oin, the end points are rearranged based on the end point rearrangement processing (FIGS. 45 to 46), and are located as far as possible from the corner normal end points. It is preferable to arrange a new intermediate normal end point so that the merit of reducing the calculation load of simulation can be enjoyed.

§6.2で述べたとおり、穴開きの単位図形10について、外側輪郭線Ooutを構成する図形を「正図形」と呼び、内側輪郭線Oinを構成する図形を「反図形」と呼ぶことにすると、単位図形ベクトル群が輪郭線に沿って順方向(ここに述べる実施例の場合は時計まわりの方向)に一周する場合、当該輪郭線は単位図形10の外側輪郭線Ooutを構成する正図形であると判断でき、単位図形ベクトル群が輪郭線に沿って反方向(ここに述べる実施例の場合は反時計まわりの方向)に一周する場合、当該輪郭線は単位図形10の内側輪郭線Oinを構成する反図形であると判断できる。   As described in §6.2, regarding the perforated unit figure 10, the figure constituting the outer outline Oout is referred to as a “regular figure” and the figure constituting the inner outline Oin is referred to as an “anti-figure”. Then, when the unit graphic vector group makes a round in the forward direction along the contour line (clockwise direction in the embodiment described here), the contour line is a normal graphic that forms the outer contour line Oout of the unit graphic 10. If the unit graphic vector group makes a round in the opposite direction along the contour line (counterclockwise direction in the embodiment described here), the contour line is the inner contour line Oin of the unit graphic 10. It can be determined that it is an anti-figure that constitutes.

そこで、穴開きの単位図形を取り扱う可能性がある場合は、端点再構築部116に、端点除去処理(図41〜図44)と端点再配置処理(図45〜図46)と、を単位図形の輪郭線ごとに選択的に実行させる機能をもたせるようにし、順方向まわりの単位図形ベクトルによって囲まれた正図形上の通常端点(図47(a) に示す例の場合は、外側輪郭線Oout上の通常端点)に対しては、端点除去処理により端点再構築を行い、順方向とは逆の逆方向まわりの単位図形ベクトルによって囲まれた反図形上の通常端点(図47(a) に示す例の場合は、内側輪郭線Oin上の通常端点)に対しては、端点再配置処理により端点再構築を行うようにすればよい。   Therefore, when there is a possibility of handling a unit graphic of a hole, the end point reconstruction unit 116 performs end point removal processing (FIGS. 41 to 44) and end point rearrangement processing (FIGS. 45 to 46). A normal execution point on the regular figure surrounded by the unit figure vector around the forward direction (in the case of the example shown in FIG. 47 (a), the outer outline Oout is provided). For the upper normal end point, the end point is reconstructed by the end point removal process, and the normal end point on the opposite figure surrounded by the unit figure vector around the opposite direction to the forward direction (see Fig. 47 (a)) In the case of the example shown, the end point reconstruction may be performed by the end point rearrangement process for the normal end point on the inner outline Oin.

<6.4 評価点の定義>
ここでは、図32に示す評価点設定ユニット110における評価点定義部117の機能について説明する。この評価点定義部117は、通常端点定義部115によって単位図形の輪郭線上に定義された通常端点に基づいて、もしくは、§6.3で述べた端点再構築部116を設ける実施形態の場合は、当該端点再構築部116による再構築によって得られた通常端点に基づいて、評価点Eを定義する構成要素である。すなわち、評価点定義部117は、個々の単位図形の輪郭線上において互いに隣接して配置された2つの通常端点の間に、それぞれ評価点を定義する処理を行う。
<6.4 Definition of evaluation points>
Here, the function of the evaluation score definition unit 117 in the evaluation score setting unit 110 shown in FIG. 32 will be described. This evaluation point definition unit 117 is based on the normal end points defined on the contour line of the unit graphic by the normal end point definition unit 115 or in the case of the embodiment in which the end point reconstruction unit 116 described in §6.3 is provided. The component defining the evaluation point E based on the normal end point obtained by the reconstruction by the end point reconstructing unit 116. That is, the evaluation point definition unit 117 performs a process of defining an evaluation point between two normal end points arranged adjacent to each other on the contour line of each unit graphic.

個々の評価点Eを定義する位置は、隣接する一対の通常端点の間であれば、原理的には、どの位置であってもかまわないが、実用上は、一対の通常端点の中点位置に定義するのが好ましい。これは、一対の通常端点によって挟まれる輪郭線分についてのずれ量(プロセスバイアス)をシミュレーションによって求める際に、当該輪郭線分の中心点に評価点を設定した方が、より適切なシミュレーション結果が得られると考えられるためである。   The position for defining each evaluation point E may be any position in principle as long as it is between a pair of adjacent normal end points, but in practice, it is the midpoint position of a pair of normal end points. Is preferably defined as follows. This is because a more appropriate simulation result is obtained when the evaluation point is set at the center point of the contour line segment when determining the deviation amount (process bias) about the contour line segment sandwiched between the pair of normal end points by simulation. This is because it is considered to be obtained.

そこで、ここで述べる実施形態では、評価点定義部117は、単位図形の輪郭線上において互いに隣接して配置された2つの通常端点の中点位置にそれぞれ評価点を定義する処理を行う。図48(a) は、図42(b) に示す端点再構築後の平行四辺形型の単位図形10上の通常端点(x印)を示し(各端点の符号はA〜Hに付け直されている)、図48(b) は、これらの通常端点A〜Hに基づいて、評価点1〜8(黒丸)を定義した例を示す。具体的には、一対の通常端点A−Bに挟まれる輪郭線分AB上には、その中心位置に評価点1が定義されており、一対の通常端点B−Cに挟まれる輪郭線分BC上には、その中心位置に評価点2が定義されており、……、一対の通常端点H−Aに挟まれる輪郭線分HA上には、その中心位置に評価点8が定義されている。   Therefore, in the embodiment described here, the evaluation point definition unit 117 performs a process of defining evaluation points at the midpoint positions of two normal end points arranged adjacent to each other on the outline of the unit graphic. FIG. 48 (a) shows normal end points (marked by x) on the parallelogram unit graphic 10 after the end point reconstruction shown in FIG. 42 (b). 48 (b) shows an example in which evaluation points 1 to 8 (black circles) are defined based on these normal end points A to H. Specifically, the evaluation point 1 is defined at the center position on the contour line segment AB sandwiched between the pair of normal end points AB, and the contour line segment BC sandwiched between the pair of normal end points BC. Above, an evaluation point 2 is defined at the center position, and..., An evaluation point 8 is defined at the center position on the contour line segment HA sandwiched between the pair of normal end points HA. .

同様に、図49(a) は、図43(b) に示す端点再構築後のL型の単位図形10上の通常端点(x印)を示し(各端点の符号はA〜Hに付け直されている)、図49(b) は、これらの通常端点A〜Hに基づいて、評価点1〜8(黒丸)を定義した例を示す。いずれの評価点も、各輪郭線分の中点位置に定義されている。また、図50(a) は、図47(b) に示す端点再構築後のロの字型の単位図形10上の通常端点(x印)を示し(各端点の符号はA〜Rに付け直されている)、図50(b) は、これらの通常端点A〜Rに基づいて、評価点1〜18(黒丸)を定義した例を示す。やはり、いずれの評価点も、各輪郭線分の中点位置に定義されている。   Similarly, FIG. 49 (a) shows normal end points (marked by x) on the L-shaped unit graphic 10 after the end point reconstruction shown in FIG. 43 (b). 49 (b) shows an example in which evaluation points 1 to 8 (black circles) are defined based on these normal end points A to H. Each evaluation point is defined at the midpoint position of each contour line segment. FIG. 50 (a) shows normal end points (marked with x) on the square-shaped unit graphic 10 after the end point reconstruction shown in FIG. FIG. 50 (b) shows an example in which evaluation points 1 to 18 (black circles) are defined based on these normal end points A to R. Again, any evaluation point is defined at the midpoint position of each contour line segment.

こうして定義された各評価点は、図3に示す評価点E11,E12,E13に対応するものであり、図1に示す特徴量抽出ユニット120によって、これら各評価点についての特徴量x1〜xnが抽出され、バイアス推定ユニット130によって、これら各評価点についてのプロセスバイアスの推定値yが求められる。そして、パターン補正ユニット140によって、個々の評価点について求められたプロセスバイアスの推定値yに基づいて、当該評価点を含む輪郭線分の位置が補正される。   Each evaluation point defined in this way corresponds to the evaluation points E11, E12, and E13 shown in FIG. 3, and the feature quantity extraction unit 120 shown in FIG. The bias estimation unit 130 extracts the process bias estimate y for each of these evaluation points. The pattern correction unit 140 corrects the position of the contour line segment including the evaluation point based on the estimated value y of the process bias obtained for each evaluation point.

<6.5 補充端点の定義>
続いて、図32に示す評価点設定ユニット110における補充端点定義部118の機能について説明する。この補充端点定義部118は、個々の単位図形について、多角形の頂点を構成しない通常端点である中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点を追加定義する機能を果たす。前述したとおり、通常端点定義部115によって定義された通常端点や、端点再構築部116による再構築によって得られた通常端点は、多角形の頂点を構成する隅部通常端点と多角形の頂点を構成しない中間通常端点とに分けられる。補充端点定義部118は、このうち、中間通常端点について、同じ位置に補充端点を追加定義することになる。
<6.5 Definition of replenishment endpoints>
Next, the function of the replenishment endpoint definition unit 118 in the evaluation point setting unit 110 shown in FIG. 32 will be described. This supplementary endpoint defining unit 118 has a function of searching for an intermediate normal endpoint that is a normal endpoint that does not constitute a polygon vertex for each unit graphic, and additionally defining a supplementary endpoint at the same position as the searched intermediate regular endpoint. Fulfill. As described above, the normal end points defined by the normal end point definition unit 115 and the normal end points obtained by the reconstruction by the end point reconstructing unit 116 are the corner normal end points and the polygon vertices constituting the vertex of the polygon. It is divided into intermediate normal end points that are not configured. Of these, the supplementary endpoint definition unit 118 additionally defines supplementary endpoints at the same position for the intermediate normal endpoint.

ここでは、まず、通常端点に加えて、補充端点を追加定義する必要性について説明する。上述したように、評価点定義部117による評価点定義処理が完了すると、隣接する一対の通常端点で挟まれた輪郭線分のそれぞれについて、中点位置に評価点が定められる。たとえば、図48(b) に示す例の場合、一対の通常端点A−Bで挟まれた輪郭線分AB上に評価点1が定義され、一対の通常端点B−Cで挟まれた輪郭線分BC上に評価点2が定義される。そして、各評価点について、特徴量が抽出され、プロセスバイアスの推定値yが求められ、当該プロセスバイアスの推定値yに基づいて、当該評価点を含む輪郭線分の位置が補正される。   Here, first, the necessity of additionally defining the supplemental end point in addition to the normal end point will be described. As described above, when the evaluation point definition process by the evaluation point definition unit 117 is completed, an evaluation point is determined at the midpoint position for each of the outline segments sandwiched between a pair of adjacent normal end points. For example, in the example shown in FIG. 48 (b), the evaluation point 1 is defined on the contour line segment AB sandwiched between the pair of normal end points AB, and the contour line sandwiched between the pair of normal end points BC. Evaluation point 2 is defined on the minute BC. Then, a feature amount is extracted for each evaluation point, an estimated value y of the process bias is obtained, and the position of the contour line segment including the evaluated point is corrected based on the estimated value y of the process bias.

たとえば、図48(b) に示す例において、シミュレーションの結果、評価点1についてはプロセスバイアスの推定値y(1)=−1nmが求められ、評価点2についてはプロセスバイアスの推定値y(2)=−2nmが求められたものとしよう。この場合、図48(b) に示す平行四辺形状の元図形パターン10をそのまま用いてリソグラフィプロセスを実行した場合、実基板S上に得られる実図形パターン20上の評価点1に対応する点は1nm内側にずれた位置になり、評価点2に対応する点は2nm内側にずれた位置になることが、シミュレーションによって推定されたことになる。そこで、パターン補正ユニット140は、たとえば、評価点1を有する輪郭線分ABを外側に1nm移動させ、評価点2を有する輪郭線分BCを外側に2nm移動させる処理を行って、補正図形パターン15を作成する補正処理を行うことになる。   For example, in the example shown in FIG. 48 (b), as a result of the simulation, an estimated value y (1) = − 1 nm is obtained for the evaluation point 1, and an estimated value y (2) for the evaluation point 2 ) =-2 nm. In this case, when the lithography process is executed using the parallelogram original figure pattern 10 shown in FIG. 48B as it is, the point corresponding to the evaluation point 1 on the actual figure pattern 20 obtained on the actual substrate S is It is estimated by simulation that the position is shifted to the inner side by 1 nm, and the point corresponding to the evaluation point 2 is shifted to the inner side by 2 nm. Therefore, for example, the pattern correction unit 140 performs a process of moving the contour line segment AB having the evaluation point 1 by 1 nm to the outside and moving the contour line segment BC having the evaluation point 2 by 2 nm to the outside, thereby correcting the corrected graphic pattern 15. The correction process for creating the image is performed.

このとき、輪郭線分ABと輪郭線分BCとを別個独立して移動させることは、幾何学的な概念的としては容易に理解できよう。しかしながら、コンピュータ上のデータ処理としては、中間通常端点Bが単一の端点のままでは不都合が生じることになる。本発明では、図3(b) の例に示すように、各評価点を輪郭線に直交する方向に移動させる補正が行われる。したがって、輪郭線分ABと輪郭線分BCとをそれぞれ別個の補正量に応じて移動させるためには、輪郭線分ABの右端としての役割を果たす通常端点Bと、輪郭線分BCの左端としての役割を果たす通常端点Bとは、データ処理上、別個の端点として取り扱う必要が生じる。このようなコンピュータ処理の事情から、本発明では、中間通常端点Bについて、全く同じ位置に補充端点B′を追加定義するようにしている。こうして追加定義された補充端点B′は、一方の輪郭線分のみの端点として取り扱うことができ、既存の中間通常端点Bは、他方の輪郭線分のみの端点として取り扱うことができる。   At this time, it can be easily understood as a geometric concept that the contour line segment AB and the contour line segment BC are moved separately and independently. However, in terms of data processing on the computer, inconvenience occurs if the intermediate normal end point B remains a single end point. In the present invention, as shown in the example of FIG. 3B, correction is performed to move each evaluation point in a direction orthogonal to the contour line. Therefore, in order to move the contour line segment AB and the contour line segment BC according to different correction amounts, the normal end point B serving as the right end of the contour line segment AB and the left end of the contour line segment BC are used. The normal end point B that plays the role of needs to be handled as a separate end point in data processing. In view of such computer processing, in the present invention, the supplementary end point B ′ is additionally defined at exactly the same position with respect to the intermediate normal end point B. The supplementary end point B ′ additionally defined in this way can be handled as an end point of only one contour line segment, and the existing intermediate normal end point B can be handled as an end point of only the other contour line segment.

たとえば、図48(b) に示す平行四辺形状の単位図形の場合、中間通常端点B,C,F,Gについて、それぞれ同じ位置に補充端点B′,C′,F′,G′を追加定義すれば、図51(a) に示すように、8個の通常端点A〜H(x印)に加えて、更に4個の補充端点B′,C′,F′,G′(四角印)が追加され、合計12個の端点が定義されることになる。そうすれば、たとえば、輪郭線分ABの左端を通常端点A、右端を補充端点B′とし、輪郭線分BCの左端を通常端点B、右端を補充端点C′とし、輪郭線分CDの左端を通常端点C、右端を通常端点Dとし、輪郭線分DEの上端を通常端点D、下端を通常端点Eとし、輪郭線分EFの右端を通常端点E、左端を補充端点F′とし、輪郭線分FGの右端を通常端点F、左端を補充端点G′とし、輪郭線分GHの右端を通常端点G、左端を通常端点Hとし、輪郭線分HAの下端を通常端点H、上端を通常端点Aとすることができる。   For example, in the case of the parallelogram unit graphic shown in FIG. 48 (b), supplementary end points B ', C', F ', G' are additionally defined at the same positions for the intermediate normal end points B, C, F, G. In this case, as shown in FIG. 51 (a), in addition to the eight normal end points A to H (marked by x), four further supplementary end points B ′, C ′, F ′, G ′ (square marks). Will be added and a total of 12 endpoints will be defined. Then, for example, the left end of the contour line segment AB is the normal end point A, the right end is the replenishment end point B ', the left end of the contour line segment BC is the normal end point B, the right end is the replenishment end point C', and the left end of the contour line segment CD Is the normal end point C, the right end is the normal end point D, the upper end of the contour line segment DE is the normal end point D, the lower end is the normal end point E, the right end of the contour line segment EF is the normal end point E, and the left end is the replenishment end point F '. The right end of the line segment FG is the normal end point F, the left end is the supplement end point G ', the right end of the contour line segment GH is the normal end point G, the left end is the normal end point H, the lower end of the contour line segment HA is the normal end point H, and the upper end is normal It can be the end point A.

このようにして8組の輪郭線分の両端を定義すれば、たとえば、輪郭線分ABと輪郭線分BCとを別個独立して移動させることができる(コンピュータ処理上、通常端点Bと補充端点B′とを別な座標位置に移動させることができる)。なお、補充端点の追加定義を、中間通常端点についてのみ行う理由は、1つの中間通常端点は、上述したように、補正後に異なる2つの位置を占める2つの端点に分離する可能性があるのに対して、1つの隅部通常端点は補正後も1つの隅部通常端点として残るためである。このような事情は、§7において、具体例を示しながら詳述する。   If the two ends of the eight contour segments are defined in this way, for example, the contour segment AB and the contour segment BC can be moved separately and independently (in terms of computer processing, the normal endpoint B and the supplemental endpoint) B ′ can be moved to another coordinate position). Note that the reason why additional supplementary endpoints are defined only for intermediate normal endpoints is that one intermediate normal endpoint may be separated into two endpoints that occupy two different positions after correction, as described above. On the other hand, one corner normal end point remains as one corner normal end point after correction. Such a situation will be described in detail in Section 7 with specific examples.

同様に、図49(b) に示すL字状の単位図形の場合、中間通常端点F,Hについて、それぞれ同じ位置に補充端点F′,H′を追加定義すれば、図51(b) に示すように、8個の通常端点A〜H(x印)に加えて、更に2個の補充端点F′,H′(四角印)が追加され、合計10個の端点が定義されることになる。そうすれば、たとえば、輪郭線分EFの右端を通常端点E、左端を補充端点F′とし、輪郭線分FGの右端を通常端点F、左端を通常端点Gとすることができ、また、輪郭線分GHの下端を通常端点G、上端を補充端点H′とし、輪郭線分HAの下端を通常端点H、上端を通常端点Aとすることができ、各輪郭線分を別個独立して移動させる処理が可能になる。   Similarly, in the case of the L-shaped unit graphic shown in FIG. 49 (b), if supplementary end points F ′ and H ′ are additionally defined at the same positions for the intermediate normal end points F and H, respectively, FIG. As shown in the figure, in addition to the eight normal end points A to H (marked by x), two additional end points F ′ and H ′ (square marks) are added to define a total of ten end points. Become. Then, for example, the right end of the contour line segment EF can be the normal end point E, the left end can be the supplemental end point F ′, the right end of the contour line segment FG can be the normal end point F, and the left end can be the normal end point G. The lower end of the line segment GH can be the normal end point G, the upper end can be the replenishment end point H ', the lower end of the contour line segment HA can be the normal end point H, and the upper end can be the normal end point A. Can be processed.

また、図50(b) に示すロの字状の単位図形の場合、中間通常端点B,C,E,F,H,I,K,L,O,Rについて、それぞれ同じ位置に補充端点B′,C′,E′,F′,H′,I′,K′,L′,O′,R′を追加定義すれば、図51(c) に示すように、18個の通常端点A〜R(x印)に加えて、更に10個の補充端点B′,C′,E′,F′,H′,I′,K′,L′,O′,R′(四角印)が追加され、合計28個の端点が定義されることになる。そうすれば、たとえば、輪郭線分ABの左端を通常端点A、右端を補充端点B′とし、輪郭線分BCの左端を通常端点B、右端を補充端点C′とし、輪郭線分CDの左端を通常端点C、右端を通常端点Dとし、……というようにすることができ、各輪郭線分を別個独立して移動させる処理が可能になる。   In addition, in the case of the square-shaped unit graphic shown in FIG. 50 (b), the supplementary end points B are placed at the same positions for the intermediate normal end points B, C, E, F, H, I, K, L, O, and R, respectively. If ', C', E ', F', H ', I', K ', L', O ', R' are additionally defined, 18 normal end points A are obtained as shown in FIG. In addition to .about.R (mark x), there are 10 additional end points B ', C', E ', F', H ', I', K ', L', O ', R' (square marks). A total of 28 endpoints will be defined. Then, for example, the left end of the contour line segment AB is the normal end point A, the right end is the replenishment end point B ′, the left end of the contour line segment BC is the normal end point B, the right end is the replenishment end point C ′, and the left end of the contour line segment CD Is the normal end point C, the right end is the normal end point D, and so on, and each contour line segment can be moved independently.

図52は、図32に示す補充端点定義部118によって行われる補充端点定義処理の具体的な手順を示す模式図(図(a) ,(b) )および流れ図(図(c) )である。上述したとおり、補充端点定義部118は、個々の単位図形について中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点を追加定義する処理を行う。ここで、中間通常端点の探索処理は、具体的には次のような手順で行うことができる。   FIG. 52 is a schematic diagram (FIGS. (A) and (b)) and a flowchart (FIG. (C)) showing a specific procedure of the supplementary endpoint definition process performed by the supplementary endpoint definition unit 118 shown in FIG. As described above, the supplementary endpoint defining unit 118 searches for an intermediate normal endpoint for each unit graphic, and performs a process of additionally defining a supplementary endpoint at the same position as the searched intermediate regular endpoint. Here, the process for searching for the intermediate normal end point can be performed specifically by the following procedure.

いま、処理対象となる特定の単位図形の特定の輪郭線上に合計N個の通常端点が定義されているものとする。これらN個の通常端点のうち、一部は多角形の頂点を構成する隅部通常端点であり、残りの一部は多角形の頂点を構成しない中間通常端点である。ここで行う探索処理は、N個の通常端点の中から中間通常端点を見つける処理ということになる。   Assume that a total of N normal end points are defined on a specific contour line of a specific unit graphic to be processed. Among these N normal end points, a part is a corner normal end point constituting a polygon vertex, and the remaining part is a middle normal end point not constituting a polygon vertex. The search process performed here is a process for finding an intermediate normal end point from among N normal end points.

そこで、この全N個の通常端点を、輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)とし、図52(a) に示すように、第nの通常端点T(n)を判定対象として、中間通常端点か否かの判定を行う。この判定には、図示のとおり、第(n−1)の通常端点T(n−1)、第nの通常端点T(n)、第(n+1)の通常端点T(n+1)の3点を用いる。図のOaは、2つの端点T(n−1),T(n)を結ぶ輪郭線分であり、図のObは、2つの端点T(n),T(n+1)を結ぶ輪郭線分である。そして、第nの通常端点T(n)が中間通常端点と判定された場合には、図52(b) に示すように、当該第nの通常端点T(n)と同じ位置に補充端点T(n)′を追加定義する。図では、通常端点T(n)をx印、補充端点T(n)′を四角印で示している。   Therefore, all the N normal end points are designated as the first normal end point T (1) to the Nth normal end point T (N) in the order along the contour line, as shown in FIG. With the nth normal end point T (n) as a determination target, it is determined whether or not it is an intermediate normal end point. In this determination, as shown in the figure, three points of the (n-1) th normal end point T (n-1), the nth normal end point T (n), and the (n + 1) th normal end point T (n + 1) are obtained. Use. Oa in the figure is a contour segment connecting two end points T (n-1) and T (n), and Ob in the diagram is a contour segment connecting two end points T (n) and T (n + 1). is there. When the nth normal end point T (n) is determined to be the intermediate normal end point, as shown in FIG. 52 (b), the replenishment end point T is located at the same position as the nth normal end point T (n). (N) ′ is additionally defined. In the figure, the normal end point T (n) is indicated by x and the replenishment end point T (n) ′ is indicated by a square mark.

第nの通常端点T(n)が中間通常端点であった場合に、同じ位置に補充端点T(n)′を追加定義すれば、輪郭線分Oaの左端を通常端点T(n−1)とし、右端を補充端点T(n)′とすることができる。また、輪郭線分Obの左端を通常端点T(n)とし、右端を通常端点T(n+1)とすることができる。端点T(n)とT(n)′とは別個独立して移動させることができるので、輪郭線分OaとObとを別個独立して移動させることができるようになり、パターン補正ユニット140によって補正処理を行う際に支障は生じない。   If the supplementary end point T (n) ′ is additionally defined at the same position when the nth normal end point T (n) is the intermediate normal end point, the left end of the contour line segment Oa is set as the normal end point T (n−1). And the right end can be the replenishment end point T (n) ′. Further, the left end of the contour line segment Ob can be a normal end point T (n), and the right end can be a normal end point T (n + 1). Since the end points T (n) and T (n) ′ can be moved separately and independently, the contour segments Oa and Ob can be moved independently and independently by the pattern correction unit 140. There is no problem in performing the correction process.

図52(c) は、補充端点定義部118によって行われる補充端点定義処理の具体的な手順を示す流れ図である。まず、ステップSS41において、中間通常端点であるか否かの判定対象となる通常端点の番号を示すパラメータnをn=1に設定し、ステップSS42において、第(n−1)の通常端点T(n−1)、第nの通常端点T(n)、第(n+1)の通常端点T(n+1)の3点が一直線上にあるか否かが判定される。ここで、肯定的な判定がなされたら、判定対象となる端点T(n)は、中間通常端点(多角形の頂点を構成しない端点)ということになるので、ステップSS43において、この中間通常端点T(n)と同じ位置に、補充端点T(n)′が追加定義される。ステップSS42において否定的な判定がなされたら、判定対象となる端点T(n)は、隅部通常端点(多角形の頂点を構成する端点)ということになるので、補充端点T(n)′の追加定義は行われない。   FIG. 52 (c) is a flowchart showing a specific procedure of the replenishment endpoint definition process performed by the replenishment endpoint definition unit 118. First, in step SS41, a parameter n indicating the number of the normal end point to be determined whether or not it is an intermediate normal end point is set to n = 1, and in step SS42, the (n-1) th normal end point T ( It is determined whether or not three points of (n-1), the nth normal end point T (n), and the (n + 1) th normal end point T (n + 1) are on a straight line. Here, if an affirmative determination is made, the end point T (n) to be determined is an intermediate normal end point (an end point that does not constitute a polygonal vertex). Therefore, in step SS43, this intermediate normal end point T A supplementary end point T (n) ′ is additionally defined at the same position as (n). If a negative determination is made in step SS42, the end point T (n) to be determined is the normal corner end point (the end point constituting the vertex of the polygon), so that the replenishment end point T (n) ′ No additional definitions are made.

このような処理が、ステップSS44およびSS45を介して、パラメータnを1ずつ増加させながら、n=Nに到達するまで繰り返し実行される。そして、n=Nに到達したら、補充端点定義処理は完了である。このような処理を行うことにより、図51(a) ,(b) ,(c) に四角印で示す補充端点が定義されることになる。   Such processing is repeatedly executed through steps SS44 and SS45 while increasing the parameter n by 1 until n = N is reached. When n = N is reached, the replenishment endpoint definition process is complete. By performing such processing, the replenishment endpoints indicated by the square marks in FIGS. 51 (a), (b), and (c) are defined.

一般論で述べると、補充端点定義部118は、1つの輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼んだときに、第nの通常端点T(n)に着目して、第(n−1)の通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N)),第nの通常端点T(n),第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1))の3点が一直線上にある場合に、第nの通常端点T(n)を中間通常端点と判定し、この中間通常端点と同じ位置に補充端点を追加定義する処理を、n=1〜Nまで繰り返し実行すればよい。   In general terms, the supplementary endpoint defining unit 118 sets a total of N normal endpoints defined for one contour line in the order along the contour, respectively, from the first normal endpoint T (1) to the first regular endpoint T (1) to Tth. When called the N normal end point T (N), paying attention to the nth normal end point T (n), the (n-1) th normal end point T (n-1) (where n = 1 Nth normal end point T (N)), nth normal end point T (n), (n + 1) th normal end point T (n + 1) (provided that n = N, the first normal end point T ( When the three points 1)) are on a straight line, the n-th normal end point T (n) is determined as an intermediate normal end point, and a process of additionally defining a supplementary end point at the same position as the intermediate normal end point is performed by n = 1 to N may be repeatedly executed.

<<< §7. パターン補正ユニットの詳細 >>>
続いて、パターン補正ユニット140について詳細な説明を行う。図53は、図1に示す本発明の基本的実施形態に係る図形パターンの形状補正装置100内のパターン補正ユニット140およびこれに関連する構成要素を示すブロック図である。パターン補正ユニット140の基本機能は、評価点設定ユニット110が設定した各評価点Eの位置を、バイアス推定ユニット130から出力されたプロセスバイアスの推定値yに基づいて修正することにより、元図形パターン10に対する補正を行い、補正図形パターン15を作成することにある。
<<< §7. Details of pattern correction unit >>
Subsequently, the pattern correction unit 140 will be described in detail. FIG. 53 is a block diagram showing the pattern correction unit 140 and related components in the shape correction apparatus 100 for graphic patterns according to the basic embodiment of the present invention shown in FIG. The basic function of the pattern correction unit 140 is to modify the position of each evaluation point E set by the evaluation point setting unit 110 on the basis of the estimated value y of the process bias output from the bias estimation unit 130. 10 is performed to create a corrected figure pattern 15.

ここで、評価点設定ユニット110の機能は、§6で詳述したとおりであり、元図形パターン10を構成する各単位図形について、通常端点T,補充端点T′,評価点Eを定義する処理が行われる。これら各点の情報は、輪郭線分Oの情報ということができる。すなわち、個々の通常端点Tおよび個々の補充端点T′の位置情報は、特定の輪郭線分Oの両端の位置を示す情報であり、評価点Eの位置情報は、当該輪郭線分O上に定義された評価点の位置を示す情報である。パターン補正ユニット140は、この輪郭線分Oの情報に基づいて、輪郭線分Oに対する移動処理および伸縮処理、ならびに新たな輪郭線分の追加処理を行うことにより、補正図形パターン15を作成する。   Here, the function of the evaluation point setting unit 110 is as described in detail in §6, and processing for defining the normal end point T, the supplemental end point T ′, and the evaluation point E for each unit graphic constituting the original graphic pattern 10. Is done. The information on each point can be referred to as information on the contour line segment O. That is, the position information of each normal end point T and each supplement end point T ′ is information indicating the positions of both ends of the specific contour line segment O, and the position information of the evaluation point E is on the contour line segment O. This is information indicating the position of the defined evaluation point. The pattern correction unit 140 creates the corrected graphic pattern 15 by performing a moving process and an expansion / contraction process on the contour line segment O and a new contour line adding process based on the information on the contour line segment O.

図53に示すとおり、パターン補正ユニット140は、輪郭線分移動処理部141、輪郭線分追加処理部142、輪郭線分伸縮処理部143を有している。以下、これらの各構成要素の機能を、図51(b) に示すL字型の単位図形を例にとって具体的に説明する。なお、上述したとおり、本発明に係る図形パターンの形状補正装置100は、実際には、コンピュータに専用のプログラムを組み込むことにより構成される。したがって、パターン補正ユニット140に含まれる上記各構成要素141,142,143も、実際には、コンピュータに専用のプログラムを組み込むことにより構成される。   As shown in FIG. 53, the pattern correction unit 140 includes a contour segment movement processing unit 141, a contour segment addition processing unit 142, and a contour segment expansion / contraction processing unit 143. Hereinafter, the function of each of these components will be described in detail by taking an L-shaped unit graphic shown in FIG. 51 (b) as an example. As described above, the figure pattern shape correction apparatus 100 according to the present invention is actually configured by incorporating a dedicated program into a computer. Accordingly, each of the above-described components 141, 142, and 143 included in the pattern correction unit 140 is actually configured by incorporating a dedicated program into the computer.

<7.1 輪郭線分移動処理>
ここでは、まず、図53に示す輪郭線分移動処理部141の機能について説明する。図示のとおり、輪郭線分移動処理部141には、元図形パターン10の情報とともに、評価点設定ユニット110によって定義された輪郭線分Oの情報(通常端点T,補充端点T′,評価点Eの位置座標およびこれらの相互関係を示す情報)が与えられる。また、バイアス推定ユニット130からは、各評価点Eについて、プロセスバイアスの推定値yが与えられる。
<7.1 Outline segment movement processing>
Here, first, the function of the contour segment movement processing unit 141 shown in FIG. 53 will be described. As shown in the figure, the contour segment movement processing unit 141 includes information on the contour line segment O defined by the evaluation point setting unit 110 (normal end point T, supplemental end point T ′, evaluation point E) along with information on the original graphic pattern 10. Position coordinates and information indicating their mutual relationship). In addition, the bias estimation unit 130 provides an estimated value y of process bias for each evaluation point E.

図54は、図51(b) に示すL字型の単位図形上に定義された各端点および各評価点を示す拡大平面図である。この図では、各通常端点A〜Hをx印で示し、各補充端点F′,H′を四角印で示し、各評価点1〜8を丸印で示し、各評価点の符号1〜8を当該丸印内に記述している。また、各隣接端点によって挟まれた輪郭線分については、O1〜O8の符号を付して示している。たとえば、通常端点A−Bによって挟まれた部分は輪郭線分O1であり、通常端点B−Cによって挟まれた部分は輪郭線分O2である。8個の通常端点A〜Hのうち、6個の通常端点A,B,C,D,E,Gは、多角形の頂点を構成する隅部通常端点であり、残りの2個の通常端点F,Hは、多角形の頂点を構成しない中間通常端点である。この2個の中間通常端点F,Hについては、前述したとおり、それぞれ補充端点F′,H′が同じ位置に定義されている。   FIG. 54 is an enlarged plan view showing each end point and each evaluation point defined on the L-shaped unit graphic shown in FIG. 51 (b). In this figure, the normal end points A to H are indicated by x, the replenishment end points F ′ and H ′ are indicated by square marks, the evaluation points 1 to 8 are indicated by circles, and the reference numerals 1 to 8 of the evaluation points are indicated. Is described in the circle. Contour lines sandwiched between adjacent end points are denoted by reference numerals O1 to O8. For example, the portion sandwiched between the normal end points AB is the contour line segment O1, and the portion sandwiched between the normal end points BC is the contour line segment O2. Of the eight normal end points A to H, six normal end points A, B, C, D, E, and G are corner normal end points constituting the vertex of the polygon, and the remaining two normal end points F and H are intermediate normal end points that do not constitute a vertex of the polygon. As for the two intermediate normal end points F and H, the replenishment end points F ′ and H ′ are defined at the same position as described above.

図55は、図54に示す各端点および各評価点の相互関係を表すデータフォーマットの一例を示す図である。上述したとおり、評価点設定ユニット110から輪郭線分移動処理部141に対しては、輪郭線分Oの情報が与えられるが、この輪郭線分Oの情報は、具体的には、図55に示すデータフォーマットで与えられることになる。このデータフォーマットでは、1つの端点と1つの評価点とを対応させたデータ対(図では、括弧で囲まれている)になっており、これらのデータ対が単位図形の輪郭線に沿って、時計まわりの順に並んでいる。   FIG. 55 is a diagram showing an example of a data format representing the interrelationship between each end point and each evaluation point shown in FIG. As described above, information on the contour line segment O is given from the evaluation point setting unit 110 to the contour line segment movement processing unit 141. Specifically, the information on the contour line segment O is shown in FIG. Will be given in the data format shown. In this data format, one end point and one evaluation point are associated with each other (in the figure, enclosed in parentheses), and these data pairs are along the outline of the unit graphic. They are arranged in the order of clockwise.

たとえば、1番目のデータ対である(A,1)は、端点Aと評価点1とを対応づけたデータ対であり、端点Aを始端、端点Bを終端とする輪郭線分O1上に評価点1が定義されていることを示している。同様に、2番目のデータ対である(B,2)は、端点Bと評価点2とを対応づけたデータ対であり、端点Bを始端、端点Cを終端とする輪郭線分O2上に評価点2が定義されていることを示している。   For example, the first data pair (A, 1) is a data pair in which the end point A and the evaluation point 1 are associated with each other. It shows that point 1 is defined. Similarly, the second data pair (B, 2) is a data pair in which the end point B and the evaluation point 2 are associated with each other on the contour line segment O2 starting from the end point B and ending at the end point C. It shows that evaluation point 2 is defined.

なお、第6番目のデータ対である(F′,Φ)は、補充端点F′と評価点Φとを対応づけたデータ対である。ここで、評価点Φは実際には存在しない評価点であり、データ「Φ」は、補充端点F′をデータ対という形式で表現する便宜のために設けられた空データである。同様に、第9番目のデータ対である(H′,Φ)も、補充端点H′と評価点Φとを対応づけたデータ対であり、データ「Φ」は空データである。   The sixth data pair (F ′, Φ) is a data pair in which the supplementary end point F ′ and the evaluation point Φ are associated with each other. Here, the evaluation point Φ is an evaluation point that does not actually exist, and the data “Φ” is empty data provided for the convenience of expressing the supplementary end point F ′ in the form of a data pair. Similarly, the ninth data pair (H ′, Φ) is also a data pair in which the supplementary end point H ′ is associated with the evaluation point Φ, and the data “Φ” is empty data.

図55に示すデータフォーマットを採用すれば、通常端点と補充端点とをひっくるめたすべての端点を、それぞれデータ対として表現することができる。もちろん、各データ対を構成するデータには、各端点や各評価点の位置座標値が含まれているので、各端点や各評価点の二次元平面上における位置を特定することができる。しかも、各データ対は、単位図形の輪郭線に沿った時計まわりの順に羅列されているため、隣接端点で挟まれた輪郭線分を認識することができ、当該輪郭線分上に定義された評価点を認識することができる。たとえば、(A,1),(B,2)なる2組のデータ対によって、隣接端点A−Bに挟まれる輪郭線分O1の位置を特定することができ、また、当該輪郭線分O1上の評価点1の位置を特定することができる。   If the data format shown in FIG. 55 is adopted, all the end points including the normal end point and the replenishment end point can be expressed as data pairs, respectively. Of course, since the data constituting each data pair includes the position coordinate values of each end point and each evaluation point, the position of each end point or each evaluation point on the two-dimensional plane can be specified. Moreover, since each data pair is listed in the clockwise order along the contour line of the unit graphic, the contour line segment sandwiched between adjacent end points can be recognized and defined on the contour line segment. The evaluation point can be recognized. For example, the position of the contour line segment O1 sandwiched between the adjacent end points A-B can be specified by two sets of data pairs (A, 1) and (B, 2), and on the contour line segment O1 The position of the evaluation point 1 can be specified.

図51(c) に示すような穴開きの単位図形の場合、外側輪郭線Ooutを構成する正図形と、内側輪郭線Oinを構成する反図形とが形成されるが、正図形については、上例と同様に輪郭線に沿った時計まわりの順に各データ対を羅列し、反図形については、上例とは逆に輪郭線に沿った反時計まわりの順に各データ対を羅列するのが好ましい。そうすれば、各データ対の羅列順序に基づいて、個々の輪郭が外側輪郭線Ooutか、内側輪郭線Oinかを識別することができるようになり、後述する輪郭線分の移動処理を行う際に、単位図形の内側と外側とを認識することができる。   In the case of a perforated unit figure as shown in FIG. 51 (c), a regular figure constituting the outer outline Oout and an inverse figure constituting the inner outline Oin are formed. As in the example, it is preferable to enumerate each data pair in the clockwise order along the contour line, and for counter-graphics, it is preferable to enumerate each data pair in the counterclockwise order along the contour line. . By doing so, it becomes possible to identify whether each contour is the outer contour line Oout or the inner contour line Oin based on the enumeration order of each data pair. In addition, the inside and outside of the unit graphic can be recognized.

なお、図53に示す実施例では、輪郭線分移動処理部141に対して、元図形パターン10を与えているが、輪郭線分移動処理を行う上では、評価点設定ユニット110から輪郭線分移動処理部141に対して図55に示すデータを与え、バイアス推定ユニット130から輪郭線分移動処理部141に対して各評価点についてのプロセスバイアスの推定値yを与えれば十分である。すなわち、輪郭線分移動処理部141にとって元図形パターン10は必須の情報ではない。ただ、元図形パターン10は、単位図形の形状を直接的に示す情報であるので、実用上は、これを輪郭線分移動処理部141に与え、輪郭線分移動処理を行う上での参考に供するのが好ましい。   In the embodiment shown in FIG. 53, the original graphic pattern 10 is given to the contour line segment movement processing unit 141. However, in performing the contour segment segment movement processing, the contour segment segment is received from the evaluation point setting unit 110. It is sufficient that the data shown in FIG. 55 is given to the movement processing unit 141 and the estimated value y of the process bias for each evaluation point is given from the bias estimation unit 130 to the contour segment movement processing unit 141. That is, the original graphic pattern 10 is not essential information for the contour segment movement processing unit 141. However, since the original graphic pattern 10 is information that directly indicates the shape of the unit graphic, in practice, this is given to the contour line segment movement processing unit 141 for reference in performing the contour segment segment movement process. It is preferable to provide.

図56は、輪郭線分移動処理部141によって、図54に示すL字型の単位図形10に対して輪郭線分の移動処理が行われた状態を示す平面図である。図に破線で示す輪郭線分は移動処理前の状態を示し、図に実線で示す輪郭線分は移動処理後の状態を示している。輪郭線分の移動処理は、個々の評価点について、単位図形の輪郭線に沿って当該評価点の一方の側に隣接する通常端点もしくは補充端点を第1の端点とし、他方の側に隣接する通常端点もしくは補充端点を第2の端点とする輪郭線分を定義し、個々の評価点についての輪郭線分を、当該評価点のプロセスバイアスの推定値に応じた補正量だけ、輪郭線分に直交する方向に移動させることによって行われる。このとき、1つの輪郭線分の各端点が他の輪郭線分の各端点として重複して利用されないように、個々の輪郭線分についてそれぞれ通常端点もしくは補充端点のいずれか一方を選択する。   FIG. 56 is a plan view showing a state in which the contour line segment moving process is performed on the L-shaped unit graphic 10 shown in FIG. 54 by the contour segment segment moving processing unit 141. A contour line segment indicated by a broken line in the figure indicates a state before the movement process, and a contour line segment indicated by a solid line in the figure indicates a state after the movement process. In the movement processing of the contour line segment, for each evaluation point, the normal end point or the supplemental end point adjacent to one side of the evaluation point along the contour line of the unit graphic is used as the first end point and adjacent to the other side. A contour line segment having the normal end point or the supplemental end point as the second end point is defined, and the contour line segment for each evaluation point is converted into the contour line segment by a correction amount corresponding to the estimated value of the process bias of the evaluation point. This is done by moving in the orthogonal direction. At this time, either a normal end point or a supplemental end point is selected for each contour line segment so that each end point of one contour line segment is not used redundantly as each end point of another contour line segment.

図56に示す例は、各評価点1〜8のプロセスバイアスの推定値yが負の値をとった例(リソグラフィプロセスのシミュレーションにより、元の単位図形10の輪郭線が内側にずれてしまうという結果が出た例)についての補正処理を示している。すなわち、元の単位図形10をそのまま用いてリソグラフィプロセスを実行すると、この元の単位図形10よりも縮小した実図形20が得られることになるので、元の単位図形10を若干拡大した補正後の単位図形15を得るための補正処理が行われる。   The example shown in FIG. 56 is an example in which the estimated value y of the process bias for each of the evaluation points 1 to 8 has a negative value (the outline of the original unit graphic 10 is shifted inward by simulation of the lithography process). The correction processing is shown for an example in which a result is obtained. That is, when the lithography process is executed using the original unit graphic 10 as it is, a real graphic 20 that is smaller than the original unit graphic 10 is obtained. Correction processing for obtaining the unit graphic 15 is performed.

図56に示す太線矢印は、各評価点の移動方向を示している。ここに示す例では、評価点1〜8のプロセスバイアスの推定値yが負の値をとっているため、評価点1〜8はいずれも単位図形の外側方向に移動させられることになる。たとえば、評価点1のプロセスバイアスの推定値がy(1)=−1nmであった場合、評価点1を図の太線矢印で示すように1nmだけ外側に移動させる処理が行われる。前述したように、本発明では、評価点の移動は、当該評価点を含む輪郭線分に直交する方向に行われる。しかも、当該評価点を含む輪郭線分ごと、評価点の移動が行われる。したがって、図示の例の場合、評価点1を太線矢印で示すように1nmだけ外側に移動させるとともに、評価点1を含む輪郭線分O1も同じように平行移動させることになる。   The thick line arrows shown in FIG. 56 indicate the moving direction of each evaluation point. In the example shown here, since the estimated value y of the process bias for the evaluation points 1 to 8 is a negative value, the evaluation points 1 to 8 are all moved in the outward direction of the unit graphic. For example, when the estimated value of the process bias at the evaluation point 1 is y (1) = − 1 nm, a process of moving the evaluation point 1 outward by 1 nm as indicated by a bold arrow in the figure is performed. As described above, in the present invention, the evaluation point is moved in a direction perpendicular to the contour line segment including the evaluation point. In addition, the evaluation point is moved for each outline segment including the evaluation point. Therefore, in the case of the illustrated example, the evaluation point 1 is moved outward by 1 nm as indicated by the thick arrow, and the contour line segment O1 including the evaluation point 1 is also translated in the same manner.

図56に示す例では、同様に、輪郭線分O2〜O8が外側に平行移動させられている。ここで留意すべき点は、中間通常端点F,Hと、これらと同じ位置に追加定義された補充端点F′,H′の挙動である。図示の例では、評価点5についてのプロセスバイアスの推定値yと、評価点6についてのプロセスバイアスの推定値yとが異なる値となっているため、輪郭線分O5の移動量と輪郭線分O6の移動量も異なる値になる。このため、輪郭線分O5,O6は、移動方向が同じであっても移動量が異なるため、図示のとおり、移動処理後は、両者が分離した状態になる。ただ、輪郭線分O5の両端は端点E,F′であり、輪郭線分O6の両端は端点F,Gであるため、端点F,F′の位置が異なることになっても、処理上、問題は生じない。   In the example shown in FIG. 56, the outline segments O2 to O8 are similarly translated outward. The point to be noted here is the behavior of the intermediate normal end points F and H and the supplementary end points F ′ and H ′ additionally defined at the same positions. In the example shown in the figure, the estimated value y of the process bias for the evaluation point 5 and the estimated value y of the process bias for the evaluation point 6 are different from each other. The amount of movement of O6 also has a different value. For this reason, the contour segments O5 and O6 have different movement amounts even if the movement direction is the same, and therefore, as shown in the figure, after the movement processing, both are separated. However, since both ends of the contour line segment O5 are end points E and F ′ and both ends of the contour line segment O6 are end points F and G, even if the positions of the end points F and F ′ are different, There is no problem.

輪郭線分O7,O8についても同様である。図示のとおり、輪郭線分O7と輪郭線分O8は移動量が異なっているため、移動処理後、両者は分離した状態になる。ただ、輪郭線分7の両端は端点G,H′であり、輪郭線分8の両端は端点H,Aであるため、端点H,H′の位置が異なることになっても、処理上、問題は生じない。すなわち、この移動処理におけるコンピュータ上での実体的な処理は、図55に示すデータの修正ということになるが、図55に示すデータフォーマットの構造自体には何ら修正を加える必要はなく、各端点や各評価点の座標値を修正する処理を行うだけで済む。補充端点定義部118によって、中間通常端点F,Hについて補充端点F′,H′を追加定義したのは、このような便宜を図るためである。   The same applies to the outline segments O7 and O8. As shown in the figure, the contour line segment O7 and the contour line segment O8 have different amounts of movement, so that both are separated after the movement process. However, since both ends of the contour line segment 7 are end points G and H ′ and both ends of the contour line segment 8 are end points H and A, even if the positions of the end points H and H ′ are different, There is no problem. That is, the substantial processing on the computer in this movement processing is correction of the data shown in FIG. 55, but it is not necessary to make any correction to the structure of the data format shown in FIG. It is only necessary to correct the coordinate value of each evaluation point. The reason why the supplementary endpoints F ′ and H ′ are additionally defined for the intermediate normal endpoints F and H by the supplementary endpoint definition unit 118 is for the sake of convenience.

一方、隅部通常端点A,B,C,D,E,Gについては、補充端点の追加定義はなされていない。そのため、これら隅部通常端点は、図示のとおり、移動処理後に異なる2つの位置に分離してしまっている。たとえば、隅部通常端点Bは、移動処理後に、輪郭線分O1の右端の位置と輪郭線分O2の上端位置とに分離している。このように移動処理後に2つに分離した隅部通常端点の取り扱いは、後述する輪郭線分伸縮処理部143によってなされる。   On the other hand, for the corner normal end points A, B, C, D, E, and G, the supplementary end points are not additionally defined. Therefore, as shown in the drawing, these normal corner end points are separated into two different positions after the movement process. For example, the corner normal end point B is separated into a right end position of the contour line segment O1 and an upper end position of the contour line segment O2 after the movement process. In this way, the corner normal end points separated into two after the movement process are handled by the contour line segment expansion / contraction processing unit 143 described later.

<7.2 輪郭線分追加処理>
続いて、図53に示す輪郭線分追加処理部142の機能について説明する。この輪郭線分追加処理部142は、移動処理前に互いに同じ位置にあった中間通常端点および補充端点が、移動処理後に異なる2つの位置に分離した場合、それぞれの移動処理後の位置を連結する新たな輪郭線分を追加する追加処理を行う機能を有している。
<7.2 Outline segment addition processing>
Next, the function of the contour line segment addition processing unit 142 shown in FIG. 53 will be described. When the intermediate normal end point and the replenishment end point that were in the same position before the movement process are separated into two different positions after the movement process, the contour line addition processing unit 142 connects the positions after the movement process. It has a function of performing an additional process of adding a new contour line segment.

図56に示す例の場合、輪郭線分の移動処理によって、中間通常端点F,Hと補充端点F′,H′とは、それぞれ異なる位置に配置されることになる。このため、中間通常端点Fと補充端点F′との間には隙間が生じ、中間通常端点Hと補充端点H′との間にも隙間が生じた状態になる。輪郭線分追加処理部142は、この隙間を埋めるために新たな輪郭線分を追加する処理を行う。   In the example shown in FIG. 56, the intermediate normal end points F and H and the replenishment end points F ′ and H ′ are arranged at different positions by the movement processing of the contour line segment. Therefore, a gap is generated between the intermediate normal end point F and the replenishment end point F ′, and a gap is also generated between the intermediate normal end point H and the replenishment end point H ′. The contour segment addition processing unit 142 performs a process of adding a new contour segment in order to fill this gap.

図57は、輪郭線分追加処理部142によって、図56に示す移動処理後の単位図形に対して輪郭線分の追加処理が行われた状態を示す平面図である。図に太線で示す部分が、新たに追加された輪郭線分である。具体的には、移動処理前に互いに同じ位置にあった中間通常端点Fと補充端点F′とについて、移動処理後の位置を連結する新たな輪郭線分O5′が追加され、移動処理前に互いに同じ位置にあった中間通常端点Hと補充端点H′とについて、移動処理後の位置を連結する新たな輪郭線分O7′が追加される。   FIG. 57 is a plan view showing a state in which the contour line addition processing is performed on the unit graphic after the movement processing shown in FIG. 56 by the contour line addition processing unit 142. A portion indicated by a bold line in the figure is a newly added contour line segment. Specifically, for the intermediate normal end point F and the replenishment end point F ′ that were in the same position before the movement process, a new contour line segment O5 ′ that connects the position after the movement process is added. For the intermediate normal end point H and the replenishment end point H ′ that are at the same position, a new contour line segment O7 ′ that connects the positions after the movement process is added.

もっとも、ここで述べる実施例の場合、前述したように、図55に例示するデータフォーマットで単位図形を構成する各端点や各評価点の情報を表現しているため、実質的には、このようなデータフォーマットで示される各データ対における端点や評価点の座標値を修正する処理(前述した輪郭線分移動処理)を行うことにより、輪郭線分追加処理も自動的に行われることになる。   However, in the case of the embodiment described here, as described above, the information of each end point and each evaluation point constituting the unit graphic is expressed in the data format illustrated in FIG. By performing the process of correcting the coordinate values of the end points and the evaluation points in each data pair indicated in a simple data format (the above-described contour line segment movement process), the contour line segment addition process is also automatically performed.

たとえば、図55における第6番目のデータ対(F′,Φ)は、図57において新たに追加された輪郭線分O5′に対応するデータになっている。具体的には、データ対(F′,Φ)におけるデータ「F′」は輪郭線分O5′の始端である端点F′の座標値を示す情報であり、データ「Φ」は輪郭線分O5′についての評価点の位置を示す情報である。実際には、データ「Φ」は空データであるので、輪郭線分O5′は評価点をもたない輪郭線分ということになる。なお、輪郭線分O5′の終端である端点Fの座標値は、第7番目のデータ対(F,6)におけるデータ「F」によって示されている。   For example, the sixth data pair (F ′, Φ) in FIG. 55 is data corresponding to the newly added contour line segment O5 ′ in FIG. Specifically, the data “F ′” in the data pair (F ′, Φ) is information indicating the coordinate value of the end point F ′ that is the starting end of the contour segment O5 ′, and the data “Φ” is the contour segment O5. This is information indicating the position of the evaluation point for ′. Actually, since the data “Φ” is empty data, the contour segment O5 ′ is a contour segment having no evaluation point. The coordinate value of the end point F that is the end of the contour line segment O5 ′ is indicated by the data “F” in the seventh data pair (F, 6).

同様に、図55における第9番目のデータ対(H′,Φ)は、図57において新たに追加された輪郭線分O7′に対応するデータになっている。具体的には、データ対(H′,Φ)におけるデータ「H′」は輪郭線分O7′の始端である端点H′の座標値を示す情報であり、データ「Φ」は輪郭線分O7′についての評価点の位置を示す情報である。実際には、データ「Φ」は空データであるので、輪郭線分O7′は評価点をもたない輪郭線分ということになる。なお、輪郭線分O7′の終端である端点Hの座標値は、第10番目のデータ対(H,8)におけるデータ「H」によって示されている。   Similarly, the ninth data pair (H ′, Φ) in FIG. 55 is data corresponding to the newly added contour line segment O7 ′ in FIG. Specifically, the data “H ′” in the data pair (H ′, Φ) is information indicating the coordinate value of the end point H ′ that is the starting end of the contour segment O7 ′, and the data “Φ” is the contour segment O7. This is information indicating the position of the evaluation point for ′. Actually, since the data “Φ” is empty data, the contour line segment O7 ′ is a contour line segment having no evaluation point. The coordinate value of the end point H that is the end of the contour line segment O7 ′ is indicated by the data “H” in the tenth data pair (H, 8).

結局、図55に例示するデータフォーマットを利用すれば、輪郭線分移動処理部141による移動処理を行うことにより、輪郭線分追加処理部142による追加処理も自動的に行われることになる。すなわち、移動処理前に同じ位置に定義されていた端点F,F′や端点H,H′が異なる位置に移動し、図55に示す各データ対において、これら端点F,F′,H,H′の座標値が移動処理後の新たな座標値に書き換えられた時点で、端点F,F′を連結する新たな輪郭線分O5′が自動的に追加され、端点H,H′を連結する新たな輪郭線分O7′が自動的に追加されることになる。したがって、図55に例示するデータフォーマットを利用する場合、輪郭線分追加処理部142による追加処理は、輪郭線分移動処理部141による移動処理によって実現されることになり、データ処理上は、新たなデータ処理作業を行う必要はない。   In the end, if the data format illustrated in FIG. 55 is used, the addition processing by the contour line addition processing unit 142 is automatically performed by performing the movement processing by the contour segment movement processing unit 141. That is, the end points F and F ′ and the end points H and H ′ defined at the same position before the movement process move to different positions, and in each data pair shown in FIG. 55, these end points F, F ′, H and H When the coordinate value of 'is rewritten with a new coordinate value after the movement process, a new contour segment O5' connecting the end points F and F 'is automatically added, and the end points H and H' are connected. A new contour line segment O7 'is automatically added. Therefore, when the data format illustrated in FIG. 55 is used, the addition processing by the contour segment addition processing unit 142 is realized by the movement processing by the contour segment movement processing unit 141. There is no need to perform a significant data processing operation.

<7.3 輪郭線分伸縮処理>
次に、図53に示す輪郭線分伸縮処理部143の機能について説明する。§7.1で述べたように、移動処理を行うと、隅部通常端点は2つの位置に分離してしまう。たとえば、図57に示す例の場合、隅部通常端点A(図では、A0,A1,A2と示されている),B,C,D,E,Gは、移動処理後にいずれも2つの位置に分離している。ここで述べる輪郭線分伸縮処理は、このように分離した2つの隅部通常端点を融合させて、新たな隅部通常端点を作成することを目的としている。
<7.3 Outline Segment Expansion Processing>
Next, the function of the contour line segment expansion / contraction processing unit 143 shown in FIG. 53 will be described. As described in §7.1, when the moving process is performed, the corner normal end point is separated into two positions. For example, in the example shown in FIG. 57, corner normal end points A (shown as A0, A1, and A2 in the figure), B, C, D, E, and G are two positions after the movement process. Are separated. The contour line segment expansion / contraction processing described here is intended to create a new corner normal end point by fusing the two corner normal end points thus separated.

そのため、輪郭線分伸縮処理部143は、移動処理前に多角形の頂点を構成していた通常端点である隅部通常端点が、移動処理後に異なる2つの位置に分離した場合、分離後の2つの隅部通常端点が融合して新たな隅部通常端点となるように、分離後の隅部通常端点を含む各輪郭線分をそれぞれ伸縮する伸縮処理を行う。   For this reason, the contour line segment expansion / contraction processing unit 143 determines that the normal end point that is a normal end point of the polygon before the moving process is separated into two different positions after the moving process. Expansion and contraction processing is performed to expand and contract each contour line segment including the corner normal end points after separation so that the two corner normal end points are merged to become a new corner normal end point.

具体的には、ここで述べる実施例の場合、輪郭線分伸縮処理部143は、ある1つの隅部通常端点が移動処理により第1の移動端点と第2の移動端点とに分離した場合に、第1の移動端点を一方の端点とする第1の移動後輪郭線分を含む直線と第2の移動端点を一方の端点とする第2の移動後輪郭線分を含む直線との交点を求め、当該交点を新たな隅部通常端点とし、第1の移動後輪郭線分および第2の移動後輪郭線分に対して一方の端点が新たな隅部通常端点となるような伸縮処理を行う。   Specifically, in the case of the embodiment described here, the contour line segment expansion / contraction processing unit 143 is used when a certain corner normal end point is separated into a first moving end point and a second moving end point by the moving process. An intersection of a straight line including the first post-movement contour line with the first moving end point as one end point and a straight line including the second post-movement contour line with the second moving end point as one end point The intersection processing is determined to be a new corner normal end point, and an extension process is performed such that one end point becomes a new corner normal end point with respect to the first post-movement contour line segment and the second post-movement contour line segment. Do.

ここでは、図57に示す例における隅部通常端点Aに着目して、上記伸縮処理の具体的な手順を説明する。ここでは、図57に示すように、移動処理前の隅部通常端点Aを符号A0で示し、この隅部通常端点A0が、移動処理後に第1の移動端点A1と第2の移動端点A2とに分離した場合を考える。この場合、第1の移動端点A1を一方の端点とする第1の移動後輪郭線分O8を含む直線(図では一点鎖線で示す)と第2の移動端点A2を一方の端点とする第2の移動後輪郭線分O1を含む直線(図では一点鎖線で示す)との交点Jを求める。そして、この交点Jを新たな隅部通常端点Aとし、第1の移動後輪郭線分O8および第2の移動後輪郭線分O1に対して、一方の端点が新たな隅部通常端点Aとなるような伸縮処理を行う。   Here, focusing on the corner normal end point A in the example shown in FIG. 57, a specific procedure of the expansion / contraction process will be described. Here, as shown in FIG. 57, the corner normal end point A before the movement process is indicated by a symbol A0, and the corner normal end point A0 is the first movement end point A1 and the second movement end point A2 after the movement process. Consider the case of separation. In this case, a second line having the first moving end point A1 as one end point and the first moving end point A2 as a straight line including the first post-moving contour line segment O8 and the second moving end point A2 as one end point. The intersection point J with the straight line (indicated by the alternate long and short dash line in the figure) including the post-movement outline O1 is obtained. Then, the intersection J is set as a new corner normal end point A, and one end point is a new corner normal end point A with respect to the first post-movement contour segment O8 and the second post-movement contour segment O1. The expansion / contraction process is performed.

図58は、図57に示す単位図形に対して輪郭線分の伸縮処理が行われた状態を示す平面図である。第1の移動後輪郭線分O8は、その上端が新たな隅部通常端点Aとなるように伸ばされ、第2の移動後輪郭線分O1は、その左端が新たな隅部通常端点Aとなるように伸ばされている。かくして、図57に示す2つの移動端点A1,A2は、新たな隅部通常端点Aに融合されたことになる。残りの隅部通常端点B,C,D,E,Gについても同様の伸縮処理を行えば、図58に実線で示すような補正後の単位図形(補正図形パターン15)が得られる。   FIG. 58 is a plan view showing a state in which the contour line segment expansion / contraction processing has been performed on the unit graphic shown in FIG. The first post-movement contour line segment O8 is stretched so that its upper end becomes a new corner normal end point A, and the second post-movement contour line segment O1 has a new corner normal end point A at its left end. It is stretched to become. Thus, the two moving end points A1 and A2 shown in FIG. 57 are merged with the new corner normal end point A. If similar expansion / contraction processing is performed on the remaining corner normal end points B, C, D, E, and G, a corrected unit graphic (corrected graphic pattern 15) as shown by a solid line in FIG. 58 is obtained.

図示のとおり、補正後の単位図形(実線で示す補正図形パターン15)は、補正前の単位図形(破線で示す元図形パターン10)に比べてひとまわり大きな図形になっている。ここで、元図形パターン10に基づくシミュレーションの結果が正しく、当該シミュレーション結果に基づいて適切な補正が行われていれば、この補正図形パターン15を用いて実際のリソグラフィプロセスを行うと、実基板S上には、破線で示す元図形パターン10と同じ実図形パターン20が形成されることになる。   As shown in the figure, the corrected unit graphic (corrected graphic pattern 15 indicated by a solid line) is a figure that is slightly larger than the unit graphic before correction (original graphic pattern 10 indicated by a broken line). Here, if the simulation result based on the original graphic pattern 10 is correct and appropriate correction is performed based on the simulation result, the actual substrate S can be obtained by performing an actual lithography process using the corrected graphic pattern 15. On the top, the same actual graphic pattern 20 as the original graphic pattern 10 indicated by a broken line is formed.

この補正図形パターン15(実線)は、結局、元図形パターン10(破線)に対して、§7.1で述べた輪郭線分の移動処理、§7.2で述べた輪郭線分の追加処理、§7.3で述べた輪郭線分の伸縮処理を行った後の輪郭線分の集合体を輪郭線とする単位図形によって構成されるパターンということになる。もっとも、元図形パターン10を構成する単位図形を表現する上で、図55に示すデータフォーマットのデータを用いた場合、補正図形パターン15を構成する単位図形も同じく図55に示すデータフォーマットのデータで表現されることになる。元図形パターン10を示すデータと補正図形パターン15を示すデータとの相違は、図55に示す各データ対に含まれる端点および評価点の位置情報(座標値)のみである。   This corrected figure pattern 15 (solid line) is eventually processed with respect to the original figure pattern 10 (broken line) by the outline line movement process described in §7.1 and the outline line addition process described in §7.2. This is a pattern constituted by unit graphics having the outline of the outline after the expansion / contraction processing described in §7.3 is performed. However, when the data of the data format shown in FIG. 55 is used to express the unit graphic constituting the original graphic pattern 10, the unit graphic constituting the corrected graphic pattern 15 is also data of the data format shown in FIG. Will be expressed. The difference between the data indicating the original graphic pattern 10 and the data indicating the corrected graphic pattern 15 is only the position information (coordinate values) of the end points and the evaluation points included in each data pair shown in FIG.

<7.4 補正処理の繰り返し>
§7.3では、図58に破線で示す元図形パターン10に基づいて、パターン補正ユニット140による補正を施すことにより、図58に実線で示す補正図形パターン15を得る例を説明した。そして、正しいシミュレーション結果に基づいて適切な補正が施されていれば、補正図形パターン15を用いて実際のリソグラフィプロセスを行うことにより、実基板S上に、元図形パターン10と同じ実図形パターン20が形成される旨の説明を行った。
<7.4 Repeat Correction Process>
In §7.3, the example in which the corrected graphic pattern 15 indicated by the solid line in FIG. 58 is obtained by performing correction by the pattern correction unit 140 based on the original graphic pattern 10 indicated by the broken line in FIG. If an appropriate correction is performed based on the correct simulation result, the actual graphic pattern 20 on the actual substrate S is the same as the original graphic pattern 10 by performing an actual lithography process using the corrected graphic pattern 15. The explanation to the effect of forming was performed.

しかしながら、実際には、必ずしも適切な補正を1回で行うことは困難である。たとえば、§7.1の「輪郭線分移動処理」では、ある評価点のプロセスバイアスの推定値がyが−1nmであった場合、当該評価点を+1nmだけ移動させる補正処理を例示したが、このような補正処理が必ずしも適切な補正処理であるとは限らず、実際には、当該評価点を+1.1nmだけ移動させる補正処理が最適な補正処理であるケースもあり得る。   However, in practice, it is not always possible to perform appropriate correction once. For example, in the “contour line segment movement process” in §7.1, when the estimated value of the process bias at a certain evaluation point is y of −1 nm, the correction process of moving the evaluation point by +1 nm is exemplified. Such a correction process is not necessarily an appropriate correction process. In fact, a correction process for moving the evaluation point by +1.1 nm may be an optimal correction process.

図1には、元図形パターン10を形状補正装置100に与えることにより、補正図形パターン15が得られる例が示されているが、通常、こうして得られた補正図形パターン15を用いてリソグラフィプロセスを実行し、実基板S上に実図形パターンを形成しても、得られる実図形パターン20は、設計当初の元図形パターン10には正確には一致しない。これは、元図形パターン10に含まれる図形と補正図形パターン15に含まれる図形とでは、サイズや形状が異なるため、リソグラフィプロセスを実行した場合の近接効果などの影響にも相違が生じるためである。   FIG. 1 shows an example in which a corrected graphic pattern 15 is obtained by applying the original graphic pattern 10 to the shape correction apparatus 100. Usually, a lithography process is performed using the corrected graphic pattern 15 thus obtained. Even if the actual graphic pattern is formed on the actual substrate S, the actual graphic pattern 20 obtained does not exactly match the original graphic pattern 10 at the initial design. This is because the graphic included in the original graphic pattern 10 and the graphic included in the corrected graphic pattern 15 are different in size and shape, so that there is a difference in the influence of the proximity effect when the lithography process is executed. .

このため、実際には、図1に示すとおり、パターン補正ユニット140から出力された補正図形パターン15を、再び、図形パターンの形状補正装置100に与える処理を繰り返し行う必要がある。すなわち、補正図形パターン15は、形状補正装置100に元図形パターンの代わりに与えられ、この補正図形パターン15について再度の補正処理を行い、新たな補正図形パターンを得て、この新たな補正図形パターンを再び形状補正装置100に与えて、更に新たな補正図形パターンを得る、という処理が繰り返される。   Therefore, in practice, as shown in FIG. 1, it is necessary to repeatedly perform the process of giving the corrected figure pattern 15 output from the pattern correction unit 140 to the figure pattern shape correcting apparatus 100 again. That is, the corrected graphic pattern 15 is given to the shape correcting apparatus 100 instead of the original graphic pattern, and the correction graphic pattern 15 is subjected to correction processing again to obtain a new corrected graphic pattern, and this new corrected graphic pattern is obtained. Is again applied to the shape correction apparatus 100, and a process of obtaining a new corrected figure pattern is repeated.

このような補正処理の繰り返しは、図4の流れ図にも示されている。すなわち、ステップS2〜S5の補正処理は、最初はステップS1で作成された元図形パターンに対して行われるが、2回目以降は、ステップS5で得られた補正図形パターンに対して行われることになり、ステップS6で補正完了と判断されるまで、ステップS2〜S5の補正処理が繰り返し実行されることになる。ステップS7のリソグラフィプロセスを構成する露光、現像、エッチングという実工程は、このような繰り返し処理によって最終的に得られた最後の補正図形パターンに基づいて実行されることになる。   Such repetition of the correction process is also shown in the flowchart of FIG. That is, the correction processing in steps S2 to S5 is initially performed on the original graphic pattern created in step S1, but is performed on the corrected graphic pattern obtained in step S5 after the second time. Thus, the correction process of steps S2 to S5 is repeatedly executed until it is determined that the correction is completed in step S6. The actual steps of exposure, development, and etching constituting the lithography process in step S7 are executed based on the last corrected figure pattern finally obtained by such repeated processing.

このような補正処理の繰り返しを行うためには、図1に示す図形パターンの形状補正装置100において、特徴量抽出ユニット120に、パターン補正ユニット140によって作成された補正図形パターン15について、当該補正図形パターン15上の評価点の周囲の特徴を示す特徴量を抽出する機能をもたせ、バイアス推定ユニット130に、当該特徴量に基づいて、評価点の補正図形パターン15上の位置と実図形パターン20上の位置とのずれ量を示すプロセスバイアスを推定する機能をもたせ、パターン補正ユニット140に、バイアス推定ユニット130から出力されるプロセスバイアスの推定値に基づいて、補正図形パターン15に対する更なる補正を行うことにより、新たな補正図形パターンを作成する機能をもたせておけばよい。   In order to repeat such correction processing, in the figure pattern shape correction apparatus 100 shown in FIG. 1, the correction figure pattern 15 created by the pattern correction unit 140 is added to the feature quantity extraction unit 120. The function of extracting the feature amount indicating the feature around the evaluation point on the pattern 15 is provided, and the bias estimation unit 130 causes the position of the evaluation point on the corrected graphic pattern 15 and the actual graphic pattern 20 on the basis of the feature amount. A function for estimating the process bias indicating the amount of deviation from the position of the position is provided, and the pattern correction unit 140 further corrects the corrected graphic pattern 15 based on the estimated value of the process bias output from the bias estimation unit 130. If you have a function to create a new corrected figure pattern There.

そうすれば、補正図形パターン15に対する補正を繰り返し実行することができ、より適切な補正図形パターンを作成することが可能になる。なお、補正図形パターン15に対して、再び補正を実行する際には、既に端点や評価点の定義は完了しているので、評価点設定ユニット110による処理は省略することができる。すなわち、図1に示すブロック図の下端に描かれている補正図形パターン15を、上方へ向かう矢印に従って再びこの形状補正装置100に戻す場合、評価点設定ユニット110ではなく、特徴量抽出ユニット120へ戻せばよい。特徴量抽出ユニット120は、戻された補正図形パターン15に既存の評価点について特徴量の抽出処理を行い、バイアス推定ユニット130は、戻された補正図形パターン15に既存の評価点についてプロセスバイアスの推定値yを求めればよい。   By doing so, it is possible to repeatedly execute correction on the corrected graphic pattern 15 and to create a more appropriate corrected graphic pattern. When the correction graphic pattern 15 is corrected again, the definition of the endpoints and evaluation points has already been completed, so that the processing by the evaluation point setting unit 110 can be omitted. That is, when the corrected graphic pattern 15 drawn at the lower end of the block diagram shown in FIG. 1 is returned to the shape correcting apparatus 100 again according to the upward arrow, it is not the evaluation point setting unit 110 but the feature amount extracting unit 120. Return it. The feature amount extraction unit 120 performs a feature amount extraction process for the existing evaluation points on the returned corrected graphic pattern 15, and the bias estimation unit 130 performs a process bias for the existing evaluation points on the returned corrected graphic pattern 15. What is necessary is just to obtain the estimated value y.

なお、このような補正処理の繰り返しを行う際には、パターン補正ユニット140内の輪郭線分伸縮処理部143に、輪郭線分を伸縮する処理を行った後、伸縮処理後の輪郭線分についての評価点の位置を修正する処理を行う機能をもたせておくのが好ましい。   When repeating such correction processing, the contour line segment expansion / contraction processing unit 143 in the pattern correction unit 140 is subjected to processing for expanding / contracting the contour line segment, and then the contour line segment after expansion / contraction processing is performed. It is preferable to provide a function of performing processing for correcting the position of the evaluation point.

たとえば、§7.3で説明した輪郭線分の伸縮処理では、図58に示す補正図形パターン15が作成されている。この図58に示す補正図形パターン15を、再び形状補正装置100に戻す場合、上述したように、評価点設定ユニット110による処理は省略することができる。これは、図58に示す補正図形パターン15には、既に各端点A〜H,F′,H′や各評価点1〜8が定義されているためである。しかしながら、補正図形パターン15上の各評価点1〜8の位置は、図示のとおり、必ずしも適切な位置にはなっていない。§6.4で述べたように、より適切なシミュレーション結果を得る上では、個々の評価点を輪郭線分の中点位置に定義するのが好ましい。ところが、輪郭線分伸縮処理部143による伸縮処理を行うと、元の評価点位置は、輪郭線分の中点位置から外れてしまう。   For example, the correction graphic pattern 15 shown in FIG. 58 is created in the expansion / contraction processing of the contour line segment described in §7.3. When returning the corrected graphic pattern 15 shown in FIG. 58 to the shape correcting apparatus 100 again, as described above, the processing by the evaluation point setting unit 110 can be omitted. This is because the end points A to H, F ′, and H ′ and the evaluation points 1 to 8 are already defined in the corrected graphic pattern 15 shown in FIG. However, the positions of the evaluation points 1 to 8 on the corrected graphic pattern 15 are not necessarily appropriate positions as shown in the figure. As described in §6.4, in order to obtain a more appropriate simulation result, it is preferable to define each evaluation point at the midpoint position of the contour line segment. However, when the expansion / contraction processing by the contour line segment expansion / contraction processing unit 143 is performed, the original evaluation point position deviates from the midpoint position of the contour line segment.

そこで、補正処理の繰り返しを行う際には、輪郭線分伸縮処理部143が、輪郭線分を伸縮する処理を行った後、評価点の位置を修正する処理を行うようにするのが好ましい。具体的には、各評価点の位置を、新たな輪郭線分の中点位置に修正すればよい。図59は、図53に示す輪郭線分伸縮処理部143によって、図58に示す伸縮処理後の単位図形の各輪郭線分O1〜O8について、評価点1〜8の位置を修正する処理を行った状態を示す平面図である。この修正により、各評価点1〜8の位置は、各輪郭線分O1〜O8の中点位置となっているので、以後、より適切なシミュレーションを行うことができる。   Therefore, when the correction process is repeated, it is preferable that the contour line segment expansion / contraction processing unit 143 performs a process of correcting the position of the evaluation point after performing the process of expanding and contracting the contour line segment. Specifically, the position of each evaluation point may be corrected to the midpoint position of the new contour line segment. 59, the contour line segment expansion / contraction processing unit 143 shown in FIG. 53 performs processing for correcting the positions of the evaluation points 1 to 8 for the respective contour line segments O1 to O8 of the unit graphic after the expansion and contraction processing shown in FIG. It is a top view which shows the state. With this correction, the positions of the evaluation points 1 to 8 are the midpoint positions of the contour line segments O1 to O8, so that more appropriate simulation can be performed thereafter.

<<< §8. 本発明の特徴とそのメリット >>>
最後に、本発明の特徴とそのメリットを述べておく。
<<< §8. Features and merits of the present invention >>>
Finally, the features and merits of the present invention will be described.

<8.1 本発明に係る形状補正方法の特徴>
これまで、本発明を図形パターンの形状補正装置という装置発明として把握した説明を行ってきたが、本発明は図形パターンの形状補正方法という方法発明として把握することもできる。このように方法発明として把握した場合、本発明は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、実図形パターンが元図形パターンに一致するように、元図形パターンの形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する図形パターンの形状補正方法ということになる。
<8.1 Features of Shape Correction Method According to the Present Invention>
So far, the present invention has been described as an apparatus invention called a figure pattern shape correction apparatus, but the present invention can also be understood as a method invention called a figure pattern shape correction method. In this way, when grasping as a method invention, the present invention relates to an original graphic so that the real graphic pattern matches the original graphic pattern when the real graphic pattern is formed on the real substrate by the lithography process based on the original graphic pattern. This is a figure pattern shape correction method for correcting a pattern shape and creating a corrected figure pattern that is actually used in the lithography process.

この形状補正方法は、コンピュータが、元図形パターンを構成する個々の単位図形について、内部と外部との境界を示す輪郭線上の所定位置に評価点を設定する評価点設定段階(前述した評価点設定ユニット110によって実行される段階)と、コンピュータが、元図形パターンについて、評価点の周囲の特徴を示す特徴量を抽出する特徴量抽出段階(前述した特徴量抽出ユニット120によって実行される段階)と、コンピュータが、特徴量に基づいて、評価点の元図形パターン上の位置と実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定するバイアス推定段階(前述したバイアス推定ユニット130によって実行される段階)と、コンピュータが、このバイアス推定段階によって得られるプロセスバイアスの推定値に基づいて、元図形パターンに対する補正を行うことにより、補正図形パターンを作成するパターン補正段階(前述したパターン補正ユニット140によって実行される段階)と、を有している。   In this shape correction method, an evaluation point setting stage in which the computer sets an evaluation point at a predetermined position on the contour line indicating the boundary between the inside and the outside of each unit figure constituting the original figure pattern (the above-described evaluation point setting) A stage executed by the unit 110), and a feature quantity extraction stage (a stage executed by the feature quantity extraction unit 120 described above) in which the computer extracts a feature quantity indicating features around the evaluation point for the original graphic pattern; A bias estimation stage in which the computer estimates a process bias indicating the amount of deviation between the position of the evaluation point on the original graphic pattern and the position on the actual graphic pattern based on the feature amount (executed by the bias estimation unit 130 described above) And the computer is based on the process bias estimate obtained by this bias estimation step. There, by performing correction to the original figure pattern, and a pattern correction step of generating a correction figure pattern (steps performed by the above-mentioned pattern correction unit 140), the.

ここで、評価点設定段階は、多角形からなる個々の単位図形を入力する単位図形入力ステップ(前述した単位図形入力部111によって実行されるステップ)と、単位図形を直線状の分割線で分割して複数の多角形からなる分割図形を形成する単位図形分割ステップ(前述した単位図形分割部112によって実行されるステップ)と、各分割図形について、当該分割図形を構成する多角形の輪郭線に沿って所定の順方向まわりに一周するように、多角形の個々の辺上にそれぞれ分割図形ベクトルを定義する分割図形ベクトル定義ステップ(前述した分割図形ベクトル定義部113によって実行されるステップ)と、分割図形ベクトルの集合から、互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去し、残ったベクトルにより、単位図形の輪郭線に沿って配置された複数の単位図形ベクトルを定義する単位図形ベクトル定義ステップ(前述した単位図形ベクトル定義部114によって実行されるステップ)と、個々の単位図形ベクトルの始点位置に、それぞれ通常端点を定義する通常端点定義ステップ(前述した通常端点定義部115によって実行されるステップ)と、単位図形の輪郭線上において互いに隣接して配置された2つの通常端点の間に、それぞれ評価点を定義する評価点定義ステップ(前述した評価点定義部117によって実行されるステップ)と、個々の単位図形について、多角形の頂点を構成しない通常端点である中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点を追加定義する補充端点定義ステップ(前述した補充端点定義部118によって実行されるステップ)と、を有している。   Here, in the evaluation point setting stage, a unit graphic input step (step executed by the unit graphic input unit 111 described above) for inputting individual unit graphic consisting of polygons, and the unit graphic is divided by a linear dividing line A unit graphic dividing step (step executed by the unit graphic dividing unit 112 described above) for forming a divided graphic composed of a plurality of polygons, and for each divided graphic, a polygon outline constituting the divided graphic is used. A divided graphic vector defining step (a step executed by the divided graphic vector defining unit 113 described above) for defining a divided graphic vector on each side of the polygon so as to make a round around a predetermined forward direction A set of divided figure vectors is placed on overlapping sides of a pair of adjacent polygons that are adjacent to each other, and overlapping directions whose directions are opposite to each other. A unit graphic vector definition that searches for a pair of tokens, removes overlapping sections of the searched overlapping vector pair, and defines a plurality of unit graphic vectors arranged along the outline of the unit graphic with the remaining vectors A step (a step executed by the unit graphic vector definition unit 114 described above) and a normal end point definition step (executed by the normal end point definition unit 115 described above) for defining a normal end point at the start position of each unit graphic vector. Step), and an evaluation point definition step for defining an evaluation point between two normal end points arranged adjacent to each other on the contour line of the unit graphic (step executed by the evaluation point definition unit 117 described above), For each unit graphic, the middle normal end point, which is a normal end point that does not constitute the vertex of the polygon, is searched and searched. And it has a middle normal replenishment endpoint definition step of defining additional supplemental endpoint in the same position as the end point (step executed by replenishing endpoint definition part 118 described above), the.

なお、実用上は、評価点設定段階において、上記各ステップに加えて、通常端点定義ステップによって定義された通常端点に対して、数もしくは位置を修正する再構築を行う端点再構築ステップ(前述した端点再構築部116によって実行されるステップ)を行うようにし、評価点定義ステップにおいて、上記再構築によって得られた通常端点に基づいて評価点を定義するようにするのが好ましい。   In practice, in the evaluation point setting stage, in addition to the above steps, an endpoint reconstruction step (described above) that performs reconstruction to correct the number or position of the regular endpoints defined by the regular endpoint definition step. It is preferable to perform the step executed by the end point reconstruction unit 116, and to define the evaluation point based on the normal end point obtained by the above reconstruction in the evaluation point definition step.

一方、パターン補正段階は、個々の評価点について、単位図形の輪郭線に沿って当該評価点の一方の側に隣接する通常端点もしくは補充端点を第1の端点とし、他方の側に隣接する通常端点もしくは補充端点を第2の端点とする輪郭線分を定義し、個々の評価点についての輪郭線分を、当該評価点のプロセスバイアスの推定値に応じた補正量だけ、輪郭線分に直交する方向に移動させる移動処理を行う輪郭線分移動ステップ(前述した輪郭線分移動処理部141によって実行されるステップ)と、移動処理前に互いに同じ位置にあった中間通常端点および補充端点が、移動処理後に異なる2つの位置に分離した場合、それぞれの移動処理後の位置を連結する新たな輪郭線分を追加する追加処理を行う輪郭線分追加ステップ(前述した輪郭線分追加処理部142によって実行されるステップ)と、移動処理前に多角形の頂点を構成していた通常端点である隅部通常端点が、移動処理後に異なる2つの位置に分離した場合、分離後の2つの隅部通常端点が融合して新たな隅部通常端点となるように、分離後の隅部通常端点を含む各輪郭線分をそれぞれ伸縮する伸縮処理を行う輪郭線分伸縮ステップ(前述した輪郭線分伸縮処理部143によって実行されるステップ)と、を有している。   On the other hand, in the pattern correction stage, for each evaluation point, the normal end point or supplemental end point adjacent to one side of the evaluation point along the contour line of the unit graphic is the first end point, and the normal end adjacent to the other side is used. Define a contour line segment with the end point or supplemental end point as the second end point, and orthogonally intersect the contour line segment for each evaluation point by the correction amount according to the estimated value of the process bias of the evaluation point A contour segment moving step (step executed by the above-described contour segment movement processing unit 141) for performing a moving process of moving in a moving direction, and an intermediate normal end point and a supplementary end point that were in the same position before the moving process, In the case of separation into two different positions after the movement process, an outline line adding step for adding a new outline segment connecting the positions after the respective movement processes is performed (the above-described contour line segment) The step executed by the processing unit 142) and the corner normal end point which is a normal end point constituting the vertex of the polygon before the moving process is separated into two different positions after the moving process, Contour line segment expansion / contraction step for performing expansion / contraction processing to expand / contract each contour line segment including the corner normal end point after separation so that the two corner normal end points are merged to become a new corner normal end point (described above) Steps executed by the contour line segment expansion / contraction processing unit 143).

そして、本発明に係る図形パターンの形状補正方法では、上記移動処理、上記追加処理、上記伸縮処理を行った後の輪郭線分の集合体を輪郭線とする単位図形によって構成される補正図形パターンが作成される。このような形状補正方法を採用すれば、元図形パターンに対する補正に必要なシミュレーションを行う際に、実用上十分なシミュレーション精度を維持しつつ、できるだけ演算負担を軽減できる効率的な評価点設定を行うことが可能になる。   In the figure pattern shape correcting method according to the present invention, a corrected figure pattern constituted by unit figures whose outlines are aggregates of outline segments after the movement process, the addition process, and the expansion / contraction process are performed. Is created. If such a shape correction method is adopted, when performing a simulation necessary for correcting the original figure pattern, an efficient evaluation point setting capable of reducing the calculation burden as much as possible while maintaining a practically sufficient simulation accuracy is performed. It becomes possible.

<8.2 分割図形を利用した端点定義のメリット>
ここでは、本発明を採用することにより得られる露光工程におけるメリットを説明する。本発明の重要な特徴は、元図形パターンを構成する単位図形を多角形からなる分割図形に分割した上で、この多角形の頂点位置を基準として端点を定義し、隣接して配置された2つの端点間を結ぶ輪郭線分ごとに評価点を定義し、輪郭線分ごとに位置の補正を行う点にある。このような方法で評価点の定義を行えば、適切な位置に適切な数の評価点を定義することができるので、元図形パターンに対する補正を行う際に、実用上十分なシミュレーション精度を維持しつつ、できるだけ演算負担を軽減できる効率的な評価点設定を行うことが可能になる。
<8.2 Merits of defining endpoints using divided figures>
Here, the merit in the exposure process obtained by adopting the present invention will be described. An important feature of the present invention is that the unit figure constituting the original figure pattern is divided into divided figures composed of polygons, the end points are defined with reference to the vertex positions of the polygons, and the two arranged adjacently. An evaluation point is defined for each contour segment connecting two end points, and the position is corrected for each contour segment. By defining evaluation points in this way, it is possible to define an appropriate number of evaluation points at appropriate positions, so that when performing corrections to the original figure pattern, practically sufficient simulation accuracy is maintained. However, it is possible to set an efficient evaluation point that can reduce the calculation burden as much as possible.

しかも、分割図形を構成する多角形の頂点位置を基準として端点の定義を行うと、露光工程において、トータルショット数を低減できるというメリットも得られる。すなわち、従来の一般的な手法では、単位図形の個々の辺ごとに所定間隔で端点を定義する方法が採用されているが、このような従来方法では、トータルショット数が増大するというデメリットが生じる。本発明では、このようなデメリットを解消することができる。以下、この点について具体例を挙げながら説明する。   In addition, if the end points are defined based on the positions of the vertexes of the polygons forming the divided figure, the merit that the total number of shots can be reduced in the exposure process can be obtained. That is, in the conventional general method, a method of defining end points at predetermined intervals for each side of the unit graphic is adopted. However, such a conventional method has a demerit that the total number of shots increases. . In the present invention, such disadvantages can be eliminated. Hereinafter, this point will be described with specific examples.

図60は、単位図形の個々の辺ごとに所定間隔で端点を定義するという従来手法の手順を示す平面図である。いま、図60(a) に示すような単位図形10を含む元図形パターンが与えられた場合に、この単位図形10の輪郭線上に複数の端点を定義し、隣接する2つの端点を結ぶ輪郭線分ごとに評価点を定義して補正を行うことを考えてみる。この場合、まず、単位図形10を構成する多角形の頂点が端点として定義され、更に、多角形の各辺上に所定間隔で端点が定義される。ここでは、説明の便宜上、この単位図形10の縦幅の寸法をWsplitとし、単位図形10の各辺上に、それぞれWsplit以下の所定間隔で端点を定義することにする。   FIG. 60 is a plan view showing a procedure of a conventional method for defining end points at predetermined intervals for each side of a unit graphic. Now, when an original graphic pattern including a unit graphic 10 as shown in FIG. 60 (a) is given, a plurality of end points are defined on the contour line of the unit graphic 10 and two adjacent end points are connected. Consider making a correction by defining an evaluation score every minute. In this case, first, the vertices of the polygon forming the unit graphic 10 are defined as end points, and the end points are further defined at predetermined intervals on each side of the polygon. Here, for convenience of explanation, the vertical dimension of the unit graphic 10 is Wsplit, and the end points are defined on each side of the unit graphic 10 at predetermined intervals equal to or less than Wsplit.

図60(b) は、このような方針で、単位図形10上の輪郭線上に端点A〜Nを定義した例である。ここで、端点A,E,F,G,H,L,M,Nは、単位図形10を構成する多角形の頂点であるが、残りの端点B,C,D,I,J,Kは、当該多角形の辺上に定義された端点である。上述したように、隣接する端点の間隔がWsplit以下となるように端点の定義が行われているため、いずれの端点間隔もWsplit以下になっており、隣接する2つの端点に挟まれた輪郭線分の全長は、いずれもWsplit以下になっている。   FIG. 60B is an example in which the end points A to N are defined on the contour line on the unit graphic 10 with such a policy. Here, the end points A, E, F, G, H, L, M, and N are the vertices of the polygon that forms the unit graphic 10, but the remaining end points B, C, D, I, J, and K are , Are endpoints defined on the sides of the polygon. As described above, since the end points are defined so that the interval between the adjacent end points is equal to or less than Wsplit, the interval between the end points is equal to or less than Wsplit, and the contour line sandwiched between the two adjacent end points The total length of the minutes is less than Wsplit.

しかしながら、単位図形10の個々の辺ごとに別個独立して端点を定義しているため、多角形の上辺に定義された端点B,C,Dと、多角形の下辺に定義された端点I,J,Kとの間には、位置に関する整合性が全くない。別言すれば、端点B,C,Dの横方向位置と端点I,J,Kの横方向位置とは揃っていない(図60(b) の破線参照)。   However, since the end points are defined independently for each side of the unit graphic 10, the end points B, C, D defined on the upper side of the polygon, and the end points I, C defined on the lower side of the polygon. There is no positional consistency between J and K. In other words, the lateral positions of the end points B, C, D are not aligned with the lateral positions of the end points I, J, K (see the broken line in FIG. 60 (b)).

単位図形10に対する形状補正は、個々の輪郭線分を移動させることによって行われるので、補正後の単位図形15は、たとえば、図60(c) に示すような形状になる。すなわち、図60(c) に示す補正後の単位図形15は、図60(b) に示す補正前の単位図形10おける輪郭線分BC,CD,DEを若干内側に移動させ、輪郭線分IJを若干外側に移動させ、輪郭線分JKを若干内側に移動させたものになっている。   Since the shape correction for the unit graphic 10 is performed by moving individual contour segments, the corrected unit graphic 15 has a shape as shown in FIG. 60 (c), for example. That is, the corrected unit graphic 15 shown in FIG. 60 (c) moves the contour lines BC, CD, DE in the unit graphic 10 before correction shown in FIG. Is slightly moved outward, and the contour line segment JK is slightly moved inward.

リソグラフィプロセスに用いる一般的な描画装置では、1回のショットで台形状の領域を露光させる運用が採られており、そのような描画装置でこの図60(c) に示す補正後の単位図形15に基づく露光工程を行うためには、図に破線で示すような多数の矩形領域に分割して、それぞれ個別のショットにより露光を行う必要がある。すなわち、実際の露光工程では、図60(d) にそれぞれハッチングを施して示した9個の独立した矩形ごとに個別のショットを行う必要があり、トータルショット数は9回になる。このように、従来方法では、輪郭線を構成する多角形の対向辺に定義される端点の位置が揃わないため、当該輪郭線が正図形の場合、トータルショット数が増大するというデメリットが生じる(当該輪郭線が反図形の場合、このようなデメリットはあまり生じない)。   A general drawing apparatus used in the lithography process employs an operation of exposing a trapezoidal region with one shot, and the corrected unit graphic 15 shown in FIG. 60 (c) is used in such a drawing apparatus. In order to perform the exposure process based on the above, it is necessary to divide into a large number of rectangular areas as indicated by broken lines in the figure and to perform exposure by individual shots. That is, in the actual exposure process, it is necessary to perform individual shots for each of the nine independent rectangles shown by hatching in FIG. 60 (d), and the total number of shots is nine. As described above, in the conventional method, since the positions of the end points defined on the opposite sides of the polygon forming the contour line are not aligned, there is a demerit that the total number of shots increases when the contour line is a regular figure ( When the contour line is an anti-figure, such a disadvantage does not occur so much).

一方、図61は、本発明に係る方法により、分割図形を構成する多角形の頂点位置を基準として端点の定義を行う場合の手順を示す平面図である。図61(a) に示す単位図形10は、図60(a) に示す単位図形10と全く同じものであり、ここでは、本発明に係る方法により、単位図形10の輪郭線上に複数の端点を定義し、隣接する2つの端点を結ぶ輪郭線分ごとに評価点を定義して補正を行うことを考えてみる。   On the other hand, FIG. 61 is a plan view showing the procedure in the case where the endpoints are defined based on the vertex positions of the polygons constituting the divided figure by the method according to the present invention. The unit graphic 10 shown in FIG. 61 (a) is exactly the same as the unit graphic 10 shown in FIG. 60 (a). Here, a plurality of end points are formed on the outline of the unit graphic 10 by the method according to the present invention. Let us consider defining and performing correction by defining an evaluation point for each contour segment connecting two adjacent end points.

この場合、まず、単位図形10が複数の分割図形に分割される。図61(b) は、単位図形10を5つの分割図形に分割した状態を示している。前述したとおり、本発明における分割処理は、個々の分割図形のサイズが所定の分割間隔Wsplit以下となるように行われるので、図61(b) に示す5つの分割図形の縦幅および横幅の寸法は、いずれもWsplit以下になっている。そして、これら5つの分割図形の各頂点位置に通常端点が定義される。図61(b) には、このような方針で、単位図形10上の輪郭線上に通常端点A〜Nが定義された状態が示されている。ここで、端点A,E,F,G,H,L,M,Nは、単位図形10を構成する多角形の頂点となる隅部通常端点であり、残りの端点B,C,D,I,J,Kは、中間通常端点である。   In this case, first, the unit figure 10 is divided into a plurality of divided figures. FIG. 61 (b) shows a state in which the unit graphic 10 is divided into five divided graphics. As described above, the division processing in the present invention is performed so that the size of each divided figure is equal to or less than the predetermined division interval Wsplit. Therefore, the vertical and horizontal dimensions of the five divided figures shown in FIG. Are both below Wsplit. A normal end point is defined at each vertex position of these five divided figures. FIG. 61 (b) shows a state in which normal end points A to N are defined on the contour line on the unit graphic 10 in such a manner. Here, the end points A, E, F, G, H, L, M, and N are corner normal end points that are the vertices of the polygon that forms the unit graphic 10, and the remaining end points B, C, D, and I , J, K are intermediate normal end points.

図60(b) と図61(b) とを比較すると、いずれも14個の端点A〜Nが定義されている点は同じであるが、前者では、上辺に定義された端点B,C,Dの位置と下辺に定義された端点I,J,Kの横方向位置が揃っておらず整合性がないのに対して、後者では、上下の端点の横方向位置が揃って整合性が確保されている。   When FIG. 60 (b) is compared with FIG. 61 (b), the points where 14 end points A to N are defined are the same, but in the former, the end points B, C, Whereas the position of D and the lateral positions of the end points I, J, and K defined on the lower side are not aligned and there is no consistency, in the latter, the lateral positions of the upper and lower end points are aligned and the consistency is ensured. Has been.

図61(c) は、図61(b) に示す単位図形10に対する補正により得られた補正後の単位図形15である。この補正後の単位図形15は、図61(b) に示す補正前の単位図形10おける輪郭線分BC,CD,DEを若干内側に移動させ、輪郭線分IJを若干外側に移動させ、輪郭線分JKを若干内側に移動させたものになっている。図61(d) は、この補正後の単位図形15に基づく露光工程を行うために分割された個々の矩形領域を示す図である。   FIG. 61 (c) shows a corrected unit graphic 15 obtained by correcting the unit graphic 10 shown in FIG. 61 (b). The unit graphic 15 after correction is obtained by moving the contour line segments BC, CD, DE in the unit graphic 10 before correction shown in FIG. 61 (b) slightly inward and moving the contour line segment IJ slightly outward. The line segment JK is slightly moved inward. FIG. 61 (d) is a diagram showing individual rectangular areas divided for performing the exposure process based on the unit graphic 15 after correction.

図61(b) に示す分割処理を行う際に、分割間隔Wsplitを描画装置のビーム最大成型サイズBmax以下に設定しておけば(Wsplit≦Bmaxなる設定)、図61(d) に示す個々の矩形領域のサイズは、ビーム最大成型サイズBmax以下になる可能性が高い。露光工程は、これら個々の矩形領域ごとにそれぞれ個別のショットを行うことによりなされ、サイズがBmax以下となる矩形領域は、描画装置による1ショットで露光することが可能である。図61(d) に示す例の場合、ハッチングを施して示すいずれの矩形領域もサイズがBmax以下となっているので、実際の露光工程では、5個の独立した矩形領域ごとにそれぞれ個別の1ショットを行えば足りる。   When performing the splitting process shown in FIG. 61 (b), if the splitting interval Wsplit is set to be equal to or smaller than the maximum beam forming size Bmax of the drawing apparatus (setting Wsplit ≦ Bmax), the individual processing shown in FIG. 61 (d) is performed. The size of the rectangular area is likely to be equal to or less than the maximum beam forming size Bmax. The exposure process is performed by performing individual shots for each of the individual rectangular areas, and a rectangular area having a size of Bmax or less can be exposed with one shot by the drawing apparatus. In the case of the example shown in FIG. 61 (d), the size of any rectangular area shown by hatching is equal to or less than Bmax. Therefore, in the actual exposure process, each of the five independent rectangular areas has a separate 1 All you need is a shot.

結局、上述した実施例の場合、従来の手法では露光工程時に合計9回のショット(図60(d) 参照)が必要になっていたのに対し、本発明の手法では合計5回のショットで済むことになる。このように、本発明では、分割図形を利用した端点定義が行われるため、露光工程の効率化(トータルショット数の低減)を図ることができるメリットが得られる。もちろん、図61(c) に示す補正後の単位図形15を作成する際の各輪郭線分の移動方向および移動量に応じて、補正後に得られる個々の矩形領域のサイズがビーム最大成型サイズBmaxを超える可能性もあり、その場合には、当該矩形領域を1ショットで露光することはできなくなるが、本発明に係る手法を採用すれば、多数の単位図形を含む図形パターン全体についてのトータルショット数は、統計的には必ず低減することになる。   As a result, in the case of the above-described embodiment, a total of 9 shots (see FIG. 60 (d)) are required in the exposure method in the conventional method, whereas in the method of the present invention, a total of 5 shots are required. It will be over. As described above, in the present invention, since the end point definition using the divided figure is performed, there is an advantage that the efficiency of the exposure process (reduction of the total number of shots) can be achieved. Of course, depending on the moving direction and moving amount of each contour line when creating the corrected unit graphic 15 shown in FIG. 61 (c), the size of each rectangular area obtained after correction is the maximum beam forming size Bmax. In this case, the rectangular area cannot be exposed in one shot. However, if the method according to the present invention is employed, a total shot of the entire figure pattern including a large number of unit figures is obtained. The number will always decrease statistically.

<8.3 補充端点を定義するメリット>
本発明では、上述したとおり、分割図形を利用して通常端点が定義されるとともに、多角形の頂点を構成しない通常端点である中間通常端点については、同じ位置に補充端点が追加定義される。ここでは、中間通常端点について補充端点を定義するメリットを説明する。
<8.3 Benefits of defining supplemental endpoints>
In the present invention, as described above, normal end points are defined using divided graphics, and supplementary end points are additionally defined at the same positions for intermediate normal end points that are normal end points that do not constitute polygon vertices. Here, the merit of defining the supplementary end point for the intermediate normal end point will be described.

本発明において補充端点を定義する理由は、§6.5で説明したとおり、1つの中間通常端点の両側に位置する2組の輪郭線分を別個独立して移動させる処理を行うためである。たとえば、図56に示す実施例では、中間通常端点Fの位置に補充端点F′を追加定義したことにより、輪郭線分O5と輪郭線分O6とを別個独立して移動させることができるようになり、中間通常端点Hの位置に補充端点H′を追加定義したことにより、輪郭線分O7と輪郭線分O8とを別個独立して移動させることができるようになる。   The reason why the replenishment endpoints are defined in the present invention is that, as described in §6.5, two sets of contour segments located on both sides of one intermediate normal endpoint are separately and independently moved. For example, in the embodiment shown in FIG. 56, the supplemental end point F ′ is additionally defined at the position of the intermediate normal end point F so that the contour line segment O5 and the contour line segment O6 can be moved independently. Thus, by additionally defining the supplementary end point H ′ at the position of the intermediate normal end point H, the contour line segment O 7 and the contour line segment O 8 can be moved separately and independently.

しかも本発明では、輪郭線分移動処理部141による移動処理は、各評価点を当該評価点が位置する輪郭線に対して直交する方向(法線方向:図56の太線矢印方向)に移動させることを前提としており、評価点とともに平行移動させる輪郭線分の移動方向も、その法線方向ということになる。このような移動処理を行うと、移動後の中間通常端点およびその補充端点は、いずれも移動前の位置についての法線上に存在することになる。たとえば、図56に示す例の場合、移動後の端点F,F′の横方向の位置は移動前と変わらず、移動後の端点H,H′の縦方向の位置は移動前と変わらない。このような特徴は、露光工程の効率化(トータルショット数の低減)を図る上で貢献する。   Moreover, in the present invention, the movement processing by the contour line segment movement processing unit 141 moves each evaluation point in a direction orthogonal to the contour line where the evaluation point is located (normal direction: the direction of the thick arrow in FIG. 56). Therefore, the moving direction of the contour line to be translated along with the evaluation point is also the normal direction. When such movement processing is performed, the intermediate normal end point after the movement and the supplementary end point thereof both exist on the normal line with respect to the position before the movement. For example, in the example shown in FIG. 56, the lateral positions of the end points F and F ′ after the movement are not different from those before the movement, and the vertical positions of the end points H and H ′ after the movement are the same as before the movement. Such a feature contributes to improving the efficiency of the exposure process (reducing the total number of shots).

図62は、補充端点を定義するメリットを示す平面図である。いま、図62(a) に示すような矩形からなる単位図形10が与えられ、この矩形状の単位図形10に対して、本発明に係る方法で形状補正を行う場合を考えてみる。ここでは、この単位図形10が、縦幅Wsplit、横幅4×Wsplitの寸法をもった矩形であるものとする。ここで、Wsplitは、単位図形分割部112によって行われる分割処理の分割間隔であり、説明の便宜上、描画装置のビーム最大成型サイズをBmaxとして、Wsplit=Bmaxに設定した場合を考える。   FIG. 62 is a plan view showing the merit of defining the supplement end point. Now, consider a case in which a rectangular unit graphic 10 as shown in FIG. 62A is given, and shape correction is performed on the rectangular unit graphic 10 by the method according to the present invention. Here, it is assumed that the unit graphic 10 is a rectangle having dimensions of a vertical width Wsplit and a horizontal width 4 × Wsplit. Here, Wsplit is a division interval of the division processing performed by the unit graphic division unit 112, and for convenience of explanation, consider a case where the maximum beam forming size of the drawing apparatus is set to Bmax and Wsplit = Bmax is set.

図62(b) は、単位図形分割部112によって、図62(a) に示す単位図形10を分割した状態を示す平面図である。図示のとおり、単位図形10は、それぞれハッチングを施して示す4個の正方形状の分割図形に分割され、これら各分割図形の頂点位置には、通常端点定義部115によって、図示のとおり10個の通常端点A〜J(x印)が定義される。また、補充端点定義部118によって、中間通常端点B,C,D,G,H,Iについて同位置に補充端点B′,C′,D′,G′,H′,I′(四角印)が追加定義される。   FIG. 62B is a plan view showing a state in which the unit graphic 10 shown in FIG. 62A is divided by the unit graphic dividing unit 112. As shown in the figure, the unit graphic 10 is divided into four square-shaped divided figures shown by hatching, and the vertex position of each divided figure is set to 10 pieces as shown in FIG. Usually, end points A to J (x marks) are defined. Further, the replenishment end point defining unit 118 places the replenishment end points B ′, C ′, D ′, G ′, H ′, I ′ (square marks) at the same positions for the intermediate normal end points B, C, D, G, H, and I. Is additionally defined.

ここでは、この図62(b) に示す単位図形10に対して、パターン補正ユニット140による補正処理が行われた結果、図62(c) に示すような補正後の単位図形15が得られたものとしよう。具体的には、輪郭線分移動処理部141によって、輪郭線分BC′,CD′,GH′,HI′が若干内側に移動されたことになり、端点B′−Bの間、端点C′−Cの間、端点D′−Dの間、端点G′−Gの間、端点H′−Hの間、端点I′−Iの間には、輪郭線分追加処理部142によって、それぞれ新たな輪郭線分が追加されたことになる。   Here, as a result of the correction processing performed by the pattern correction unit 140 on the unit graphic 10 shown in FIG. 62 (b), the corrected unit graphic 15 as shown in FIG. 62 (c) is obtained. Let's take it. Specifically, the contour line segments BC ′, CD ′, GH ′, HI ′ are slightly moved inward by the contour line segment movement processing unit 141, and the end points C ′ are between the end points B′-B. -C, end point D'-D, end point G'-G, end point H'-H, and end point I'-I are newly updated by the contour line segment addition processing unit 142. A new outline is added.

ただ、各輪郭線分はその法線方向に移動されているため、移動処理後の端点B′,B,C′,C,D′,D,G′,G,H′,H,I′,Iの横方向の位置は、移動処理前の位置と変わっていない。したがって、この補正後の単位図形15に基づいて、実際の露光工程を行う場合、上述したようにWsplit=Bmaxなる設定をしておけば、図62(d) に太線の正方形(一辺が描画装置のビーム最大成型サイズBmaxである正方形)で示すように、合計4回のショットを行うことにより露光が完了する。もちろん、図62(c) に示す補正処理において、各輪郭線分を図形の外側に移動させる移動処理が行われると、縦幅がBmaxを超える部分が生じ、合計4回のショットでは済まないことになるが、多数の単位図形を含む図形パターン全体についてのトータルショット数は、統計的には必ず低減することになる。   However, since each contour line segment is moved in the normal direction, the end points B ′, B, C ′, C, D ′, D, G ′, G, H ′, H, I ′ after the movement process are used. , I in the horizontal direction is the same as the position before the movement process. Therefore, when the actual exposure process is performed based on the corrected unit graphic 15, if the setting of Wsplit = Bmax is made as described above, a thick square (one side is a drawing device) is shown in FIG. The exposure is completed by performing a total of four shots, as shown by the square having the maximum beam forming size Bmax. Of course, in the correction process shown in FIG. 62 (c), when a movement process for moving each contour segment to the outside of the figure is performed, a part having a vertical width exceeding Bmax occurs, and a total of four shots cannot be completed. However, the total number of shots for the entire graphic pattern including a large number of unit graphics is necessarily reduced statistically.

このようなメリットは、§7.4で述べた補正処理の繰り返しを行う際にも有効である。たとえば、図62(a) に示す単位図形10に対する1回目の補正により、図62(c) に示す補正後の単位図形15が得られた後、更に、この補正後の単位図形15に対して2回目の補正を行うことにより、図63(a) に示す補正後の単位図形16が得られた場合を考えてみる。図63(a) に示す単位図形16は、図62(c) に示す単位図形15の輪郭線分BC′,CD′,GH′,HI′を更に内側に移動したものであるが、移動処理後の端点B′,B,C′,C,D′,D,G′,G,H′,H,I′,Iの横方向の位置は、やはり移動処理前の位置と変わっていない。   Such a merit is also effective when the correction process described in §7.4 is repeated. For example, after the unit graphic 15 shown in FIG. 62 (c) is obtained by the first correction for the unit graphic 10 shown in FIG. 62 (a), the corrected unit graphic 15 is further corrected. Consider the case where the corrected unit graphic 16 shown in FIG. 63A is obtained by performing the second correction. The unit graphic 16 shown in FIG. 63 (a) is obtained by moving the contour segments BC ′, CD ′, GH ′, HI ′ of the unit graphic 15 shown in FIG. 62 (c) further inward. The lateral positions of the rear end points B ′, B, C ′, C, D ′, D, G ′, G, H ′, H, I ′, and I are not changed from the positions before the movement process.

図55のデータフォーマット例に示すとおり、通常端点A,B,C,D,E,F,G,Hについては、それぞれ対応する評価点1〜8が記録されるのに対して、補充端点F′,H′については「Φ」という存在しない評価点の空データが記録されている。これは、輪郭線分追加処理部142によって追加された輪郭線分上には、評価点が定義されていないことを意味する。したがって、図63(a) に示す例の場合、輪郭線分追加処理部142によって追加された輪郭線分B′B,C′C,D′D,G′G,H′H,I′Iの上には、評価点は存在しないことになり、これらの輪郭線分に対しては、評価点位置の移動に基づく移動処理は行われない。別言すれば、これらの輪郭線分は、補正処理を何度繰り返しても、その横方向位置は不変ということになる。   As shown in the data format example of FIG. 55, for the normal end points A, B, C, D, E, F, G, and H, the corresponding evaluation points 1 to 8 are recorded, whereas the supplementary end points F are recorded. For ′ and H ′, empty data of an evaluation point “Φ” that does not exist is recorded. This means that the evaluation point is not defined on the contour line segment added by the contour segment addition processing unit 142. Therefore, in the case of the example shown in FIG. 63 (a), the contour line segments B′B, C′C, D′ D, G′G, H′H, I′I added by the contour line segment addition processing unit 142 are used. There is no evaluation point above, and the movement processing based on the movement of the evaluation point position is not performed on these contour line segments. In other words, the position in the horizontal direction of these contour line segments remains unchanged even if the correction process is repeated many times.

本発明において、中間通常端点と同位置に補充端点を定義する意義は、補正処理を行った場合に、中間通常端点と補充端点の位置が、輪郭線の法線方向にのみ変化し、輪郭線に沿った方向には変化しない運用を可能にすることにあり、そのような運用により、露光工程を効率化(トータルショット数の低減)するメリットが得られるのである。   In the present invention, the significance of defining the supplementary end point at the same position as the intermediate normal end point is that when the correction process is performed, the positions of the intermediate normal end point and the supplemental end point change only in the normal direction of the contour line. Therefore, it is possible to perform an operation that does not change in the direction along the line, and such an operation provides a merit of improving the efficiency of the exposure process (reducing the total number of shots).

図64は、中間通常端点および補充端点を任意方向に移動させた場合のデメリットを示す平面図である。ここで、図64(a) は、図62(b) に示す単位図形10に対して、中間通常端点および補充端点の位置を任意方向に移動させる補正を行うことによって得られた補正後の単位図形17を示している。図62(c) に示す補正後の単位図形15では、端点B′,B,C′,C,D′,D,G′,G,H′,H,I′,Iの横方向位置が不変であったのに対して、図64(a) に示す補正後の単位図形17では、これらの端点の横方向位置が変わっている。   FIG. 64 is a plan view showing disadvantages when the intermediate normal end point and the supplementary end point are moved in an arbitrary direction. Here, FIG. 64 (a) shows a corrected unit obtained by correcting the unit graphic 10 shown in FIG. 62 (b) by moving the positions of the intermediate normal end point and the supplemental end point in an arbitrary direction. A figure 17 is shown. In the corrected unit graphic 15 shown in FIG. 62 (c), the lateral positions of the end points B ′, B, C ′, C, D ′, D, G ′, G, H ′, H, I ′, and I are In contrast, in the unit graphic 17 after correction shown in FIG. 64A, the lateral positions of these end points are changed.

そのため、この図64(a) に示す補正後の単位図形17に基づいて、実際の露光工程を行うと、図64(b) に太線の矩形(ビーム最大成型サイズBmaxをもつ描画装置の1ショットで露光可能なサイズの矩形)で示すように、合計7回のショットが必要になる。このように、本発明では、補充端点を定義して、中間通常端点と補充端点の移動方向を輪郭線の法線方向に制限する運用を採用しているため、露光工程を効率化するメリットが得られることになる。   Therefore, when an actual exposure process is performed based on the corrected unit graphic 17 shown in FIG. 64 (a), one shot of a drawing apparatus having a thick-line rectangle (maximum beam forming size Bmax) is shown in FIG. 64 (b). A total of seven shots are required, as shown by the rectangle of the size that can be exposed in (1). As described above, in the present invention, since the replenishment end points are defined and the movement direction of the intermediate normal end point and the replenishment end points is limited to the normal direction of the contour line, there is a merit of improving the efficiency of the exposure process. Will be obtained.

<8.4 端点再構築によるメリット>
上述した本発明の実施形態では、§6.3で述べたように、端点の再構築が行われる。この端点の再構築は、本発明を実施する上で必須要件ではないが、実用上は、端点の再構築を行った方が、端点の数や位置が修正されるため、より効率的な評価点設定を行うことができる。以下、この端点再構築によるメリットを、具体例に基づいて説明する。
<8.4 Benefits of Reconstructing Endpoints>
In the embodiment of the present invention described above, the endpoints are reconstructed as described in §6.3. This reconstruction of the end points is not an essential requirement for carrying out the present invention. However, in practice, since the number and positions of the end points are corrected, the more efficient evaluation is performed. Point setting can be performed. Hereinafter, the merit by this end point reconstruction will be described based on a specific example.

図54に示すL字型の単位図形10は、図49(b) に示すような端点定義および評価点定義が行われたものであり、図43に示す端点再構築により、三角印で示した端点Dを除去する処理が行われたものである。この図54に示す補正前の単位図形10に対して補正処理を行うと、既に述べたとおり、図58に示す補正後の単位図形15が得られる。この補正後の単位図形15は、補正前の単位図形10をひとまわり大きくした形状を有し、元のL字型の面影を残した図形になっている。   The L-shaped unit graphic 10 shown in FIG. 54 has the end point definition and the evaluation point definition as shown in FIG. 49 (b), and is indicated by a triangle mark by the end point reconstruction shown in FIG. The process which removes the end point D was performed. When correction processing is performed on the unit graphic 10 before correction shown in FIG. 54, the unit graphic 15 after correction shown in FIG. 58 is obtained as described above. The unit graphic 15 after correction has a shape that is a size larger than the unit graphic 10 before correction and is a graphic that retains the original L-shaped face shadow.

一方、図65に示す補正後の単位図形18は、図43に示す端点再構築を行わなかった場合に得られる図形である。すなわち、図65に示す端点Z(三角印)は、図43に示す端点Dに相当するものであり、補正後の単位図形18は、この端点Zが除去されないで残っていたと想定した場合に得られる補正後の図形ということになる。端点Zは、中間通常端点であるので、端点再構築によって除去されないで残っていると、補充端点を定義する処理によって、補充端点Z′が追加定義されることになる。図示の例は、中間通常端点Zが図の上方に移動し、補充端点Z′が図の下方に移動した例である。この移動処理後に行われる輪郭線分の追加処理により、新たに輪郭線分Z′Zが追加されている。   On the other hand, the corrected unit graphic 18 shown in FIG. 65 is a graphic obtained when the end point reconstruction shown in FIG. 43 is not performed. That is, the end point Z (triangular mark) shown in FIG. 65 corresponds to the end point D shown in FIG. 43, and the corrected unit graphic 18 is obtained when it is assumed that the end point Z remains without being removed. It will be a corrected figure. Since the end point Z is an intermediate normal end point, if it remains without being removed by the end point reconstruction, the replenishment end point Z ′ is additionally defined by the process of defining the replenishment end point. The illustrated example is an example in which the intermediate normal end point Z is moved upward in the figure and the replenishment end point Z ′ is moved downward in the figure. A contour line segment Z′Z is newly added by the contour line segment adding process performed after the moving process.

ここで、図58に示す補正後の単位図形15と、図65に示す補正後の単位図形18とを比較すると、後者では、頂点Cの近傍の輪郭線が著しく変動していることがわかる。一般に、リソグラフィプロセスを実施した場合のコーナーラウンディング効果(多角形の頂点付近の角ばった部分が丸まってしまう効果)が大きいケースでは、評価点が頂点の近くに存在していると、当該評価点を含む輪郭線分が大きく変動し、図65に示す例のように、頂点近傍の輪郭線が著しく変動することになる。このような頂点近傍の輪郭線が著しく変動すると、補正前の図形の基本形状を歪める結果となり、実用上は好ましくない。   Here, when the corrected unit graphic 15 shown in FIG. 58 is compared with the corrected unit graphic 18 shown in FIG. 65, it can be seen that the contour line in the vicinity of the vertex C fluctuates significantly in the latter case. In general, in the case where the corner rounding effect (the effect of rounding the rounded portion near the vertex of the polygon) is large when the lithography process is performed, if the evaluation point exists near the vertex, the evaluation point As shown in the example shown in FIG. 65, the contour line in the vicinity of the vertex varies significantly. If the contour line in the vicinity of the vertex remarkably fluctuates, the basic shape of the figure before correction is distorted, which is not preferable for practical use.

§6.3で述べた端点の再構築を行うと、単位図形の頂点に近い位置の端点を除去することができ、結果的に、評価点を頂点から遠ざけることができる。このため、頂点近傍の輪郭線が著しく変動することを抑制することができ、より効率的な評価点設定を行うことが可能になるというメリットが得られる。   By reconstructing the end points described in §6.3, the end points near the vertexes of the unit graphic can be removed, and as a result, the evaluation points can be moved away from the vertices. For this reason, it can suppress that the outline of the vertex vicinity changes remarkably, and the merit that it becomes possible to perform more efficient evaluation point setting is acquired.

最後に、「発明を実施するための形態」の部分についての目次を掲載しておく。各見出しの後の[XXXX]なる数字は段落番号である。
§1. 先願発明に係る形状補正装置の基本構成[0034]
1.1 図形パターンの形状推定装置[0035]
1.2 図形パターンの形状補正装置[0056]
1.3 先願発明における特徴量抽出の基本概念[0071]
§2. 特徴量抽出ユニットの詳細[0086]
2.1 元画像作成部121による処理手順[0087]
2.2 画像ピラミッド作成部122による処理手順[0103]
2.3 特徴量算出部123による処理手順[0128]
2.4 特徴量抽出処理の変形例[0144]
§3. バイアス推定ユニットの詳細[0167]
3.1 ニューラルネットワークによる推定演算[0168]
3.2 ニューラルネットワークの学習段階[0183]
§4. 先願発明に係る図形パターンの形状推定方法[0199]
§5. 本発明に係る形状補正装置の基本構成[0205]
§6. 評価点設定ユニットの詳細[0213]
6.1 単位図形の分割[0217]
6.2 ベクトルおよび通常端点の定義[0243]
6.3 端点の再構築[0268]
6.4 評価点の定義[0316]
6.5 補充端点の定義[0321]
§7. パターン補正ユニットの詳細[0336]
7.1 輪郭線分移動処理[0339]
7.2 輪郭線分追加処理[0353]
7.3 輪郭線分伸縮処理[0360]
7.4 補正処理の繰り返し[0367]
§8. 本発明の特徴とそのメリット[0377]
8.1 本発明に係る形状補正方法の特徴[0378]
8.2 分割図形を利用した端点定義のメリット[0384]
8.3 補充端点を定義するメリット[0397]
8.4 端点再構築によるメリット[0409]
Lastly, the table of contents for the “Mode for Carrying Out the Invention” part is listed. The number [XXXX] after each heading is a paragraph number.
§1. Basic configuration of shape correction apparatus according to invention of prior application [0034]
1.1 Graphic pattern shape estimation device [0035]
1.2 Shape correction device for figure pattern [0056]
1.3 Basic concept of feature quantity extraction in the invention of the prior application [0071]
§2. Details of feature extraction unit [0086]
2.1 Processing Procedure by Original Image Creation Unit 121 [0087]
2.2 Processing procedure by image pyramid creation unit 122 [0103]
2.3 Processing Procedure by Feature Quantity Calculation Unit 123 [0128]
2.4 Modification of Feature Extraction Process [0144]
§3. Details of the bias estimation unit [0167]
3.1 Estimate calculation by neural network [0168]
3.2 Learning stage of neural network [0183]
§4. Geometric pattern shape estimation method according to the prior invention [0199]
§5. Basic configuration of shape correction apparatus according to the present invention [0205]
§6. Details of Evaluation Point Setting Unit [0213]
6.1 Division of unit graphic [0217]
6.2 Definition of vectors and normal endpoints [0243]
6.3 End point reconstruction [0268]
6.4 Definition of Evaluation Points [0316]
6.5 Definition of replenishment endpoints [0321]
§7. Details of pattern correction unit [0336]
7.1 Contour Line Movement Processing [0339]
7.2 Outline segment addition processing [0353]
7.3 Contour Line Stretching Process [0360]
7.4 Repeating the correction process [0367]
§8. Features and merits of the present invention [0377]
8.1 Features of the shape correction method according to the present invention [0378]
8.2 Merits of defining endpoints using divided figures [0384]
8.3 Benefits of defining supplemental endpoints [0397]
8.4 Merits of endpoint reconstruction [0409]

本発明に係る図形パターンの形状補正装置および形状補正方法は、半導体デバイスの製造プロセスなど、特定の材料層に対して微細なパターニング加工を施す必要がある分野において、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、正確な寸法をもった実図形パターンを形成する技術として広く利用することができる。   The shape correction apparatus and shape correction method for a graphic pattern according to the present invention is based on a lithography process based on an original graphic pattern in a field where a specific material layer needs to be finely patterned, such as a semiconductor device manufacturing process. When forming a real figure pattern on a real substrate, it can be widely used as a technique for forming a real figure pattern having an accurate dimension.

1〜18:評価点
10:元図形パターン(補正前の単位図形)
10a〜10l:分割図形
10X:図形本体部
10Y:穴開き部
15:補正図形パターン(補正後の単位図形)
15a〜10d:補正後の分割図形
16,17,18:補正後の単位図形
20:実図形パターン
100:図形パターンの形状補正装置
100′:図形パターンの形状推定装置
110:評価点設定ユニット
111:単位図形入力部
112:単位図形分割部
113:分割図形ベクトル定義部
114:単位図形ベクトル定義部
115:通常端点定義部
116:端点再構築部
117:評価点定義部
118:補充端点定義部
120:特徴量抽出ユニット
121:元画像作成部
122:画像ピラミッド作成部
123:特徴量算出部
130:バイアス推定ユニット
131:特徴量入力部
132:推定演算部
140:パターン補正ユニット
141:輪郭線分移動処理部
142:輪郭線分追加処理部
143:輪郭線分伸縮処理部
A〜D:個々の画素/個々の画素の画素値
A〜Z:端点
a〜d:評価点Eと各画素の中心点との横方向距離もしくは縦方向距離
A1〜A4:順方向矢印
A0:移動処理前の隅部通常端点
A1,A2:移動処理後の隅部通常端点
Bmax:ビーム最大成型サイズ
b,b(1,1)〜b(i+1,M(i+1)),b(N+1):ニューラルネットワークのパラメータ
C1,C2:参考円
D1〜Dn:差分画像
E,E11〜E23:評価点
F1〜F5:元図形パターン10を構成する図形(長方形)
f(ξ):ニューラルネットワークの演算に用いる関数
G:按分値
GF33,GF55:ガウシアンフィルタ
H:按分値
h(1,1)〜h(N,M(N)):ニューラルネットワークの隠れ層のニューロン/その演算値
i:ニューラルネットワークの隠れ層の段数を示すパラメータ
J:二直線の交点
k:画像番号を示すパラメータ
L:学習情報
LF33,LF55:ラプラシアンフィルタ
L1,L2,L3:端点間の距離
Lcd,Lde,Lij:端点間の距離
Leven:隣接端点の間隔(等間隔)
Lodd:隣接端点の間隔(端数間隔)
Lreg:隣接端点の間隔(基準間隔)
M1:面積密度マップ
M2:エッジ長密度マップ
M3:ドーズ密度マップ
M(1)〜M(N):ニューラルネットワークの各隠れ層の次元
N:ニューラルネットワークの隠れ層の段数/端点の総数
n:画像ピラミッドの階層数/端点の番号
O,O1〜O8,O5′,O7′:輪郭線分
Oa,Ob:輪郭線分
Oin:内側輪郭線(反図形)
Oout:外側輪郭線(正図形)
P1〜Pn:階層画像
Pk:第k番目の階層画像
PC:補正画像
PD:画像ピラミッド(副画像ピラミッド)
PP:画像ピラミッド(主画像ピラミッド)
Q1:第1番目の準備画像(元画像)
Qk:第k番目の準備画像
S:実基板
S1〜S848:流れ図の各ステップ
SS1〜SS44:流れ図の各ステップ
T1,T2,T(n−1),T(n),T(n+1),T(n+2):通常端点
T′,T(n)′,B′〜Z′,:補充端点
U:画素
u:画素寸法
V1〜V20:単位図形ベクトル
Va1〜Vh4:分割図形ベクトル
W,W(1,11)〜W(N+1,1M(N)):ニューラルネットワークのパラメータ
Wmerge:融合基準値
Wrest:残余部分の幅
Wsplit:分割間隔
X:二次元XY平面上の座標軸
x,x1〜xn:特徴量
Y:二次元XY平面上の座標軸
y,y11〜y13:プロセスバイアス
Z:削除された端点
ξ:関数fの引数
ξ1〜ξ4:分割図形の頂点
Φ:存在しない評価点の空データ
1 to 18: Evaluation point 10: Original graphic pattern (unit graphic before correction)
10a to 10l: divided figure 10X: figure main body part 10Y: perforated part 15: corrected figure pattern (unit figure after correction)
15a to 10d: corrected divided figures 16, 17, 18: corrected unit figure 20: actual figure pattern 100: figure pattern shape correcting device 100 ': figure pattern shape estimating device 110: evaluation point setting unit 111: Unit graphic input unit 112: Unit graphic dividing unit 113: Divided graphic vector defining unit 114: Unit graphic vector defining unit 115: Normal endpoint defining unit 116: Endpoint reconstruction unit 117: Evaluation point defining unit 118: Supplementing endpoint defining unit 120: Feature amount extraction unit 121: original image creation unit 122: image pyramid creation unit 123: feature amount calculation unit 130: bias estimation unit 131: feature amount input unit 132: estimation calculation unit 140: pattern correction unit 141 1: contour line segment movement processing Unit 142: contour line segment addition processing unit 143: contour line segment expansion / contraction processing units A to D: individual pixels / individual pixels Pixel values A to Z: End points a to d: Horizontal distances or vertical distances A1 to A4 between the evaluation point E and the center point of each pixel A1 to A4: Forward arrows A0: Corner normal end points A1, A2 before moving processing: Normal corner end point Bmax after movement processing: Maximum beam forming size b, b (1, 1) to b (i + 1, M (i + 1)), b (N + 1): Neural network parameters C1, C2: Reference circle D1 Dn: difference images E, E11 to E23: evaluation points F1 to F5: figures (rectangles) constituting the original figure pattern 10
f (ξ): function used for calculation of neural network G: apportioned value GF33, GF55: Gaussian filter H: apportioned value h (1,1) to h (N, M (N)): neurons in hidden layer of neural network / The calculated value i: Parameter indicating the number of hidden layers of the neural network J: Intersection of two straight lines k: Parameter indicating the image number L: Learning information LF33, LF55: Laplacian filters L1, L2, L3: Distance Lcd between the end points , Lde, Lij: Distance between end points Leven: Distance between adjacent end points (equal interval)
Lod: Distance between adjacent end points (fractional interval)
Lreg: spacing between adjacent end points (reference spacing)
M1: Area density map M2: Edge length density map M3: Dose density maps M (1) to M (N): Dimensions of each hidden layer of the neural network N: Number of hidden layers of the neural network / total number of end points n: Image Number of pyramid layers / endpoint numbers O, O1 to O8, O5 ', O7': contour segment Oa, Ob: contour segment Oin: inner contour line (anti-graphic)
Oout: Outer outline (regular figure)
P1 to Pn: hierarchical image Pk: k-th hierarchical image PC: corrected image PD: image pyramid (sub-image pyramid)
PP: Image pyramid (main image pyramid)
Q1: First preparation image (original image)
Qk: k-th preparation image S: actual substrates S1 to S848: steps SS1 to SS44 of the flowchart: steps T1, T2, T (n-1), T (n), T (n + 1), T of the flowchart (N + 2): normal end points T ′, T (n) ′, B ′ to Z ′ ,: supplementary end points U: pixels u: pixel dimensions V1 to V20: unit graphic vectors Va1 to Vh4: divided graphic vectors W, W (1 11) to W (N + 1,1M (N)): Neural network parameters Wmerge: Fusion reference value Wrest: Residual portion width Wsplit: Split interval X: Coordinate axes x, x1 to xn on two-dimensional XY plane Y: coordinate axes y, y11 to y13 on the two-dimensional XY plane: process bias Z: deleted endpoints ξ: arguments ξ1 to ξ4 of function f: vertex of divided figure Φ: empty data of evaluation points that do not exist

Claims (21)

元図形パターン(10)に基づくリソグラフィプロセスによって実基板(S)上に実図形パターン(20)を形成する際に、前記実図形パターン(20)が前記元図形パターン(10)に一致するように、前記元図形パターン(10)の形状を補正して、前記リソグラフィプロセスで実際に用いる補正図形パターン(15)を作成する図形パターンの形状補正装置(100)であって、
前記元図形パターン(10)を構成する個々の単位図形(10)について、内部と外部との境界を示す輪郭線上の所定位置に評価点(E)を設定する評価点設定ユニット(110)と、
前記元図形パターン(10)について、前記評価点(E)の周囲の特徴を示す特徴量(x1〜xn)を抽出する特徴量抽出ユニット(120)と、
前記特徴量(x1〜xn)に基づいて、前記評価点(E)の前記元図形パターン(10)上の位置と前記実図形パターン(20)上の位置とのずれ量を示すプロセスバイアス(y)を推定するバイアス推定ユニット(130)と、
前記バイアス推定ユニット(130)から出力されるプロセスバイアスの推定値(y)に基づいて、前記元図形パターン(10)に対する補正を行うことにより、補正図形パターン(15)を作成するパターン補正ユニット(140)と、
を備え、
前記評価点設定ユニット(110)が、
多角形からなる個々の単位図形(10)を入力する単位図形入力部(111)と、
前記単位図形(10)を直線状の分割線で分割して複数の多角形からなる分割図形(10a〜10l)を形成する単位図形分割部(112)と、
前記各分割図形(10a〜10l)について、当該分割図形を構成する多角形の輪郭線に沿って所定の順方向まわりに一周するように、多角形の個々の辺上にそれぞれ分割図形ベクトル(Va1〜Vh4)を定義する分割図形ベクトル定義部(113)と、
前記分割図形ベクトル(Va1〜Vh4)の集合から、互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去し、残ったベクトルにより、前記単位図形(10)の輪郭線に沿って配置された複数の単位図形ベクトル(V1〜V20)を定義する単位図形ベクトル定義部(114)と、
個々の単位図形ベクトル(V1〜V20)の始点位置に、それぞれ通常端点(T)を定義する通常端点定義部(115)と、
個々の単位図形(10)の輪郭線上において互いに隣接して配置された2つの通常端点(T)の間に、それぞれ評価点(E)を定義する評価点定義部(117)と、
個々の単位図形(10)について、多角形の頂点を構成しない通常端点(T)である中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点(T′)を追加定義する補充端点定義部(118)と、
を有し、
前記パターン補正ユニット(140)が、
個々の評価点(E)について、単位図形(10)の輪郭線に沿って当該評価点(E)の一方の側に隣接する通常端点(T)もしくは補充端点(T′)を第1の端点とし、他方の側に隣接する通常端点(T)もしくは補充端点(T′)を第2の端点とする輪郭線分を定義し、個々の評価点(E)についての輪郭線分を、当該評価点(E)のプロセスバイアスの推定値(y)に応じた補正量だけ、輪郭線分に直交する方向に移動させる移動処理を行う輪郭線分移動処理部(141)と、
移動処理前に互いに同じ位置にあった中間通常端点および補充端点(T′)が、移動処理後に異なる2つの位置に分離した場合、それぞれの移動処理後の位置を連結する新たな輪郭線分を追加する追加処理を行う輪郭線分追加処理部(142)と、
移動処理前に多角形の頂点を構成していた通常端点(T)である隅部通常端点が、移動処理後に異なる2つの位置に分離した場合、分離後の2つの隅部通常端点が融合して新たな隅部通常端点となるように、分離後の隅部通常端点を含む各輪郭線分をそれぞれ伸縮する伸縮処理を行う輪郭線分伸縮処理部(143)と、
を有し、前記移動処理、前記追加処理、前記伸縮処理を行った後の輪郭線分の集合体を輪郭線とする単位図形(10)によって構成される補正図形パターン(15)を作成することを特徴とする図形パターンの形状補正装置(100)。
When the real graphic pattern (20) is formed on the real substrate (S) by the lithography process based on the original graphic pattern (10), the real graphic pattern (20) matches the original graphic pattern (10). A figure pattern shape correction apparatus (100) for correcting the shape of the original figure pattern (10) to create a corrected figure pattern (15) actually used in the lithography process,
An evaluation point setting unit (110) for setting an evaluation point (E) at a predetermined position on the contour line indicating the boundary between the inside and the outside of each unit figure (10) constituting the original figure pattern (10);
A feature amount extraction unit (120) for extracting feature amounts (x1 to xn) indicating features around the evaluation point (E) for the original figure pattern (10);
Based on the feature quantities (x1 to xn), a process bias (y indicating a deviation amount between the position of the evaluation point (E) on the original figure pattern (10) and the position on the real figure pattern (20) ) A bias estimation unit (130) for estimating
A pattern correction unit (15) for generating a corrected graphic pattern (15) by correcting the original graphic pattern (10) based on the estimated value (y) of the process bias output from the bias estimation unit (130). 140)
With
The evaluation point setting unit (110)
A unit graphic input unit (111) for inputting individual unit graphic (10) composed of polygons;
A unit graphic dividing unit (112) for dividing the unit graphic (10) with a linear dividing line to form a divided graphic (10a to 10l) composed of a plurality of polygons;
For each of the divided figures (10a to 10l), a divided figure vector (Va1) is placed on each side of the polygon so as to make a round around a predetermined forward direction along the outline of the polygon constituting the divided figure. To Vh4), a divided graphic vector defining unit (113);
From the set of divided graphic vectors (Va1 to Vh4), a search is made for overlapping vector pairs that are arranged on overlapping sides of a pair of adjacent polygons adjacent to each other and whose directions are opposite to each other. A unit graphic vector defining unit (114) that defines a plurality of unit graphic vectors (V1 to V20) arranged along the outline of the unit graphic (10) by removing the overlapping section portion of the unit graphic (10). )When,
A normal end point definition unit (115) for defining a normal end point (T) at the start point position of each unit graphic vector (V1 to V20);
An evaluation point defining unit (117) for defining an evaluation point (E) between two normal end points (T) arranged adjacent to each other on the contour line of each unit graphic (10);
For each unit graphic (10), an intermediate normal end point that is a normal end point (T) that does not constitute a vertex of the polygon is searched, and a supplementary end point (T ′) is additionally defined at the same position as the searched intermediate normal end point. A replenishment endpoint definition section (118);
Have
The pattern correction unit (140) is
For each evaluation point (E), the normal end point (T) or the supplemental end point (T ′) adjacent to one side of the evaluation point (E) along the outline of the unit graphic (10) is the first end point. And defining a contour line segment having the second end point as the normal end point (T) or the supplemental end point (T ′) adjacent to the other side, and the contour line segment for each evaluation point (E) An outline segment movement processing unit (141) for performing a movement process for moving in the direction orthogonal to the outline segment by a correction amount corresponding to the estimated value (y) of the process bias at the point (E);
When the intermediate normal end point and the replenishment end point (T ′) that were in the same position before the moving process are separated into two different positions after the moving process, new contour line segments that connect the positions after the moving process are displayed. A contour line segment addition processing unit (142) for performing additional processing;
When the corner normal end point, which is the normal end point (T) constituting the vertex of the polygon before the movement process, is separated into two different positions after the movement process, the two corner normal end points after separation are merged. A contour line segment expansion / contraction processing unit (143) for performing expansion / contraction processing to expand and contract each contour line segment including the corner normal end point after separation so as to become a new corner normal end point,
And creating a corrected graphic pattern (15) composed of unit graphics (10) whose contour line is an aggregate of contour line segments after performing the moving process, the adding process, and the expansion / contraction process. A figure pattern shape correction apparatus (100) characterized by
請求項1に記載の図形パターンの形状補正装置(100)において、
単位図形分割部(112)が、単位図形(10)を分割して、台形からなる分割図形を形成することを特徴とする図形パターンの形状補正装置(100)。
In the graphic pattern shape correction apparatus (100) according to claim 1,
A figure pattern shape correction apparatus (100), wherein the unit figure dividing unit (112) divides the unit figure (10) to form a divided figure consisting of trapezoids.
請求項1または2に記載の図形パターンの形状補正装置(100)において、
単位図形入力部(111)が、所定の長手方向軸に沿って伸び、互いに平行な直線状の上辺および下辺を有する細長い帯状単位図形(10)を入力したときに、
単位図形分割部(112)が、前記帯状単位図形(10)を、前記長手方向軸に沿って所定間隔で配置された複数の分割線によって分割することにより、前記長手方向軸に沿って一次元的に並んだ複数の分割図形を形成することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to claim 1 or 2,
When the unit graphic input unit (111) inputs an elongated strip-shaped unit graphic (10) having a linear upper side and a lower side that extend along a predetermined longitudinal axis and are parallel to each other,
The unit graphic dividing unit (112) divides the band-shaped unit graphic (10) by a plurality of dividing lines arranged at predetermined intervals along the longitudinal axis, thereby one-dimensionally along the longitudinal axis. A figure pattern shape correction apparatus (100) characterized by forming a plurality of divided figures arranged side by side.
請求項1または2に記載の図形パターンの形状補正装置(100)において、
単位図形入力部(111)が、XY平面上に定義された単位図形(10)を入力したときに、
単位図形分割部(112)が、X軸に平行な水平分割線をY軸方向に所定間隔をあけて複数配置し、これら複数の水平分割線によって前記単位図形(10)を分割することにより、X軸方向に伸びる細長い複数の帯状図形を形成し、更に、前記複数の帯状図形のそれぞれを、X軸に沿って所定間隔で配置されY軸に平行な複数の垂直分割線によって分割することにより、二次元的に並んだ複数の分割図形を形成することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to claim 1 or 2,
When the unit graphic input unit (111) inputs the unit graphic (10) defined on the XY plane,
The unit figure dividing unit (112) arranges a plurality of horizontal dividing lines parallel to the X axis at predetermined intervals in the Y axis direction, and divides the unit figure (10) by the plurality of horizontal dividing lines, By forming a plurality of elongated strips extending in the X-axis direction, and dividing each of the plurality of strips by a plurality of vertical dividing lines arranged at predetermined intervals along the X-axis and parallel to the Y-axis A figure pattern shape correcting apparatus (100), wherein a plurality of divided figures arranged two-dimensionally are formed.
請求項1〜4のいずれかに記載の図形パターンの形状補正装置(100)において、
単位図形分割部(112)が、リソグラフィプロセスで用いる描画装置のビーム最大成型サイズを設定する機能を有し、単位図形(10)の分割に用いる分割線の配置間隔を前記ビーム最大成型サイズ以下に設定することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to any one of claims 1 to 4,
The unit graphic dividing unit (112) has a function of setting the maximum beam forming size of the drawing apparatus used in the lithography process, and the arrangement interval of the dividing lines used for dividing the unit graphic (10) is less than the maximum beam forming size. A shape correction apparatus (100) for a graphic pattern characterized by setting.
請求項1〜5のいずれかに記載の図形パターンの形状補正装置(100)において、
分割図形ベクトル定義部(113)が、K角形からなる分割図形の各頂点に、輪郭線に沿って時計まわりもしくは反時計まわりの順に第1の頂点〜第Kの頂点と番号を付し、第kの頂点を始点とし、第(k+1)の頂点(但し、k=Kの場合は第1の頂点)を終点とする第kの分割図形ベクトル(Va1〜Vh4)を定義する処理を、k=1〜Kまで繰り返し行うことにより、当該分割図形についての分割図形ベクトルを定義することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to any one of claims 1 to 5,
The divided graphic vector defining unit (113) assigns numbers to the vertices of the K-shaped divided graphic in the order of the first vertex to the Kth vertex in the clockwise or counterclockwise order along the contour line. The process of defining the kth divided figure vector (Va1 to Vh4) starting from the vertex of k and ending at the (k + 1) th vertex (where k = K, the first vertex) is k = A figure pattern shape correction apparatus (100) characterized by defining a divided figure vector for the divided figure by repeatedly performing steps 1 to K.
請求項1〜6のいずれかに記載の図形パターンの形状補正装置(100)において、
評価点定義部(117)が、単位図形(10)の輪郭線上において互いに隣接して配置された2つの通常端点の中点位置に評価点を定義することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to any one of claims 1 to 6,
The figure pattern shape correction apparatus, wherein the evaluation point definition unit (117) defines an evaluation point at the midpoint position of two normal end points arranged adjacent to each other on the contour line of the unit graphic (10) (100).
請求項1〜7のいずれかに記載の図形パターンの形状補正装置(100)において、
補充端点定義部(118)が、1つの輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼んだときに、第nの通常端点T(n)に着目して、第(n−1)の通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N)),第nの通常端点T(n),第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1))の3点が一直線上にある場合に、前記第nの通常端点T(n)を中間通常端点と判定し、この中間通常端点と同じ位置に補充端点を追加定義する処理を、n=1〜Nまで繰り返し実行することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to any one of claims 1 to 7,
The replenishment end point definition unit (118) defines a total of N normal end points defined for one contour line in the order along the contour line, respectively, from the first normal end point T (1) to the Nth normal end point. When calling T (N), paying attention to the nth normal end point T (n), the (n-1) th normal end point T (n-1) (however, if n = 1, the Nth Normal end point T (N)), nth normal end point T (n), and (n + 1) th normal end point T (n + 1) (where n = N, the first normal end point T (1)) When the three points are on a straight line, the n-th normal end point T (n) is determined as an intermediate normal end point, and n = 1 to N The figure pattern shape correction apparatus (100), which is repeatedly executed.
請求項1〜8のいずれかに記載の図形パターンの形状補正装置(100)において、
輪郭線分伸縮処理部(143)が、ある1つの隅部通常端点が移動処理により第1の移動端点と第2の移動端点とに分離した場合に、前記第1の移動端点を一方の端点とする第1の移動後輪郭線分を含む直線と前記第2の移動端点を一方の端点とする第2の移動後輪郭線分を含む直線との交点を求め、当該交点を新たな隅部通常端点とし、前記第1の移動後輪郭線分および前記第2の移動後輪郭線分に対して一方の端点が前記新たな隅部通常端点となるような伸縮処理を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to any one of claims 1 to 8,
When the contour line segment expansion / contraction processing unit (143) separates one corner normal end point into the first moving end point and the second moving end point by the moving process, the first moving end point is set as one end point. An intersection of a straight line including the first post-movement contour line segment and a straight line including the second post-movement contour line segment having the second movement end point as one end point is obtained, and the intersection point is determined as a new corner. A normal end point is used, and an expansion / contraction process is performed on the first post-movement contour segment and the second post-movement contour segment so that one end point becomes the new corner normal end point. Shape correction apparatus for graphic pattern (100).
請求項1〜9のいずれかに記載の図形パターンの形状補正装置(100)において、
評価点設定ユニット(110)が、通常端点定義部(115)によって単位図形(10)の輪郭線上に定義された通常端点に対して、数もしくは位置を修正する再構築を行う端点再構築部(116)を更に有し、
評価点定義部(117)が、前記再構築によって得られた通常端点に基づいて評価点を定義することを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) for a graphic pattern according to any one of claims 1 to 9,
The evaluation point setting unit (110) performs an end point restructuring unit (rebuild for correcting the number or position of the normal end points defined on the outline of the unit graphic (10) by the normal end point definition unit (115) ( 116),
The figure pattern shape correction device (100), wherein the evaluation point definition unit (117) defines evaluation points based on the normal end points obtained by the reconstruction.
請求項10に記載の図形パターンの形状補正装置(100)において、
端点再構築部(116)が、一部もしくは全部の単位図形(10)について、中間通常端点の一部もしくは全部を除去する端点除去処理により、通常端点(T)の再構築を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 10,
The end point reconstruction unit (116) reconstructs the normal end point (T) by the end point removal processing for removing a part or all of the intermediate normal end point for a part or all of the unit graphic (10). A figure pattern shape correction apparatus (100).
請求項11に記載の図形パターンの形状補正装置(100)において、
端点再構築部(116)が、1つの単位図形(10)の1本の輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼び、第nの通常端点T(n)に着目して、第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離をL1とし、第nの通常端点T(n)と第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1):以下同様)との間の距離をL2としたときに、
L1およびL2の少なくとも一方が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N)),T(n),T(n+1)の3点が一直線上にある場合に、前記第nの通常端点T(n)を除去対象とする判定処理を、n=1〜Nまで繰り返し実行し、除去対象となった通常端点を除去する端点除去処理を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 11,
The end point reconstruction unit (116) sets a total of N normal end points defined for one contour line of one unit graphic (10) in the order along the contour line, respectively, as the first normal end point T. (1) to Nth normal end point T (N). Focusing on the nth normal end point T (n), the nth normal end point T (n) and the removal target located immediately before it. Normal end point T (n−m) (where m is a natural number, and when n−m <1, T (n−m + N)) is L1, and the nth normal end point T ( n) and the (n + 1) th normal end point T (n + 1) (however, when n = N, the first normal end point T (1): the same applies hereinafter) when the distance is L2.
At least one of L1 and L2 is equal to or less than a predetermined reference value Wmerge, and normal end point T (n-1) (where N = 1, Nth normal end point T (N)), T (n) , T (n + 1) are on the straight line, the determination process for removing the nth normal end point T (n) is repeatedly executed from n = 1 to N, and the removal target is obtained. A shape correction apparatus (100) for a graphic pattern, which performs an end point removal process for removing normal end points.
請求項11に記載の図形パターンの形状補正装置(100)において、
端点再構築部(116)が、1つの単位図形(10)の1本の輪郭線について定義されている合計N個の通常端点を、当該輪郭線に沿った順に、それぞれ第1の通常端点T(1)〜第Nの通常端点T(N)と呼び、第nの通常端点T(n)と、その直前に位置する除去対象となっていない通常端点T(n−m)(但し、mは、自然数であり、n−m<1の場合は、T(n−m+N))との距離をL1とし、第nの通常端点T(n)と第(n+1)の通常端点T(n+1)(但し、n=Nの場合は第1の通常端点T(1):以下同様)との間の距離をL2とし、第(n+1)の通常端点T(n+1)と第(n+2)の通常端点T(n+2)(但し、n=N−1の場合は第1の通常端点T(1)、n=Nの場合は第2の通常端点T(2):以下同様)との間の距離をL3としたときに、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1)(但し、n=1の場合は第Nの通常端点T(N):以下同様),T(n),T(n+1),T(n+2)の4点が一直線上にある場合には、L1<L3であれば通常端点T(n)を除去対象とし、L1>L3であれば通常端点T(n+1)を除去対象とし、L1=L3であれば通常端点T(n)もしくは通常端点T(n+1)のいずれかを除去対象とし、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n−1),T(n),T(n+1)の3点は一直線上にあるが,通常端点T(n+2)は当該一直線上にない場合には、通常端点T(n)を除去対象とし、
L2が所定の基準値Wmerge以下であり、かつ、通常端点T(n),T(n+1),T(n+2)の3点は一直線上にあるが、通常端点T(n−1)は当該一直線上にない場合には、通常端点T(n+1)を除去対象とする、
という処理を、n≧Nが満たされるまで、nを1ずつ増加させながら繰り返し実行し、除去対象となった通常端点を除去する端点除去処理を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 11,
The end point reconstruction unit (116) sets a total of N normal end points defined for one contour line of one unit graphic (10) in the order along the contour line, respectively, as the first normal end point T. (1) to the Nth normal end point T (N), the nth normal end point T (n), and the normal end point T (n−m) (m) Is a natural number, and when n−m <1, the distance from T (n−m + N)) is L1, and the nth normal end point T (n) and the (n + 1) th normal end point T (n + 1) (However, when n = N, the distance between the first normal end point T (1): the same applies hereinafter) is L2, and the (n + 1) th normal end point T (n + 1) and the (n + 2) th normal end point T (n + 2) (however, when n = N−1, the first normal end point T (1), when n = N, the second normal end point T (2): the same applies hereinafter. ) The distance between the when the L3,
L2 is equal to or less than a predetermined reference value Wmerge, and normal end point T (n-1) (where n = 1, Nth normal end point T (N): the same applies hereinafter), T (n), T When the four points (n + 1) and T (n + 2) are on a straight line, if L1 <L3, the normal end point T (n) is to be removed, and if L1> L3, the normal end point T (n + 1) is selected. If it is a removal target, and L1 = L3, either the normal end point T (n) or the normal end point T (n + 1) is the removal target,
L2 is equal to or less than a predetermined reference value Wmerge, and the three normal end points T (n−1), T (n), and T (n + 1) are on a straight line, but the normal end point T (n + 2) is the straight line. If it is not on the line, the normal endpoint T (n) is the removal target,
L2 is equal to or less than a predetermined reference value Wmerge, and the three normal end points T (n), T (n + 1), and T (n + 2) are on a straight line, but the normal end point T (n-1) is the straight line. If it is not on the line, the normal end point T (n + 1) is to be removed,
The graphic pattern shape correction device (10) is executed by repeatedly performing the above process while increasing n by 1 until n ≧ N is satisfied, and performing the end point removal processing for removing the normal end point to be removed ( 100).
請求項10に記載の図形パターンの形状補正装置(100)において、
端点再構築部(116)が、一部の輪郭線について、中間通常端点を一旦除去し、当該一部の輪郭線の各辺に新たな中間通常端点を配置する端点再配置処理により、通常端点の再構築を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 10,
The end point reconstruction unit (116) temporarily removes the intermediate normal end points for a part of the contour lines, and arranges new intermediate normal end points on each side of the part of the contour lines, thereby performing normal end points. The figure pattern shape correction apparatus (100) characterized by reconstructing
請求項14に記載の図形パターンの形状補正装置(100)において、
端点再構築部(116)が、特定の輪郭線についての中間通常端点を除去した後、前記特定の輪郭線の各辺上に所定間隔で中間通常端点を再配置することにより、端点再配置処理を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 14,
After the end point restructuring unit (116) removes the intermediate normal end point for the specific contour line, the end point rearrangement process is performed by rearranging the intermediate normal end point at predetermined intervals on each side of the specific contour line. A figure pattern shape correcting apparatus (100) characterized by
請求項10に記載の図形パターンの形状補正装置(100)において、
端点再構築部(116)が、請求項11〜13のいずれかに記載の端点除去処理と、請求項14または15に記載の端点再配置処理と、を単位図形(10)の輪郭線ごとに選択的に実行する機能を有し、
順方向まわりの単位図形ベクトル(V1〜V20)によって囲まれた正図形上の通常端点に対しては、前記端点除去処理により端点再構築を行い、前記順方向とは逆の逆方向まわりの単位図形ベクトル(V1〜V20)によって囲まれた反図形上の通常端点に対しては、前記端点再配置処理により端点再構築を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 10,
The end point reconstruction unit (116) performs the end point removal processing according to any one of claims 11 to 13 and the end point rearrangement processing according to claim 14 or 15 for each contour line of the unit graphic (10). It has a function to execute selectively,
For normal end points on a regular figure surrounded by unit figure vectors (V1 to V20) around the forward direction, the end points are reconstructed by the end point removal processing, and the unit around the reverse direction opposite to the forward direction is used. A figure pattern shape correction apparatus (100), characterized in that, for normal end points on an anti-figure surrounded by figure vectors (V1 to V20), end point reconstruction is performed by the end point rearrangement process.
請求項1〜16のいずれかに記載の図形パターンの形状補正装置(100)において、
特徴量抽出ユニット(120)が、パターン補正ユニット(140)によって作成された補正図形パターン(15)について、当該補正図形パターン(15)上の評価点(E)の周囲の特徴を示す特徴量(x1〜xn)を抽出する機能を有し、
バイアス推定ユニット(130)が、前記特徴量(x1〜xn)に基づいて、前記評価点(E)の前記補正図形パターン(15)上の位置と実図形パターン(20)上の位置とのずれ量を示すプロセスバイアス(y)を推定する機能を有し、
パターン補正ユニット(140)が、前記バイアス推定ユニット(130)から出力されるプロセスバイアス(y)の推定値に基づいて、前記補正図形パターン(15)に対する更なる補正を行うことにより、新たな補正図形パターン(15)を作成する機能を有し、
補正図形パターン(15)に対する補正が繰り返し実行されることを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to any one of claims 1 to 16,
The feature quantity extraction unit (120) indicates the feature quantity (E) on the corrected figure pattern (15) around the evaluation point (E) on the corrected figure pattern (15) created by the pattern correction unit (140). x1 to xn) has a function of extracting
The bias estimation unit (130) shifts the position of the evaluation point (E) between the position on the corrected graphic pattern (15) and the position on the actual graphic pattern (20) based on the feature values (x1 to xn). A function to estimate a process bias (y) indicating a quantity;
The pattern correction unit (140) performs a further correction on the corrected graphic pattern (15) based on the estimated value of the process bias (y) output from the bias estimation unit (130), so that a new correction is performed. It has a function to create a graphic pattern (15),
A graphic pattern shape correction apparatus (100), wherein correction for a corrected graphic pattern (15) is repeatedly executed.
請求項17に記載の図形パターンの形状補正装置(100)において、
輪郭線分伸縮処理部(143)が、輪郭線分を伸縮する処理を行った後、伸縮処理後の輪郭線分についての評価点(E)の位置を修正する処理を行うことを特徴とする図形パターンの形状補正装置(100)。
In the shape correction apparatus (100) of the graphic pattern according to claim 17,
The contour line segment expansion / contraction processing unit (143) performs a process of correcting the position of the evaluation point (E) for the contour line segment after the expansion / contraction process after performing the process of expanding / contracting the contour line segment. Shape correction apparatus for graphic pattern (100).
請求項1〜18のいずれかに記載の図形パターンの形状補正装置(100)または当該図形パターンの形状補正装置(100)に含まれる評価点設定ユニット(110)もしくはパターン補正ユニット(140)としてコンピュータを機能させるプログラム。   Computer as the graphic pattern shape correction device (100) according to any one of claims 1 to 18, or the evaluation point setting unit (110) or pattern correction unit (140) included in the graphic pattern shape correction device (100) A program that makes it work. 元図形パターン(10)に基づくリソグラフィプロセスによって実基板(S)上に実図形パターン(20)を形成する際に、前記実図形パターン(20)が前記元図形パターン(10)に一致するように、前記元図形パターン(10)の形状を補正して、前記リソグラフィプロセスで実際に用いる補正図形パターン(15)を作成する図形パターンの形状補正方法であって、
コンピュータが、前記元図形パターン(10)を構成する個々の単位図形(10)について、内部と外部との境界を示す輪郭線上の所定位置に評価点(E)を設定する評価点設定段階(S2)と、
コンピュータが、前記元図形パターン(10)について、前記評価点(E)の周囲の特徴を示す特徴量(x1〜xn)を抽出する特徴量抽出段階(S3)と、
コンピュータが、前記特徴量(x1〜xn)に基づいて、前記評価点(E)の前記元図形パターン(10)上の位置と前記実図形パターン(20)上の位置とのずれ量を示すプロセスバイアス(y)を推定するバイアス推定段階(S4)と、
コンピュータが、前記バイアス推定段階(S4)によって得られるプロセスバイアスの推定値(y)に基づいて、前記元図形パターン(10)に対する補正を行うことにより、補正図形パターン(15)を作成するパターン補正段階(S5)と、
を有し、
前記評価点設定段階(S2)が、
多角形からなる個々の単位図形(10)を入力する単位図形入力ステップ(111)と、
前記単位図形(10)を直線状の分割線で分割して複数の多角形からなる分割図形を形成する単位図形分割ステップ(112)と、
前記各分割図形について、当該分割図形を構成する多角形の輪郭線に沿って所定の順方向まわりに一周するように、多角形の個々の辺上にそれぞれ分割図形ベクトル(Va1〜Vh4)を定義する分割図形ベクトル定義ステップ(113)と、
前記分割図形ベクトル(Va1〜Vh4)の集合から、互いに隣接する一対の隣接多角形の重複する辺上に配置され、互いに向きが逆方向である重複ベクトル対を探索し、探索された重複ベクトル対のうちの重複区間部分を除去し、残ったベクトルにより、前記単位図形(10)の輪郭線に沿って配置された複数の単位図形ベクトル(V1〜V20)を定義する単位図形ベクトル定義ステップ(114)と、
個々の単位図形ベクトル(V1〜V20)の始点位置に、それぞれ通常端点(T)を定義する通常端点定義ステップ(115)と、
前記単位図形(10)の輪郭線上において互いに隣接して配置された2つの通常端点(T)の間に、それぞれ評価点(E)を定義する評価点定義ステップ(117)と、
個々の単位図形(10)について、多角形の頂点を構成しない通常端点である中間通常端点を探索し、探索された中間通常端点と同じ位置に補充端点を追加定義する補充端点定義ステップ(118)と、
を有し、
前記パターン補正段階(S5)が、
個々の評価点(E)について、単位図形(10)の輪郭線に沿って当該評価点(E)の一方の側に隣接する通常端点(T)もしくは補充端点(T′)を第1の端点とし、他方の側に隣接する通常端点(T)もしくは補充端点(T′)を第2の端点とする輪郭線分を定義し、個々の評価点(E)についての輪郭線分を、当該評価点(E)のプロセスバイアスの推定値(y)に応じた補正量だけ、輪郭線分に直交する方向に移動させる移動処理を行う輪郭線分移動ステップ(141)と、
移動処理前に互いに同じ位置にあった中間通常端点および補充端点(T′)が、移動処理後に異なる2つの位置に分離した場合、それぞれの移動処理後の位置を連結する新たな輪郭線分を追加する追加処理を行う輪郭線分追加ステップ(142)と、
移動処理前に多角形の頂点を構成していた通常端点である隅部通常端点が、移動処理後に異なる2つの位置に分離した場合、分離後の2つの隅部通常端点が融合して新たな隅部通常端点となるように、分離後の隅部通常端点を含む各輪郭線分をそれぞれ伸縮する伸縮処理を行う輪郭線分伸縮ステップ(143)と、
を有し、前記移動処理、前記追加処理、前記伸縮処理を行った後の輪郭線分の集合体を輪郭線とする単位図形(10)によって構成される補正図形パターン(15)を作成することを特徴とする図形パターンの形状補正方法。
When the real graphic pattern (20) is formed on the real substrate (S) by the lithography process based on the original graphic pattern (10), the real graphic pattern (20) matches the original graphic pattern (10). The figure pattern shape correcting method for correcting the shape of the original figure pattern (10) to create a corrected figure pattern (15) actually used in the lithography process,
An evaluation point setting step (S2) in which the computer sets an evaluation point (E) at a predetermined position on the contour line indicating the boundary between the inside and the outside of each unit figure (10) constituting the original figure pattern (10). )When,
A feature amount extraction step (S3) in which the computer extracts feature amounts (x1 to xn) indicating features around the evaluation point (E) for the original figure pattern (10);
A process in which the computer indicates a deviation amount between the position of the evaluation point (E) on the original graphic pattern (10) and the position of the actual graphic pattern (20) based on the feature values (x1 to xn). A bias estimation step (S4) for estimating the bias (y);
Pattern correction for creating a corrected graphic pattern (15) by the computer correcting the original graphic pattern (10) based on the estimated value (y) of the process bias obtained in the bias estimation step (S4) Stage (S5);
Have
The evaluation point setting step (S2)
A unit graphic input step (111) for inputting individual unit graphic (10) composed of polygons;
A unit graphic dividing step (112) for dividing the unit graphic (10) with a linear dividing line to form a divided graphic consisting of a plurality of polygons;
For each of the divided figures, a divided figure vector (Va1 to Vh4) is defined on each side of the polygon so as to go around the predetermined forward direction along the outline of the polygon that forms the divided figure. A divided figure vector defining step (113) to perform,
From the set of divided graphic vectors (Va1 to Vh4), a search is made for overlapping vector pairs that are arranged on overlapping sides of a pair of adjacent polygons adjacent to each other and whose directions are opposite to each other. A unit graphic vector defining step (114) of removing a plurality of overlapping section portions and defining a plurality of unit graphic vectors (V1 to V20) arranged along the outline of the unit graphic (10) by the remaining vectors. )When,
A normal end point defining step (115) for defining normal end points (T) at the start point positions of the individual unit graphic vectors (V1 to V20);
An evaluation point defining step (117) for defining an evaluation point (E) between two normal end points (T) arranged adjacent to each other on the contour line of the unit graphic (10);
For each unit graphic (10), an intermediate normal end point that is a normal end point that does not constitute a vertex of the polygon is searched, and a replenishment end point defining step (118) for additionally defining a replenishment end point at the same position as the searched intermediate normal end point When,
Have
The pattern correction step (S5)
For each evaluation point (E), the normal end point (T) or the supplemental end point (T ′) adjacent to one side of the evaluation point (E) along the outline of the unit graphic (10) is the first end point. And defining a contour line segment having the second end point as the normal end point (T) or the supplemental end point (T ′) adjacent to the other side, and the contour line segment for each evaluation point (E) A contour segment moving step (141) for performing a movement process for moving the point (E) in a direction orthogonal to the contour segment by a correction amount corresponding to the estimated value (y) of the process bias;
When the intermediate normal end point and the replenishment end point (T ′) that were in the same position before the moving process are separated into two different positions after the moving process, new contour line segments that connect the positions after the moving process are displayed. A contour segment adding step (142) for performing additional processing;
If the corner normal end point, which is the normal end point that formed the vertex of the polygon before the movement process, is separated into two different positions after the movement process, the two corner normal end points after the separation are merged to form a new one. A contour line segment expansion / contraction step (143) for performing expansion / contraction processing to expand / contract each contour line segment including the corner normal end point after separation so as to be a corner normal end point;
And creating a corrected graphic pattern (15) composed of unit graphics (10) whose contour line is an aggregate of contour line segments after performing the moving process, the adding process, and the expansion / contraction process. A shape correction method for a graphic pattern characterized by the above.
請求項20に記載の図形パターンの形状補正方法において、
評価点設定段階(S2)が、通常端点定義ステップ(115)によって定義された通常端点(T)に対して、数もしくは位置を修正する再構築を行う端点再構築ステップ(116)を更に有し、
評価点定義ステップ(117)において、前記再構築によって得られた通常端点(T)に基づいて評価点(E)を定義することを特徴とする図形パターンの形状補正方法。
The shape correction method for a graphic pattern according to claim 20,
The evaluation point setting stage (S2) further includes an end point restructuring step (116) for performing restructuring to correct the number or position of the normal end point (T) defined by the normal end point defining step (115). ,
In the evaluation point definition step (117), the evaluation point (E) is defined on the basis of the normal end point (T) obtained by the reconstruction, and a shape correction method for a graphic pattern.
JP2019500682A 2017-07-14 2018-06-12 Shape correction apparatus and shape correction method for figure pattern Active JP6497494B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017138112 2017-07-14
JP2017138112 2017-07-14
PCT/JP2018/022296 WO2019012887A1 (en) 2017-07-14 2018-06-12 Shape correction device and shape correction method for graphical pattern

Publications (2)

Publication Number Publication Date
JP6497494B1 true JP6497494B1 (en) 2019-04-10
JPWO2019012887A1 JPWO2019012887A1 (en) 2019-07-11

Family

ID=65002162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019500682A Active JP6497494B1 (en) 2017-07-14 2018-06-12 Shape correction apparatus and shape correction method for figure pattern

Country Status (3)

Country Link
JP (1) JP6497494B1 (en)
TW (1) TW201908862A (en)
WO (1) WO2019012887A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11030372B2 (en) * 2018-10-31 2021-06-08 Taiwan Semiconductor Manufacturing Company Ltd. Method for generating layout diagram including cell having pin patterns and semiconductor device based on same
US11093684B2 (en) * 2018-10-31 2021-08-17 Taiwan Semiconductor Manufacturing Company, Ltd. Power rail with non-linear edge
CN111768464B (en) * 2019-04-01 2023-09-19 珠海金山办公软件有限公司 Graph adjustment method and device
CN112859509B (en) * 2019-11-28 2022-04-12 长鑫存储技术有限公司 OPC correction method and OPC correction device
CN112015045B (en) * 2020-08-31 2023-11-17 东方晶源微电子科技(北京)有限公司 Mask optimization method and electronic equipment
CN112258636B (en) * 2020-10-26 2022-10-25 中铁八局集团第一工程有限公司 Method for building three-dimensional model by using two-dimensional graph applied to building field
CN114693954B (en) * 2022-04-02 2024-07-09 中煤(天津)地下工程智能研究院有限公司 Underground coal mine light spot feature extraction method and system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194480A (en) * 1998-01-07 1999-07-21 Sony Corp Formation of mask pattern data for writing and its apparatus
WO2003067331A1 (en) * 2002-02-08 2003-08-14 Sony Corporation Exposure mask pattern forming method, exposure mask pattern, and semiconductor device manufacturing method
JP2008065246A (en) * 2006-09-11 2008-03-21 Nec Electronics Corp Layout pattern correction device, layout pattern correction method, and program
WO2016102607A1 (en) * 2014-12-23 2016-06-30 Aselta Nanographics Method of applying vertex based corrections to a semiconductor design
JP2016134567A (en) * 2015-01-21 2016-07-25 株式会社ニューフレアテクノロジー Drawing data creating method for energy beam drawing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11194480A (en) * 1998-01-07 1999-07-21 Sony Corp Formation of mask pattern data for writing and its apparatus
WO2003067331A1 (en) * 2002-02-08 2003-08-14 Sony Corporation Exposure mask pattern forming method, exposure mask pattern, and semiconductor device manufacturing method
JP2008065246A (en) * 2006-09-11 2008-03-21 Nec Electronics Corp Layout pattern correction device, layout pattern correction method, and program
WO2016102607A1 (en) * 2014-12-23 2016-06-30 Aselta Nanographics Method of applying vertex based corrections to a semiconductor design
JP2016134567A (en) * 2015-01-21 2016-07-25 株式会社ニューフレアテクノロジー Drawing data creating method for energy beam drawing device

Also Published As

Publication number Publication date
JPWO2019012887A1 (en) 2019-07-11
WO2019012887A1 (en) 2019-01-17
TW201908862A (en) 2019-03-01

Similar Documents

Publication Publication Date Title
JP6497494B1 (en) Shape correction apparatus and shape correction method for figure pattern
JP5078543B2 (en) Local coloring for hierarchical OPC
US6631511B2 (en) Generating mask layout data for simulation of lithographic processes
JP4395047B2 (en) Renesting into designs for efficient long-range calculation of correlation maps
KR100506106B1 (en) Method of generating mask pattern and method of manufacturing semiconductor device
JP2003523545A (en) Method and apparatus for maintaining a data hierarchy in a system for mask description
US11301610B2 (en) Methods for modeling of a design in reticle enhancement technology
CN111627799A (en) Method for manufacturing semiconductor element
EP2113109B1 (en) Simulation site placement for lithographic process models
JP7120127B2 (en) Figure pattern shape estimation device
Cecil et al. Establishing fast, practical, full-chip ILT flows using machine learning
JP2005062750A (en) Correction method and verification method for pattern dimension by using opc, mask and semiconductor device formed by using this correction method, and system and program to execute this correction method
JP6508504B1 (en) Shape correction apparatus and shape correction method for figure pattern
JP2009216936A (en) Processing method of photo-mask data using hierarchical structure, photo-mask data processing system, and manufacturing method
CN111611759A (en) Mask auxiliary graph optimization method, computer readable medium and system
TWI853280B (en) Methods and systems to determine parasitics for semiconductor or flat panel display fabrication
US20230032510A1 (en) Computing parasitic values for semiconductor designs
US20230168660A1 (en) Based on multiple manufacturing process variations, producing multiple contours representing predicted shapes of an ic design component
US20230169247A1 (en) Auto compaction tool for electronic design automation
TW202312103A (en) Methods and systems to determine parasitics for semiconductor or flat panel display fabrication
CN114002912A (en) Dose optimization techniques for mask synthesis tools
CN114002913A (en) Dose information generation and communication for lithographic manufacturing systems
WO2023097068A1 (en) Interactive compaction tool for electronic design automation
JPH1079332A (en) Method and apparatus for producing pattern layout for integrated circuit and method for forming circuit pattern
JP2011176046A (en) Exposure method and method of making semiconductor device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190110

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190110

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190225

R150 Certificate of patent or registration of utility model

Ref document number: 6497494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150