WO2018235669A1 - 図形パターンの形状補正装置および形状補正方法 - Google Patents

図形パターンの形状補正装置および形状補正方法 Download PDF

Info

Publication number
WO2018235669A1
WO2018235669A1 PCT/JP2018/022295 JP2018022295W WO2018235669A1 WO 2018235669 A1 WO2018235669 A1 WO 2018235669A1 JP 2018022295 W JP2018022295 W JP 2018022295W WO 2018235669 A1 WO2018235669 A1 WO 2018235669A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern
correction
bias
evaluation point
original
Prior art date
Application number
PCT/JP2018/022295
Other languages
English (en)
French (fr)
Inventor
剛哉 下村
洋平 大川
Original Assignee
大日本印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大日本印刷株式会社 filed Critical 大日本印刷株式会社
Priority to JP2019502260A priority Critical patent/JP6508504B1/ja
Publication of WO2018235669A1 publication Critical patent/WO2018235669A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F7/00Photomechanical, e.g. photolithographic, production of textured or patterned surfaces, e.g. printing surfaces; Materials therefor, e.g. comprising photoresists; Apparatus specially adapted therefor
    • G03F7/20Exposure; Apparatus therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/027Making masks on semiconductor bodies for further photolithographic processing not provided for in group H01L21/18 or H01L21/34

Definitions

  • the present invention relates to a shape correction apparatus and shape correction method for a graphic pattern, and more particularly to a technology for correcting the shape of a graphic pattern formed on a substrate through a lithography process.
  • fine patterns are formed on a physical substrate through a lithography process involving drawing using light or an electron beam.
  • a method has been taken to form
  • a fine mask pattern is designed using a computer, and the resist layer formed on the substrate is exposed based on the data of the mask pattern obtained, developed, and then the remaining resist layer is masked. Etching is performed to form a fine pattern on the substrate.
  • the lithography process includes the steps of exposure, development, and etching, so the actual figure pattern finally formed on the substrate does not exactly match the original figure pattern used in the exposure step. It is for.
  • drawing on the resist layer is performed by light or electron beam.
  • the exposure region actually drawn on the resist layer by the proximity effect is the original figure It is known that the area is slightly larger than the pattern.
  • PE Proximity Effect
  • a process of manufacturing a semiconductor device including a lithography process after designing a desired original figure pattern on a computer, the lithography process using this original figure pattern is simulated on a computer, and an actual substrate is obtained. A procedure is performed to estimate the shape of the real figure pattern that will be formed on top. Then, based on the shape (dimension) of the actual figure pattern obtained as a result of simulation, correction is performed on the shape (dimension) of the original figure pattern as necessary, and the correction figure pattern obtained by this correction is actually used.
  • the lithography process will be performed to produce the actual semiconductor device.
  • Patent Document 1 a feature factor characterizing the layout of the original figure pattern and a control factor affecting the dimension of the resist pattern formed on the substrate by the lithography process are used as the input layer.
  • a method of performing high-precision simulation using a neural network is disclosed.
  • Patent Document 2 discloses a method of enhancing the accuracy of simulation using two sets of neural networks
  • Patent Document 3 is suitable for extracting feature quantities from a pattern of a photomask. It is disclosed a method of improving simulation accuracy by setting various extraction parameters.
  • JP 2008-122929 A JP, 2010-044101, A JP, 2010-156866, A
  • a rectangle of 30 nm in width is drawn on the original figure pattern created in the design stage.
  • the lithography process including the steps of exposure, development and etching is performed based on the original figure pattern including the rectangle of width 30 nm
  • the rectangle of width 40 nm on the real substrate is obtained by the proximity effect and the loading phenomenon described above.
  • an accurate shape estimation apparatus it is possible to estimate that a rectangle with a width of 40 nm is formed on the actual substrate by performing simulation instead of the actual lithography process.
  • a width deviation amount of +10 nm (40 nm to 30 nm) is adopted as a correction amount, and a rectangle of width 30 nm on the original graphic pattern is corrected to a rectangle of width 20 nm.
  • a width deviation amount of +10 nm (40 nm to 30 nm) is adopted as a correction amount, and a rectangle of width 30 nm on the original graphic pattern is corrected to a rectangle of width 20 nm.
  • the actual lithography process is performed using the corrected figure pattern as it is, it is not possible to obtain a designed 30 nm wide rectangle on the actual substrate. This is because the degree of influence of the proximity effect and the loading phenomenon described above is different between the rectangle of 30 nm in width and the rectangle of 20 nm in width.
  • the shift amount is 10 nm when the lithography process is performed on a rectangle having a width of 30 nm
  • the shift amount is not usually 10 nm when the lithography process is performed on a rectangle having a width of 20 nm.
  • the present invention can further simplify the work process for correcting the source figure pattern and shorten the work time. It is an object of the present invention to provide a shape correction apparatus and shape correction method for graphic patterns.
  • the original figure pattern in forming a real figure pattern on a real substrate by a lithography process based on the original figure pattern, the original figure pattern is formed so that the real figure pattern matches the original figure pattern.
  • a figure pattern shape correction apparatus for correcting a shape and creating a corrected figure pattern actually used in a lithography process,
  • An evaluation point setting unit that sets an evaluation point on the original figure pattern;
  • a feature amount extraction unit for extracting feature amounts indicating features around evaluation points for a source figure pattern;
  • An optimal correction bias estimation unit for estimating an optimal correction bias indicating a position correction amount of an evaluation point required to bring the real figure pattern closer to the original figure pattern based on the feature amount;
  • a pattern correction unit that corrects the shape of an original figure pattern by moving the position of the evaluation point of the original figure pattern based on the optimum correction bias estimated by the optimum correction bias estimation unit;
  • Provide The optimal correction bias estimation unit A feature amount input unit that inputs feature amounts extracted for evaluation points; Optimally, it stores learning information obtained in the
  • the shape correction device for a graphic pattern in the shape correction device for a graphic pattern according to the second aspect described above, the pattern shape correction process for correcting the correction target pattern graphic based on the simulation result of the lithography process using the predetermined correction target pattern graphic to obtain the corrected pattern graphic, the obtained corrected pattern graphic is a new correction target pattern
  • the position correction amount obtained by repeating the process a predetermined number of times as a figure is used as the optimum correction bias for each test pattern figure.
  • the evaluation point setting unit sets the evaluation point at a predetermined position on the outline based on the original figure pattern including the information of the outline indicating the boundary between the inside and the outside of the figure.
  • the feature quantity extraction unit creates an original image consisting of a set of pixels each having a predetermined pixel value based on the original graphic pattern, and based on the pixel values of pixels near one evaluation point, the evaluation point The feature amount is extracted.
  • the optimum correction bias estimation calculation unit is configured to have a neural network for optimum correction bias estimation with the feature amount input by the feature amount input unit as an input layer and the estimated value of the optimum correction bias as an output layer.
  • a neural network for optimum correction bias estimation is obtained using a neural network for process bias estimation which estimates a process bias indicating the amount of deviation between the position on the original figure pattern of the evaluation point and the position on the actual figure pattern.
  • the parameters obtained by the learning step using the optimal correction bias for a large number of test pattern figures are used as learning information.
  • the evaluation point setting unit has a function of selectively executing a process of setting an evaluation point on an original figure pattern and a process of setting an evaluation point on a corrected figure pattern,
  • the feature amount extraction unit selectively extracts a feature amount indicating a feature around the evaluation point of the original figure pattern and a process of extracting a feature amount indicating a feature around the evaluation point of the corrected figure pattern.
  • the pattern correction unit further corrects the corrected figure pattern by a process of creating a corrected figure pattern by the correction based on the optimum correction bias estimated by the optimum correction bias estimation unit, and a correction based on the process bias estimated by the process bias estimation unit.
  • a function of selectively executing a process of creating a new corrected graphic pattern is provided.
  • a tenth aspect of the present invention is the shape correction device for a graphic pattern according to the ninth aspect described above, Evaluation points are set by an evaluation point setting unit for a given original figure pattern, feature amounts are extracted by a feature amount extraction unit, an optimum correction bias is estimated by an optimum correction bias estimation unit, and a pattern correction unit is performed.
  • the correction creates a corrected figure pattern, Furthermore, evaluation points are set by the evaluation point setting unit to the corrected figure pattern, feature amounts are extracted by the feature amount extraction unit, process bias is estimated by the process bias estimation unit, and further correction is performed by the pattern correction unit.
  • a new corrected figure pattern is created by
  • the process bias estimation unit A feature amount input unit that inputs feature amounts extracted for evaluation points; A process bias estimation operation unit that obtains an estimated value corresponding to the feature amount based on learning information obtained in a learning step performed in advance, and outputs the obtained estimated value as an estimated value of a process bias for an evaluation point; It is intended to have
  • the process bias estimation operation unit has a neural network in which the feature amount input by the feature amount input unit is an input layer and the estimated value of the process bias is an output layer.
  • a fourteenth aspect of the present invention is the shape correction apparatus for a graphic pattern according to the thirteenth aspect described above,
  • the neural network included in the process bias estimation calculation unit is a dimension value obtained by measuring the actual dimension of the real figure pattern formed on the real substrate by the lithography process using the test pattern figure, and a feature obtained from the test pattern figure
  • the process bias estimation calculation unit obtains an estimated value of the deviation amount of the evaluation point in the normal direction of the outline as the estimated value of the process bias for the evaluation point located on the outline of the predetermined figure. is there.
  • the feature amount extraction unit is configured to extract the variation amount of the optimum correction bias or the process bias depending on the position of the evaluation point on the actual substrate as one of the feature amounts.
  • the shape correction device for graphic patterns according to the first to sixteenth aspects described above is configured by incorporating a program into a computer.
  • the original figure pattern in forming an actual figure pattern on a real substrate by a lithography process based on an original figure pattern, the original figure pattern is formed so that the actual figure pattern matches the original figure pattern.
  • a shape correction method of a figure pattern for correcting a shape and creating a corrected figure pattern actually used in a lithography process Implement the first preparation stage, the second preparation stage, and the correction process stage; In the first preparation stage, a plurality of evaluation points set on the test pattern figure so that the computer will match the test pattern figure with the actual figure that will be obtained by the lithography process using the predetermined test pattern figure.
  • an optimal correction bias determination process to determine an optimal correction bias indicating a position correction amount for a plurality of test pattern figures
  • the computer extracts feature quantities indicating peripheral features for a plurality of evaluation points set for the test pattern figure, and the extracted feature quantities are input, Performing learning processing to obtain learning information by executing learning for performing an operation such that the optimal correction bias determined in the preparation step 1 is output on a large number of test pattern figures;
  • the computer extracts feature quantities indicating surrounding features for a plurality of evaluation points set for the original graphic pattern, and the extracted features are obtained using the learning information obtained at the second preparation stage.
  • an optimal correction bias for each evaluation point on the original figure pattern is determined, and the position of each evaluation point on the original figure pattern is corrected based on the determined optimum correction bias. It is intended to create a figure pattern.
  • a nineteenth aspect of the present invention is the shape correction method for a graphic pattern according to the eighteenth aspect described above,
  • the optimal correction bias determination process performed in the first preparation stage is A test pattern figure creation step of creating a test pattern figure having an outline indicating the boundary between the inside and the outside;
  • An evaluation point setting step of setting an evaluation point at a predetermined position on an outline of a predetermined correction target pattern graphic;
  • Process bias indicating the amount of deviation between the position of the evaluation point on the pattern to be corrected figure and the position of the evaluation point on the actual figure which will be obtained by the lithography process using the pattern to be corrected
  • Process bias estimation step of estimating
  • An error amount calculating step of estimating the shape of the real figure based on the process bias and calculating an error amount indicating a deviation between the estimated real figure and the test pattern figure;
  • a correction bias determination step of determining a correction bias that indicates a position correction amount for an evaluation point
  • a twentieth aspect of the present invention is the shape correction method for a graphic pattern according to the nineteenth aspect described above,
  • the process bias estimation step is performed using a neural network in which the feature quantity is an input layer and the estimated value of the process bias is an output layer.
  • a twenty-first aspect of the present invention is a shape correction method of a graphic pattern according to the eighteenth to twentieth aspects described above,
  • a learning process is performed to obtain learning information for use in a neural network in which the feature amount is an input layer and the estimated value of the optimal correction bias is an output layer,
  • the correction processing step is performed using the above-mentioned neural network.
  • a twenty-second aspect of the present invention is a method according to any of the eighteenth to twenty-first aspects, wherein any of the first preparation stage, the second preparation stage, and the correction process stage in the figure pattern shape correction method Is performed by the execution of a program built into a computer.
  • a twenty-third aspect of the present invention stores the digital data constituting the learning information obtained in the second preparation step in the shape correction method of a graphic pattern according to the twenty-first aspect described above in an information recording medium To make it available.
  • a feature amount is extracted for each evaluation point set on the original figure pattern, and an optimal correction for each evaluation point is made based on the feature amount.
  • the bias is estimated.
  • the optimum correction bias indicates the position correction amount of the evaluation point necessary to bring the actual figure pattern closer to the original figure pattern, and the position of each evaluation point is moved based on the optimum correction bias to obtain the correction figure pattern.
  • An appropriate corrected graphic pattern can be easily obtained by creating it.
  • the optimal correction bias according to the feature amount of each evaluation point is determined based on the learning information obtained in the learning stage implemented in advance, appropriate position correction may be performed on each evaluation point. it can. Therefore, it is possible to further simplify the work process for correcting the original graphic pattern and to shorten the work time.
  • FIG. 1 is a block diagram showing the configuration of a figure pattern shape correction apparatus 100 according to a basic embodiment of the prior invention. It is a top view which shows an example in which the difference in shape arose between the original figure pattern and the real figure pattern. In the example shown in FIG. 2, it is a top view which shows the example of a setting of each evaluation point, and the process bias which arises in each evaluation point. It is a flowchart which shows the design and manufacturing process of a product using the shape correction apparatus 100 of the figure pattern shown in FIG. It is a top view which shows the concept which grasps
  • FIG. 10 It is a figure which shows the edge length density map M2 produced based on the original figure pattern 10 shown in FIG. It is a top view which shows the original figure pattern 10 containing the information of dose amount. It is a figure which shows the dose density map M3 created based on the dose-added original figure pattern 10 shown in FIG. It is a top view which shows the procedure which produces the k-th hierarchical image Pk by performing the filter processing using Gaussian filter GF33 to the k-th preparatory image Qk. It is a top view which shows the k-th hierarchy image Pk obtained by the filter process shown in FIG. It is a top view which shows the example of the image processing filter utilized for the filter processing shown in FIG.
  • FIG. 10 is a plan view showing a procedure for creating an image pyramid PP composed of n kinds of hierarchical images P1 to Pn in the image pyramid creating unit 122 shown in FIG. 1.
  • FIG. 10 is a plan view showing a procedure for creating an image pyramid PD composed of n kinds of difference images D1 to Dn in the image pyramid creating unit 122 shown in FIG. 1.
  • FIG. 27 is a view showing a specific example of the activation function f ( ⁇ ) shown in FIG. 26.
  • FIG. 26 is a diagram showing arithmetic expressions for obtaining respective values of the second hidden layer to the Nth hidden layer in the diagram shown in FIG. 25. It is a figure which shows the computing equation which calculates
  • FIG. 6 is a pattern transition diagram showing an example of a sequential correction process of a figure pattern by the figure pattern shape correction device 100 according to the prior application invention shown in FIG. 1.
  • the neural network (FIG. (A)) constituting the estimation operation unit 132 according to the prior application invention shown in FIG. 1 and the neural network (FIG. (B)) constituting the estimation operation unit 132 Z according to the present invention shown in FIG. It is a block diagram showing a contrast.
  • FIG. 37 is a table showing an example of optimum correction biases for various test pattern figures determined in the optimum correction bias determination step shown in FIG. 36.
  • FIG. 7 is a plan view of the actual substrate S for illustrating an example in which a change occurs in the process bias y depending on the position on the actual substrate S. It is a three-dimensional graph which shows an example of the specific fluctuation amount of the process bias y which arises by the position on real board
  • FIG. In the modification which considered the position dependence of process bias, it is a diagram showing the operation process in the neural network which asks for process bias y. In the modification which considered the position dependence of process bias, it is a diagram showing the operation process in the neural network which asks for the optimal amendment bias z. It is a table
  • the shape correction apparatus 100 of the figure pattern includes an evaluation point setting unit 110, a feature extraction unit 120, a bias estimation unit 130, and a pattern correction unit 140.
  • three units of the evaluation point setting unit 110, the feature value extraction unit 120, and the bias estimation unit 130 constitute the figure pattern shape estimation apparatus 100 'according to the prior invention, and the figure according to the prior invention
  • the pattern shape correction apparatus 100 is configured by adding a pattern correction unit 140 as a fourth unit to the figure pattern shape estimation apparatus 100 '.
  • the figure pattern shape estimation apparatus 100 ′ serves to estimate the shape of the real figure pattern 20 formed on the real substrate S by simulating a lithography process using the original figure pattern 10.
  • an arrow of a dashed dotted line extending rightward from the original figure pattern 10 is shown, and a real substrate S having a figure pattern 20 is drawn at the tip of the arrow.
  • the dashed dotted arrow indicates the physical lithography process.
  • the illustrated original figure pattern 10 is data of a figure pattern created by a design operation using a computer, and an arrow of a dashed dotted line indicates a lithography process such as physical exposure, development, etching, etc. based on this data. It shows that the actual substrate S is produced by carrying out. On the real substrate S, a real figure pattern 20 corresponding to the original figure pattern 10 is formed. However, when such a lithography process is performed, a slight discrepancy occurs between the original graphic pattern 10 and the real graphic pattern 20. This is because, as described above, it is difficult to form an accurate figure as the original figure pattern 10 on the actual substrate S due to the conditions of steps of exposure, development, and etching included in the lithography process.
  • FIG. 2 is a plan view showing a specific example in which a difference in shape occurs between the original figure pattern 10 and the actual figure pattern 20.
  • FIG. 2 In a semiconductor device etc., it is actually necessary to form a very fine and complicated figure pattern on the surface of an actual substrate S such as silicon, but here, for convenience of explanation, a simple as shown in FIG. 2 (a) The case where a basic figure is given as the original figure pattern 10 will be described.
  • the original graphic pattern 10 shown in the figure is a pattern consisting of one rectangle, and for example, original graphic data showing formation of a material layer corresponding to the hatched rectangular inner area on the real substrate S. Become.
  • a resist layer is formed on the upper surface of the material layer on the actual substrate S, and exposure with light or an electron beam is performed to write on the resist layer.
  • the resist layer is developed to remove the non-exposed part, The exposed portion remains as a remaining resist layer (hatched portion).
  • the material layer is etched using this remaining resist layer as a mask, theoretically, the internal region (hatched part) of the original figure pattern 10 can be left even for the material layer, On the real substrate S, the same real figure pattern as the original figure pattern 10 shown in FIG. 2A can be obtained.
  • the actual figure pattern 20 obtained on the actual substrate S does not exactly match the original figure pattern 10.
  • the conditions of the steps of exposure, development and etching included in the lithography process affect the shape of the real figure pattern 20 finally obtained.
  • drawing on the resist layer is performed by light or electron beam, but at that time, the exposure area actually drawn on the resist layer by the proximity effect (PE: Proximity Effect) is the original figure It is known that the area is slightly larger than the pattern 10.
  • the real figure pattern 20 obtained on the real substrate S is an area which is wider than the original figure pattern 10 (shown by a broken line) as shown in FIG. 2 (b). become.
  • the characteristics of the developing solution used in the developing process, the characteristics of the etching solution and plasma used in the etching process, and conditions such as the time of the developing process and the etching process also affect the shape of the actual figure pattern 20. Therefore, when actually manufacturing a semiconductor device or the like, after designing a desired original figure pattern 10 on a computer, the lithography process using this original figure pattern 10 is simulated on a computer, and on the actual substrate S A procedure is performed to estimate the shape of the real graphic pattern 20 that will be formed.
  • the figure pattern shape estimation apparatus 100 'shown in FIG. 1 is an apparatus having the function of performing such estimation, and does not actually perform the lithography process (exposure, development, and etching steps) for producing the actual substrate S. In addition, it has a function to estimate the shape of the real figure pattern 20 that will be formed on the real substrate S by simulation.
  • the evaluation point setting unit 110 sets an evaluation point E on the original graphic pattern 10. Specifically, figure data including information of an outline indicating the boundary between the inside and the outside of the figure is given to the shape estimation apparatus 100 'as the original figure pattern 10, and the evaluation point setting unit 110 Based on the original graphic pattern 10, processing is performed to set an evaluation point at a predetermined position on the outline.
  • FIG. 3 is a plan view showing an example in which several evaluation points are set for the original figure pattern 10 shown in FIG. 2A and a process bias (dimension error) generated at each evaluation point.
  • FIG. 3A is a plan view showing an example in which evaluation points E11, E12 and E13 are set on the outline of the original figure pattern 10 (rectangular figure) shown in FIG. 2A.
  • FIG. 3 shows a simple example in which three evaluation points E11, E12, and E13 are set for convenience of explanation, actually, more evaluation points are set on each side of the rectangle. Ru.
  • FIG. 3 (b) is a plan view showing the contour (solid line) of the real figure pattern 20 shown in FIG. 2 (b) in contrast to the contour (broken line) of the original figure pattern 10 shown in FIG. 2 (a).
  • a state is shown in which the outline of the real figure pattern 20 shown by a solid line extends outward by the dimension y as compared with the outline of the original figure pattern 10 shown by a broken line. Therefore, the width a of the original figure pattern 10 is expanded to the width b of the actual figure pattern 20.
  • the vertical width is also slightly expanded.
  • the evaluation points E21, E22 and E23 on the real figure pattern 20 are evaluation points determined as points corresponding to the evaluation points E11, E12 and E13 on the original figure pattern 10.
  • the evaluation point E21 is defined as a point obtained by shifting the evaluation point E11 by the predetermined dimension y11 toward the outer side in the normal direction of the outline indicated by the broken line.
  • the evaluation point E22 is defined as a point obtained by shifting the evaluation point E12 by the predetermined dimension y12 toward the outside of the normal line direction of the outline shown by the broken line
  • the evaluation point E23 is an outline showing the evaluation point E13 by the broken line. It is defined as a point shifted by a predetermined dimension y13 toward the outside in the normal direction of.
  • the deviation amount y in the normal direction of the contour line generated for each evaluation point E is I will use it.
  • this deviation amount y is called “process bias y” because it is a bias amount generated due to the lithography process.
  • the process bias y is a value having a positive or negative sign, and in the embodiment shown below, the direction in which the exposed portion (drawing portion) of the figure is thick is defined as a positive value, and the narrowing direction is defined as a negative value.
  • the inside of the figure surrounded by the outline becomes the exposure part (drawing part), and therefore, when shifted in the outward direction of the outline, a positive value is deviated in the inward direction of the outline. Is a negative value.
  • the process biases y11, y12 and y13 take positive values.
  • evaluation points E11, E12, and E13 are shown in FIG. 3 for the sake of convenience of the description, in actuality, more evaluation points E are defined on the outline of the original figure pattern 10. Ru. Therefore, if the process bias y can be estimated for each evaluation point E, the position of each evaluation point E after the lithography process can be determined by shifting each evaluation point E in the normal direction of the contour by the process bias y. The outline position of the real figure pattern 20 can be estimated.
  • the value of process bias y of each evaluation point E is different for each individual evaluation point.
  • the values of the process biases y11, y12 and y13 are respectively individual values. This is because the relative positions of the evaluation points E11, E12, and E13 with respect to the original figure pattern 10 are different from each other, and therefore the influence of the lithography process is also different, and a difference also occurs in the amount of deviation generated in each. Therefore, in order to increase the estimation accuracy in estimating the shape of the actual figure pattern 20 by simulation based on the original figure pattern 10, the influence of the lithography process is appropriately predicted for each individual evaluation point, and an appropriate process bias is provided. It is important to find y.
  • each evaluation point E is first set on the original graphic pattern 10 by the evaluation point setting unit 110.
  • each evaluation point E may be set at a predetermined position on the outline based on the information of the outline indicating the boundary between the inside and the outside of the figure included in the original figure pattern 10.
  • evaluation points can be set continuously at predetermined intervals along the outline.
  • the feature amount extraction unit 120 extracts feature amounts indicating features around each evaluation point E for the original figure pattern 10.
  • the feature amount x for one evaluation point E is a value indicating the feature around the evaluation point E.
  • the feature amount extraction unit 120 includes an original image creation unit 121, an image pyramid creation unit 122, and a feature amount calculation unit 123, as shown in FIG.
  • the original image creation unit 121 creates an original image composed of a set of pixels each having a predetermined pixel value based on the given source graphic pattern 10. For example, when the original figure pattern 10 as shown in FIG. 2A is given, the pixel value 1 is for the pixel inside the rectangle (the pixel in the hatched portion in the figure), and the pixel value 0 for the pixel outside the rectangle. To create an original image consisting of a binary image.
  • the image pyramid creation unit 122 performs an image pyramid creation process including a reduction process of reducing the original image to create a reduced image, and creates an image pyramid composed of a plurality n of hierarchical images.
  • the n hierarchical images constituting each hierarchy of the image pyramid are all images obtained by performing predetermined image processing on the original image generated by the original image generation unit 121, and have different sizes. There is.
  • Such a collection of hierarchical images is referred to as an “image pyramid” because, when hierarchical images are formed sequentially by stacking hierarchical images from large to small size, it is as if pyramids are formed. It is to see.
  • the feature amount calculation unit 123 calculates a feature amount based on the pixel values of the pixels in the vicinity of the evaluation point E for each of the n hierarchical images forming the hierarchy of the image pyramid. Specifically, the feature amount x1 is calculated based on the pixel values of the pixels in the vicinity of the evaluation point E in the first hierarchical image, and the pixel values of the pixels in the vicinity of the evaluation point E in the second hierarchical image are calculated. The feature amount x2 is calculated based on the above, and similarly, the feature amount xn is calculated based on the pixel values of the pixels in the vicinity of the evaluation point E in the n-th hierarchical image. n feature quantities x1 to xn are extracted.
  • n feature amounts x1 (E11) to xn (E11) are extracted for the evaluation point E11, and n feature amounts x1 (E12) for the evaluation point E12. ... To xn (E12) are extracted, and n feature amounts x1 (E13) to xn (E13) are extracted for the evaluation point E13.
  • the bias estimation unit 130 is a process that indicates the amount of deviation between the position of the evaluation point E on the original figure pattern 10 and the position on the actual figure pattern 20 based on the feature quantity x extracted by the feature quantity extraction unit 120. A process is performed to estimate the bias y.
  • the bias estimation unit 130 includes a feature amount input unit 131 and an estimation operation unit 132.
  • the feature amount input unit 131 is a component to which the feature amounts x1 to xn calculated for the evaluation point E by the feature amount calculation unit 123 are input, and the estimation operation unit 132 performs learning obtained in the learning step performed in advance. Based on the information L, estimated values corresponding to the feature quantities x1 to xn are obtained, and the obtained estimated values are output as an estimated value y of the process bias for the evaluation point E.
  • the estimation calculation unit 132 estimates the process bias value as the amount of deviation in the normal direction of the outline. It will output y.
  • the process bias y11 for the evaluation point E11, the process bias y12 for the evaluation point E12, and the process bias y13 for the evaluation point E13. are respectively output from the estimation operation unit 132 as estimated values.
  • the figure pattern shape correction apparatus 100 corrects the shape of the original figure pattern 10 using the figure pattern shape estimation apparatus 100 'described above, and as shown in FIG. 1, the figure pattern shape estimation apparatus 100' A pattern correction unit 140 is further provided in addition to the evaluation point setting unit 110, the feature value extraction unit 120, and the bias estimation unit 130, which are components of the above.
  • the pattern correction unit 140 is a component that performs correction on the original figure pattern 10 based on the estimated value y of the process bias output from the bias estimation unit 130, and a corrected figure pattern obtained by the correction by the pattern correction unit 140. 15 is the final output of the shape correction apparatus 100 of this figure pattern.
  • the evaluation point E11 is moved to the left (inside the rectangle) by the process bias y11
  • the evaluation point E12 is moved to the left (inside the rectangle) by the process bias y12.
  • the evaluation point E13 may be moved upward (inside the rectangle) by the process bias y13.
  • a greater number of evaluation points are defined, so that correction is made to move all these evaluation points by the size corresponding to the process bias to the inside of the rectangle, and new evaluation points are connected.
  • the real figure pattern 25 obtained is It does not exactly match the original graphic pattern 10 of the original design (for example, the width of the rectangle formed on the real substrate S does not exactly become a). This is because the figures included in the original figure pattern 10 and the figures included in the corrected figure pattern 15 have different sizes and shapes, so that differences occur in the effects such as proximity effect when the lithography process is performed.
  • the actual figure pattern 25 obtained as a result of performing the lithography process using the corrected figure pattern 15 is Since the pattern becomes closer to the original figure pattern 10, the actual lithography process is performed using the corrected figure pattern 15 obtained by the correction by the pattern correction unit 140 rather than performing the actual lithography process using the original figure pattern 10 as it is. More accurate figure patterns can be obtained on the actual substrate S by executing. That is, if correction is performed by the pattern correction unit 140, it is true that the error is reduced.
  • the process of giving the corrected figure pattern 15 output from the pattern correction unit 140 to the figure pattern shape correction apparatus 100 is repeated again. That is, the corrected figure pattern 15 is given to the figure pattern shape estimation apparatus 100 'as a new original figure pattern, and this new original figure pattern (corrected figure pattern 15) is described in ⁇ 1.1. Processing is performed. Specifically, the evaluation point setting unit 110 sets each evaluation point E on the corrected graphic pattern 15, the feature amount extraction unit 120 extracts a feature amount for each evaluation point E, and the bias estimation unit 130 An estimated process bias value y for each evaluation point E is calculated. Then, using the calculated process bias estimated value y, the pattern correction unit 140 performs another correction process.
  • the figure pattern shape correction apparatus 100 shown in FIG. 1 has a function of repeatedly executing correction on the figure pattern. That is, a first corrected figure pattern 15 is obtained based on the original figure pattern 10, a second corrected figure pattern is obtained based on the first corrected figure pattern 15, and a second corrected figure pattern is obtained based on the second corrected figure pattern. Thus, the third corrected figure pattern is obtained, and the correction process of ... is repeated. Each time the correction processing is performed, the shape error between the original graphic pattern and the graphic pattern obtained by simulation is reduced.
  • the evaluation point setting unit 110, the feature value extraction unit 120, the bias estimation unit 130, and the pattern correction unit 140 shown in FIG. 1 are all configured by incorporating a predetermined program in a computer. Therefore, the figure pattern shape estimation apparatus 100 'and the figure pattern shape correction apparatus 100 according to the invention of the prior application are actually realized by incorporating a dedicated program into a general-purpose computer.
  • FIG. 4 is a flow chart showing a product design / production process using the figure pattern shape correction apparatus 100 shown in FIG.
  • a product design stage is performed.
  • This product design stage is a process of creating a figure pattern for forming a semiconductor device or the like, and the original figure pattern 10 shown in FIG. 1 is created at this product design stage.
  • the apparatus itself which designs products, such as a semiconductor device etc., and produces a figure pattern is already a well-known apparatus, detailed description is abbreviate
  • the evaluation point setting step of the next step S2 is a step executed in the evaluation point setting unit 110 shown in FIG.
  • the feature quantity extraction step of the subsequent step S3 is a stage executed in the feature quantity extraction unit 120 shown in FIG. 1, and as described above, n kinds of feature quantities x1 to xn are extracted for one evaluation point E. (Detailed extraction procedure is described in ⁇ 2).
  • the process bias estimation step of step S4 is a step executed in the bias estimation unit 130 shown in FIG. 1, and as described above, the process is performed using n feature quantities x1 to xn for one evaluation point E. A bias estimate y is obtained (a detailed calculation procedure will be described in ⁇ 3).
  • the pattern shape correction step of step S5 is a step executed in the pattern correction unit 140 shown in FIG. 1, and as described above, using the process bias estimated value y obtained for each evaluation point E, By correcting the pattern 10, a corrected figure pattern 15 is obtained. Since such correction is not sufficient only once, the process of returning to step S2 is repeated until it is determined that "correction is completed" in step S6. That is, by treating the corrected figure pattern 15 obtained in step S5 as a new original figure pattern 10, the processes of steps S2 to S5 are repeatedly executed.
  • step S6 when it is determined that “correction is completed” in step S6, the process proceeds to step S7, and the lithography process is performed.
  • the determination of "correction completed” is, for example, that "the difference between the position on the original figure pattern and the position on the figure pattern obtained by simulation for a certain percentage of evaluation points E is less than a predetermined reference value" Specific conditions are met.
  • step S7 an actual process of exposure, development, and etching is performed based on the finally obtained corrected figure pattern, and the actual substrate S is manufactured.
  • the stages of steps S1 to S6 are processes executed on a computer, and the stage of step S7 is a process executed on the actual substrate S.
  • FIG. 5 is a plan view showing a concept of grasping features around the evaluation points E11, E12 and E13 defined on the outline of the rectangular figure pattern 10.
  • FIG. 5A shows a state in which the features of the reference circle C1 and the reference circle C2 are extracted at the evaluation point E11 set at the center of the right side of the rectangle.
  • the reference circles C1 and C2 are both circles centered on the evaluation point E11, the reference circle C2 is a larger circle than the reference circle C1.
  • FIG. 5 (b) shows the evaluation point E12 set at the lower right side of the rectangle
  • FIG. 5 (c) shows two reference circles C1, C2 at the evaluation point E13 set at the center of the lower side of the rectangle. The state which extracted the internal feature of C2 is shown.
  • the left half of the evaluation point E11 and the evaluation point E12 is inside the figure (hatched area) and the right half is outside the figure (blank area).
  • the internal feature of the reference circle C1 for the evaluation point E13 is that the upper half is inside the figure (hatched area) and the lower half is outside the figure (blank area), and within the reference circle C1 of the evaluation points E11 and E12. It is a 90 ° rotation of the feature of (1), but there is no difference in the occupancy of the hatched area.
  • the internal characteristics of the reference circle C2 are compared for each of the evaluation points E11, E12, and E13, it can be seen that the distributions of hatching regions are different from each other and have different characteristics.
  • the proximity effect in electron beam exposure includes various effects such as an effect due to forward scattering having a narrow influence range and an effect due to backscattering having a wide influence range.
  • forward scattering is described as a phenomenon in which electrons of small mass are spread while being scattered by molecules in the resist when the electron beam is irradiated to the layer to be formed including the resist layer or the like
  • backscattering is The phenomenon is described as a phenomenon in which electrons scattered and reflected around the surface of a metal substrate or the like under the resist layer are diffused in the resist layer.
  • a process bias is also generated by the etching process, and the size thereof changes according to the loading phenomenon at the time of etching.
  • this loading phenomenon also results from the combination of various components such as a component having a narrow influence range and a component having a wide influence range.
  • the value of the process bias y for one evaluation point E becomes a value determined by fusing phenomena with various scales. Therefore, extracting various feature amounts from the feature amount for the narrow range to the feature amount for the wide range is different for the various phenomena in each process affecting the process bias, each having a different range of influence. Important for accurate simulation. Therefore, in the prior application invention, for one evaluation point E, feature amounts for various regions around it are extracted from near to far. As described above, in order to extract a plurality of feature amounts for one evaluation point E, the prior invention adopts a method of creating an "image pyramid" composed of a plurality of hierarchical images having different sizes. The image pyramid contains information in which various phenomena having different influence ranges are multiplexed.
  • FIG. 6 is a diagram showing an outline of processing executed in the feature quantity extraction unit 120 and the bias estimation unit 130 shown in FIG.
  • the original image Q1 shown at the top of the figure is an image created by the original image creation unit 121 shown in FIG. 1 and is an image corresponding to the given source graphic pattern 10.
  • the original figure pattern 10 is data created by a design device of a semiconductor device or the like, and becomes data indicating a figure as shown in FIG. 2A, but usually indicates an outline of the figure. It is given as vector data (data indicating the connection between the coordinate value of each vertex and each vertex).
  • the original image creation unit 121 executes a process of creating an original image Q1 composed of a set of pixels each having a predetermined pixel value based on the given data of the original graphic pattern 10. For example, if a pixel having a pixel value of 1 is arranged inside the figure constituting the original figure pattern 10 and a pixel having a pixel value of 0 is arranged outside, the original image Q1 consisting of a collection of many pixels U Can be created.
  • the original image Q1 shown in FIG. 6 is an image composed of such a set of pixels U, and has rectangular figures included in the original figure pattern 10 as image information, as shown by the broken lines.
  • the evaluation point setting unit 110 sets an evaluation point E on the outline of this figure. Although only one evaluation point E is depicted in FIG. 6 for the sake of convenience, in actuality, a large number of evaluation points are set along the outline of the figure.
  • the image pyramid creation unit 122 shown in FIG. 1 creates an image pyramid PP based on the original image Q1.
  • the image pyramid PP is composed of a plurality of hierarchical images each having a different size.
  • the figure shows an image pyramid PP composed of n plural (n (2) hierarchical images P1 to Pn.
  • the specific procedure for creating hierarchical images P1 to Pn from the original image Q1 will be described in ⁇ 2.
  • the hierarchical images P1 to Pn are created by reduction processing to reduce the number of pixels.
  • the hierarchical image P1 is an image of the same size as the original image Q1 (image having the same number of vertical and horizontal pixels), whereas the hierarchical image P2 is a reduced-size image of small size
  • the hierarchical image P3 is a smaller size image obtained by further reducing the hierarchical image P2.
  • hierarchical images P1 to Pn are created such that the image size gradually decreases based on the original image Q1.
  • the state in which a plurality of hierarchical images of different sizes are vertically arranged is in the form of a pyramid as shown in the figure, so in the prior application, an assembly of a plurality of hierarchical images P1 to Pn is referred to as an image pyramid PP. I'm calling. Since all of the hierarchical images P1 to Pn are created based on the original image Q1, the hierarchical images P1 to Pn have information of the original graphic pattern 10, and the position of the evaluation point E can be defined for each of them. In the figure, rectangular figures are drawn on each of the hierarchical images P1 to Pn, and evaluation points E are arranged on the outlines thereof.
  • the feature quantity calculation unit 123 illustrated in FIG. 1 performs a process of calculating feature quantities based on the pixel values of the pixels in the vicinity of the evaluation point for each hierarchical image constituting the image pyramid.
  • FIG. 6 shows a state in which the feature amounts x1 to xn of the evaluation point E are extracted from the n hierarchical images P1 to Pn constituting the image pyramid PP.
  • the illustrated feature quantities x1 to xn are values indicating features around the same evaluation point E, but the feature quantity x1 is a pixel value of a pixel near the evaluation point E on the first hierarchical image P1.
  • the feature amount x2 is a value calculated based on the pixel values of pixels in the vicinity of the evaluation point E on the second hierarchical image P2, and the feature amount x3 is a third value. This is a value calculated based on the pixel values of the pixels in the vicinity of the evaluation point E on the hierarchical image P3.
  • a specific calculation procedure of each of the feature quantities x1 to xn will be described in ⁇ 2.
  • n feature quantities x1 to xn are calculated for each of a large number of evaluation points.
  • each of the feature quantities x1 to xn is a predetermined scalar value, n feature quantities x1 to xn are obtained for each evaluation point E, respectively. Therefore, if the n feature quantities x1 to xn are grasped as an n-dimensional vector, the feature quantity extraction unit 120 performs processing for extracting a feature quantity consisting of an n-dimensional vector for one evaluation point E. .
  • the feature quantity (n-dimensional vector) for each evaluation point extracted in this manner is input by the feature quantity input unit 131 in the bias estimation unit 130 and is given to the estimation operation unit 132.
  • the estimation operation unit 132 is constituted by a neural network, and based on the learning information L obtained by the learning step carried out in advance, the feature quantities x1 to xn given as n-dimensional vectors.
  • calculation is performed to calculate the estimated value y (scalar value) of the process bias for the evaluation point E. Specific calculation procedures will be described in ⁇ 3.
  • the present invention is not limited to the application to the manufacturing process of the present invention, and can be applied to the manufacturing process of various products including a lithography process.
  • the invention of the prior application or the present invention can be used in the manufacturing process of various products including lithography processes such as NIL (Nano Imprint Lithography) and EUV (Extreme UltraViolet Lithography).
  • NIL Nano Imprint Lithography
  • EUV ExtraViolet Lithography
  • correction may be performed on the original figure pattern so that the actual figure pattern on the master template produced from the original figure pattern through exposure lithography matches the original figure pattern.
  • correction may be performed on the original figure pattern so that the actual figure pattern on the replica template produced through imprinting from the master template matches the original figure pattern.
  • lithography processes such as Micro Electro Mechanical Systems (MEMS), Large-size Photomask (LSPM), lead frames, metal masks, metal mesh sensors, color filters, etc. Applicable to
  • the feature quantity extraction unit 120 has an original image creation unit 121, an image pyramid creation unit 122, and a feature quantity calculation unit 123, and the feature quantity extraction process of step S3 in the flowchart of FIG. It has a function to execute.
  • This feature quantity extraction process is actually performed according to each procedure shown in FIG.
  • steps S31 and S32 are procedures executed by the original image creation unit 121
  • steps S33 to S36 are procedures executed by the image pyramid creation unit 122
  • step S37 is a feature quantity calculation unit 123.
  • the original image creation unit 121 has a function of creating an original image composed of a set of pixels each having a predetermined pixel value based on the given source graphic pattern 10, and performs steps S31 and S32 of the flowchart of FIG. Run. First, in step S31, a process of inputting the original graphic pattern 10 is performed, and in the subsequent step S32, an original image creation process is performed.
  • ⁇ 1 for convenience of explanation, a simple pattern consisting of only one rectangular figure as shown in FIG. 2A is shown as an example of the original figure pattern 10 input in step S 31.
  • the original figure pattern 10 including five figures F1 to F5 (rectangles) as shown in FIG. 8 is given.
  • the original figure pattern 10 given to the figure pattern shape correction apparatus 100 is usually vector data indicating the outline of the figure. Therefore, although FIG. 8 shows hatching in each figure F1 to F5, actually, in the original figure pattern 10, the coordinate value of each vertex of five rectangles F1 to F5 and each vertex are indicated. It is given as vector data indicating the connection relation of
  • the original image creation process of step S32 is a process of creating data (raster data) of the original image Q1 composed of a group of pixels based on the original graphic pattern 10 given as such vector data.
  • the original image creation unit 121 defines a mesh consisting of a two-dimensional array of pixels U, superimposes the original figure pattern 10 on this mesh, and configures the position of each pixel U and the original figure pattern 10
  • a process of determining the pixel value of each pixel U is performed based on the relationship with the positions of the outlines of the figures F1 to F5.
  • FIG. 9 is a plan view showing a state in which processing of superposing the original figure pattern 10 on the mesh formed by the two-dimensional array of the pixels U in the original image creation unit 121 is performed.
  • a mesh is defined in which pixels U having pixel dimensions u in the vertical and horizontal directions are two-dimensionally arrayed, and a large number of pixels U are arranged at the pitch u in the vertical and horizontal directions.
  • the pixel size u is set to an appropriate value that can represent the shapes of the figures F1 to F5 with a sufficient resolution. As the pixel size u is set smaller, the resolution of shape representation is improved, but the processing load on the later becomes heavier.
  • pixel values are defined for the individual pixels U based on the relationship with the positions of the outlines of the figures F1 to F5. There are several ways to define pixel values.
  • the most basic definition method recognizes the inner area and the outer area of each figure F1 to F5 based on the original figure pattern 10, and sets the occupancy rate of the inner area in each pixel U as the pixel value of the pixel It is a method.
  • the hatched area is the inner area of each of the figures F1 to F5
  • the white area is the outer area. Therefore, when this method is adopted, the pixel value of each pixel is defined as the occupancy rate (0 to 1) of the internal region (hatched region) in the pixel in the superimposed state as shown in FIG.
  • An image in which pixel values are defined in this manner is generally called an "area density map".
  • FIG. 10 is a view showing an area density map M1 created on the basis of “original graphic pattern 10 + two-dimensional array of pixels” shown in FIG.
  • each cell is each pixel defined in FIG. 9, and the numbers in the cell are pixel values defined for each pixel.
  • the blank cell is a pixel having a pixel value 0 (illustration of the pixel value 0 is omitted).
  • a pixel having a pixel value of 1.0 is a pixel having 100% occupancy of the hatched area in FIG. 9, and a pixel having a pixel value of 0.5 has a hatched area in FIG.
  • the occupancy rate of the pixel is 50%.
  • the area density map M1 is a binary image in which the inside of the figure is represented by pixel value 1 and the outside of the figure is represented by pixel value 0. Since a value indicating the ratio is given as a pixel value, the whole is a monochrome gradation image.
  • the pixel value of each pixel is defined as the sum of the lengths of the outlines present in the pixel.
  • An image in which pixel values are defined in this manner is generally called an "edge length density map".
  • a unit of the length of the outline for example, a unit having a pixel size u of 1 may be used.
  • FIG. 11 is a view showing an edge length density map M2 created on the basis of “original graphic pattern 10 + two-dimensional array of pixels” shown in FIG.
  • each cell is each pixel defined in FIG. 9, and the numbers in the cell are defined as the sum of the lengths of the outlines present in each pixel (the length with the pixel size u being 1). Pixel value.
  • the blank cell is a pixel having a pixel value 0 (illustration of the pixel value 0 is omitted).
  • a pixel having a pixel value of 1.0 is a pixel having a length u of an outline existing in the pixel in FIG.
  • this edge length density map M2 is basically a monochrome gradation image showing the density distribution of outlines, it becomes an image having a property considerably different from the area density map M1 described above. However, it is a very useful image in extracting feature quantities for evaluation points E defined on outlines.
  • FIG. 12 is a plan view showing an original figure pattern 10 including such dose information. Similar to the original figure pattern 10 shown in FIG. 8, the original figure pattern 10 shown in FIG. 12 includes the information of the outline of each figure F1 to F5, but in addition to that, each figure F1 to For each of F5, it contains information that defines the dose amount.
  • a dose of 100% is defined for figures F1 to F3, a dose of 50% is defined for figure F4, and a dose of 10% is defined for figure F5. .
  • These dose amounts indicate the intensity of light or electron beam to be irradiated (including the case of controlling the total energy amount by the number of exposures) in the exposure step of the lithography process.
  • the light or electron beam is irradiated with an intensity of 100% when exposing the inner area of the figures F1 to F3, but 50% when exposing the inner area of the figure F4, When exposing the inner area, light or electron beam is irradiated at an intensity of 10%.
  • the dose amount is controlled for each figure at the time of the exposure process, the size of the actual figure pattern 20 formed on the actual substrate S can be adjusted more finely.
  • the pixel value of each pixel in the superimposed state as shown in FIG. 9 is the occupancy rate (0 to 1) of the internal area (hatched area) of the specific figure in the pixel and the specific It is defined as the sum of the product of the dose amount of the figure.
  • An image in which pixel values are defined in this manner is generally called a "dose density map". This dose density map is also a monochrome gradation image as a whole.
  • FIG. 13 is a view showing a dose density map M3 created based on the original figure pattern 10 with a dose amount shown in FIG.
  • each cell is each pixel defined in FIG. 9, and the numbers in the cell are pixel values defined for each pixel.
  • the blank cell is a pixel having a pixel value 0 (illustration of the pixel value 0 is omitted).
  • FIG. 7 shows an example in which the area density map M1 is the original image Q1 as an example.
  • the original image Q1 created in step S32 is used as a first preparation image Q1 in the filter process of step S33.
  • the first preparation image Q1 is an original image created first based on the original graphic pattern 10, and is a reference image used first in the image pyramid creating process described later.
  • the image pyramid creation unit 122 has a function of performing reduction processing to reduce the number of pixels based on the original image Q1 (for example, the area density map M1 shown in FIG. 10) created in step S32 of FIG.
  • An image pyramid creation process is performed to create an image pyramid composed of a plurality of hierarchical images having different sizes. In the case of the embodiment described herein, this image pyramid creation process is performed by the procedure shown in steps S33 to S36 of the flowchart of FIG.
  • the original graphic pattern 10 as shown in FIG. 8 is input, and in the step S32, a specific image is taken as an example where the area density map M1 shown in FIG. 10 is created as the original image Q1.
  • the procedure of the pyramid creation process will be described.
  • an image processing filter is applied to the k-th preparation image Qk to perform filter processing for creating the k-th hierarchical image Pk.
  • this filtering process is performed as, for example, a convolution operation using a Gaussian filter as an image processing filter.
  • FIG. 14 is a plan view showing a procedure for creating the k-th hierarchical image Pk by applying a filtering process using a Gaussian filter GF33 to the preparation image Qk.
  • the k-th preparation image Qk shown in FIG. 14 is actually the same as the area density map M1 shown in FIG.
  • the area density map M1 shown in FIG. 10 is shown as an 8 ⁇ 8 pixel array for convenience, and the description of the pixel value 0 is omitted, whereas the preparation image Qk shown in FIG. Although shown as an array of 10 pixels and the pixel value 0 is also described, both are substantially the same image.
  • FIG. 14 in order to execute the filter processing, pixels having a pixel value 0 are arranged around the area density map M1 consisting of the 8 ⁇ 8 pixel array shown in FIG. It is only At this stage, the parameter k has an initial value of 1, and the preparation image Qk shown in FIG. 14 is the first preparation image Q1.
  • the first preparation image Q1 is nothing but the original image created in the original image creation process in step S32.
  • FIG. 14 a convolution operation using a Gaussian filter GF33 is performed.
  • the Gaussian filter GF33 is a 3 ⁇ 3 pixel array as shown in the drawing, and the k-th is performed by superposing the Gaussian filter GF33 on a predetermined position of the k-th preparation image Qk and performing product-sum operation processing Hierarchical images Pk (filtered images) are obtained.
  • FIG. 15 is a plan view showing the k-th hierarchical image Pk obtained by the filter processing shown in FIG.
  • the k-th hierarchical image Pk has a 10 ⁇ 10 pixel array similarly to the k-th preparatory image Qk, and the pixel values of the individual pixels are obtained by product-sum operation using the Gaussian filter GF33. It becomes a value.
  • a pixel value of 0.375 is given to the target pixel .
  • the pixel value is obtained by superposing the illustrated Gaussian filter GF33 on the 3 ⁇ 3 pixel array (9 pixels centered on the fourth row and third column pixels) surrounded by a bold frame in FIG.
  • the product of the pixel values of the pixels overlapped at the same position is determined as the sum of the nine products.
  • the pixel value 0.375 of the pixel of interest is “(1/16 ⁇ 0) + (2/16 ⁇ 0.25) + (1/16 ⁇ 0.5) + (2/16 ⁇ 0) ) + (4/16 x 0.5) + (2/16 x 1.0) + (1/16 x 0) + (2/16 x 0.25) + (1/16 x 0.5) "
  • the product-sum operation value is obtained as Such filter processing by product-sum operation is a process generally known as a convolution operation process on an image, and thus the detailed description is omitted here.
  • the convolution operation is performed using a Gaussian filter GF33 consisting of a 3 ⁇ 3 pixel array as shown in FIG. 16A as an image processing filter.
  • the convolution operation may be performed using a Laplacian filter LF33 having a 3 ⁇ 3 pixel arrangement as shown in b).
  • filtering using a Gaussian filter has an effect of blurring the outline of an image
  • filtering using a Laplacian filter has an effect of enhancing the outline of an image.
  • the k-th layered image Pk having slightly different features can be obtained with respect to the k-th preparation image Qk, and therefore, a plurality of layered images having different features are provided. It is effective in creating an image pyramid.
  • the image processing filter used for the filter processing in step S33 is not limited to the Gaussian filter GF33 shown in FIG. 16 (a) or the Laplacian filter LF33 shown in FIG. 16 (b). It is possible to use processing filters. Also, the size of the image processing filter to be used is not limited to the 3 ⁇ 3 pixel array, and it is possible to use an image processing filter of any size. For example, a Gaussian filter GF55 consisting of a 5 ⁇ 5 pixel array as shown in FIG. 17 (a) or a Laplacian filter LF55 consisting of a 5 ⁇ 5 pixel array as shown in FIG. 17 (b) may be used. .
  • step S34 it is determined in step S34 whether or not the parameter k has reached a predetermined set value n. If k ⁇ n, reduction of step S35 is performed. Processing is performed.
  • This reduction process is a process of creating an image having a smaller number of pixels than the target image based on a predetermined target image.
  • the (k + 1) -th preparation image Q (k + 1) is created by executing the reduction process on the k-th hierarchical image Pk created in the filter process of step S33. Processing is performed. Therefore, the preparation image Q (k + 1) is an image smaller in size than the hierarchical image Pk (an image in which the number of vertical and horizontal pixels in the pixel array is small).
  • FIG. 18 is a plan view showing a procedure for creating the (k + 1) th preparation image Q (k + 1) as a reduced image by performing average pooling processing on the k-th hierarchical image Pk. .
  • the average pooling process (reduction process) is applied to the hierarchical image Pk consisting of the 4 ⁇ 4 pixel array shown in FIG. 18A to obtain 2 ⁇ 2 image shown in FIG.
  • a preparation image Q (k + 1) composed of a pixel array is created as a reduced image.
  • the average pooling process shown in FIG. 18 is a process of converting (reducing) four pixels consisting of a 2 ⁇ 2 pixel array into one pixel, and calculates the average value of the pixel values of the original four pixels, By using the pixel value of one pixel after conversion, a reduced image is created.
  • four pixels pixels within a bold frame
  • the preparation image Q (FIG. 18B).
  • conversion (reduction) is performed to one pixel indicated by a thick frame.
  • the pixel value 0.5 of the thick frame pixel after this conversion (reduction) is the average value of the pixel values of the original four pixels.
  • FIG. 19 is a plan view showing a procedure for creating the (k + 1) th preparation image Q (k + 1) as a reduced image by performing max pooling processing on the k-th hierarchical image Pk It is. Specifically, by performing max pooling processing (reduction processing) on the hierarchical image Pk consisting of the 4 ⁇ 4 pixel array shown in FIG. 19A, the 2 ⁇ 2 image shown in FIG. 19B is obtained. A preparation image Q (k + 1) composed of a pixel array is created as a reduced image.
  • the max pooling process shown in FIG. 19 is a process to convert (reduce) four pixels consisting of a 2 ⁇ 2 pixel array into one pixel, similarly to the average pooling process shown in FIG. A reduced image is created by setting the maximum value of the pixel values of the four pixels in the above as the pixel value of one pixel after conversion. For example, four pixels (pixels within a bold frame) consisting of a 2 ⁇ 2 pixel array arranged at the upper left of the hierarchical image Pk shown in FIG. 19A are the preparation image Q (FIG. 19B). On k + 1), conversion (reduction) is performed to one pixel indicated by a thick frame. The pixel value 1.0 of the thick frame pixel after this conversion (reduction) is the maximum value of the pixel values of the original four pixels.
  • each pooling process shown in FIGS. 18 and 19 is a reduction process for converting four pixels consisting of a 2 ⁇ 2 pixel array into a single pixel, it is of course made up of a 3 ⁇ 3 pixel array It is also possible to perform a reduction process to convert nine pixels into a single pixel, or to perform a reduction process to convert six pixels of a 3 ⁇ 2 pixel array to a single pixel. It is.
  • the image pyramid creating unit 122 replaces the plurality of m adjacent pixels with a single pixel whose pixel value is the average value of the pixel values of the plurality of m adjacent pixels. It is possible to create a reduced image by performing pooling processing, or to replace a plurality of m adjacent pixels with a single pixel whose pixel value is the maximum value of the pixel values of the plurality m of adjacent pixels. A reduced image can also be created by performing pooling processing. Of course, other reduction processes can also be performed as the reduction process of step S35.
  • step S35 by performing conversion to reduce the number of pixels with respect to the hierarchical image Pk, a process capable of creating a small-sized preparatory image Q (k + 1), in other words, “the number of pixels has decreased Any reduction process may be performed in step S35 as long as it is a process of creating a “reduced image”.
  • step S35 when the reduction process of step S35 is completed, the parameter k is increased by 1 in step S36, and the filter process of step S33 is performed again.
  • n an appropriate value may be set in advance as the number of layers of the image pyramid (that is, the total number of layer images constituting the image pyramid).
  • the value of n is set larger, the number n of feature quantities extracted for one evaluation point E increases, so that more accurate simulation is possible, but the computational load increases.
  • the reduction process of step S35 is repeated, the size of the image decreases more and more, so if the value of n is set too large, the reduction process of step S35 can not be performed. Therefore, in practice, the value of n may be set appropriately in consideration of the size of the original image Q1 and the computational burden.
  • FIG. 20 is a plan view showing the procedure (procedure of steps S33 to S36 in FIG. 7) of creating the image pyramid PP composed of n kinds of hierarchical images P1 to Pn in the image pyramid creating unit 122.
  • step S33 filter processing is performed on the first preparation image Q1.
  • a first hierarchical image P1 as shown in the upper right of FIG. 20 is created by a convolution operation using a Gaussian filter GF33 consisting of a 3 ⁇ 3 pixel array.
  • the size of the first hierarchical image P1 is the same as the size of the first preparation image Q1.
  • step S35 the reduction process (for example, average pooling process) is performed on the first hierarchical image P1, and a second preparation image Q2 shown in the middle left of FIG. 20 is created.
  • the size of the second preparation image Q2 is smaller than the size of the first hierarchical image P1.
  • step S36 the value of the parameter k is updated to 2, and the filtering process of step S33 is performed again. That is, the second hierarchical image P2 as shown in the middle right of FIG. 20 is created by the convolution operation using the Gaussian filter GF33 consisting of a 3 ⁇ 3 pixel array.
  • the size of the second hierarchical image P2 is the same as the size of the second preparation image Q2.
  • step S35 the reduction process of step S35 is executed again. That is, reduction processing (for example, average pooling processing) is performed on the second hierarchical image P2, and a third preparation image Q3 shown in the lower left of FIG. 20 is created.
  • the size of the third preparation image Q3 is smaller than the size of the second hierarchical image P2.
  • step S36 the value of the parameter k is updated to 3, and the filtering process of step S33 is performed again. That is, the third hierarchical image P3 as shown in the lower right of FIG. 20 is created by the convolution operation using the Gaussian filter GF33 consisting of a 3 ⁇ 3 pixel array.
  • the size of the third hierarchical image P3 is the same as the size of the third preparation image Q3.
  • the image pyramid PP is configured by n hierarchical images different in size from the first hierarchical image P1 to the n-th hierarchical image Pn.
  • the image pyramid creation unit 122 has a function of performing filter processing using a predetermined image processing filter on the original image Q1 or the reduced image Q (k + 1).
  • an image pyramid PP composed of a plurality of hierarchical images P1 to Pn is created.
  • the image pyramid creation unit 122 sets the original image created by the original image creation unit 121 as the first preparation image Q1, and filters the kth preparation image Qk (where k is a natural number).
  • the resulting image be the k-th hierarchical image P k
  • the image obtained by the reduction process on the k-th hierarchical image P k be the (k + 1) th preparatory image Q (k + 1)
  • an image pyramid PP made up of a plurality n of layer images including the first layer image P1 to the n-th layer image Pn is created.
  • the reduction process of step S35 is an essential process in the procedure shown in the flowchart of FIG.
  • the filtering process of step S33 is not necessarily a necessary process.
  • the pixel value of each pixel can be influenced by the pixel value of the surrounding pixel.
  • by adding the filter processing it is possible to create a plurality of hierarchical images rich in variations, and it becomes possible to extract feature quantities containing more diverse information, and as a result, it is more accurate. Simulation is possible. Therefore, practically, it is preferable to alternately execute the reduction process and the filtering process as shown in the flowchart of FIG. 7.
  • Step S37 of FIG. 7 the feature amount calculation unit 123 performs processing for calculating feature amounts x1 to xn for each evaluation point E based on the hierarchical images P1 to Pn constituting the image pyramid PP.
  • the procedure of calculation processing of the feature amounts x1 to xn will be specifically described.
  • FIG. 21 is a plan view showing the procedure for calculating the feature amounts x1 to xn for a specific evaluation point E from the layer images P1 to Pn in the feature amount calculation unit 123.
  • the original graphic pattern 10 is formed in each pixel array of the first hierarchical image P1, the second hierarchical image P2, and the third hierarchical image P3.
  • a state in which the rectangles (indicated by thick frames) forming the frame are overlapped is shown, and on the right side of FIGS.
  • the principle of calculating feature quantities x1, x2, x3 for E is shown.
  • Each hierarchy image P1, P2, P3 shown in FIG. 21 is a part of the image which comprises each hierarchy of image pyramid PP.
  • n hierarchical images from P1 to Pn are prepared, and n sets of feature amounts x1 to xn are extracted.
  • FIG. It is shown that three sets of feature quantities x1, x2, x3 are extracted from P2, P3.
  • the first hierarchical image P1 is an image obtained by applying the filtering process to the original image Q1 (first preparation image), and in the illustrated example, has a 16 ⁇ 16 pixel array.
  • the second hierarchical image P2 is an image obtained by performing the reduction process and the filter process on the first hierarchical image P1, and in the illustrated example, the 8 ⁇ 8 pixel array is Have.
  • the third hierarchical image P3 is an image obtained by performing the reduction process and the filter process on the second hierarchical image P2, and in the illustrated example, has a 4 ⁇ 4 pixel array. There is.
  • the hierarchical images P1, P2 and P3 are drawn so that their outlines become squares of the same size, and thus they are all images of the same size.
  • the size is gradually reduced to ⁇ 16, 8 ⁇ 8, 4 ⁇ 4, and the size of the image is gradually reduced.
  • the outer frames of the hierarchical images P1, P2, and P3 are drawn as squares having the same size, the size of the pixels is gradually increased. In other words, the resolution of the image decreases in the order of the hierarchical images P1, P2, and P3 and gradually becomes coarse.
  • each hierarchical image P1, P2, P3 is a raster image consisting of a group of pixels, so a rectangular outline drawn in bold in the figure is actually included as information of the outline itself. It does not mean that it is included as information of the pixel value of each pixel.
  • the positions of the rectangles on the hierarchical images P1, P2, and P3 are indicated by thick lines.
  • a process of extracting the feature amounts x1 to xn will be described for a specific evaluation point E defined on the outline of the rectangle.
  • the rectangles shown by thick frames are arranged at the same relative position with respect to each hierarchical image P1, P2, and P3, and the specific evaluation point E is also the same relative. It is placed in position.
  • the feature amount for one evaluation point E is calculated based on the pixel values of the pixels in the vicinity thereof.
  • the feature amount x1 for the evaluation point E is extracted based on the first hierarchical image P1.
  • the feature quantity calculation unit 123 determines that four pixels located in the vicinity of the evaluation point E from the pixels forming the first hierarchical image P1 (see FIG. Is extracted as a pixel of interest, and the feature amount x1 is calculated by calculation using the pixel values of these four pixels of interest.
  • attention is focused on four pixels (pixels hatched in the figure) located in the vicinity of the evaluation point E from the pixels constituting the second hierarchical image P2.
  • a feature amount x2 is calculated by extraction as a pixel and calculation using pixel values of these four target pixels.
  • a feature amount x2 is calculated by extraction as a pixel and calculation using pixel values of these four target pixels.
  • the pixels forming the third hierarchical image P3 four pixels (pixels hatched in the figure) located in the vicinity of the evaluation point E are noted pixels Are extracted, and the feature amount x3 is calculated by calculation using the pixel values of these four target pixels.
  • n sets of feature amounts x1 to xn can be extracted for a specific evaluation point E.
  • These n sets of feature quantities x1 to xn are parameters indicating features around the same evaluation point E on the original figure pattern 10, but the ranges affected by the original figure pattern 10 are different from each other .
  • the feature quantity x1 extracted from the first hierarchical image P1 has a value indicating the feature in the narrow area hatched in the right side of FIG. 21A, but the second hierarchical image P2
  • the feature amount x2 extracted from the image becomes a value indicating the feature in a wider area hatched in the right side of FIG. 21B
  • the feature amount x3 extracted from the third hierarchical image P3 is The figure on the right side of FIG. 21 (c) is a value indicating the feature in a wider area hatched.
  • the value of the process bias y for one evaluation point E is a value determined by fusing phenomena having various scale feelings such as forward scattering and back scattering. Therefore, if various feature quantities x1 to xn are extracted as feature quantities for the same evaluation point E from feature quantities x1 for a very narrow range around it to feature quantities xn for a wider range, the influence range Can perform accurate simulations considering various phenomena that differ from one another.
  • FIG. 21 shows a process of extracting n sets of feature amounts x1 to xn for one evaluation point E, but in practice each of a large number of evaluation points defined on the original figure pattern 10 is shown. , N sets of feature quantities x1 to xn are extracted by the same procedure.
  • a simple method of using the simple average of the pixel values of the target pixel as the feature amount x can be adopted. For example, as shown in FIG. 21A, in order to extract the feature amount x1 for the evaluation point E from the first layer image P1, the pixel of interest (shown in the vicinity of the evaluation point E) is hatched in the figure. The simple average of pixel values of certain four pixels) may be set as the feature amount x1.
  • FIG. 22 is a diagram showing a specific calculation method (a calculation method using a weighted average value as a feature quantity) used in the feature quantity calculation procedure shown in FIG.
  • a specific calculation method a calculation method using a weighted average value as a feature quantity
  • FIG. 22 an example is shown in which four pixels A, B, C, and D are selected as target pixels located in the vicinity of a specific evaluation point E.
  • the target pixels A, B, C, and D can be determined by performing processing of selecting a total of four pixels in order of closeness to the evaluation point E. Therefore, with respect to the pixel values of the four pixels of interest A, B, C, and D, an operation may be performed in which a weighted average taking into consideration the weight according to the distance between the evaluation point E and each pixel is used as the feature amount x.
  • x marks are displayed at the center points of the noted pixels A, B, C, D, and broken lines connecting these x marks are drawn.
  • the pixel size of each of the target pixels A, B, C, and D is u in both the vertical and horizontal directions, and the broken line is a dividing line dividing the pixel having the pixel size u into halves.
  • the distance between the evaluation point E and the central point of each of the target pixels A, B, C, D as the distance between the evaluation point E and each of the target pixels A, B, C, D
  • the vertical distance is adopted. Specifically, in the case of the example shown in FIG.
  • the horizontal distance a and the vertical distance c are for the pixel of interest A, and the horizontal distance b and the vertical distance c for the pixel of interest B.
  • the horizontal distance a and the vertical distance d are obtained, and for the pixel of interest D, the horizontal distance b and the vertical distance d.
  • the method of calculating the feature quantity x from the pixel values of the four pixels of interest A, B, C, and D is not limited to the method illustrated in FIG. If the feature amount x reflecting the pixel value can be calculated, it is possible to adopt various other calculation methods.
  • four pixels located in the vicinity of the evaluation point E are selected as the target pixels, but the number of target pixels used to calculate the feature amount x is It is not limited to four.
  • nine pixels forming a 3 ⁇ 3 pixel array located in the vicinity of evaluation point E are selected as the target pixels, and the pixel values of these nine target pixels are determined according to the distance from evaluation point E. It is also possible to obtain a weighted average in which the weight is taken into consideration and use this as the feature amount x for the evaluation point E.
  • the feature quantity calculation unit 123 calculates the feature quantity x for a specific evaluation point E on a specific hierarchical image P
  • the specific evaluation is performed from the pixels constituting the specific hierarchical image P.
  • a total of j pixels are extracted as the pixel of interest in order of proximity to the point E, and for the pixel values of the extracted j pixels of interest, weighting in consideration of the weight according to the distance
  • An arithmetic operation for obtaining an average can be performed, and the value of the obtained weighted average can be used as the feature amount x.
  • the modification described here is based on the processing of steps S33 to S36 shown in the flow chart of FIG. 7 and further, when the filtering processing of step S33 is completed, the k th The differential image “Pk ⁇ Qk” for subtracting the kth preparation image Qk from the filtered image Pk (the image referred to as the kth hierarchical image Pk in 2.22.2) is performed to obtain the kth difference image Dk.
  • the required processing is added.
  • the processing of steps S33 to S36 shown in the flowchart of FIG. 7 is executed as it is, but further, the kth filtered image Pk to the kth preparation image Qk
  • the difference operation "Pk-Qk" which subtracts will be performed extra.
  • the difference operation “Pk ⁇ Qk” defines, for the k-th filtered image Pk and the k-th preparation image Qk, pixels arranged at the same position on the pixel array as corresponding pixels, on the image Pk
  • the difference is obtained by subtracting the pixel value of the corresponding pixel on the image Qk from the pixel value of each pixel, and obtaining a difference image Dk consisting of a new set of pixels whose pixel value is the obtained difference.
  • FIG. 23 is a plan view showing a procedure for creating an image pyramid PD composed of n kinds of difference images D1 to Dn by such difference operation "Pk-Qk".
  • the first hierarchical image D1 shown in the upper right of the upper row is a difference image obtained by the difference operation “P1-Q1”.
  • the second hierarchical image D2 shown in the middle right of FIG. 23 is a difference image obtained by the difference operation “P2-Q2”, and more specifically, the second filtering shown in the middle right of FIG.
  • the difference is calculated by subtracting the second preparation image Q2 shown in the middle left from the image P2 (referred to as the second hierarchical image P2 in FIG. 20).
  • the third hierarchical image D3 shown on the lower right of FIG. 23 is a difference image obtained by the difference operation “P3-Q3”.
  • the third filtered image shown on the lower right of FIG. It is calculated by a difference operation of subtracting the third preparation image Q3 shown on the lower left side from P3 (which is called the third hierarchical image P3 in FIG. 20).
  • the difference image obtained by the difference calculation “Pn ⁇ Qn” is the n-th hierarchical image Dn.
  • the image pyramid PP is formed of the first hierarchical image (first filtered image) P1 to the nth hierarchical image (nth filtered image) Pn.
  • the image pyramid is formed by the first hierarchical image (first differential image) D1 to the nth hierarchical image (nth differential image) Dn. PD will be configured.
  • the image pyramid creating unit 122 sets the original image created by the original image creating unit 121 as the first preparation image Q1, and is obtained by filtering the k-th preparation image Qk (where k is a natural number).
  • a difference image Dk between the filtered image Pk to be reproduced and the k-th preparation image Qk is obtained, the difference image Dk is taken as a k-th hierarchical image Dk, and an image obtained by reduction processing on the k-th filtered image Pk is
  • the first hierarchical image D1 to the n-th hierarchical image Dn are included by alternately executing the filtering process and the reduction process until the n-th hierarchical image Dn is obtained as the preparation image Q (k + 1) of k + 1).
  • An image pyramid PD consisting of a plurality n of hierarchical images may be created.
  • the k-th hierarchical image Dk constituting the k-th hierarchical layer of the image pyramid PD is the image after the filter processing (filtered image Pk) and the image before the filter processing (preparation image Qk) It means a difference image, and the pixel value of each pixel corresponds to the difference between the pixel values before and after the filter processing. That is, while the k-th hierarchical image Pk in the embodiment described in 2.2 2.2 shows the image after filter processing itself, the k-th hierarchical image Dk in the modification described here is a filter. It will show the difference caused by the treatment.
  • the image pyramid PP created in the embodiment described in 2.2 2.2 and the image pyramid PD created in the modification described here are significantly different in the meaning of the hierarchical image as the component thereof. As it turns out, there is no difference in that they are images that show some characteristics of the evaluation point E. Therefore, feature quantities can be extracted from each of the hierarchy images D1 to Dn created in the modification described above, and the feature quantity calculation unit 123 in the present modification includes each hierarchy image D1 to Dn. A process of extracting the feature amounts x1 to xn is performed.
  • FIG. 16 and FIG. 17 there are various types of image filters used for filter processing as shown in FIG. 16 and FIG. 17, and various types of reduction processing (pooling processing) are also shown in FIG. 18 and FIG. 19. is there.
  • the departure point is the same original image (the first preparation image Q1)
  • the contents of each hierarchical image constituting the image pyramid obtained differ depending on the algorithm adopted.
  • it is not necessary to use only one image pyramid and a plurality of image pyramids are created by a plurality of algorithms, and feature quantities are respectively extracted from the individual image pyramids. Is also possible.
  • the image pyramid creating unit 122 is provided with a function of performing image pyramid creating processing based on a plurality of different algorithms for one original image (first preparation image Q1), and a plurality of image pyramids are created. It may be done.
  • the feature quantity calculation unit 123 determines, based on the pixel values of pixels (pixels located around the evaluation point) corresponding to the position of the evaluation point, for each hierarchical image constituting each of the plurality of image pyramids. A process of calculating the feature amount may be performed.
  • the image pyramid creating unit 122 performs the image pyramid creating process
  • the algorithm of the embodiment described in 2.2 2.2 is adopted as the main algorithm, as shown in FIG.
  • a main image pyramid PP composed of P1 to Pn (filtered image) can be created, and as a sub-algorithm, an algorithm of a modification using the differential image Dk described in ⁇ 2.4 (1) as a hierarchical image
  • the main image pyramid PP created by the filtering process using a Gaussian filter as illustrated in FIG. 14 can be called a Gaussian pyramid.
  • the sub-image pyramid PD configured using the difference image can be called a Laplacian pyramid. Since Gaussian pyramid and Laplacian pyramid become image pyramids whose characteristics are greatly different from each other, they are adopted as main image pyramid PP and sub image pyramid PD, and feature quantities are extracted using two image pyramids. If so, it becomes possible to extract more diverse feature quantities.
  • the feature amount calculator 123 sets pixel values of pixels in the vicinity of the evaluation point E for the main layer images P1 to Pn constituting the main image pyramid PP and the sublayer images D1 to Dn constituting the sub image pyramid PD. If processing for calculating the feature amount is performed based on the feature amounts xp1 to xpn calculated from the main layer images P1 to Pn and feature amounts xd1 to xdn calculated from the sub layer images D1 to Dn can be obtained. . That is, a total of 2n feature quantities are extracted for one evaluation point E. In this case, since the feature amount for one evaluation point E is given as a 2n-dimensional vector to the estimation operation unit 132, more accurate estimation operation can be performed.
  • the image pyramid creating unit 122 sets the original image created by the original image creating unit 121 as the first preparation image Q1, and the kth preparation image Qk (where k is Let an image obtained by the filtering process for the natural numbers be the k-th main layer image Pk, and an image obtained by the reduction process for the k-th main layer image Pk be the (k + 1) th prepared image Q (k + 1).
  • a main image pyramid composed of n plural layer images including the first main layer image P1 to the n-th main layer image Pn Is further calculated, and the difference image Dk between the k-th main hierarchy image Pk and the k-th preparation image Qk is determined, and the difference image Dk is set as the k-th sub-layer image Dk. It is sufficient to create a sub image pyramid consisting of hierarchy images of a plurality n as including a sub-hierarchy image Dn image D1 ⁇ No. n.
  • the feature amount calculation unit 123 may calculate the feature amount based on the pixel values of the pixels in the vicinity of the evaluation point E for each hierarchy image constituting the main image pyramid PP and the sub image pyramid PD. . Then, it becomes possible to extract a 2n-dimensional vector as a feature amount for one evaluation point E, and it is possible to perform more accurate estimation operation.
  • the original image creation unit 121 creates an original image based on the given original graphic pattern 10.
  • the area density map M1 (FIG. 10)
  • the edge length density map M2 (FIG. 11)
  • the dose density map M3 (FIG. 13)
  • Various forms of images can be employed.
  • the original image creation unit 121 can adopt various creation algorithms, and the contents differ depending on which algorithm is adopted.
  • Various original images can be created.
  • the area density map M1 shown in FIG. 10 the edge length density map M2 shown in FIG. 11, and the dose density map M3 shown in FIG. 13 are images created based on the same original figure pattern 10, The pixel values of the individual pixels are different from one another, resulting in different images.
  • a plurality of density maps (in other words, a plurality of maps with different resolutions) different in pixel size (size of one pixel) and map size (number of pixels arranged in vertical and horizontal directions)
  • a plurality of image pyramids may be created with each of the plurality of density maps as an original image.
  • a density map density map with high resolution
  • a plurality of density maps having different pixel sizes and map sizes are used as the original image.
  • the original image creating unit 121 has a function of creating original images based on a plurality of different algorithms to create a plurality of original images, and the image pyramid creating unit 122 generates the plurality of original images. If it has a function of processing to create separate and independent image pyramids based on the images, multiple image pyramids can be created. Then, if the feature amount calculation unit 123 has a function of calculating the feature amount based on the pixel values of the pixels in the vicinity of the evaluation point E for each hierarchical image constituting each of the plurality of image pyramids, It becomes possible to extract feature quantities composed of higher dimensional vectors, and it is possible to carry out more accurate estimation operations.
  • the original image generation unit 121 generates a first original image including the area density map M1 illustrated in FIG. 10, a second original image including the edge length density map M2 illustrated in FIG. 11, and a dose density illustrated in FIG.
  • the image pyramid creating unit 122 creates three sets of independent image pyramids based on the three original images. Can. Both image pyramids are image pyramids created based on the same original graphic pattern 10.
  • the feature amount calculation unit 123 can perform processing of calculating the feature amount based on the pixel values of the pixels in the vicinity of the evaluation point E for each hierarchical image constituting each of the three image pyramids.
  • n feature quantities x1 to xn are extracted from one image pyramid, a total of 3n feature quantities can be extracted for the same evaluation point E. That is, since a 3n-dimensional vector can be given as a feature amount for one evaluation point E, it is possible to perform more accurate estimation operation.
  • the bias estimation unit 130 has a feature quantity input unit 131 and an estimation operation unit 132, and has a function of executing the process bias estimation process of step S4 in the flowchart of FIG. .
  • a feature quantity (n-dimensional vector) of x1 to xn is input to the feature quantity input unit 131 for one evaluation point E, and the estimation operation is performed by the estimation operation unit 132.
  • An estimate y of the process bias for E is obtained.
  • a neural network is used as the estimation operation unit 132. Therefore, the detailed configuration and operation of this neural network will be described below.
  • neural networks have attracted attention as a technology that forms the basis of artificial intelligence, and are used in various fields including image processing.
  • the neural network is a computer construct that simulates the structure of the brain of an organism, and is composed of neurons and edges connecting them.
  • FIG. 24 is a block diagram showing an embodiment in which a neural network is used as the estimation operation unit 132 shown in FIG.
  • a neural network in the neural network, an input layer, an intermediate layer (hidden layer), and an output layer are defined, and predetermined information processing is performed on the information provided to the input layer in the intermediate layer (hidden layer), The result is output to the output layer.
  • the feature quantities x1 to xn for one evaluation point E are given to the input layer as an n-dimensional vector, and the output layer estimates the process bias for the evaluation point E The value y is output.
  • the estimated value y of the process bias is an estimated value indicating the amount of deviation in the normal direction of the outline for the evaluation point E located on the outline of the predetermined figure. .
  • the estimation operation unit 132 has a neural network having the feature amounts x1 to xn input by the feature amount input unit 131 as input layers and the estimated value y of process bias as an output layer.
  • the middle layer of this neural network is composed of a first hidden layer, a second hidden layer,..., An Nth hidden layer which is the Nth hidden layer. These hidden layers have a large number of neurons (nodes), and edges connecting these neurons are defined.
  • the feature quantities x1 to xn given to the input layer are transmitted as signals to each neuron through the edge. Finally, a signal corresponding to the estimated value y of the process bias is output from the output layer. Signals in the neural network are transmitted from the neurons of one hidden layer to the neurons of the next hidden layer through operations via edges. The calculation through the edge is performed using learning information L (specifically, parameters W and b described later) obtained at the learning stage.
  • FIG. 25 is a diagram showing a specific operation process performed by the neural network shown in FIG.
  • the portions shown by thick lines in the figure indicate the first hidden layer, the second hidden layer,..., The Nth hidden layer, and individual circles in each hidden layer connect neurons (nodes) and circles.
  • the lines indicate the edges.
  • the feature quantities x1 to xn for one evaluation point E are given as n-dimensional vectors to the input layer, and the estimated value y of the process bias for the evaluation point E is a scalar for the output layer. It is output as a value (a dimensional value indicating the amount of deviation in the normal direction of the contour line).
  • the first hidden layer is an M (1) -dimensional layer, and is constituted by a total of M (1) neurons h (1,1) to h (1, M (1)), and
  • the two hidden layers are M (2) -dimensional layers, and are composed of a total of M (2) neurons h (2, 1) to h (2, M (2)), and the Nth hidden layer is M (N) Layer), and is constituted by a total of M (N) neurons h (N, 1) to h (N, M (N)).
  • the arithmetic values of the signals transmitted to the neurons h (1, 1) to h (1, M (1)) of the first hidden layer are respectively calculated using the same code as the arithmetic values h (1, 1)
  • the values of these operation values h (1, 1) to h (1, M (1)) are given by the matrix equation shown in the upper part of FIG. Be
  • the sigmoid function shown in FIG. 27 (a) the normalized linear function ReLU shown in FIG. 27 (b), the normalized linear function Leakey ReLU shown in FIG. 27 (c), etc.
  • the activation function of can be used.
  • ⁇ described as an argument of the function f ( ⁇ ) is a matrix [W] and a matrix [x1 to xn] (a feature amount given as an n-dimensional vector to the input layer) as shown in the middle part of FIG. It becomes the value which added matrix [b] to the product with).
  • the contents of the matrix [W] and the matrix [b] are as shown in the lower part of FIG. 26, and each component of the matrix (weighting parameter W (u, v) and biasing parameter b (u, v)) Is the learning information L obtained by the learning step described later.
  • FIG. 28 is a diagram showing an arithmetic expression for obtaining each value of the second to Nth hidden layers in the diagram shown in FIG. Specifically, the same sign is used for the operation value of the signal transmitted to the neurons h (i + 1, 1) to h (i + 1, M (i + 1)) of the (i + 1) hidden layer (1 ⁇ i ⁇ N) If the arithmetic values h (i + 1, 1) to h (i + 1, M (i + 1)) are represented respectively, the values of these arithmetic values h (i + 1, 1) to h (i + 1, M (i + 1)) are It is given by the matrix equation shown in the upper part of FIG. As the function f ( ⁇ ) on the right side of this equation, as described above, each function shown in FIG. 27 can be used.
  • ⁇ described as an argument of the function f ( ⁇ ) is the matrix [W] and the matrices [h (i, 1) to h (i, M (i))] as shown in the middle part of FIG. It is a value obtained by adding the matrix [b] to the product of (the operation value of the neuron h (i, 1) to h (i, M (i)) of the immediately preceding i-th hidden layer).
  • the contents of the matrix [W] and the matrix [b] are as shown in the lower part of FIG. 28, and the individual components of the matrix (parameters W (u, v), b (u, v)) , And learning information L obtained by the learning step described later.
  • FIG. 29 is a diagram showing an arithmetic expression for obtaining the value y of the output layer in the diagram shown in FIG.
  • the output value y (estimated value of the process bias for the evaluation point E: scalar value) is given by the matrix equation shown in the upper part of FIG. That is, the output value y is the matrix [W] and the matrix [h (N, 1) to h (N, M (N))] (neurons h (N, 1) to h (N, M of the Nth hidden layer The product of (N)) and the scalar value b (N + 1) is added to the product of (N)).
  • the contents of the matrix [W] are as shown in the lower part of FIG. 29, and individual components (parameters W (u, v)) of the matrix [W] and the scalar value b (N + 1) Learning information L obtained by the learning stage.
  • each value of the first hidden layer in the diagram shown in FIG. 25 is set to the parameters W (1, v), b prepared in advance as the learning information L in the feature quantities x1 to xn given as the input layer.
  • Each value of the second hidden layer can be obtained by acting (1, v), and each value of the second hidden layer is set to a parameter W (2, v), which is prepared in advance as learning information L, to each value of the first hidden layer.
  • Each value of the Nth hidden layer can be obtained by acting b (2, v), and each value of the Nth hidden layer is prepared in advance as learning information L to each value of the (N-1) th hidden layer
  • the value of the output layer y can be obtained in advance as learning information L for each value of the Nth hidden layer by obtaining parameters W (N, v) and b (N, v) that are present. Parameters The parameters W (N + 1, v) and b (N + 1) are applied. It can be obtained by. Specific arithmetic expressions are as shown in FIG. 26 to FIG.
  • the feature quantity given as the input layer is an n-dimensional vector (although it becomes a vector of V ⁇ n dimensions (V is the total number of image pyramids) but not x1 to xn), the numerical value of the input layer in the diagram shown in FIG. There is no change in the basic configuration and operation.
  • the pattern correction unit 140 corrects the pattern shape based on the estimated value y of the process bias for each evaluation point thus obtained (step S5 in FIG. 4). Will do.
  • the estimation operation unit 132 is constituted by a neural network, and calculates the signal value transmitted to each neuron using the learning information L set in advance. It will be done.
  • the substance of the learning information L is the parameters W (u, v) and b (b (b), which are described in the lower part of FIG. 26, the lower part of FIG. 28, and the lower part of FIG. It is a value of u, v etc. Therefore, in order to construct such a neural network, it is necessary to obtain learning information L by the learning step executed in advance.
  • the neural network included in the estimation operation unit 132 is a dimension value obtained by actual dimension measurement of the actual figure pattern 20 actually formed on the actual substrate S by the lithography process using a large number of test pattern figures; Process bias estimation processing is performed using, as learning information L, parameters W (u, v), b (u, v), etc. obtained in the learning step using feature quantities obtained from each test pattern figure. become.
  • learning information L parameters W (u, v), b (u, v), etc. obtained in the learning step using feature quantities obtained from each test pattern figure.
  • FIG. 30 is a flow chart showing the procedure of the learning stage for obtaining the learning information L used by the neural network shown in FIG.
  • test pattern graphic creation processing is performed.
  • the test pattern figure corresponds to, for example, the original figure pattern 10 as shown in FIG. 2A, and a simple figure such as a rectangle or an L-shaped figure is usually used. In practice, thousands of test pattern figures having different sizes and shapes are created.
  • step S82 an evaluation point E is set on each test pattern graphic. Specifically, a process of defining a large number of evaluation points E at predetermined intervals may be performed on the outline of each test pattern graphic. Then, in step S83, feature amounts are extracted for each evaluation point E.
  • the feature quantity extraction process of step S 83 is the same as the process described in ⁇ 2 and is executed by a unit having the same function as the feature quantity extraction unit 120. According to the procedure described in ⁇ 2, feature quantities x1 to xn are extracted for each evaluation point E.
  • the estimation operation unit learning process of step S84 is a process of determining learning information L (that is, parameters W (u, v), b (u, v), etc.) using the feature quantity extracted in step S83. is there.
  • L learning information
  • the actual dimensions obtained by the actual lithography process are required. Therefore, in step S85, the lithography process is actually executed based on the test pattern figure created in step S81, and the actual substrate S is created. Then, in step S86, actual dimension measurement of individual figures is performed on the actual figure pattern formed on the actual substrate S. The measurement result is used for the learning process of step S84.
  • the process of the learning stage shown in FIG. 30 is a process (process executed by a computer program) executed on a computer consisting of steps S81 to S84 and a process executed on a real substrate consisting of steps S85 and S86. And consists of
  • the estimation calculation unit learning processing in step S84 determines learning information L to be used for the neural network based on the feature amounts x1 to xn obtained by the processing on the computer and the actual dimensions measured on the actual substrate. It means processing.
  • FIG. 31 is a flowchart showing a detailed procedure of learning of the estimation operation unit in step S84 in the flowchart shown in FIG.
  • step S841 the design position and feature amount of each evaluation point are input.
  • the design position of the evaluation point is the position on the test pattern graphic of the evaluation point set in step S82
  • the feature amount of the evaluation point is the feature amounts x1 to xn extracted in step S83.
  • step S842 the actual position of each evaluation point is input.
  • the actual position of the evaluation point is determined based on the actual dimensions of each figure on the actual substrate S measured in step S86.
  • step S843 the actual bias of each evaluation point is calculated.
  • the actual bias corresponds to the amount of deviation between the design position of the evaluation point input in step S841 and the actual position of the evaluation point input in step S842.
  • step S81 when a rectangle like the original figure pattern 10 shown in FIG. 3A is created as a test pattern figure in step S81, evaluation points E11, E12, E13, etc. on the outline of this rectangle in step S82.
  • step S83 feature quantities x1 to xn are extracted for each of the evaluation points E11, E12, and E13.
  • the positions and feature quantities of the evaluation points E11, E12, and E13 are input in step S841.
  • a real figure pattern 20 as shown in FIG. 3B is formed on the real substrate S by the lithography process of step S85, and this real figure pattern 20 is constructed by real dimension measurement of step S86.
  • the actual dimensions are measured for each side of the rectangle.
  • the actual positions E21, E22, and E23 of the evaluation points are determined as points obtained by moving the evaluation points E11, E12, and E13 in the normal direction of the contour line.
  • the actual positions E21, E22, E23 of each evaluation point are input in step S842.
  • the actual bias y11, y12, y13 is calculated as the difference between the design position of each evaluation point E11, E12, E13 and the actual position E21, E22, E23. Ru.
  • the actual bias may be determined by an operation of obtaining a value y obtained by dividing a ′ ′ by 2.
  • the parameters W and b are set to initial values.
  • the parameters W and b are parameters W (u, v) and b (u (u, v) described in the lower part of FIG. 26, the lower part of FIG. 28, and the lower part of FIG. , V), etc., which are values constituting the learning information L.
  • a random value may be given by a random number. In other words, in the initial stage before learning, the parameters W and b that constitute the learning information L have become non-functional values.
  • step S845 an operation of estimating the process bias y from the feature quantities x1 to xn is performed.
  • a neural network as shown in FIG. 24 is prepared.
  • random numbers are given as initial values to the parameters W and b that constitute the learning information L, and this neural network is incomplete because it can not fulfill its normal function as the estimation operation unit 132. It is a thing.
  • the feature quantities x1 to xn input in step S841 are given to the input layer of this incomplete neural network, calculation is performed using learning information L consisting of incomplete values, and the estimated value y of the process bias is obtained as an output layer. calculate.
  • the initially obtained estimated value y of the process bias is far from the observed actual bias.
  • step S846 the residual to the actual bias at that time is calculated. That is, the difference between the estimated value y of the process bias obtained in step S845 and the calculated value of the actual bias obtained in step S843 is determined, and this difference is used as the residual for the evaluation point E.
  • the learning information L at that time ie, the parameters W (u, v), b (u, v), etc.
  • W (u, v), b (u, v), etc.) is learning information with sufficient practicality. It can be concluded that the learning phase can be ended.
  • Step S847 is a procedure to determine whether or not the learning phase can be ended.
  • the parameters W (u, v), b (u, v) and the like are updated in step S848. Specifically, updating is performed to increase or decrease the value of each parameter W (u, v), b (u, v) or the like by a predetermined amount so as to produce an effect of reducing the residual.
  • steps S845 to S848 are repeatedly executed until an affirmative determination is made in step S847.
  • the values of the parameters W (u, v), b (u, v), etc. constituting the learning information L are gradually corrected in the direction of decreasing the residual, and finally, in step S847.
  • An affirmative determination is made and the learning phase ends.
  • the learning information L (parameters W (u, v), b (u, v), etc.) obtained at the end of learning is information suitable for obtaining an estimated value y of the process bias close to the actual bias in the output layer. It has become. Therefore, the neural network including the learning information L obtained at the learning end stage functions as the estimation operation unit 132 in the prior application invention.
  • the method estimates the shape of a real figure pattern formed on a real substrate by simulating a lithography process using the original figure pattern. It will be the way to do it.
  • the computer inputs an original figure pattern input step (the pattern created in step S1 in FIG. 4) in which the original figure pattern 10 including information of outlines indicating boundaries between the inside and outside of the figure is input.
  • an evaluation point setting step step S2 in FIG. 4 in which the computer sets an evaluation point E at a predetermined position on the contour line of the input figure, and each evaluation of the original figure pattern 10 input by the computer.
  • step S3 in FIG. 4 Based on the feature quantity extraction stage (step S3 in FIG. 4) of extracting feature quantities x1 to xn indicating features around point E, and the original figure of each evaluation point E based on the feature quantities x1 to xn extracted by the computer
  • a process bias estimation step (step S4 in FIG. 4) of estimating a process bias y indicating an amount of deviation between the position on the pattern 10 and the position on the real figure pattern 20; Constructed.
  • the feature quantity extraction stage (step S3 in FIG. 4) is an original image creation stage (figure in FIG. 4) for creating an original image Q1 consisting of a set of pixels U each having a predetermined pixel value based on the original figure pattern 10. 7 performs image pyramid creation processing including reduction processing (step S35 in FIG. 7) for creating a reduced image Qk (preparation image) based on the original image Q1 and a plurality of images having different sizes.
  • Evaluation points E for the image pyramid creating step (steps S33 to S35 in FIG. 7) of creating the image pyramid PP composed of the hierarchy images P1 to Pn of each and each hierarchy image P1 to Pn constituting the created image pyramid PP.
  • a feature amount calculating step (step S37 in FIG. 7) of calculating feature amounts x1 to xn based on pixel values of pixels in the vicinity of
  • estimated values corresponding to the feature quantities x1 to xn for the evaluation point E are calculated based on the learning information L obtained by the learning stage performed in advance. It includes an estimation operation step of determining and outputting the obtained estimated value as the estimated value y of the process bias for the evaluation point E.
  • a filter processing step of performing filter processing using a predetermined image processing filter on the original image Q1 or the reduced image Qk in the image pyramid creation step By alternately executing (Step S33 in FIG. 7) and the reduction processing step (Step S35 in FIG. 7) in which the reduction processing is performed on the image Pk after the filter processing, a plurality of hierarchical images P1 to Pn An image pyramid PP can be created.
  • the figure pattern shape correction apparatus 100 according to the prior application invention shown in FIG. 1 is characterized in that the feature quantity extraction unit 120 extracts the feature quantity of each evaluation point using the image pyramid.
  • An advantage of the prior application invention over the prior art is that such a unique method makes it possible to extract appropriate feature quantities.
  • the figure pattern shape correction apparatus 100 according to the prior invention performs correction based on the estimated value y of the process bias as in the apparatus according to the prior art, correction processing by the pattern correction unit 140 is practically performed. It needs to be repeated.
  • FIG. 1 shows an example in which the corrected figure pattern 15 can be obtained by giving the original figure pattern 10 to the shape correction apparatus 100.
  • lithography is performed using the corrected figure pattern 15 thus obtained.
  • the actual figure pattern 25 does not exactly match the original figure pattern 10 at the beginning of the design. This is because the figures included in the original figure pattern 10 and the figures included in the corrected figure pattern 15 are different in size and shape, and therefore differences also occur in the proximity effect etc. when the lithography process is performed. .
  • step S5 Such an iterative process is also illustrated in the flow diagram of FIG. That is, although the correction processing in steps S2 to S5 is initially performed on the original figure pattern created in step S1, the second and subsequent times are performed on the correction figure pattern obtained in step S5. Thus, the correction process of steps S2 to S5 is repeatedly executed until it is determined that the correction is completed in step S6. The actual steps of exposure, development and etching that constitute the lithography process of step S7 are performed based on the last corrected figure pattern finally obtained by such repeated processing.
  • the shape correction device according to the invention of the prior application and the shape correction device according to the prior art since it is necessary to repeatedly execute the correction processing for the figure pattern, the work process becomes complicated and it takes a lot of work time. There was a problem.
  • a figure pattern for manufacturing a semiconductor device contains a huge number of figures, and a process of obtaining an optimum corrected figure pattern based on the original figure pattern requires a lot of working time.
  • the present invention is intended to solve such problems, and it is an object of the present invention to further simplify the work process for correcting the original figure pattern and to shorten the work time.
  • FIG. 32 is a block diagram showing the configuration of a figure pattern shape correction apparatus 100Z according to a basic embodiment of the present invention.
  • the shape correction apparatus 100Z of the figure pattern includes an evaluation point setting unit 110, a feature extraction unit 120, an optimum correction bias estimation unit 130Z, and a pattern correction unit 140Z.
  • Each of these components is configured by incorporating a predetermined program in a computer. Therefore, the figure pattern shape correction apparatus 100Z according to the present invention is actually realized by incorporating a dedicated program into a general-purpose computer.
  • FIG. 32 The characteristics of the figure pattern shape correction device 100Z shown in FIG. 32 can be easily grasped as compared with the configuration of the figure pattern shape correction device 100 according to the prior invention shown in FIG.
  • the constituent elements unique to the figure pattern shape correction apparatus 100Z according to the present invention are indicated by adding "Z" at the end of the reference numerals.
  • FIG. 1 Comparing FIG. 1 with FIG. 32, although the evaluation point setting unit 110 and the feature value extraction unit 120 are completely the same, the bias estimation unit 130 of FIG. 1 is replaced with the optimum correction bias estimation unit 130Z in FIG. It can be seen that the pattern correction unit 140 of FIG. 1 is replaced with the pattern correction unit 140Z in FIG.
  • the figure correction apparatus 100Z shown in FIG. 32 replaces the bias estimation unit 130 in the figure correction apparatus 100 according to the prior invention shown in FIG. 1 with the optimum correction bias estimation unit 130Z. Can be replaced with the pattern correction unit 140Z.
  • the evaluation point setting unit 110 is a component that plays the role of setting an evaluation point on the original figure pattern 10
  • the feature quantity extraction unit 120 is a feature quantity x1 indicating the feature around the evaluation point for the original figure pattern 10. It is a component that extracts ⁇ xn. Since these components 110 and 120 are completely the same as the components shown in FIG. 1, detailed description will be omitted here.
  • the feature of the figure correction apparatus 100Z according to the present invention is that the optimum correction bias z is estimated by the optimum correction bias estimation unit 130Z, and correction is performed using the optimum correction bias z by the pattern correction unit 140Z.
  • the optimum correction bias z is a value determined based on the feature amount of the evaluation point, and is a position correction amount of the evaluation point required to bring the real graphic pattern 20 closer to the original graphic pattern 10.
  • the necessity to repeatedly execute the correction processing arises because the correction processing of the figure pattern is performed based on the process bias y.
  • the bias estimation unit 130 estimates a process bias y for each evaluation point, and the pattern correction unit 140 generates an original based on this process bias y.
  • a correction is performed on the figure pattern 10 to obtain a corrected figure pattern 15.
  • the process bias y is an amount indicating the deviation from the shape of the original figure pattern with respect to the shape of the actual figure pattern 20 that would be obtained when the lithography process is performed based on the predetermined figure pattern. Therefore, even if the corrected figure pattern 15 is obtained by performing correction to offset the process bias y with respect to the original figure pattern 10 as described as a problem in 5.15.1, the corrected figure pattern 15 is used as it is. When a lithography process is performed using it, the actual figure pattern 25 obtained does not exactly match the original figure pattern 10. Therefore, when using the shape correction apparatus 100 according to the invention of the prior application, it is necessary to repeatedly execute the correction process of steps S2 to S5 of FIG.
  • the pattern correction unit 140Z performs correction based on the optimum correction bias z instead of the process bias y, so the obtained corrected figure If a lithography process is performed using the pattern 35 as it is, it is possible to obtain a real figure pattern that exactly matches the original figure pattern 10. This is because, when a pattern obtained on the actual substrate S when the lithography process is performed using the original figure pattern 10 as the actual figure pattern 20, the process bias y is the actual figure pattern 20 and the original figure pattern 10
  • the optimum correction bias z is a position correction amount of an evaluation point required to bring the real figure pattern 20 close to the original figure pattern 10, while it is a quantity indicating the deviation of the shape of. A specific method of estimating such an optimal correction bias z will be described in detail in ⁇ 6.
  • FIG. 33 is a flow chart showing a product design / production process using the figure pattern shape correction apparatus 100Z shown in FIG.
  • the processing of steps S1Z to S3Z is completely the same as the processing of steps S1 to S3 in the prior application invention shown in FIG.
  • step S1Z a product design stage is performed in step S1Z, and an original figure pattern 10 is created.
  • step S2Z an evaluation point is set on the original figure pattern 10 by the evaluation point setting unit, and in step S3Z, the feature amount extraction unit 120 extracts the feature amount for each evaluation point E.
  • step S4Z processing different from step S4 is performed. That is, while the process bias y is estimated based on the feature amount for each evaluation point in step S4 in FIG. 4, the optimum for each evaluation point based on the feature amount in step S4Z in FIG.
  • the correction bias z is to be estimated. As described above, the estimation process of the optimal correction bias z is performed by the optimal correction bias estimation unit 130Z.
  • step S5Z shape correction is performed on the original figure pattern 10 based on the optimum correction bias z, and a corrected figure pattern 35 is created.
  • step S5 of FIG. 4 shape correction is performed on the original figure pattern 10 based on the process bias y, and a corrected figure pattern 15 is created.
  • the corrected figure pattern 15 obtained by the correction based on the process bias y is not yet as accurate as the pattern used in the lithography process, in the flowchart of FIG. become.
  • the corrected figure pattern 35 obtained by the correction based on the optimum correction bias z is an accurate pattern that can be sufficiently used for the lithography process, in the flowchart of FIG. Then, the lithography process is performed and the real substrate S is manufactured.
  • step S2Z to S5Z the correction figure pattern 35 used in the lithography process of step S7Z can be obtained by performing the correction process only once on the original figure pattern 10 created in the product design of step S1Z.
  • the stages of steps S1Z to S5Z are processes executed on a computer, and the stage of step S7Z is a process executed on the actual substrate S.
  • both of the shape correction apparatus 100Z according to the present invention shown in FIG. 32 and the shape correction apparatus 100 according to the prior invention shown in FIG. A figure pattern shape correction device that corrects the shape of the original figure pattern 10 so that the actual figure pattern 20 matches the original figure pattern 10, and creates a corrected figure pattern actually used in the lithography process.
  • the point is common, in the shape correction apparatus 100Z according to the present invention, since the number of correction processes for the original figure pattern 10 is reduced, the work process for performing the correction for the original figure pattern 10 is further simplified and the operation time It becomes possible to shorten.
  • the shape correction apparatus 100Z shown in FIG. 32 adopts a configuration in which the evaluation point setting unit 110 and the feature value extraction unit 120 used in the prior application invention shown in FIG. 1 are used as it is as an embodiment of the present invention.
  • an essential feature of the present invention resides in the optimal correction bias estimation unit 130Z and the pattern correction unit 140Z as described above. Therefore, in practicing the present invention, the evaluation point setting unit 110 and the feature value extraction unit 120 do not necessarily have to adopt the configuration as in the invention of the prior application described in 1,1 and ⁇ 2.
  • the feature quantity extraction unit 120 used in the invention of the prior application adopts a unique form of extracting feature quantities using an image pyramid as described in ⁇ 2, but the present invention is implemented In doing so, it does not matter what method is used for the feature quantity extraction method. Therefore, in the embodiment shown in FIG. 32, the feature quantity extraction unit 120 having the original image creation unit 121, the image pyramid creation unit 122, and the feature quantity calculation unit 123 is used, but as the feature quantity extraction unit used in the present invention Any unit may be adopted as long as it has a function of extracting some feature quantity indicating a feature around the evaluation point with respect to the original figure pattern 10 by any method.
  • processing of calculating n characteristic quantities x1 to xn for each evaluation point E is performed using plural n calculation functions. It is also possible.
  • each calculation function for the evaluation point E (X, Y) located at the coordinate value X, Y, by substituting the coordinate value X, Y as a variable, the evaluation point E (X, Y) and the original figure pattern
  • a function for example, a function used in the additional embodiment of the prior application
  • a function capable of calculating a predetermined function value by quantifying the positional relationship with each figure included in 10 may be used.
  • the characteristic components of the figure correction apparatus 100Z shown in FIG. 32 are the optimum correction bias estimation unit 130Z and the pattern correction unit 140Z.
  • the optimum correction bias estimation unit 130Z performs each evaluation required to bring the actual figure pattern 20 close to the original figure pattern 10 based on the feature quantities x1 to xn of each evaluation point E extracted by the feature quantity extraction unit 120.
  • the pattern correction unit 140Z has a function of estimating the optimum correction bias z indicating the position correction amount of the point E, and the pattern correction unit 140Z is based on the optimum correction bias z of each evaluation point E estimated by the optimum correction bias estimation unit 130Z.
  • FIG. 1 An important difference between the figure pattern shape correction device 100 of the prior invention shown in FIG. 1 and the figure pattern shape correction device 100Z of the present invention shown in FIG. 32 is that the former figure pattern pattern is based on the process bias y. While 10 is corrected, the latter is that the original figure pattern 10 is corrected based on the optimum correction bias z. Therefore, here, the difference between the process bias y and the optimal correction bias z will be described by taking a specific example.
  • FIG. 34 is a pattern transition diagram showing an example of a process of sequentially correcting figure patterns by the figure pattern shape correction device 100 according to the prior invention shown in FIG.
  • the figure shows a very simple example in which an original figure pattern 41 consisting of a square with one side of 30 nm is given.
  • attention is focused on the evaluation points E set on the right side of this square (of course, many evaluation points are set on the outline of the square).
  • an initial figure figure pattern 42 shown by a solid line in the right figure of FIG. 34 (a) is obtained.
  • the broken line in the right side of FIG. 34 (a) indicates the original figure pattern 41.
  • the initial actual figure pattern 42 is a square having a side of 40 nm. This is because a square having a side length of 10 nm longer than that of the original figure pattern 41 is formed on the actual substrate S due to the proximity effect and the loading phenomenon in the lithography process.
  • the error amount e can be obtained. While the process bias y indicates the amount of deviation before and after the lithography process, the amount of error e indicates that “the contour of the evaluation point E between the original figure pattern (pattern at the beginning of design) and the actual figure pattern It is defined as the amount of deviation in the normal direction.
  • the correction by the pattern correction unit 140 is performed in the direction in which the error amount e is offset.
  • the correction bias c is defined as the amount obtained by inverting the sign of the error amount e, and the position of the evaluation point E of the original figure pattern 41 is moved in the normal direction of the outline by an amount corresponding to the correction bias c.
  • Pattern correction processing is performed.
  • the correction bias c ⁇ 5 nm
  • pattern correction is performed to move the position of the evaluation point E of the original figure pattern 41 inward by 5 nm.
  • the original figure pattern 41 is corrected to a primary corrected figure pattern 43 as shown on the left side of FIG. 34 (b).
  • the first correction figure pattern 43 is formed by a figure in which each side of the square forming the original figure pattern 41 is moved by 5 nm inward, so that it is eventually formed by a square of 20 nm side.
  • a square which is expanded by 5 nm outside is formed as the initial figure pattern 42 on the real substrate S. According to the principle of performing the correction to reduce 41 inward by 5 nm, the first correction figure pattern 43 is obtained.
  • FIG. 34 (b) when the lithography process is performed using the first correction figure pattern 43 shown on the left side as it is, the first actual as shown by the solid line in the right side of FIG. 34 (b).
  • An example is shown where an estimate is made that a graphical pattern 44 will be obtained.
  • the broken line in the right side of FIG. 34 (b) shows the first correction figure pattern 43.
  • the first actual figure pattern 44 is a square having a side of 28 nm, which is shorter than the square constituting the first correction figure pattern 43 due to the proximity effect in the lithography process, the loading phenomenon and the like. Is 8 nm longer.
  • the pattern correction unit 140 defines the correction bias c as an amount obtained by inverting the sign of the error amount e, and the position of the evaluation point E of the first correction figure pattern 43 is contoured by an amount corresponding to the correction bias c. Perform pattern correction processing again to move in the normal direction of.
  • the correction bias c + 1
  • pattern correction is performed to move the position of the evaluation point E of the first correction figure pattern 43 outward by 1 nm.
  • the primary correction figure pattern 43 is corrected to a secondary correction figure pattern 45 as shown on the left side of FIG. 34 (c).
  • the second correction figure pattern 45 is formed by a figure in which each side of the squares constituting the first correction figure pattern 43 is moved outward by 1 nm, so that the second correction figure pattern 45 is eventually formed by a square of 22 nm. become.
  • the square whose sides are shrunk inward by 1 nm from the squares constituting the original figure pattern 41 is the first order Since it is estimated that it is formed as the real figure pattern 44, the second correction figure pattern 45 is obtained by the principle that the correction of enlarging the first correction figure pattern 43 by 1 nm is performed. Become.
  • the broken line in the right side of FIG. 34 (c) shows the second correction figure pattern 45.
  • the process bias y is an amount defined as “the amount of deviation in the normal direction of the contour line generated for the evaluation point E before and after the lithography process”, and the shape correction according to the prior invention shown in FIG.
  • the bias estimation unit 130 in the apparatus 100 may be a real figure pattern that may be obtained when the lithography process is performed using the original figure pattern 10 or the correction figure pattern 15 as it is, and a figure pattern used for the lithography process. It has a function of estimating the value of process bias y indicating the amount of deviation.
  • the pattern correction unit 140 estimates the shape of the real figure pattern based on the estimated value of the process bias y, obtains an error amount e indicating the difference from the shape of the original figure pattern 10, and calculates this error amount e. Pattern correction will be performed in the direction of cancellation.
  • the optimum correction bias estimation unit 130Z in the shape correction apparatus 100Z according to the present invention shown in FIG. 32 has a function of estimating the optimum correction bias z for each evaluation point.
  • the optimum correction bias z is “a position correction amount of an evaluation point on the original figure pattern that is necessary to bring the actual figure pattern close to the original figure pattern (which is necessary to make the predetermined error tolerance match). It is.
  • the secondary real figure pattern 46 shown on the right side of FIG. 34 (c) is an original figure pattern with an error within a predetermined tolerance (specifically, +0.1 nm).
  • the second corrected figure pattern 45 can be obtained by moving each evaluation point on the original figure pattern 41 by 4 nm to the inside of the square.
  • the pattern correction is repeatedly performed to obtain a second correction figure used in an actual lithography process. I'm getting the pattern 45.
  • the original figure pattern 41 is a square of 30 nm on a side
  • the second correction figure pattern 45 is a square of 22 nm on a side
  • the correction process has to be repeated.
  • the optimum correction bias estimation unit 130Z includes a feature amount input unit 131Z and an optimum correction bias estimation calculation unit 132Z.
  • the feature amount input unit 131Z is a component that inputs the feature amounts x1 to xn extracted for each evaluation point in the feature amount extraction unit 120.
  • the optimum correction bias estimation operation unit 132Z stores the learning information LZ obtained by the learning step performed in advance, and based on the learning information LZ, according to the feature amount input by the feature amount input unit 131Z. The estimated value is obtained, and the obtained estimated value is output as the optimum correction bias z for the evaluation point.
  • the essential difference between the two is that the estimation operation unit 132 in the former processes the process based on the learning information L. While the function of estimating the bias y is performed, the latter optimal correction bias estimation operation unit 132Z performs the function of estimating the optimal correction bias z based on the learning information LZ.
  • the optimal correction bias estimation operation unit 132Z uses the feature amounts x1 to xn input by the feature amount input unit 131Z as an input layer, and uses the estimated value of the optimal correction bias z as an output layer.
  • There is a neural network for estimation and the substantial estimation operation is performed by this neural network.
  • the estimation operation unit 132 of the bias estimation unit 130 shown in FIG. 1 also uses the feature amounts x1 to xn input by the feature amount input unit 131 as input layers and the estimated value of process bias y as an output layer as described above.
  • a neural network for process bias estimation is provided, and substantial estimation operations are performed by the neural network.
  • FIG. 35 shows a neural network for process bias estimation (FIG. (A): FIG. 35) constituting the estimation operation unit 132 (referred to as the process bias estimation operation unit 132 in FIG. 35) according to the prior application invention shown in FIG. Block substantially showing the comparison with the neural network for optimum correction bias estimation (figure (b)) which constitutes the optimum correction bias estimation operation unit 132Z according to the present invention shown in FIG. 32.
  • FIG. As shown, in both neural networks, there is no difference in that an n-dimensional vector consisting of feature quantities x1 to xn for a particular evaluation point E is used as an input layer and one scalar value is used as an output layer. Further, in the case of the illustrated example, it is common that all neural networks have N stages of hidden layers of the first hidden layer to the Nth hidden layer.
  • the neural network shown in FIG. 35 (a) is the estimated value y of the process bias for the evaluation point E
  • the neural network shown in FIG. 35 (b) is The difference is that the scalar value appearing in the output layer is the estimated value z of the optimal correction bias for the evaluation point E.
  • the process bias y is estimated using the neural network shown in FIG. 35 (a), and pattern shape correction (step S5 in FIG. 4) is performed using this process bias y. It is necessary to repeat the process of providing the feature quantities x1 to xn for each evaluation point of the corrected figure pattern 15 again to the input layer of the neural network.
  • the optimum correction bias z is estimated using the neural network shown in FIG. 35 (b), and the pattern shape correction is performed using this optimum correction bias z (step S5Z in FIG. 33).
  • the actual corrected lithography process (step S7Z in FIG. 33) can be performed by using the obtained corrected figure pattern 35 as it is.
  • the learning information L used in the neural network shown in FIG. 35 (a) is such that the estimated value of the process bias y can be obtained in the output layer based on the feature quantities x1 to xn given to the input layer.
  • the learning information LZ used in the neural network shown in FIG. 35 (b) is the information obtained by performing, on the basis of the feature quantities x1 to xn given to the input layer, the optimum correction bias z is obtained. It means information obtained by performing learning so that an estimated value of can be obtained in the output layer.
  • the amount of deviation or the amount of correction in the normal direction of the outline for the evaluation point set on the outline of the figure is used as the value of process bias y and the value of optimum correction bias z.
  • the optimum correction bias estimation calculation unit 132Z estimates the position correction amount of the evaluation point in the normal direction of the contour as the estimation value z of the optimum correction bias for the evaluation point E located on the contour of the figure. Will be asked for.
  • the optimum correction bias estimation operation unit 132Z which performs an important function in the present invention, estimates the optimum correction bias z, it uses the learning information LZ obtained in the learning step performed in advance. Become. In other words, in practicing the present invention, it is very important to create appropriate learning information LZ. Therefore, here, an example of a specific process of creating the learning information LZ will be described.
  • the process of creating learning information LZ described here is performed as a preparatory step in manufacturing the figure correction apparatus 100Z according to the present invention.
  • This preparation stage is constituted by the first preparation stage and the second preparation stage as follows.
  • processing for determining the optimum correction bias is executed for a large number of test pattern figures
  • learning based on the large number of test pattern figures and the optimum correction bias is performed.
  • Learning information LZ is created. The contents of processing performed at each of these preparation stages will be described below.
  • FIG. 36 is a flow chart showing a first preparation step (optimum correction bias determination processing) for obtaining learning information LZ used by the neural network for optimum correction bias estimation according to the present invention.
  • a test pattern figure creation step S91 a test pattern figure having an outline indicating the boundary between the inside and the outside is created.
  • a simple figure such as a rectangle or an L-shaped figure may be used.
  • a square figure original figure pattern 41
  • FIG. 34 this first preparation The specific process of the stage will be described (the names of the figures 41 to 45 shown in FIG. 34 will be read as appropriate).
  • an evaluation point E is set at a predetermined position on the outline of the correction target pattern graphic.
  • the test pattern figure created in step S91 is used as the correction target pattern figure for the first time, but in the case of performing the second and subsequent steps after returning from step S98 described later,
  • the corrected pattern figure created by the pattern shape correction in step S98 is used as the correction target pattern figure.
  • the correction target pattern graphic is a graphic to be corrected in the pattern shape correction process in step S98.
  • an evaluation point E is set on the outline thereof. In practice, a large number of evaluation points are set along the outline (for example, the evaluation points may be set continuously at a predetermined pitch).
  • the feature amounts x1 to xn indicating the features around it. Is extracted.
  • the feature quantity extraction process may employ, for example, the method described in ⁇ 2 (of course, other extraction methods may be employed).
  • the process bias y for each evaluation point E is estimated based on the feature quantities x1 to xn extracted in step S93.
  • the process bias y is the amount of deviation between the position of the evaluation point on the correction target pattern figure and the position of the evaluation point on the actual figure that can be obtained by the lithography process using the correction target pattern figure. is there.
  • the square 41 shown on the left side of FIG. 34 (a) is a pattern figure to be corrected
  • the process bias estimation process in step S94 can be performed using a neural network in which the feature amount is an input layer and the process bias estimated value y is an output layer.
  • the process bias estimation operation unit 132 shown in FIG. 35A includes a neural network having the feature quantities x1 to xn as input layers and the estimated value y of process bias as an output layer, and the process of step S94 The bias estimation process can be performed using the process bias estimation calculation unit 132.
  • the shape of the real figure is estimated based on the process bias y, and the error amount e indicating the deviation between the estimated real figure and the test pattern figure is calculated.
  • step S96 it is determined whether the error amount e falls within a predetermined allowable range. Specifically, the absolute value
  • a correction bias c indicating the position correction amount for the evaluation point on the correction target pattern graphic necessary to offset the error amount e is determined.
  • the shape of the correction target pattern graphic is corrected to create a corrected pattern graphic.
  • pattern correction is performed to move the outline by 5 nm to the inside of the correction target pattern FIG.
  • a corrected pattern figure 43 consisting of a square of 20 nm side as shown on the left side of) is created.
  • step S98 when the corrected pattern figure is created, the process from step S92 is executed again. However, this time, the corrected pattern figure 43 shown on the left side of FIG. 34 (b) becomes a new correction target pattern figure, and an error occurs as shown in FIG. 34 (b) by going through steps S92 to S95.
  • step S98 when the pattern graphic after correction is created in step S98, the third process from step S92 is executed.
  • the corrected pattern figure 45 shown on the left side of FIG. 34C becomes a new correction target pattern figure, and after steps S92 to S95, an error occurs as shown in FIG. 34C.
  • the process executed in the optimal correction bias determination step S99 is necessary to make the test pattern figure match the final corrected pattern figure with the final corrected pattern figure obtained at that time as the final corrected pattern figure.
  • a test pattern graphic (for example, the graphic 41 of FIG. 34) is produced in the test pattern graphic producing step S91. Then, by executing the evaluation point setting step S 92, the feature amount extraction step S 93, the process bias estimation step S 94, the correction bias determination step S 97, and the pattern shape correction step S 98 with the test pattern graphic as the first correction target pattern graphic.
  • a pattern figure after correction (for example, figure 43 in FIG. 34) is created.
  • evaluation point setting step S 92, feature amount extraction step S 93, process bias estimation step S 94, correction bias determination step S 97, and pattern shape correction step S 98 are executed with this corrected pattern figure as a new correction target pattern figure.
  • the process of creating a new corrected pattern figure (for example, figure 45 in FIG. 34) is repeatedly executed until the error amount e falls within a predetermined allowable range, and the corrected pattern figure (for example, Let the figure 45) of 34 be the final corrected pattern figure.
  • the test pattern graphic necessary to make the test pattern graphic (for example, the graphic 41 in FIG. 34) match the final corrected pattern graphic (for example, the graphic 45 in FIG. 34).
  • a process of determining the position correction amount for the above evaluation point as the optimum correction bias z is performed. Since a large number of evaluation points are set on one test pattern figure, the optimum correction bias z is determined for each of these individual evaluation points.
  • FIG. 34 is a pattern transition diagram showing an example of the sequential correction process of the figure pattern by the shape correction apparatus 100 shown in FIG. Therefore, instead of providing the original figure pattern 10 (a pattern designed to produce an actual product) to the shape correction apparatus 100 shown in FIG. 1, the first preparation step shown in the flowchart of FIG. It is possible to execute by giving a simple test pattern figure.
  • step S98 there is a loop from step S98 back to step S92, and it is necessary to repeatedly execute the pattern correction process.
  • the correction target pattern figure is not a complex original figure pattern 10 designed to manufacture an actual product but a simple test pattern figure, the calculation load is not so large.
  • the first preparation step is a preparation step for creating the learning information LZ to be used for the figure pattern shape correction apparatus 100Z according to the present invention, even if it takes a long time to complete the process, it causes a problem. Does not occur.
  • the process of determining the optimum correction bias z for one test pattern figure has been described. Actually, several thousand test pattern figures having different sizes and shapes are created. The optimum correction bias z is determined for each of the test pattern figures and for all evaluation points set on each test pattern figure. Therefore, the information obtained by performing the first preparation step includes information on a large number of created test pattern figures, information on a large number of evaluation points set on each test pattern figure, and each of these evaluation points And the information of the optimal correction bias z determined for. These pieces of information are used for learning in the second preparation stage described below.
  • FIG. 37 is a flow chart showing a second preparation step (learning processing of the estimation operation unit 132Z) for obtaining learning information LZ used by the neural network for optimal correction bias estimation according to the present invention.
  • test pattern figure input step S101 the test pattern figure created in step S91 of FIG. 36 is input.
  • optimum correction bias input step S102 the input of the optimum correction bias z determined in step S99 of FIG. Is done.
  • the evaluation point setting process of step S103 is the same as the evaluation point setting process of step S92 of FIG. 36, and the feature quantity extraction process of step S104 is the same as the feature quantity extraction process of step S93 of FIG. Therefore, in practice, in the evaluation point setting process in step S103, the evaluation point set in step S92 can be used as it is, and in the feature quantity extraction process in step S104, the feature quantity extracted in step S93 It is possible to divert as it is.
  • learning of a neural network is performed.
  • This learning process can be performed by the same process as the learning phase of the neural network described in 3.1 3.1.
  • FIG. 38 is a diagram showing a specific operation process performed by the neural network according to the present invention shown in FIG. 35 (b).
  • the basic configuration of this diagram is the same as that of the neural network shown in FIG. 25.
  • the portions shown by thick lines in the figure show the first hidden layer, the second hidden layer,.
  • the individual circles in the figure indicate neurons (nodes), and the lines connecting the circles indicate edges. Then, when the feature amounts x1 to xn for one evaluation point E are given to the input layer, the estimated value z of the optimum correction bias for the evaluation point E is output as a scalar value to the output layer.
  • the first hidden layer is an M (1) -dimensional layer, and is constituted by a total of M (1) neurons h (1, 1) to h (1, M (1)).
  • the second hidden layer is a layer of M (2) dimensions, and is constituted by a total of M (2) neurons h (2, 1) to h (2, M (2)), and the Nth hidden layer is It is a layer of M (N) dimensions, and is composed of a total of M (N) neurons h (N, 1) to h (N, M (N)).
  • the arithmetic values of the signals transmitted to the neurons h (1, 1) to h (1, M (1)) of the first hidden layer are respectively calculated using the same code as the arithmetic values h (1, 1)
  • the values of these operation values h (1, 1) h h (1, M (1)) are the matrix equations shown in the upper part of FIG.
  • the function f ( ⁇ ) on the right side of this equation each activation function shown in FIG. 27 can be used.
  • the output value z (estimated value of the optimum correction bias with respect to the evaluation point E: scalar value) is given by the matrix equation shown in the lower part of FIG. That is, the output value z is the matrix [W] and the matrix [h (N, 1) to h (N, M (N))] (neurons h (N, 1) to h (N, M of the Nth hidden layer) The product of (N)) and the scalar value b (N + 1) is added to the product of (N)).
  • the contents of the matrix [W] are as shown at the bottom of FIG.
  • the learning information LZ in the neural network is nothing but the individual component values (parameters W (u, v)) of the matrix [W] and the parameter values W and b of the scalar value b (N + 1).
  • the estimation calculation unit learning processing in step S105 first, random numbers are given as initial values to the parameters W and b constituting the learning information LZ.
  • the learning information LZ in which such initial values are set is incomplete, but is gradually updated to complete as learning progresses.
  • Both the neural network shown in FIG. 25 and the neural network shown in FIG. 38 have exactly the same function of outputting a predetermined scalar value to the output layer based on the feature quantities x1 to xn given to the input layer. However, while the former outputs the estimated value y of the process bias to the output layer, the latter outputs the estimated value z of the optimum correction bias to the output layer. As described above, the reason why the scalar values output to the output layer are different is that the learning information to be used is different.
  • the learning information L (parameter W, b) which is the result of learning in which the estimated value y of the correct process bias is output. Value) is used.
  • the neural network shown in FIG. 38 is a network for outputting the estimated value z of the optimal correction bias, learning which is the result of learning in which the estimated value z of the correct optimal correction bias is output.
  • the information LZ (again, the values of the parameters W and b) is used.
  • the learning information LZ is stored as digital data in a predetermined information recording medium and used.
  • the learning information LZ used by the neural network for optimal correction bias estimation is a process bias estimation for estimating a process bias y indicating the amount of deviation between the position on the original figure pattern of the evaluation point and the position on the actual figure pattern.
  • Optimal correction bias for a large number of test pattern figures obtained using a neural network (specifically, estimation operation unit 132 of bias estimation unit 130 shown in FIG. 1) (obtained in the first preparation step of FIG. 36) It means the parameters obtained by the learning phase (second preparation phase in FIG. 37) using the value z).
  • the processing of the second preparation step shown in FIG. 37 is a learning processing for obtaining learning information LZ for use in a neural network having the feature amounts x1 to xn as the input layer and the estimated value z of the optimal correction bias as the output layer. Therefore, the optimum correction bias estimation step S4Z in the correction processing step of FIG. 33 is executed using a neural network using the learning information LZ.
  • the correction processing step shown in FIG. 33, the first preparation step shown in FIG. 36, and the second preparation step shown in FIG. 37 are all executed by a dedicated program incorporated in a computer.
  • the learning information LZ stored in the optimum correction bias estimation calculation unit 132Z shown in FIG. 32 is characterized based on the feature quantities extracted for many test pattern figures and the optimum correction bias for each test pattern figure. This is the learning information obtained by learning (the second preparation step in FIG. 37) in which the optimal correction bias is output when the amount is given as an input. Then, the optimum correction bias for each test pattern figure used for this learning corrects the correction target pattern figure based on the simulation result of the lithography process using a predetermined correction target pattern figure to obtain a corrected pattern figure.
  • the pattern shape correction process is referred to as a position correction amount obtained by repeatedly performing the obtained corrected pattern figure as a new correction target pattern figure a predetermined number of times (first preparation step in FIG. 36).
  • FIG. 39 is a table showing an example of optimum correction biases for various test pattern figures determined by the optimum correction bias determination process shown in FIG.
  • Each row of the table corresponds to a specific test pattern figure, and the content described in the pattern category column is the name of each test pattern figure.
  • the numerical values in the design dimension column are the dimensions in the reference direction of the test pattern figure, and the numerical values in the length measurement value column will be obtained when performing the lithography process using the test pattern figure. It is the dimension of the reference direction of the real figure.
  • the numerical value in the process bias column is the value of the process bias y calculated for the test pattern figure
  • the numerical value in the optimal correction bias column is the value of the optimal correction bias z determined for the test pattern figure.
  • the first line of the table describes information on a test pattern figure having a simple shape called "Line & Space". That is, this test pattern figure is a rectangular pattern with a width of 1000 nm (design dimension), and a real figure that will be obtained when the lithography pattern is performed using the test pattern figure is a width of 1012.6 nm (measurement It becomes a rectangular pattern with a long value), the process bias y is +6.3 nm, and the optimum correction bias z is ⁇ 6.5 nm.
  • the present invention is a technique for correcting an original figure pattern on the premise that a real figure pattern is formed on a real substrate by a lithography process.
  • attention is paid to the shape of the figure pattern to be formed, and based on the feature amount of each evaluation point set on the figure pattern, although the method of estimating the optimal correction amount of is adopted, the position on the actual substrate S is not considered in this estimation.
  • FIG. 40 is a plan view of the actual substrate S for explaining an example where such a change occurs.
  • the actual substrate S is disposed on the XY plane, and two focus points ⁇ and ⁇ are set on the actual substrate S.
  • the target point ⁇ is a point located at the center of the actual substrate S, and the target point ⁇ is a point located at the lower right of the actual substrate S.
  • the inventors of the present application have confirmed that the values of the process bias y are different even when the lithography process based on exactly the same figure is performed at two focus points ⁇ and ⁇ where the positions on the real substrate S are different.
  • a square figure pattern is formed at each position of the noted points ⁇ and ⁇ on the real substrate S by the lithography process using the original figure pattern 41 consisting of a square as shown on the left side of FIG. 34 (a)
  • the process bias y for the square formed at the position of the target point ⁇ is +5 nm
  • the process bias y for the square formed at the position of the target point ⁇ is not exactly +5 nm. That is, the process bias y varies depending on the position on the actual substrate S.
  • FIG. 41 is a three-dimensional graph showing an example of a specific variation of the process bias y caused by the position on the real substrate S.
  • the X-axis and Y-axis of this three-dimensional graph indicate the horizontal and vertical positions (in cm) of the actual substrate S disposed on the XY plane, and the d-axis indicates the width variation at each position. (Unit: nm) is shown.
  • the fluctuation amount of the process bias y is half the width fluctuation amount d (for example, in the case of a rectangle, the left side Because the sum of the variation of the process bias y for the right side becomes the width variation d).
  • the width fluctuation amount d in this example, a negative value is taken
  • the process bias of the point of interest ⁇ is “y + d / 2”, where y is the process bias of the point of interest ⁇ .
  • the process bias “y + d / 2” of the focus point ⁇ becomes smaller than the process bias y of the focus point ⁇ .
  • the feature extraction unit 120 when performing estimation in consideration of the position dependency of the process bias, the feature extraction unit 120 is characterized by the variation amount d of the optimum correction bias or the process bias depending on the position of the evaluation point E on the actual substrate S. It may be extracted as one of the quantities. Then, in the bias estimation unit 130 according to the prior invention shown in FIG. 1, in addition to the feature quantities x1 to xn indicating the features around the evaluation point E, the score is further evaluated as the (n + 1) th feature quantity.
  • a more accurate process bias y can be estimated by inputting a variation d according to the position of E on the actual substrate S (for example, the width variation d given by the three-dimensional graph in FIG. 41).
  • an operation process shown in FIG. 42 may be employed instead of the operation process shown in FIG.
  • the difference between the two is that in the former the input layer is an n-dimensional vector indicating features x1 to xn, while in the latter the input layer is an (n + 1) dimensional vector indicating features x1 to xn and variation d It is a point that Thus, the latter increases the input layer by one dimension, but the basic arithmetic algorithm is the same as the former.
  • the evaluation point E is further added as the (n + 1) th feature amount.
  • an operation process shown in FIG. 43 may be employed instead of the operation process shown in FIG.
  • the difference between the two is that in the former the input layer is an n-dimensional vector indicating features x1 to xn, while in the latter the input layer is an (n + 1) dimensional vector indicating features x1 to xn and variation d It is a point that Thus, the latter increases the input layer by one dimension, but the basic arithmetic algorithm is the same as the former.
  • FIG. 44 is a table showing an example of the optimum correction bias determined in the optimum correction bias determination process shown in FIG. 36 in consideration of the position dependency of various test pattern figures.
  • Each row of the table corresponds to a combination of a specific test pattern figure and a specific width variation d.
  • the content described in the pattern category column is the name of each test pattern figure
  • the numerical value in the design dimension column is the dimension in the reference direction of the test pattern graphic
  • the numerical value in the variation amount column is A width fluctuation amount (width fluctuation amount d given by the three-dimensional graph in FIG.
  • the numerical value in the length measurement value column is the test pattern graphic Is the dimension in the reference direction of the real figure that will be obtained at that position when performing the lithography process using (see the column labeled NA for which measurement has been omitted).
  • the numerical value in the process bias column is the value of the process bias y calculated for the combination of the test pattern graphic and the position, and the numerical value in the optimum correction bias column is the combination of the test pattern graphic and the position. It is the value of the determined optimum correction bias z.
  • the real figure that will be obtained at the coordinate (0, 0) becomes a rectangular pattern with a width of 1012.6 nm (measured value)
  • the process bias y is +6.3 nm
  • the optimal correction bias z is -6.5 nm.
  • the process bias y is +4.3 nm and the optimum correction bias z is ⁇ 4. It is shown to be .3 nm.
  • the estimation accuracy of the optimum correction bias estimation unit 130Z depends on the content of the learning information LZ to be used and the accuracy of the feature quantity given as an input, it is always possible to always output an estimated value of the optimum correction correction bias z.
  • the elements of the figure pattern correction apparatus 100 according to the prior invention described in 11 to 33 may be incorporated into the figure pattern correction apparatus 100Z according to the present invention described in ⁇ 5 or later.
  • a modified example using the invention of the prior application in combination will be described.
  • FIG. 45 is a block diagram showing the configuration of a figure pattern shape correction apparatus 100ZZ according to a modification using the invention of the prior application.
  • the shape correction device 100ZZ shown in FIG. 45 incorporates the optimum correction bias estimation unit 130Z into the shape correction device 100 of the figure pattern according to the prior invention shown in FIG. 1 and performs pattern correction processing on the process bias y. It can be said that the pattern correction unit 140 ZZ having a function of performing both of the correction based on the correction and the correction based on the optimum correction bias z is provided.
  • FIG. 45 calls the process bias estimation unit 130.
  • the estimation operation unit 132 in FIG. 1 is called a process bias estimation operation unit 132.
  • the optimal correction bias estimation unit 130Z of FIG. 45 is exactly the same as the optimal correction bias estimation unit 130Z shown in FIG.
  • the pattern correction unit 140ZZ of FIG. 45 is the pattern correction unit 140 of FIG. 1 (having a correction function based on the process bias y) and the pattern correction unit 140Z of FIG. 32 has a correction function based on the optimum correction bias z. And a function that performs both correction based on the process bias y and correction based on the optimum correction bias z.
  • the shape correction device 100ZZ shown in FIG. 45 Comparing the shape correction device 100ZZ shown in FIG. 45 with the shape correction device 100Z shown in FIG. 32 from another viewpoint, the shape correction device 100ZZ shown in FIG. 45 further includes the shape correction device 100Z shown in FIG.
  • the process bias estimation unit 130 is added, and the function of the pattern correction unit 140 shown in FIG. 1 is added to the pattern correction unit 140Z shown in FIG. 32 to form a pattern correction unit 140ZZ.
  • the process bias estimation unit 130 is the same component as the bias estimation unit 130 shown in FIG. 1, and based on the feature amounts x1 to xn, the position on the corrected figure pattern of the evaluation point E It has a function of estimating a process bias that indicates the amount of deviation from the position on the real graphic pattern that will be obtained by the lithography process using this corrected graphic pattern.
  • the “corrected figure pattern” means the corrected figure pattern 35 output from the pattern correction unit 140 ZZ, and corresponds to the corrected figure pattern 15 in FIG.
  • the shape correction apparatus 100ZZ shown in FIG. 45 is provided with two correction processing systems.
  • the first correction processing system is a system in which correction processing is performed along a route of evaluation point setting unit 110 ⁇ feature amount extraction unit 120 ⁇ optimum correction bias estimation unit 130 Z ⁇ pattern correction unit 140 ZZ. It is done based on.
  • the second correction processing system is a system in which correction processing is performed along the route of evaluation point setting unit 110 ⁇ feature amount extraction unit 120 ⁇ process bias estimation unit 130 ⁇ pattern correction unit 140 ZZ. It is done based on.
  • the first correction processing system is used to perform correction (first correction) on the original figure pattern 10
  • the second correction processing system is repeatedly corrected on the correction figure pattern 35 (from the second time onwards). Is used to make corrections).
  • the optimal correction bias estimation unit 130Z performs a process of estimating the optimal correction bias z in order to perform the first correction (correction to the original figure pattern 10)
  • the process bias estimation unit 130 performs the second process.
  • a process is performed to estimate the process bias y in order to perform repetitive correction (correction to the corrected figure pattern 35) from the second time on.
  • the evaluation point setting unit 110 sets the evaluation point E on the original graphic pattern 10 (during the first correction), and the correction graphic pattern 35. It has a function of selectively executing the process of setting the evaluation point E on the upper side (during the second and subsequent corrections).
  • the feature quantity extraction unit 120 extracts the feature quantities x1 to xn indicating the feature around the evaluation point E in the original figure pattern 10, and the feature quantities indicating the feature around the evaluation point E in the corrected figure pattern 35. and a process of selectively executing a process of extracting x1 to xn.
  • the pattern correction unit 140 ZZ generates the corrected figure pattern 35 by the correction based on the optimum correction bias z estimated by the optimum correction bias estimation unit 130 Z, and the correction based on the process bias y estimated by the process bias estimation unit 130. And a process of selectively correcting the corrected figure pattern 35 to create a new corrected figure pattern 35.
  • FIG. 46 is a flow chart showing the procedure of a product design / production process using the shape correction apparatus 100ZZ shown in FIG. As shown in the figure, this procedure comprises the first half (steps S1Z to S5Z) and the second half (steps S2 to S7), and the steps S1Z to S6 are processes executed on a computer.
  • the process of step S7 is a process performed on the actual substrate.
  • Steps S1Z to S5Z in the first half are processes performed using the first correction processing system described above, and are completely the same as steps S1Z to S5Z shown in FIG.
  • steps S1Z to S5Z in the first half stage the original figure pattern 10 created by the design device is applied to the shape correction device 100ZZ shown in FIG. 45, and the first correction processing system optimizes the original figure pattern 10 Correction using the correction bias z is performed, and a corrected figure pattern 35 is output.
  • the shape correction apparatus 100Z according to the basic embodiment shown in FIG. 32 a lithography process is carried out using the corrected figure pattern 35 thus obtained, and the actual substrate S will be manufactured, which will be described here.
  • further correction is continued on the corrected figure pattern 35 obtained in this way.
  • steps S2 to S7 in the second half stage are executed subsequent to steps S1Z to S5Z in the first half stage.
  • Steps S2 to S6 in the second half stage are processes performed using the above-described second correction processing system, and are completely the same as steps S2 to S6 shown in FIG.
  • the correction pattern pattern 35 obtained in the first half stage processing is repeatedly performed the necessary number of times using the process bias y with respect to the corrected figure pattern 35 by the second correction processing system.
  • a typical corrected figure pattern 35 is output.
  • the lithography process of step S7 is performed using the final corrected figure pattern 35 thus obtained.
  • evaluation points are set by the evaluation point setting unit 110 for the given original figure pattern 10, and feature quantities are extracted by the feature quantity extraction unit 120.
  • the optimum correction bias z is estimated by the correction bias estimation unit 130Z, correction is performed on the original figure pattern 10 by the correction by the pattern correction unit 140ZZ, and a correction figure pattern 35 is created (first correction processing system: first half stage) Steps S1Z to S5Z).
  • evaluation points are set by the evaluation point setting unit 110 with respect to the corrected figure pattern 35, feature amounts are extracted by the feature amount extraction unit 120, and process bias y is estimated by the process bias estimation unit 130.
  • a new corrected figure pattern 35 is created by further correction by the pattern correction unit 140 ZZ (second correction processing system: steps S 2 to S 6 in the second half stage).
  • step S6 may be omitted and the process may proceed from step S5 to step S7. Even so, further correction is performed on the corrected figure pattern 35 obtained in the correction by the first correction processing system (steps S1Z to S5Z in the first half stage), so the lithography process using the corrected figure pattern 35 is performed more accurately can do.
  • the evaluation point setting unit 110 is performed on the new corrected figure pattern 35.
  • An evaluation point is set, a feature amount is extracted by the feature amount extraction unit 120, a process bias is estimated by the process bias estimation unit 130, and a new corrected figure pattern 35 is created by the correction by the pattern correction unit 140ZZ.
  • the program is repeatedly executed a predetermined number of times.
  • Shape correction method of figure pattern according to the present invention >>> Up to this point, the present invention has been grasped as a figure pattern shape correction device 100Z having the configuration shown in FIG. 32, and the configuration and operation thereof have been described. Here, the present invention will be briefly described as a method invention called a shape correction method of a figure pattern.
  • the method matches the real figure pattern with the original figure pattern when the real figure pattern is formed on the real substrate by the lithography process based on the original figure pattern.
  • the shape of the original figure pattern is corrected to create a corrected figure pattern to be actually used in the lithography process.
  • the shape correction method includes a first preparation stage, a second preparation stage, and a correction process stage.
  • the computer performs the test so that the actual figure that can be obtained by the lithography process using the predetermined test pattern figure matches the test pattern figure.
  • Optimal correction bias determination processing for determining an optimal correction bias z indicating a position correction amount for a plurality of evaluation points E set on a pattern figure is performed on a large number of test pattern figures.
  • a test pattern figure creation step S91 for creating a test pattern figure having an outline indicating the boundary between the inside and the outside, and the outline of a predetermined correction target pattern figure
  • Evaluation point setting step S92 for setting the evaluation point E at a predetermined position on the line
  • feature amount extraction step S93 for extracting the feature amounts x1 to xn indicating the feature around the evaluation point E, and evaluation point on the correction target pattern
  • a process bias y indicating the amount of deviation between the position of E and the position of the evaluation point E on the real figure that will be obtained by the lithography process using the correction target pattern figure is based on the feature quantities x1 to xn.
  • Estimated shape and test pattern by estimating the shape of the figure based on the process bias estimation step S94 to be estimated and the process bias y
  • evaluation point setting step S92 evaluates the test pattern figure as the first correction target pattern figure
  • feature amount extraction step S93 feature amount extraction step S93
  • process bias estimation step S94 error amount calculation step S95
  • correction bias determination step S97 correction bias determination step S97
  • pattern shape correction step S98 After the pattern figure after correction is executed to create a pattern figure after correction, the created pattern figure after correction is set as a new correction target pattern figure, evaluation point setting step S 92, feature amount extraction step S 93, process bias estimation step S 94, error amount calculation step
  • the processing of S95, correction bias determination step S97, and pattern shape correction step S98 is executed to create a new corrected pattern figure repeatedly until the error amount e falls within a predetermined allowable range.
  • step S99 A process of determining the optimum correction bias z (step S99) is performed.
  • the process bias estimation process in step S94 can be performed using a neural network in which the feature quantities x1 to xn are input layers and the process bias estimated value y is an output layer.
  • the computer extracts feature quantities x1 to xn indicating surrounding features for a plurality of evaluation points E set for each test pattern figure.
  • the above-described many tests include learning for performing an operation such that the optimum correction bias z determined in the first preparation step is output for the test pattern figure when the extracted feature quantities x1 to xn are input.
  • a learning process for obtaining learning information LZ is performed by executing the pattern figure.
  • the computer extracts feature quantities x1 to xn indicating surrounding features for a plurality of evaluation points E set for the original figure pattern 10. And the optimal correction bias for each evaluation point E on the original graphic pattern 10 as an output when the extracted feature quantities x1 to xn are input using the learning information LZ obtained in the second preparation stage A process of creating a corrected figure pattern 35 is performed by determining z and correcting the position of each evaluation point E on the original figure pattern 10 based on the determined optimum correction bias z.
  • the learning process in the second preparation step may be performed as a process of obtaining learning information for use in a neural network having the feature quantities x1 to xn as the input layer and the estimated value z of the optimum correction bias as the output layer.
  • the processing at the correction processing stage can be performed using the above-mentioned neural network.
  • the shape correction apparatus and shape correction method of a figure pattern according to the present invention is a lithography process based on an original figure pattern in a field where fine patterning needs to be performed on a specific material layer, such as a semiconductor device manufacturing process.
  • a specific material layer such as a semiconductor device manufacturing process.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Geometry (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Manufacturing & Machinery (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Power Engineering (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Exposure And Positioning Against Photoresist Photosensitive Materials (AREA)
  • Preparing Plates And Mask In Photomechanical Process (AREA)

Abstract

元図形パターン(10)に基づくリソグラフィによって実基板(S)上に実図形パターン(20)を形成する。評価点設定ユニット(110)が、元図形パターン(10)上に評価点を設定し、特徴量抽出ユニット(120)が、評価点位置の特徴を示す特徴量(x1~xn)を抽出する。最適補正バイアス推定ユニット(130Z)は、この特徴量に基づいて、実図形パターン(20)を元図形パターン(10)に近づけるために必要な評価点の位置補正量を示す最適補正バイアス(z)を推定する。推定は、予め実施された学習段階によって得られた学習情報(LZ)を利用して行われる。パターン補正ユニット(140Z)は、この最適補正バイアス(z)に基づいて、元図形パターン(10)の評価点の位置を移動させる補正を行い、補正図形パターン(35)を作成する。リソグラフィは、この補正図形パターン(35)を用いて実行される。

Description

図形パターンの形状補正装置および形状補正方法
 本発明は、図形パターンの形状補正装置および形状補正方法に関し、特に、リソグラフィプロセスを経て基板上に形成される図形パターンの形状を補正する技術に関する。
 半導体デバイスの製造プロセスなど、特定の材料層に対して微細なパターニング加工を施す必要がある分野では、光や電子線を用いた描画を伴うリソグラフィプロセスを経て、物理的な基板上に微細なパターンを形成する手法が採られている。通常、コンピュータを利用して微細なマスクパターンを設計し、得られたマスクパターンのデータに基づいて、基板上に形成されたレジスト層に対する露光を行い、これを現像した後、残存レジスト層をマスクとしたエッチングを行い、基板上に微細なパターンを形成することになる。
 ただ、このようなリソグラフィプロセスを経て基板上に実際に得られる実図形パターンと、コンピュータ上で設計された元図形パターンとの間には、若干の食い違いが生じることになる。これは、上記リソグラフィプロセスには、露光、現像、エッチングという工程が含まれるため、最終的に基板上に形成される実図形パターンは、露光工程で利用された元図形パターンに正確には一致しないためである。特に、露光工程では、光や電子線によってレジスト層に対する描画を行うことになるが、その際に、近接効果(PE:Proximity Effect)によって、レジスト層に実際に描画される露光領域は、元図形パターンよりも若干広い領域になることが知られている。また、エッチング工程では、エッチングのローディング現象が生じるため、現像後のパターンとエッチング後のパターンとでは形状が異なってしまう。このエッチングのローディング現象の効果の大小は、実基板表面のレジスト層から露出した面積に応じて変化することが知られている。描画工程の近接効果や、エッチング工程のローディング現象などは、いずれも元図形パターンの形状と実図形パターンの形状との間に差異を生じさせる原因となる現象であるが、このような現象の影響範囲(スケールサイズ)は、各現象で異なっている。
 このような事情から、リソグラフィプロセスを含む半導体デバイスの製造工程などでは、コンピュータ上で所望の元図形パターンを設計した後、この元図形パターンを用いたリソグラフィプロセスをコンピュータ上でシミュレートし、実基板上に形成されるであろう実図形パターンの形状を推定する手順が実行される。そして、シミュレートの結果として得られる実図形パターンの形状(寸法)を踏まえ、必要に応じて、元図形パターンの形状(寸法)に対する補正を行い、この補正により得られる補正図形パターンを用いて実際のリソグラフィプロセスを実行し、実際の半導体デバイスの製造を行うことになる。
 したがって、設計どおりの精密なパターンを有する最終製品を製造するためには、実際にリソグラフィプロセスを行う前に、シミュレーションによって実図形パターンの形状を正確に推定し、元図形パターンに対して適切な補正を施す必要がある。そこで、たとえば、下記の特許文献1には、元図形パターンのレイアウトを特徴づける特徴因子と、リソグラフィプロセスによって基板上に形成されるレジストパターンの寸法に影響を与える制御因子と、を入力層とするニューラルネットワークを用いて、高精度のシミュレーションを行う方法が開示されている。また、特許文献2には、2組のニューラルネットワークを利用して、シミュレーションの精度を高める方法が開示されており、特許文献3には、フォトマスクのパターンから特徴量を抽出する際に、適切な抽出パラメータを設定することにより、シミュレーションの精度を高める方法が開示されている。
特開2008-122929号公報 特開2010-044101号公報 特開2010-156866号公報
 上述したように、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する場合、事前にシミュレーションを行い、元図形パターンをそのまま用いた場合に実基板上に形成されるであろう実図形パターンの形状を推定し、当該推定結果に基づいて元図形パターンに対して必要な修正を施して補正図形パターンを得る処理が行われている。そして、そのような推定を行うために、前掲の各特許文献に記載されている装置をはじめとして、様々な形状推定装置が提案されている。ただ、最適な補正図形パターンを得るためには、このような形状推定装置による推定作業を繰り返し実行する必要がある。
 たとえば、製品となる半導体基板上に幅30nmの矩形からなる図形を形成したい場合、設計段階で作成される元図形パターン上には、幅30nmの矩形が描かれることになる。ここでは、この幅30nmの矩形を含む元図形パターンに基づいて、露光、現像、エッチングという工程を含むリソグラフィプロセスを実行した場合、上述した近接効果やローディング現象により、実基板上に幅40nmの矩形が形成されるものとしよう。この場合、正確な形状推定装置を用いれば、実際のリソグラフィプロセスの代わりにシミュレーションを行うことにより、実基板上に幅40nmの矩形が形成されることを推定することができる。
 ただ、このような推定に基づき、幅のずれ量である+10nm(40nm-30nm)分を補正量として採用し、元図形パターン上の幅30nmの矩形を幅20nmの矩形に補正して補正図形パターンを得たとしても、通常、当該補正図形パターンをそのまま用いて実際のリソグラフィプロセスを実施すると、実基板上には、設計上の幅30nmの矩形を得ることはできない。これは、幅30nmの矩形と幅20nmの矩形とでは、上述した近接効果やローディング現象の影響の度合いが異なるためである。別言すれば、幅30nmの矩形についてリソグラフィプロセスを実行した場合のずれ量が10nmであったとしても、幅20nmの矩形についてリソグラフィプロセスを実行した場合のずれ量は通常10nmにはならない。
 このため、上例の場合、幅20nmの矩形を含む補正図形パターンを用いて再度の推定処理を行う必要がある。その結果、たとえば、実基板上に幅28nmの矩形が形成されることが推定されれば、幅のずれ量は-2nmになるので、今度は幅を若干増やす補正を行う必要がある。このため、従来は、元図形パターンの形状に基づいて実図形パターンの形状を推定し、推定結果に基づいて元図形パターンを補正し、補正図形パターンの形状に基づいて実図形パターンの形状を再度推定し、推定結果に基づいて補正図形パターンの形状を更に補正し、... というプロセスを繰り返し実行する必要があった。このため、作業工程が複雑になり、多大な作業時間がかかるという問題が生じていた。特に、半導体デバイスを製造するための図形パターンには膨大な数の図形が含まれており、元図形パターンに基づいて最適な補正図形パターンを得るプロセスには多大な作業時間が必要になっていた。
 そこで本発明は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、元図形パターンに対する補正を行うための作業工程をより単純化し、作業時間を短縮することが可能な図形パターンの形状補正装置および形状補正方法を提供することを目的とする。
 (1)  本発明の第1の態様は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、実図形パターンが元図形パターンに一致するように、元図形パターンの形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する図形パターンの形状補正装置において、
 元図形パターン上に評価点を設定する評価点設定ユニットと、
 元図形パターンについて、評価点の周囲の特徴を示す特徴量を抽出する特徴量抽出ユニットと、
 特徴量に基づいて、実図形パターンを元図形パターンに近づけるために必要な評価点の位置補正量を示す最適補正バイアスを推定する最適補正バイアス推定ユニットと、
 最適補正バイアス推定ユニットが推定した最適補正バイアスに基づいて、元図形パターンの評価点の位置を移動させることにより、元図形パターンの形状を補正して補正図形パターンを作成するパターン補正ユニットと、
 を設け、
 最適補正バイアス推定ユニットが、
 評価点について抽出された特徴量を入力する特徴量入力部と、
 予め実施された学習段階によって得られた学習情報を格納しており、学習情報に基づいて、特徴量に応じた推定値を求め、求めた推定値を評価点についての最適補正バイアスとして出力する最適補正バイアス推定演算部と、
 を有するようにしたものである。
 (2)  本発明の第2の態様は、上述した第1の態様に係る図形パターンの形状補正装置において、
 最適補正バイアス推定演算部に格納されている学習情報が、多数のテストパターン図形について抽出された特徴量と各テストパターン図形についての最適補正バイアスとに基づいて、特徴量を入力として与えた場合に最適補正バイアスが出力されるような学習によって得られた学習情報であるようにしたものである。
 (3)  本発明の第3の態様は、上述した第2の態様に係る図形パターンの形状補正装置において、
 所定の補正対象パターン図形を用いたリソグラフィプロセスのシミュレーション結果に基づいて補正対象パターン図形を補正して補正後パターン図形を得るパターン形状補正処理を、得られた補正後パターン図形を新たな補正対象パターン図形として所定回数だけ繰り返し実施することにより得られた位置補正量が、各テストパターン図形についての最適補正バイアスとして用いられているようにしたものである。
 (4)  本発明の第4の態様は、上述した第1~第3の態様に係る図形パターンの形状補正装置において、
 評価点設定ユニットが、図形の内部と外部との境界を示す輪郭線の情報を含む元図形パターンに基づいて、輪郭線上の所定位置に評価点を設定するようにしたものである。
 (5)  本発明の第5の態様は、上述した第4の態様に係る図形パターンの形状補正装置において、
 最適補正バイアス推定演算部が、図形の輪郭線上に位置する評価点についての最適補正バイアスの推定値として、輪郭線の法線方向についての評価点の位置補正量の推定値を求めるようにしたものである。
 (6)  本発明の第6の態様は、上述した第1~第5の態様に係る図形パターンの形状補正装置において、
 特徴量抽出ユニットが、元図形パターンに基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像を作成し、1つの評価点の近傍の画素の画素値に基づいて当該評価点の特徴量を抽出するようにしたものである。
 (7)  本発明の第7の態様は、上述した第1~第6の態様に係る図形パターンの形状補正装置において、
 最適補正バイアス推定演算部が、特徴量入力部が入力した特徴量を入力層とし、最適補正バイアスの推定値を出力層とする最適補正バイアス推定用のニューラルネットワークを有するようにしたものである。
 (8)  本発明の第8の態様は、上述した第7の態様に係る図形パターンの形状補正装置において、
 最適補正バイアス推定用のニューラルネットワークが、評価点の元図形パターン上の位置と実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定するプロセスバイアス推定用のニューラルネットワークを利用して得られた多数のテストパターン図形についての最適補正バイアスを用いた学習段階によって得られたパラメータを学習情報として用いるようにしたものである。
 (9)  本発明の第9の態様は、上述した第1~第8の態様に係る図形パターンの形状補正装置において、
 特徴量に基づいて、評価点の補正図形パターン上の位置とこの補正図形パターンを用いたリソグラフィプロセスによって得られるであろう実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定するプロセスバイアス推定ユニットを更に設け、
 評価点設定ユニットが、元図形パターン上に評価点を設定する処理と、補正図形パターン上に評価点を設定する処理と、を選択的に実行する機能を有し、
 特徴量抽出ユニットが、元図形パターンについて評価点の周囲の特徴を示す特徴量を抽出する処理と、補正図形パターンについて評価点の周囲の特徴を示す特徴量を抽出する処理と、を選択的に実行する機能を有し、
 パターン補正ユニットが、最適補正バイアス推定ユニットが推定した最適補正バイアスに基づく補正により補正図形パターンを作成する処理と、プロセスバイアス推定ユニットが推定したプロセスバイアスに基づく補正により補正図形パターンを更に補正して新たな補正図形パターンを作成する処理と、を選択的に実行する機能を有するようにしたものである。
 (10) 本発明の第10の態様は、上述した第9の態様に係る図形パターンの形状補正装置において、
 与えられた元図形パターンに対して、評価点設定ユニットによる評価点設定がなされ、特徴量抽出ユニットによる特徴量抽出がなされ、最適補正バイアス推定ユニットによる最適補正バイアスの推定がなされ、パターン補正ユニットによる補正により補正図形パターンが作成され、
 更に、補正図形パターンに対して、評価点設定ユニットによる評価点設定がなされ、特徴量抽出ユニットによる特徴量抽出がなされ、プロセスバイアス推定ユニットによるプロセスバイアスの推定がなされ、パターン補正ユニットによる更なる補正により新たな補正図形パターンが作成されるようにしたものである。
 (11) 本発明の第11の態様は、上述した第10の態様に係る図形パターンの形状補正装置において、
 パターン補正ユニットによる更なる補正により新たな補正図形パターンが作成された後、当該新たな補正図形パターンに対して、評価点設定ユニットによる評価点設定がなされ、特徴量抽出ユニットによる特徴量抽出がなされ、プロセスバイアス推定ユニットによるプロセスバイアスの推定がなされ、パターン補正ユニットによる補正により更に新たな補正図形パターンが作成される処理が、所定回数だけ繰り返し実行されるようにしたものである。
 (12) 本発明の第12の態様は、上述した第9~第11の態様に係る図形パターンの形状補正装置において、
 プロセスバイアス推定ユニットが、
 評価点について抽出された特徴量を入力する特徴量入力部と、
 予め実施された学習段階によって得られた学習情報に基づいて、特徴量に応じた推定値を求め、求めた推定値を評価点についてのプロセスバイアスの推定値として出力するプロセスバイアス推定演算部と、
 を有するようにしたものである。
 (13) 本発明の第13の態様は、上述した第12の態様に係る図形パターンの形状補正装置において、
 プロセスバイアス推定演算部が、特徴量入力部が入力した特徴量を入力層とし、プロセスバイアスの推定値を出力層とするニューラルネットワークを有するようにしたものである。
 (14) 本発明の第14の態様は、上述した第13の態様に係る図形パターンの形状補正装置において、
 プロセスバイアス推定演算部に含まれるニューラルネットワークが、テストパターン図形を用いたリソグラフィプロセスによって実基板上に形成される実図形パターンの実寸法測定によって得られた寸法値と、テストパターン図形から得られる特徴量と、を用いた学習段階によって得られたパラメータを学習情報として用い、プロセスバイアスの推定処理を行うようにしたものである。
 (15) 本発明の第15の態様は、上述した第9~第14の態様に係る図形パターンの形状補正装置において、
 プロセスバイアス推定演算部が、所定の図形の輪郭線上に位置する評価点についてのプロセスバイアスの推定値として、輪郭線の法線方向についての評価点のずれ量の推定値を求めるようにしたものである。
 (16) 本発明の第16の態様は、上述した第1~第15の態様に係る図形パターンの形状補正装置において、
 特徴量抽出ユニットが、評価点の実基板上の位置に依存する最適補正バイアスもしくはプロセスバイアスの変動量を特徴量の1つとして抽出するようにしたものである。
 (17) 本発明の第17の態様は、上述した第1~第16の態様に係る図形パターンの形状補正装置を、コンピュータにプログラムを組み込むことにより構成したものである。
 (18) 本発明の第18の態様は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、実図形パターンが元図形パターンに一致するように、元図形パターンの形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する図形パターンの形状補正方法において、
 第1の準備段階と、第2の準備段階と、補正処理段階と、を実施するようにし、
 第1の準備段階では、コンピュータが、所定のテストパターン図形を用いたリソグラフィプロセスによって得られるであろう実図形がテストパターン図形に一致するように、テストパターン図形上に設定された複数の評価点についての位置補正量を示す最適補正バイアスを決定する最適補正バイアス決定処理を、多数のテストパターン図形について行い、
 第2の準備段階では、コンピュータが、テストパターン図形について設定された複数の評価点について周囲の特徴を示す特徴量を抽出し、抽出した特徴量を入力としたときに、当該テストパターン図形について第1の準備段階で決定された最適補正バイアスが出力されるような演算を行うための学習を多数のテストパターン図形について実行することにより学習情報を得る学習処理を行い、
 補正処理段階では、コンピュータが、元図形パターンについて設定された複数の評価点について周囲の特徴を示す特徴量を抽出し、第2の準備段階で得られた学習情報を利用して、抽出した特徴量を入力とした場合の出力として、元図形パターン上の各評価点についての最適補正バイアスを求め、求めた最適補正バイアスに基づいて元図形パターン上の各評価点の位置を補正することにより補正図形パターンを作成するようにしたものである。
 (19) 本発明の第19の態様は、上述した第18の態様に係る図形パターンの形状補正方法において、
 第1の準備段階で行われる最適補正バイアス決定処理を、
 内部と外部との境界を示す輪郭線を有するテストパターン図形を作成するテストパターン図形作成ステップと、
 所定の補正対象パターン図形の輪郭線上の所定位置に評価点を設定する評価点設定ステップと、
 評価点の周囲の特徴を示す特徴量を抽出する特徴量抽出ステップと、
 補正対象パターン図形上の評価点の位置と、補正対象パターン図形を用いたリソグラフィプロセスによって得られるであろう実図形上の評価点の位置と、のずれ量を示すプロセスバイアスを、特徴量に基づいて推定するプロセスバイアス推定ステップと、
 プロセスバイアスに基づいて実図形の形状を推定し、推定された実図形とテストパターン図形とのずれを示すエラー量を算出するエラー量算出ステップと、
 エラー量を相殺するために必要な、補正対象パターン図形上の評価点についての位置補正量を示す補正バイアスを決定する補正バイアス決定ステップと、
 補正バイアスに基づいて、補正対象パターン図形の形状を補正して、補正後パターン図形を作成するパターン形状補正ステップと、
 によって行い、
 テストパターン図形を最初の補正対象パターン図形として、評価点設定ステップ、特徴量抽出ステップ、プロセスバイアス推定ステップ、補正バイアス決定ステップ、パターン形状補正ステップを実行して補正後パターン図形を作成した後、
 補正後パターン図形を新たな補正対象パターン図形として、評価点設定ステップ、特徴量抽出ステップ、プロセスバイアス推定ステップ、補正バイアス決定ステップ、パターン形状補正ステップを実行して新たな補正後パターン図形を作成する処理を、エラー量が所定の許容範囲内に収まるまで繰り返し実行し、最後に得られた補正後パターン図形を最終補正後パターン図形とし、
 テストパターン図形を最終補正後パターン図形に一致させるために必要な、テストパターン図形上の評価点についての位置補正量を最適補正バイアスと決定するようにしたものである。
 (20) 本発明の第20の態様は、上述した第19の態様に係る図形パターンの形状補正方法において、
 プロセスバイアス推定ステップを、特徴量を入力層とし、プロセスバイアスの推定値を出力層とするニューラルネットワークを用いて行うようにしたものである。
 (21) 本発明の第21の態様は、上述した第18~第20の態様に係る図形パターンの形状補正方法において、
 第2の準備段階で、特徴量を入力層とし、最適補正バイアスの推定値を出力層とするニューラルネットワークに利用するための学習情報を得る学習処理を行い、
 補正処理段階を、上記ニューラルネットワークを用いて行うようにしたものである。
 (22) 本発明の第22の態様は、上述した第18~第21の態様に係る図形パターンの形状補正方法における第1の準備段階、第2の準備段階、補正処理段階のいずれかの段階を、コンピュータに組み込まれたプログラムの実行により行うようにしたものである。
 (23) 本発明の第23の態様は、上述した第21の態様に係る図形パターンの形状補正方法における第2の準備段階で得られた学習情報を構成するデジタルデータを、情報記録媒体に格納して利用できるようにしたものである。
 本発明に係る図形パターンの形状補正装置および形状補正方法によれば、元図形パターン上に設定された各評価点について特徴量が抽出され、この特徴量に基づいて、各評価点についての最適補正バイアスが推定される。この最適補正バイアスは、実図形パターンを元図形パターンに近づけるために必要な評価点の位置補正量を示しており、この最適補正バイアスに基づいて各評価点の位置を移動させて補正図形パターンを作成することにより適切な補正図形パターンを容易に得ることができる。特に、予め実施された学習段階によって得られた学習情報に基づいて、各評価点の特徴量に応じた最適補正バイアスが決定されるので、各評価点に対して適切な位置補正を行うことができる。したがって、元図形パターンに対する補正を行うための作業工程をより単純化し、作業時間を短縮することが可能になる。
先願発明の基本的実施形態に係る図形パターンの形状補正装置100の構成を示すブロック図である。 元図形パターンと実図形パターンとの間に形状の相違が生じた一例を示す平面図である。 図2に示す例において、各評価点の設定例および各評価点に生じるプロセスバイアスを示す平面図である。 図1に示す図形パターンの形状補正装置100を用いた製品の設計・製造工程を示す流れ図である。 図形パターンの輪郭線上に定義された評価点について、その周囲の特徴を把握する概念を示す平面図である。 図1に示す特徴量抽出ユニット120およびバイアス推定ユニット130において実行される処理の概要を示す図である。 図1に示す特徴量抽出ユニット120において実行される処理手順を示す流れ図である。 図1に示す図形パターンの形状補正装置100に与えられる元図形パターン10の具体例を示す平面図である。 図1に示す元画像作成部121において、画素の二次元配列からなるメッシュ上に元図形パターン10を重ね合わせる処理が行われた状態を示す平面図である。 図9に示す元図形パターン10に基づいて作成された面積密度マップM1を示す図である。 図9に示す元図形パターン10に基づいて作成されたエッジ長密度マップM2を示す図である。 ドーズ量の情報を含んだ元図形パターン10を示す平面図である。 図12に示すドーズ量付き元図形パターン10に基づいて作成されたドーズ密度マップM3を示す図である。 第k番目の準備画像QkにガウシアンフィルタGF33を用いたフィルタ処理を施すことにより、第k番目の階層画像Pkを作成する手順を示す平面図である。 図14に示すフィルタ処理により得られた第k番目の階層画像Pkを示す平面図である。 図14に示すフィルタ処理に利用する画像処理フィルタの例を示す平面図である。 図14に示すフィルタ処理に利用する画像処理フィルタの別な例を示す平面図である。 第k番目の階層画像Pkに対して、アベレージ・プーリング処理を施すことにより、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。 第k番目の階層画像Pkに対して、マックス・プーリング処理を施すことにより、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。 図1に示す画像ピラミッド作成部122において、n通りの階層画像P1~Pnからなる画像ピラミッドPPを作成する手順を示す平面図である。 図1に示す特徴量算出部123において、各階層画像から評価点Eについての特徴量を算出する手順を示す平面図である。 図21に示す特徴量算出手順で用いる具体的な演算方法を示す図である。 図1に示す画像ピラミッド作成部122において、n通りの差分画像D1~Dnからなる画像ピラミッドPDを作成する手順を示す平面図である。 図1に示す推定演算部132として、ニューラルネットワークを利用した実施例を示すブロック図である。 図24に示すニューラルネットワークで実行される具体的な演算プロセスを示すダイアグラムである。 図25に示すダイアグラムにおける第1隠れ層の各値を求める演算式を示す図である。 図26に示す活性化関数f(ξ)の具体例を示す図である。 図25に示すダイアグラムにおける第2隠れ層~第N隠れ層の各値を求める演算式を示す図である。 図25に示すダイアグラムにおける出力層の値yを求める演算式を示す図である。 図24に示すニューラルネットワークが用いる学習情報Lを得るための学習段階の手順を示す流れ図である。 図30に示す流れ図におけるステップS84の推定演算部学習の詳細な手順を示す流れ図である。 本発明の基本的実施形態に係る図形パターンの形状補正装置100Zの構成を示すブロック図である。 図32に示す図形パターンの形状補正装置100Zを用いた製品の設計・製造工程を示す流れ図である。 図1に示す先願発明に係る図形パターンの形状補正装置100による図形パターンの逐次補正プロセスの一例を示すパターン変遷図である。 図1に示す先願発明に係る推定演算部132を構成するニューラルネットワーク(図(a) )と図32に示す本発明に係る推定演算部132Zを構成するニューラルネットワーク(図(b) )との対比を示すブロック図である。 本発明に係る最適補正バイアス推定用のニューラルネットワークが用いる学習情報LZを得るための第1の準備段階(最適補正バイアス決定処理)を示す流れ図である。 本発明に係る最適補正バイアス推定用のニューラルネットワークが用いる学習情報LZを得るための第2の準備段階(学習処理)を示す流れ図である。 図35(b) に示す本発明に係るニューラルネットワークで実行される具体的な演算プロセスを示すダイアグラムである。 図36に示す最適補正バイアス決定段階で決定された、種々のテストパターン図形についての最適補正バイアスの一例を示す表である。 実基板S上の位置によってプロセスバイアスyに変動が生じる例を説明するための実基板Sの平面図である。 実基板S上の位置によって生じるプロセスバイアスyの具体的な変動量の一例を示す三次元グラフである。 プロセスバイアスの位置依存性を考慮した変形例において、プロセスバイアスyを求めるニューラルネットワークにおける演算プロセスを示すダイアグラムである。 プロセスバイアスの位置依存性を考慮した変形例において、最適補正バイアスzを求めるニューラルネットワークにおける演算プロセスを示すダイアグラムである。 プロセスバイアスの位置依存性を考慮した本発明の変形例において決定された最適補正バイアスの一例を示す表である。 先願発明を併用した本発明の変形例に係る図形パターンの形状補正装置100ZZの構成を示すブロック図である。 図45に示す図形パターンの形状補正装置100ZZを用いた製品の設計・製造工程の手順を示す流れ図である。
 以下、本発明を図示する実施形態に基づいて説明する。なお、本発明は、特許協力条約に基づく国際出願第PCT/JP2018/022100号(以下、先願と呼ぶ)に記載された発明(以下、先願発明と呼ぶ)と対比することにより、その特徴の把握が容易になる。そこで、ここでは説明の便宜上、以下の§1~§4において、まず、先願発明の説明を行い、§5以降において、本発明を先願発明と対比しながら説明することにする。したがって、以下の§1~§4で述べる内容(図1~図31に示す内容)は、実質的に先願に記載された基本的実施形態と同じものである。
 <<< §1. 先願発明に係る形状補正装置の基本構成 >>>
 ここでは、先願発明の基本的実施形態に係る図形パターンの形状補正装置100の構成を、図1のブロック図を参照しながら説明する。図示のとおり、この図形パターンの形状補正装置100は、評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140を有している。ここで、評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130の3つのユニットによって、先願発明に係る図形パターンの形状推定装置100′が構成されており、先願発明に係る図形パターンの形状補正装置100は、この図形パターンの形状推定装置100′に、更に第4番目のユニットとしてパターン補正ユニット140を付加することにより構成される。
 <1.1 図形パターンの形状推定装置>
 はじめに、図形パターンの形状推定装置100′の構成および機能について説明する。この図形パターンの形状推定装置100′は、元図形パターン10を用いたリソグラフィプロセスをシミュレートすることにより、実基板S上に形成される実図形パターン20の形状を推定する役割を果たす。図1の上方には、元図形パターン10から右方向に向かう一点鎖線の矢印が示され、この矢印の先には、実図形パターン20を有する実基板Sが描かれている。この一点鎖線の矢印は、物理的なリソグラフィプロセスを示している。
 図示の元図形パターン10は、コンピュータを用いた設計作業によって作成された図形パターンのデータであり、一点鎖線の矢印は、このデータに基づいて、物理的な露光、現像、エッチング等のリソグラフィプロセスを実施することにより、実基板Sが作製されることを示している。この実基板S上には、元図形パターン10に応じた実図形パターン20が形成されることになる。ただ、このようなリソグラフィプロセスを実施すると、元図形パターン10と実図形パターン20との間には、若干の食い違いが生じる。これは、前述したとおり、リソグラフィプロセスに含まれる、露光、現像、エッチングという工程の諸条件により、元図形パターン10どおりの正確な図形を実基板S上に形成することが困難なためである。
 図2は、元図形パターン10と実図形パターン20との間に形状の相違が生じた具体例を示す平面図である。半導体デバイスなどでは、実際には、非常に微細かつ複雑な図形パターンをシリコン等の実基板Sの表面に形成する必要があるが、ここでは説明の便宜上、図2(a) に示すような単純な図形が元図形パターン10として与えられた場合について説明する。図示の元図形パターン10は、1つの長方形からなるパターンであり、たとえば、実基板S上に、ハッチングを施した長方形内部領域に相当する材料層を形成することを示す元の図形データということになる。
 実際のリソグラフィ工程では、実基板S上の材料層の上面にレジスト層を形成し、光や電子線による露光を行って、このレジスト層に対する描画を行うことになる。たとえば、レジスト層に対して、図2(a) に示す元図形パターン10の内部領域(ハッチングを施した部分)について露光を行った後、レジスト層を現像して非露光部を除去すれば、露光部が残存レジスト層(ハッチングを施した部分)として残ることになる。更に、この残存レジスト層をマスクとして、材料層に対してエッチングを施せば、理論的には、材料層についても、元図形パターン10の内部領域(ハッチングを施した部分)を残すことができ、実基板S上に、図2(a) に示す元図形パターン10と同一の実図形パターンを得ることができる。
 しかしながら、実際には、実基板S上に得られる実図形パターン20は、元図形パターン10に正確には一致しない。その原因は、リソグラフィプロセスに含まれる、露光、現像、エッチングという工程の諸条件が、最終的に得られる実図形パターン20の形状に影響を及ぼすためである。たとえば、露光工程では、光や電子線によってレジスト層に対する描画を行うことになるが、その際に、近接効果(PE:Proximity Effect)によって、レジスト層に実際に描画される露光領域は、元図形パターン10よりも若干広い領域になることが知られている。このような近接効果の影響を受けると、実基板S上に得られる実図形パターン20は、図2(b) に示す例のように、元図形パターン10(破線で示す)よりも広がった領域になる。
 この他、現像工程で用いる現像液の特性、エッチング工程で用いるエッチング液やプラスマの特性、現像工程やエッチング工程の時間などの条件も、実図形パターン20の形状に影響を及ぼす要因になる。したがって、実際に半導体デバイスなどを製造する際には、コンピュータ上で所望の元図形パターン10を設計した後、この元図形パターン10を用いたリソグラフィプロセスをコンピュータ上でシミュレートし、実基板S上に形成されるであろう実図形パターン20の形状を推定する手順が実行される。図1に示す図形パターンの形状推定装置100′は、このような推定を行う機能をもった装置であり、実基板Sを作成するリソグラフィプロセス(露光、現像、エッチング工程)を実際に行うことなしに、シミュレーションによって、実基板S上に形成されるであろう実図形パターン20の形状を推定する機能を有している。
 図1に示す図形パターンの形状推定装置100′では、評価点設定ユニット110によって、元図形パターン10上に評価点Eが設定される。具体的には、形状推定装置100′には、元図形パターン10として、図形の内部と外部との境界を示す輪郭線の情報を含む図形データが与えられ、評価点設定ユニット110は、そのような元図形パターン10に基づいて、輪郭線上の所定位置に評価点を設定する処理を行う。
 図3は、図2(a) に示す元図形パターン10について、いくつかの評価点を設定した例および各評価点に生じるプロセスバイアス(寸法誤差)を示す平面図である。まず図3(a) は、図2(a) に示す元図形パターン10(長方形の図形)の輪郭線上に、評価点E11,E12,E13を設定した例を示す平面図である。図3では、説明の便宜上、3つの評価点E11,E12,E13が設定された簡素な例が示されているが、実際には、長方形の各辺上に、より多数の評価点が設定される。たとえば、輪郭線に沿って所定ピッチで連続的に評価点を設定するように定めておけば、自動的に多数の評価点を設定することができる。
 ここでは、図2(a) に示す元図形パターン10に基づいて、図2(b) に示すような実図形パターン20が得られた場合を考えてみよう。図3(b) は、図2(b) に示す実図形パターン20の輪郭(実線)を、図2(a) に示す元図形パターン10の輪郭(破線)と対比して示した平面図であり、実線で示す実図形パターン20の輪郭線が、破線で示す元図形パターン10の輪郭線に比べて、寸法yだけ外側に広がっている状態が示されている。このため、元図形パターン10の横幅aは、実図形パターン20では横幅bに広がっている。縦幅についても同様に若干の広がりが生じている。
 図3(b) において、実図形パターン20上の各評価点E21,E22,E23は、元図形パターン10上の各評価点E11,E12,E13に対応する点として定められた評価点である。ここで、評価点E21は、評価点E11を破線で示す輪郭線の法線方向外側に向かって所定寸法y11だけずらした点として定義されている。同様に、評価点E22は、評価点E12を破線で示す輪郭線の法線方向外側に向かって所定寸法y12だけずらした点として定義され、評価点E23は、評価点E13を破線で示す輪郭線の法線方向外側に向かって所定寸法y13だけずらした点として定義されている。
 図3に示す例のように、ここでは、元図形パターン10に対する実図形パターン20の形状変化を定量的に示すために、各評価点Eについて生じる輪郭線の法線方向についてのずれ量yを用いることにする。また、このずれ量yを、リソグラフィプロセスに起因して生じるバイアス量であることから「プロセスバイアスy」と呼ぶことにする。プロセスバイアスyは正負の符号をもった値であり、以下に示す実施例では、図形の露光部(描画部)が太る方向を正の値、細る方向を負の値と定義することにする。図示の例では、輪郭線で囲まれた図形の内部が露光部(描画部)になるので、輪郭線の外側方向にずれた場合には正の値、輪郭線の内側方向にずれた場合には負の値となる。図3に示す例の場合、各評価点Eはいずれも外側方向にずれを生じているため、プロセスバイアスy11,y12,y13は正の値をとる。
 なお、図3には、説明の便宜上、3つの評価点E11,E12,E13しか示されていないが、実際には、元図形パターン10の輪郭線上には、より多数の評価点Eが定義される。したがって、各評価点Eのそれぞれについてプロセスバイアスyを推定することができれば、各評価点Eを輪郭線の法線方向にプロセスバイアスyだけずらすことにより、リソグラフィプロセス後の各評価点Eの位置を推定することができ、実図形パターン20の輪郭線位置を推定することができる。
 もっとも、各評価点Eのプロセスバイアスyの値は、個々の評価点ごとに異なる。たとえば、図3(b) に示す例の場合、プロセスバイアスy11,y12,y13の値はそれぞれ個別の値になる。これは、各評価点E11,E12,E13の元図形パターン10に対する相対位置がそれぞれ異なっているため、リソグラフィプロセスによる影響も異なり、それぞれに生じるずれ量にも差が生じるためである。したがって、元図形パターン10に基づいて実図形パターン20の形状をシミュレーションによって推定する際の推定精度を高めるためには、個々の評価点ごとにリソグラフィプロセスによる影響を適切に予測し、適切なプロセスバイアスyを求めることが重要である。
 そこで、図1に示す図形パターンの形状推定装置100′では、まず、評価点設定ユニット110により、元図形パターン10上に評価点が設定される。具体的には、元図形パターン10に含まれている図形の内部と外部との境界を示す輪郭線の情報に基づいて、この輪郭線上の所定位置に各評価点Eを設定すればよい。たとえば、輪郭線に沿って所定間隔で連続的に評価点を設定することができる。
 続いて、特徴量抽出ユニット120により、元図形パターン10について、各評価点Eの周囲の特徴を示す特徴量を抽出する。ある1つの評価点Eについての特徴量xは、当該評価点Eの周囲の特徴を示す値ということになる。このような特徴量xを抽出する処理を行うため、特徴量抽出ユニット120は、図1に示すとおり、元画像作成部121、画像ピラミッド作成部122、特徴量算出部123を有している。
 元画像作成部121は、与えられた元図形パターン10に基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像を作成する。たとえば、図2(a) に示すような元図形パターン10が与えられた場合、長方形の内部の画素(図のハッチング部分の画素)については画素値1、長方形の外部の画素については画素値0を付与すれば、二値画像からなる元画像が作成される。
 画像ピラミッド作成部122は、この元画像を縮小して縮小画像を作成する縮小処理を含む画像ピラミッド作成処理を行い、複数n枚の階層画像からなる画像ピラミッドを作成する。画像ピラミッドの各階層を構成するn枚の階層画像は、いずれも元画像作成部121で作成された元画像に対して、所定の画像処理を施すことにより得られる画像であり、それぞれ異なるサイズをもっている。このような複数の階層画像の集合体を「画像ピラミッド」と呼ぶのは、各階層画像をサイズの大きい方から小さい方へと順に積み上げて階層構造を形成すると、あたかもピラミッドが構成されるように見えるためである。
 特徴量算出部123は、この画像ピラミッドの階層を構成するn枚の各階層画像について、それぞれ評価点Eの近傍の画素の画素値に基づいて特徴量を算出する。具体的には、1枚目の階層画像における評価点Eの近傍の画素の画素値に基づいて特徴量x1が算出され、2枚目の階層画像における評価点Eの近傍の画素の画素値に基づいて特徴量x2が算出され、同様に、n枚目の階層画像における評価点Eの近傍の画素の画素値に基づいて特徴量xnが算出されることになり、1つの評価点Eについて、n個の特徴量x1~xnが抽出される。たとえば、図3(a) に示す例の場合、評価点E11について、n通りの特徴量x1(E11)~xn(E11)が抽出され、評価点E12について、n通りの特徴量x1(E12)~xn(E12)が抽出され、評価点E13について、n通りの特徴量x1(E13)~xn(E13)が抽出される。
 一方、バイアス推定ユニット130は、特徴量抽出ユニット120によって抽出された特徴量xに基づいて、評価点Eの元図形パターン10上の位置と実図形パターン20上の位置とのずれ量を示すプロセスバイアスyを推定する処理を行う。このような推定処理を行うため、バイアス推定ユニット130は、特徴量入力部131と推定演算部132を有している。特徴量入力部131は、特徴量算出部123によって評価点Eについて算出された特徴量x1~xnを入力する構成要素であり、推定演算部132は、予め実施された学習段階によって得られた学習情報Lに基づいて、特徴量x1~xnに応じた推定値を求め、求めた推定値を評価点Eについてのプロセスバイアスの推定値yとして出力する処理を行う。
 より具体的に言えば、推定演算部132は、元図形パターン10を構成する図形の輪郭線上に位置する各評価点Eについて、当該輪郭線の法線方向についてのずれ量としてプロセスバイアスの推定値yを出力することになる。たとえば、図3(a) に示す元図形パターン10については、図3(b) に示すように、評価点E11についてプロセスバイアスy11、評価点E12についてプロセスバイアスy12、評価点E13についてプロセスバイアスy13が、それぞれ推定値として推定演算部132から出力される。こうして、各評価点Eについてのプロセスバイアスの推定値yが得られれば、各評価点Eの新たな位置(輪郭線の法線方向に、プロセスバイアスyだけずらした位置)を決定することができるので、図3(b) に示すように、実図形パターン20の形状を推定することができる。
 以上が、先願発明に係る図形パターンの形状推定装置100′の基本構成および基本動作である。なお、特徴量抽出ユニット120の具体的な動作は§2で詳述し、バイアス推定ユニット130の具体的な動作は§3で詳述する。
 <1.2 図形パターンの形状補正装置>
 続いて、先願発明に係る図形パターンの形状補正装置100の構成および機能について説明する。図形パターンの形状補正装置100は、上述した図形パターンの形状推定装置100′を用いて、元図形パターン10の形状を補正する装置であり、図1に示すとおり、図形パターンの形状推定装置100′の構成要素となる評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130に加えて、更に、パターン補正ユニット140を備えている。パターン補正ユニット140は、バイアス推定ユニット130から出力されるプロセスバイアスの推定値yに基づいて、元図形パターン10に対する補正を行う構成要素であり、このパターン補正ユニット140による補正によって得られる補正図形パターン15が、この図形パターンの形状補正装置100の最終的な出力となる。
 パターン補正ユニット140による補正は、元図形パターン10上の各評価点Eをプロセスバイアスyを相殺する方向に移動させ、各図形の境界線を移動後の各評価点Eの位置に修正することによって行うことができる。たとえば、図3(a) に示す元図形パターン10について、図3(b) に示すような実図形パターン20が推定された場合を考えてみよう。この場合、元図形パターン10に含まれる長方形の横幅aは、実図形パターン20上では横幅bに増加しており、(b-a)/2=yとすれば、長方形の左右の辺の位置をいずれも内側へyだけ移動させれば、元図形パターン10と同じ横幅aを有する長方形が得られることになる。したがって、基本的には、元図形パターン10の横幅aを2yだけ減じる補正を行い、この補正後の図形パターンに基づいてリソグラフィプロセスを実行すれば、実基板S上には、実図形パターン20として、当初の設計どおりの横幅aを有する長方形を得ることができる。
 図3(a) に示す元図形パターン10の場合、評価点E11を左方(長方形の内側)にプロセスバイアスy11だけ移動させ、評価点E12を左方(長方形の内側)にプロセスバイアスy12だけ移動させ、評価点E13を上方(長方形の内側)にプロセスバイアスy13だけ移動させる補正を行えばよい。もちろん、実際には、より多数の評価点が定義されているので、これらすべての評価点について、プロセスバイアスに相当する寸法だけ長方形の内側に移動させる補正を行い、補正後の評価点を結ぶ新たな輪郭線を定義すれば、当該輪郭線で画定される図形を含む補正図形パターン15が得られることになる。このような補正処理自体は公知の技術なので、ここでは詳しい説明は省略する。
 もっとも、実際には、こうして得られた補正図形パターン15を用いてリソグラフィプロセスを実行し、実基板S上に実図形パターン25(図示省略)を形成しても、得られる実図形パターン25は、設計当初の元図形パターン10には正確には一致しない(たとえば、実基板S上に形成される長方形の横幅は、正確にはaにならない)。なぜなら、元図形パターン10に含まれる図形と補正図形パターン15に含まれる図形とでは、サイズや形状が異なるため、リソグラフィプロセスを実行した場合の近接効果などの影響に相違が生じるためである。
 別言すれば、特定の評価点Eについてシミュレーションを行った結果、プロセスバイアスyが生じることが判明したとしても、単に当該評価点Eの位置をプロセスバイアスyだけ逆方向に移動させただけでは、正確な補正を行うことはできないのである。
 もちろん、元図形パターン10を用いてリソグラフィプロセスを実行した結果として得られる実図形パターン20に比べれば、補正図形パターン15を用いてリソグラフィプロセスを実行した結果として得られる実図形パターン25の方が、より元図形パターン10に近いパターンになるので、元図形パターン10をそのまま用いて実際のリソグラフィプロセスを実行するよりは、パターン補正ユニット140による補正によって得られる補正図形パターン15を用いて実際のリソグラフィプロセスを実行した方が、実基板S上には、より正確な図形パターンが得られることになる。すなわち、パターン補正ユニット140によって補正を行えば、誤差が縮小することは確かである。
 そこで、実用上は、図1に示すとおり、パターン補正ユニット140から出力された補正図形パターン15を、再び、図形パターンの形状補正装置100に与える処理を繰り返し行うようにする。すなわち、補正図形パターン15は、図形パターンの形状推定装置100′に新たな元図形パターンとして与えられることになり、この新たな元図形パターン(補正図形パターン15)について、§1.1で述べた処理が実行される。具体的には、評価点設定ユニット110によって補正図形パターン15上に各評価点Eの設定が行われ、特徴量抽出ユニット120によって各評価点Eについての特徴量が抽出され、バイアス推定ユニット130によって各評価点Eについてのプロセスバイアス推定値yが算出される。そして、この算出されたプロセスバイアス推定値yを用いて、パターン補正ユニット140において再度の補正処理が行われる。
 図1に示す図形パターンの形状補正装置100は、このように、図形パターンに対する補正を繰り返し実行する機能を有している。すなわち、元図形パターン10に基づいて第1の補正図形パターン15が得られ、この第1の補正図形パターン15に基づいて第2の補正図形パターンが得られ、この第2の補正図形パターンに基づいて第3の補正図形パターンが得られ、... という補正処理が繰り返されることになる。補正処理を行うたびに、元図形パターンとシミュレーションにより得られる図形パターンとの形状誤差は縮小してゆく。
 したがって、たとえば、元図形パターンとシミュレーションにより得られる図形パターンとの形状誤差が所定の許容範囲内に収束した時点で補正完了とし、最後に得られた補正図形パターンを用いて実際のリソグラフィプロセスを実行すれば、実基板S上には、設計当初の元図形パターン10に近い実図形パターンを形成することができる。かくして、先願発明に係る図形パターンの形状補正装置100を用いれば、元図形パターンの形状を的確に補正することが可能になる。
 なお、図1に示す評価点設定ユニット110、特徴量抽出ユニット120、バイアス推定ユニット130、パターン補正ユニット140は、いずれもコンピュータに所定のプログラムを組み込むことによって構成されている。したがって、先願発明に係る図形パターンの形状推定装置100′や図形パターンの形状補正装置100は、実際には、汎用のコンピュータに専用のプログラムを組み込むことによって実現される。
 図4は、図1に示す図形パターンの形状補正装置100を用いた製品の設計・製造工程を示す流れ図である。まず、ステップS1において、製品設計段階が行われる。この製品設計段階は、半導体デバイスなどを構成するための図形パターンを作成する工程であり、図1に示す元図形パターン10は、この製品設計段階で作成されることになる。なお、半導体デバイスなどの製品設計を行い、図形パターンを作成する装置自体は既に公知の装置であるので、ここでは詳しい説明は省略する。
 次のステップS2の評価点設定段階は、図1に示す評価点設定ユニット110において実行される段階である。たとえば、図2(a) に示すような元図形パターン10が与えられた場合、図3(a) に示すような評価点E11,E12,E13などが設定される。続くステップS3の特徴量抽出段階は、図1に示す特徴量抽出ユニット120において実行される段階であり、前述したとおり、1つの評価点Eについて、n通りの特徴量x1~xnが抽出される(詳細な抽出手順は、§2で述べる)。そして、ステップS4のプロセスバイアス推定段階は、図1に示すバイアス推定ユニット130において実行される段階であり、前述したとおり、1つの評価点Eについて、n通りの特徴量x1~xnを用いてプロセスバイアス推定値yが求められる(詳細な算出手順は、§3で述べる)。
 そして、ステップS5のパターン形状補正段階は、図1に示すパターン補正ユニット140において実行される段階であり、前述したとおり、各評価点Eについて求められたプロセスバイアス推定値yを用いて、元図形パターン10に対する補正を行うことにより補正図形パターン15が得られる。このような補正は、1回だけでは不十分であるため、ステップS6において「補正完了」と判断されるまで、ステップS2へ戻る処理が繰り返される。すなわち、ステップS5で得られた補正図形パターン15を、新たな元図形パターン10として取り扱うことにより、ステップS2~S5の処理が繰り返し実行されることになる。
 このような繰り返し処理の結果、ステップS6において「補正完了」と判断されるに至った場合には、ステップS7へと進み、リソグラフィプロセスが実行される。「補正完了」との判断は、たとえば「一定割合の評価点Eについて、元図形パターン上の位置とシミュレーションにより得られる図形パターン上の位置との誤差が、所定の基準値以下になる」というような特定の条件が満たされたことにより行うことができる。ステップS7のリソグラフィプロセスでは、最終的に得られた補正図形パターンに基づいて、露光、現像、エッチングという実工程が行われ、実基板Sの製造が行われる。
 図4に示す流れ図において、ステップS1~S6の段階は、計算機(コンピュータ)上で実行するプロセスであり、ステップS7の段階は、実基板S上で実行するプロセスである。
 <1.3 先願発明における特徴量抽出の基本概念>
 これまで、図1に示す図形パターンの形状推定装置100′および図形パターンの形状補正装置100の基本構成とその基本動作を述べた。これらの各装置において、先願発明として最も特徴的な構成要素は、特徴量抽出ユニット120である。先願発明は、元図形パターン10から的確な特徴量を抽出して的確なシミュレーションを行い、実基板S上に形成される実図形パターン20の形状を正確に推定するという作用効果を奏するものであるが、このような作用効果を得るために最も重要な役割を果たす構成要素が特徴量抽出ユニット120である。別言すれば、先願発明の重要な特徴は、元図形パターン10から非常にユニークな方法で特徴量の抽出を行う点にある。そこで、ここでは、先願発明における特徴量抽出の基本概念を説明する。
 図5は、長方形からなる図形パターン10の輪郭線上に定義された各評価点E11,E12,E13について、その周囲の特徴を把握する概念を示す平面図である。図5(a) は、長方形の右辺中央に設定された評価点E11について、参考円C1の内部と参考円C2の内部の特徴を抽出した状態を示している。参考円C1,C2は、いずれも評価点E11を中心とする円であるが、参考円C1に比べて参考円C2はより大きな円になっている。同様に、図5(b) は、長方形の右辺下方に設定された評価点E12について、図5(c) は、長方形の下辺中央に設定された評価点E13について、それぞれ2つの参考円C1,C2の内部の特徴を抽出した状態を示している。
 ここで、各評価点について、参考円C1の内部の特徴を比較すると、評価点E11と評価点E12については、左半分が図形内部(ハッチング領域)、右半分が図形外部(空白領域)になっており、参考円C1の内部の特徴に関しては差がない。一方、評価点E13についての参考円C1の内部の特徴は、上半分が図形内部(ハッチング領域)、下半分が図形外部(空白領域)になっており、評価点E11,E12の参考円C1内の特徴を90°回転させたものになっているが、ハッチング領域の占有率について差はない。一方、参考円C2の内部の特徴を、各評価点E11,E12,E13について比較すると、ハッチング領域の分布がそれぞれ異なっており、互いに異なる特徴を有していることがわかる。
 このように、図形パターン10上の各評価点E11,E12,E13について、その近傍の特徴を把握するにしても、参考円C1のような狭い近傍領域の特徴を抽出するか、参考円C2のように若干広い近傍領域の特徴を抽出するか、によって、抽出される特徴は異なる。したがって、ある1つの評価点Eについて、その近傍領域の特徴を何らかの特徴量xとして定量的に抽出する場合、近傍領域の範囲を段階的に変化させれば、より多様な方法で特徴量の抽出が行えることがわかる。
 また、前述したとおり、元図形パターン10に基づいてリソグラフィプロセスを実行した場合、基板上に得られる実図形パターン20は、露光工程における近接効果により、元図形パターン10に対して寸法誤差(プロセスバイアス)を生じることになる。特に、電子線露光における近接効果には、影響範囲が狭い前方散乱に起因する効果や、影響範囲が広い後方散乱に起因する効果など、多様な効果が含まれている。たとえば、前方散乱は、レジスト層などから構成される被成形層に電子ビームを照射したときに、質量の小さい電子が、レジスト内で分子に散乱されながら拡がっていく現象として説明され、後方散乱は、レジスト層の下にある金属基板などの表面付近で散乱されて跳ね返ってきた電子がレジスト層内で拡散してゆく現象として説明されている。また、エッチング工程によってもプロセスバイアスが生じ、その大きさは、エッチング時のローディング現象に応じて変動する。このローディング現象も、上述した露光工程における近接効果と同様に、狭い影響範囲をもつ成分や広い影響範囲をもつ成分など、多様な成分が合わさって生じることになる。
 結局、ある1つの評価点Eについてのプロセスバイアスyの値は、様々なスケール感をもった現象が融合して決まる値になる。したがって、周囲の狭い範囲に関する特徴量から広い範囲に関する特徴量に至るまで、多様な特徴量を抽出することは、影響範囲がそれぞれ異なる、プロセスバイアスに影響を与える各工程中の様々な現象に対して、正確なシミュレーションを行う上で重要である。そこで、先願発明では、1つの評価点Eについて、近傍から遠方に至るまで、その周囲の様々な領域についての特徴量を抽出するようにしている。このように、1つの評価点Eについて複数の特徴量を抽出するため、先願発明では、それぞれ異なるサイズをもった複数の階層画像からなる「画像ピラミッド」を作成する方法を採用している。この画像ピラミッドには、影響範囲がそれぞれ異なる様々な現象を多重化した情報が含まれていることになる。
 図6は、図1に示す特徴量抽出ユニット120およびバイアス推定ユニット130において実行される処理の概要を示す図である。図の上方に示された元画像Q1は、図1に示す元画像作成部121によって作成された画像であり、与えられた元図形パターン10に相当する画像になる。前述したように、元図形パターン10は、半導体デバイスの設計装置などによって作成されるデータであり、図2(a) に示すような図形を示すデータになるが、通常、図形の輪郭線を示すベクトルデータ(各頂点の座標値と各頂点の連結関係を示すデータ)として与えられる。
 元画像作成部121は、与えられた元図形パターン10のデータに基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像Q1を作成する処理を実行する。たとえば、元図形パターン10を構成する図形の内部に画素値1をもった画素を配置し、外部に画素値0をもった画素を配置すれば、多数の画素Uの集合体からなる元画像Q1を作成することができる。図6に示す元画像Q1は、このような画素Uの集合体からなる画像であり、破線で示すように、元図形パターン10に含まれる長方形の図形を画像情報として有している。また、評価点設定ユニット110によって、この図形の輪郭線上に評価点Eが設定されている。なお、図6では、便宜上、1つの評価点Eのみが描かれているが、実際には、図形の輪郭線に沿って、多数の評価点が設定されている。
 図1に示す画像ピラミッド作成部122は、この元画像Q1に基づいて、画像ピラミッドPPを作成する。画像ピラミッドPPは、それぞれ異なるサイズをもった複数の階層画像によって構成される。図には、複数n通り(n≧2)の階層画像P1~Pnによって構成された画像ピラミッドPPが示されている。元画像Q1から階層画像P1~Pnを作成する具体的な手順は§2で説明するが、基本的には、階層画像P1~Pnは、画素数を小さくする縮小処理によって作成される。たとえば、図示の例の場合、階層画像P1は、元画像Q1と同じサイズの画像(縦横の画素数が同じ画像)であるのに対して、階層画像P2は、縮小された小さなサイズの画像になっており、階層画像P3は、階層画像P2を更に縮小した、より小さなサイズの画像になっている。
 このように、先願発明では、元画像Q1に基づいて、画像サイズが徐々に小さくなってゆくような階層画像P1~Pnが作成される。このように、サイズの異なる複数の階層画像を上下に並べた様子は、図示のようなピラミッドの形態になるため、先願では、これら複数の階層画像P1~Pnの集合体を画像ピラミッドPPと呼んでいる。階層画像P1~Pnは、いずれも元画像Q1に基づいて作成されているため、元図形パターン10の情報を有しており、それぞれについて評価点Eの位置を定義することができる。図では、各階層画像P1~Pnにそれぞれ長方形の図形が描かれており、その輪郭線上に評価点Eが配置されている。
 図1に示す特徴量算出部123は、画像ピラミッドを構成する各階層画像について、評価点の近傍の画素の画素値に基づいて特徴量を算出する処理を行う。図6には、画像ピラミッドPPを構成するn枚の階層画像P1~Pnから、それぞれ評価点Eの特徴量x1~xnが抽出された状態が示されている。図示されている特徴量x1~xnは、いずれも同じ評価点Eの周囲の特徴を示す値であるが、特徴量x1は、第1の階層画像P1上の評価点Eの近傍画素の画素値に基づいて算出された値であり、特徴量x2は、第2の階層画像P2上の評価点Eの近傍画素の画素値に基づいて算出された値であり、特徴量x3は、第3の階層画像P3上の評価点Eの近傍画素の画素値に基づいて算出された値である。各特徴量x1~xnの具体的な算出手順は§2で説明する。
 図6には、便宜上、1つの評価点Eのみが描かれているが、実際には、多数の評価点のそれぞれについて、n個の特徴量x1~xnが算出されることになる。個々の特徴量x1~xnは、いずれも所定のスカラー値であるが、個々の評価点Eごとにそれぞれn個の特徴量x1~xnが得られることになる。したがって、このn個の特徴量x1~xnをn次元ベクトルとして把握すれば、特徴量抽出ユニット120は、1つの評価点Eについて、n次元ベクトルからなる特徴量を抽出する処理を行うことになる。
 こうして抽出された各評価点についての特徴量(n次元ベクトル)は、バイアス推定ユニット130内の特徴量入力部131によって入力され、推定演算部132に与えられる。推定演算部132は、ここに示す実施例の場合、ニューラルネットワークによって構成され、予め実施された学習段階によって得られた学習情報Lに基づいて、n次元ベクトルとして与えられた特徴量x1~xnに応じて、評価点Eについてのプロセスバイアスの推定値y(スカラー値)を算出する演算を行う。具体的な演算手順は§3で説明する。
 このように、先願発明によれば、実際のリソグラフィプロセスに対して、物理的・実験的なシミュレーションモデルが構築されていなくても、あらゆる元図形パターン10に対して正確な特徴量を抽出することができる。また、そもそも物理的・実験的なシミュレーションモデルを構築する必要がないため、後に§3.2で述べるニューラルネットワークの学習段階において、材料物性や工程条件の種々の設定値を考慮する必要もない。
 以上、先願発明に係る図形パターンの形状推定装置100′および形状補正装置100を、半導体デバイスを製造するためのリソグラフィプロセスに利用する例について説明したが、先願発明や本願発明は、半導体デバイスの製造工程への利用に限定されるものではなく、リソグラフィプロセスを含む様々な製品の製造工程に利用することができる。たとえば、NIL(Nano Imprint Lithography)やEUV(Extreme UltraViolet Lithography)などのリソグラフィプロセスを含む様々な製品の製造工程においても先願発明や本願発明を利用することが可能である。特に、NILにおいては、元図形パターンから露光リソグラフィを通して作製したマスターテンプレート上の実図形パターンが、元図形パターンと一致するように、元図形パターンに対して補正を行ってもよい。あるいは、マスターテンプレートからインプリントを通して作製したレプリカテンプレート上の実図形パターンが、元図形パターンと一致するように、元図形パターンに対する補正を行ってもよい。その他にも、先願発明や本願発明は、MEMS(Micro Electro Mechanical Systems)、LSPM(Large-size Photomask)、リードフレーム、メタルマスク、メタルメッシュセンサー、カラーフィルタなど、リソグラフィプロセスを含むすべての製品分野に適用可能である。
 <<< §2. 特徴量抽出ユニットの詳細 >>>
 続いて、特徴量抽出ユニット120の詳細な処理動作を説明する。図1に示すように、特徴量抽出ユニット120は、元画像作成部121、画像ピラミッド作成部122、特徴量算出部123を有しており、図4の流れ図におけるステップS3の特徴量抽出処理を実行する機能を有している。この特徴量抽出処理は、実際には、図7に示す各手順により実行される。ここで、ステップS31,S32は、元画像作成部121によって実行される手順であり、ステップS33~S36は、画像ピラミッド作成部122によって実行される手順であり、ステップS37は、特徴量算出部123によって実行される手順である。以下、各部で実行される手順を、具体例を挙げて詳細に説明する。
 <2.1 元画像作成部121による処理手順>
 元画像作成部121は、与えられた元図形パターン10に基づいて、それぞれ所定の画素値を有する画素の集合体からなる元画像を作成する機能を果たし、図7の流れ図のステップS31,S32を実行する。まず、ステップS31において、元図形パターン10を入力する処理が行われ、続くステップS32において、元画像作成処理が行われる。
 §1では、説明の便宜上、ステップS31で入力される元図形パターン10の一例として、図2(a) のような1つの長方形の図形のみからなる単純なパターンを示した。ここでは、より詳細な説明を行うため、図8に示すような5つの図形F1~F5(矩形)を含む元図形パターン10が与えられた場合を考えてみよう。前述したように、図形パターンの形状補正装置100に与えられる元図形パターン10は、通常、図形の輪郭線を示すベクトルデータになる。したがって、図8では、各図形F1~F5の内部にハッチングを施して示しているが、実際には、この元図形パターン10は、5つの長方形F1~F5の各頂点の座標値とこれら各頂点の連結関係を示すベクトルデータとして与えられる。
 ステップS32の元画像作成処理は、このようなベクトルデータとして与えられた元図形パターン10に基づいて、画素の集合体からなる元画像Q1のデータ(ラスターデータ)を作成する処理ということになる。具体的には、元画像作成部121は、画素Uの二次元配列からなるメッシュを定義し、このメッシュ上に元図形パターン10を重ね合わせ、個々の画素Uの位置と元図形パターン10を構成する図形F1~F5の輪郭線の位置との関係に基づいて、個々の画素Uの画素値を決定する処理を行う。
 図9は、元画像作成部121において、画素Uの二次元配列からなるメッシュ上に元図形パターン10を重ね合わせる処理が行われた状態を示す平面図である。この例では、縦横ともに画素寸法uをもった画素Uを二次元配列させたメッシュが定義されており、多数の画素Uが、縦横ともにピッチuで並べられている。画素寸法uは、各図形F1~F5の形状を十分な解像度で表現することができる適切な値に設定される。画素寸法uを小さく設定すればするほど、形状表現の解像度は向上するが、後の処理負担は重くなる。一般に、半導体デバイスを製造するために用いられる元図形パターン10は、極めて微細なパターンになるため、画素寸法uとしては、たとえば、u=5~20nm程度の値を設定するのが好ましい。
 こうして、画素Uの二次元配列が定義されたら、図形F1~F5の輪郭線の位置との関係に基づいて、個々の画素Uに画素値を定義する。画素値の定義には、いくつかの方法がある。
 最も基本的な定義方法は、元図形パターン10に基づいて、各図形F1~F5の内部領域と外部領域とを認識し、各画素U内における内部領域の占有率を当該画素の画素値とする方法である。図8において、ハッチングが施された領域が各図形F1~F5の内部領域であり、白い領域が外部領域である。したがって、この方法を採る場合、図9のように重ね合わせた状態において、各画素の画素値は、当該画素内における内部領域(ハッチング領域)の占有率(0~1)として定義される。このような方法で画素値が定義された画像は、一般に「面積密度マップ」と呼ばれている。
 図10は、図9に示す「元図形パターン10+画素の二次元配列」に基づいて作成された面積密度マップM1を示す図である。ここで、各セルは、図9で定義された各画素であり、セル内の数字は各画素に定義された画素値である。なお、空白のセルは、画素値0をもつ画素である(画素値0の図示は省略されている)。この面積密度マップM1において、たとえば、画素値1.0をもつ画素は、図9におけるハッチング領域の占有率が100%の画素であり、画素値0.5をもつ画素は、図9におけるハッチング領域の占有率が50%の画素である。この面積密度マップM1は、基本的に、図形内部を画素値1、図形外部を画素値0で表現した二値画像ということになるが、図形の輪郭線が位置する画素については、内部領域の割合を示す値が画素値として与えられることになるので、全体としてはモノクロの階調画像ということになる。
 画素値の別な定義方法として、元図形パターン10に基づいて、各図形F1~F5の輪郭線を認識し、各画素U内に存在する輪郭線の長さを当該画素の画素値とする方法を採ることもできる。この方法を採る場合、図9のように重ね合わせた状態において、各画素の画素値は、当該画素内に存在する輪郭線の長さの総和として定義される。このような方法で画素値が定義された画像は、一般に「エッジ長密度マップ」と呼ばれている。輪郭線の長さの単位としては、たとえば、画素寸法uを1とした単位を用いればよい。
 図11は、図9に示す「元図形パターン10+画素の二次元配列」に基づいて作成されたエッジ長密度マップM2を示す図である。ここでも、各セルは、図9で定義された各画素であり、セル内の数字は各画素内に存在する輪郭線の長さの総和(画素寸法uを1とした長さ)として定義された画素値である。なお、空白のセルは、画素値0をもつ画素である(画素値0の図示は省略されている)。このエッジ長密度マップM2において、たとえば、画素値1.0をもつ画素は、図9において、画素内に存在する輪郭線の長さがuとなる画素である。このエッジ長密度マップM2は、基本的に、輪郭線の密度分布を示すモノクロの階調画像ということになるので、前述した面積密度マップM1とは性質がかなり異なる画像になる。ただ、輪郭線上に定義された評価点Eについての特徴量を抽出する上では、非常に有用な画像になる。
 以上、図8に示す元図形パターン10に基づいて、個々の画素の画素値を定義する方法を述べたが、リソグラフィプロセスに用いる元図形パターン10には、図形の内部と外部との境界を示す輪郭線の幾何学的な情報に加えて、更に、各図形に関するドーズ量の情報が付加されることがある。図12は、このようなドーズ量の情報を含んだ元図形パターン10を示す平面図である。図12に示すドーズ量付きの元図形パターン10は、図8に示す元図形パターン10と同様に、各図形F1~F5の輪郭線の情報を含んでいるが、それに加えて、各図形F1~F5のそれぞれについて、ドーズ量を定義する情報を含んでいる。
 具体的には、図示の例の場合、図形F1~F3についてはドーズ量100%が定義され、図形F4についてはドーズ量50%が定義され、図形F5についてはドーズ量10%が定義されている。これらのドーズ量は、リソグラフィプロセスの露光工程において、照射する光や電子線の強度(露光の回数によって総エネルギー量を制御する場合も含む)を示すものである。図示の例の場合、図形F1~F3の内部領域を露光する際には100%の強度で光や電子線を照射するが、図形F4の内部領域を露光する際には50%、図形F5の内部領域を露光する際には10%の強度で光や電子線を照射することになる。このように、露光工程時に、個々の図形ごとにドーズ量を制御するようにすれば、実基板S上に形成される実図形パターン20の寸法を更に細かく調整することができる。
 リソグラフィプロセスの露光工程において、このようなドーズ量の制御を行うケースでは、シミュレーションにおいても、ドーズ量を考慮する必要がある。このようなケースでは、元画像の画素値を決定する際に、ドーズ量を考慮した方法を採る必要がある。すなわち、図形の内部と外部との境界を示す輪郭線の情報と、リソグラフィプロセスにおける各図形に関するドーズ量の情報と、を含む元図形パターン10が与えられた場合には、当該元図形パターン10に基づいて、各図形の内部領域と外部領域とを認識し、更に、各図形に関するドーズ量を認識し、各画素内に存在する各図形について「内部領域の占有率と当該図形のドーズ量との積」を求め、当該積の総和を当該画素の画素値とする方法を採ればよい。
 この方法を採る場合、図9のように重ね合わせた状態において、各画素の画素値は、当該画素内における特定の図形の内部領域(ハッチング領域)の占有率(0~1)と当該特定の図形に関するドーズ量の積の総和として定義される。このような方法で画素値が定義された画像は、一般に「ドーズ密度マップ」と呼ばれている。このドーズ密度マップも、全体としてはモノクロの階調画像になる。
 図13は、図12に示すドーズ量付きの元図形パターン10に基づいて作成されたドーズ密度マップM3を示す図である。ここで、各セルは、図9で定義された各画素であり、セル内の数字は各画素に定義された画素値である。なお、空白のセルは、画素値0をもつ画素である(画素値0の図示は省略されている)。このドーズ密度マップM3を、図10に示す面積密度マップM1と比較すると、ドーズ量100%が与えられた図形F1~F3が配置された画素についての画素値に変わりはないが、ドーズ量50%が与えられた図形F4やドーズ量10%が与えられた図形F5が配置された画素についての画素値は、当該ドーズ量に応じた量だけ減じられていることがわかる。これは、実際の露光工程において、図形F4,F5の内部に対して、強度が減じられた光や電子線が照射される現象を示すものである。
 以上、元図形パターン10に基づいて、面積密度マップM1、エッジ長密度マップM2、ドーズ密度マップM3という3通りの画像(所定の画素値を有する画素Uの集合体)を作成する例を示した。図7の流れ図におけるステップS32の元画像作成処理では、これら3通りの画像のいずれかを作成して元画像とすればよい。図7では、一例として、面積密度マップM1を元画像Q1とした例が示されている。もちろん、上述した3通り以外の方法で元画像Q1を作成することも可能である。
 なお、このステップS32で作成された元画像Q1は、ステップS33のフィルタ処理において、第1番目の準備画像Q1として利用される。ステップS33のフィルタ処理は、後述するように、第k番目の準備画像Qkに画像処理フィルタを作用させて、第k番目の階層画像Pkを作成する処理である。そこで、ステップS32の手順は、パラメータk(k=1,2,3,... )を初期値k=1に設定して、第1番目の準備画像Q1を作成する処理と言うことができる。この第1番目の準備画像Q1は、元図形パターン10に基づいて最初に作成された元画像であり、後述する画像ピラミッド作成工程において最初に用いられる基準の画像ということになる。
 <2.2 画像ピラミッド作成部122による処理手順>
 続いて、画像ピラミッド作成部122による画像ピラミッドの作成処理の手順を説明する。画像ピラミッド作成部122は、図7のステップS32で作成された元画像Q1(たとえば、図10に示す面積密度マップM1)に基づいて、画素数を小さくする縮小処理を行う機能を有し、それぞれ異なるサイズをもった複数の階層画像からなる画像ピラミッドを作成する画像ピラミッド作成処理を行う。ここで述べる実施例の場合、この画像ピラミッド作成処理は、図7の流れ図のステップS33~S36に示す手順によって実行される。
 ここでは、ステップS31において、図8に示すような元図形パターン10が入力され、ステップS32において、図10に示す面積密度マップM1が元画像Q1として作成された場合を例にとって、具体的な画像ピラミッド作成処理の手順を説明する。
 まず、ステップS33では、第k番目の準備画像Qkに画像処理フィルタを作用させて、第k番目の階層画像Pkを作成するフィルタ処理が実行される。このフィルタ処理は、具体的には、たとえば、画像処理フィルタとしてガウシアンフィルタを用いた畳込演算として実行される。図14は、準備画像QkにガウシアンフィルタGF33を用いたフィルタ処理を施すことにより、第k番目の階層画像Pkを作成する手順を示す平面図である。この図14に示されている第k番目の準備画像Qkは、実際には、図10に示す面積密度マップM1と同じものである。
 すなわち、図10に示す面積密度マップM1は、便宜上、8×8の画素配列として示され、画素値0の記載が省略されているのに対して、図14に示す準備画像Qkは、10×10の画素配列として示され、画素値0も記載されているが、両者は実質的に同一の画像である。要するに、図14では、フィルタ処理を実行する都合上、図10に示す8×8の画素配列からなる面積密度マップM1の周囲に、画素値0を有する画素を配置して10×10の画素配列としているだけである。この段階では、パラメータkは初期値1であり、図14に示す準備画像Qkは、第1番目の準備画像Q1ということになる。上述したとおり、この第1番目の準備画像Q1は、ステップS32における元画像作成処理で作成された元画像に他ならない。
 図14に示すフィルタ処理では、ガウシアンフィルタGF33を用いた畳込演算が実行される。ガウシアンフィルタGF33は、図示のような3×3の画素配列であり、このガウシアンフィルタGF33を、第k番目の準備画像Qkの所定位置に重ね合わせて積和演算処理を行うことにより、第k番目の階層画像Pk(フィルタ処理画像)が得られる。図15は、図14に示すフィルタ処理により得られた第k番目の階層画像Pkを示す平面図である。この第k番目の階層画像Pkは、第k番目の準備画像Qkと同様に10×10の画素配列からなり、個々の画素の画素値は、ガウシアンフィルタGF33を用いた積和演算によって得られた値になる。
 たとえば、図15に示す第k番目の階層画像Pkにおいて、太枠で囲った画素(第4行第3列の画素)に着目すると、この着目画素には画素値0.375が与えられている。当該画素値は、図14に太枠で囲った3×3の画素配列(第4行第3列の画素を中心とした9画素)上に、図示のガウシアンフィルタGF33を重ね、9画素のそれぞれについて、同位置に重ねられた画素同士の画素値の積を求め、9個の積の総和として求められたものである。具体的には、着目画素の画素値0.375は、「(1/16×0)+(2/16×0.25)+(1/16×0.5)+(2/16×0)+(4/16×0.5)+(2/16×1.0)+(1/16×0)+(2/16×0.25)+(1/16×0.5)」なる積和演算値として求められる。このような積和演算によるフィルタ処理は、画像についての畳込演算処理として一般的に知られた処理であるため、ここでは詳しい説明は省略する。
 なお、図14に示すフィルタ処理では、画像処理フィルタとして、図16(a) に示すような3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算を行っているが、図16(b) に示すような3×3の画素配列からなるラプラシアンフィルタLF33を用いた畳込演算を行うようにしてもよい。一般に、ガウシアンフィルタを用いたフィルタ処理は、画像の輪郭をボケさせる効果を与え、ラプラシアンフィルタを用いたフィルタ処理は、画像の輪郭を強調させる効果を与えることが知られている。いずれのフィルタ処理を採用しても、第k番目の準備画像Qkに対して若干特徴が異なる第k番目の階層画像Pkを得ることができるので、それぞれ異なる特徴をもった複数の階層画像からなる画像ピラミッドを作成する上で効果的である。
 もちろん、ステップS33のフィルタ処理に用いる画像処理フィルタは、図16(a) に示すガウシアンフィルタGF33や図16(b) に示すラプラシアンフィルタLF33に限定されるものではなく、この他にも種々の画像処理フィルタを利用することが可能である。また、用いる画像処理フィルタのサイズも、3×3の画素配列に限定されることなく、任意のサイズの画像処理フィルタを利用することが可能である。たとえば、図17(a) に示すような5×5の画素配列からなるガウシアンフィルタGF55や、図17(b) に示すような5×5の画素配列からなるラプラシアンフィルタLF55を利用してもよい。
 こうして、図7の手順におけるステップS33のフィルタ処理が完了すると、ステップS34において、パラメータkが所定の設定値nに到達したか否かが判断され、k<nの場合には、ステップS35の縮小処理が実行される。この縮小処理は、所定の対象画像を元に、当該対象画像よりも画素数の小さな画像を作成する処理である。ここに示す実施例の場合、ステップS33のフィルタ処理で作成された第k番目の階層画像Pkに対して縮小処理を実行することにより、第(k+1)番目の準備画像Q(k+1)を作成する処理が実行される。したがって、準備画像Q(k+1)は、階層画像Pkよりもサイズが小さな画像(画素配列における縦横の画素数が小さな画像)になる。
 このような画像についての縮小処理は、「プーリング処理」とも呼ばれ、ステップS35で行う縮小処理としては、たとえば、「アベレージ・プーリング処理」を採用することができる。図18は、第k番目の階層画像Pkに対して、アベレージ・プーリング処理を施すことにより、縮小画像として、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。具体的には、図18(a) に示す4×4の画素配列からなる階層画像Pkにアベレージ・プーリング処理(縮小処理)を施すことにより、図18(b) に示すような2×2の画素配列からなる準備画像Q(k+1)が縮小画像として作成されている。
 図18に示すアベレージ・プーリング処理は、2×2の画素配列からなる4個の画素を1つの画素に変換(縮小)する処理であり、元の4個の画素の画素値の平均値を、変換後の1つの画素の画素値とすることにより、縮小画像が作成されることになる。たとえば、図18(a) に示す階層画像Pkの左上に配置されている2×2の画素配列からなる4個の画素(太枠内の画素)は、図18(b) の準備画像Q(k+1)上では太枠で示す1画素に変換(縮小)されている。この変換(縮小)後の太枠画素の画素値0.5は、元の4個の画素の画素値の平均値になっている。
 一方、図19は、第k番目の階層画像Pkに対して、マックス・プーリング処理を施すことにより、縮小画像として、第(k+1)番目の準備画像Q(k+1)を作成する手順を示す平面図である。具体的には、図19(a) に示す4×4の画素配列からなる階層画像Pkにマックス・プーリング処理(縮小処理)を施すことにより、図19(b) に示すような2×2の画素配列からなる準備画像Q(k+1)が縮小画像として作成されている。
 図19に示すマックス・プーリング処理は、図18に示すアベレージ・プーリング処理と同様に、2×2の画素配列からなる4個の画素を1つの画素に変換(縮小)する処理であるが、元の4個の画素の画素値の最大値を、変換後の1つの画素の画素値とすることにより、縮小画像が作成されることになる。たとえば、図19(a) に示す階層画像Pkの左上に配置されている2×2の画素配列からなる4個の画素(太枠内の画素)は、図19(b) の準備画像Q(k+1)上では太枠で示す1画素に変換(縮小)されている。この変換(縮小)後の太枠画素の画素値1.0は、元の4個の画素の画素値の最大値になっている。
 なお、図18および図19に示す各プーリング処理は、2×2の画素配列からなる4個の画素を単一の画素に変換する縮小処理であるが、もちろん、3×3の画素配列からなる9個の画素を単一の画素に変換する縮小処理を行うことも可能であるし、3×2の画素配列からなる6個の画素を単一の画素に変換する縮小処理を行うことも可能である。
 結局、画像ピラミッド作成部122は、ステップS35の縮小処理として、複数m個の隣接画素を、これら複数m個の隣接画素の画素値の平均値を画素値とする単一の画素に置き換えるアベレージ・プーリング処理を実行することにより縮小画像を作成することもできるし、複数m個の隣接画素を、これら複数m個の隣接画素の画素値の最大値を画素値とする単一の画素に置き換えるマックス・プーリング処理を実行することにより縮小画像を作成することもできる。もちろん、ステップS35の縮小処理としては、その他の縮小処理を行うことも可能である。要するに、階層画像Pkに対して画素数を小さくするような変換を施すことにより、サイズの小さな準備画像Q(k+1)を作成することができる処理、別言すれば、「画素数が小さくなった縮小画像」を作成する処理であれば、ステップS35において、どのような縮小処理を実行してもかまわない。
 こうして、ステップS35の縮小処理が完了したら、ステップS36において、パラメータkが1だけ増加され、再びステップS33のフィルタ処理が実行される。結局、上述のように、k=1として第1番目の準備画像Q1(元画像)に対してステップS33でフィルタ処理を行うことにより第1番目の階層画像P1が作成され、続いて、ステップS35で、この階層画像P1に対して縮小処理を行うことにより第2番目の準備画像Q2が作成され、ステップS36でk=2に更新され、再びステップS33において、第2番目の準備画像Q2に対するフィルタ処理を行うことにより第2番目の階層画像P2が作成されることになる。
 このような繰り返し手順が、ステップS34において、k=nと判断されるまで繰り返し実行される。ここで、nの値としては、画像ピラミッドの階層数(すなわち、画像ピラミッドを構成する階層画像の総数)として適切な値を予め設定しておけばよい。nの値を大きく設定すればするほど、1つの評価点Eについて抽出される特徴量の数nが多くなるので、より正確なシミュレーションが可能になるが、演算負担は増大する。また、ステップS35の縮小処理を繰り返すほど、画像のサイズはどんどん小さくなってゆくので、nの値を大きく設定しすぎると、ステップS35の縮小処理を行うことができなくなる。したがって、実用上は、元画像Q1のサイズや演算負担を考慮して、nの値を適切に設定すればよい。
 こうして、ステップS34において、k=nと判断されると、画像ピラミッド作成部122による処理は完了である。この時点で、図6に示すように、複数n通りの階層画像P1~Pnからなる画像ピラミッドPPが作成されたことになる。そこで、ステップS34からステップS37へと進み、特徴量算出処理が実行される。
 図20は、画像ピラミッド作成部122において、n通りの階層画像P1~Pnからなる画像ピラミッドPPを作成する手順(図7のステップS33~S36の手順)を示す平面図である。図の上段左に示す第1の準備画像Q1は、ステップS32の元画像作成処理において、k=1として作成された元画像であり、個々の画素には、たとえば図10に示す面積密度マップM1のような画素値が定義されている。上述したとおり、ステップS33では、この第1の準備画像Q1に対してフィルタ処理が行われる。具体的には、たとえば、3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算により、図20の上段右に示すような第1の階層画像P1が作成される。この第1の階層画像P1のサイズは、第1の準備画像Q1のサイズと同じである。
 続いて、ステップS35の縮小処理において、第1の階層画像P1に対する縮小処理(たとえば、アベレージ・プーリング処理)が行われ、図20の中段左に示す第2の準備画像Q2が作成される。この第2の準備画像Q2のサイズは、第1の階層画像P1のサイズよりも小さなものになる。続いて、ステップS36において、パラメータkの値が2に更新され、再びステップS33のフィルタ処理が実行される。すなわち、3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算により、図20の中段右に示すような第2の階層画像P2が作成される。この第2の階層画像P2のサイズは、第2の準備画像Q2のサイズと同じである。
 そして再びステップS35の縮小処理が実行される。すなわち、第2の階層画像P2に対する縮小処理(たとえば、アベレージ・プーリング処理)が行われ、図20の下段左に示す第3の準備画像Q3が作成される。この第3の準備画像Q3のサイズは、第2の階層画像P2のサイズよりも小さなものになる。続いて、ステップS36において、パラメータkの値が3に更新され、再びステップS33のフィルタ処理が実行される。すなわち、3×3の画素配列からなるガウシアンフィルタGF33を用いた畳込演算により、図20の下段右に示すような第3の階層画像P3が作成される。この第3の階層画像P3のサイズは、第3の準備画像Q3のサイズと同じである。
 このような処理が、パラメータk=nになるまで繰り返し実行され、最終的に、第nの準備画像Qnと第nの階層画像が得られることになる。こうして、第1の階層画像P1~第nの階層画像Pnまでのサイズが異なるn通りの階層画像によって、画像ピラミッドPPが構成されることになる。
 結局、図7の手順に示す実施例の場合、画像ピラミッド作成部122は、元画像Q1もしくは縮小画像Q(k+1)に対して、所定の画像処理フィルタを用いたフィルタ処理を行う機能を有しており、このフィルタ処理と縮小処理とを交互に実行することにより、複数の階層画像P1~Pnからなる画像ピラミッドPPを作成することになる。
 より具体的には、画像ピラミッド作成部122は、元画像作成部121によって作成された元画像を第1の準備画像Q1とし、第kの準備画像Qk(但し、kは自然数)に対するフィルタ処理によって得られる画像を第kの階層画像Pkとし、第kの階層画像Pkに対する縮小処理によって得られる画像を第(k+1)の準備画像Q(k+1)として、第nの階層画像Pnが得られるまでフィルタ処理と縮小処理とを交互に実行することにより、第1の階層画像P1~第nの階層画像Pnを含む複数n通りの階層画像からなる画像ピラミッドPPを作成することになる。
 先願発明における画像ピラミッドPPは、それぞれ異なるサイズをもった複数の階層画像によって構成されるものであればよいので、図7の流れ図に示す手順において、ステップS35の縮小処理は必須の処理になるが、ステップS33のフィルタ処理は必ずしも必要な処理ではない。ただ、フィルタ処理を行うと、個々の画素の画素値に周囲の画素の画素値の影響を作用させることができる。このため、フィルタ処理を加えることにより、バリエーションに富んだ複数の階層画像を作成することができ、より多様な情報を含んだ特徴量を抽出することができるようになり、結果的に、より正確なシミュレーションが可能になる。したがって、実用上は、図7の流れ図に示す手順のように、縮小処理とフィルタ処理とを交互に実行するようにするのが好ましい。
 <2.3 特徴量算出部123による処理手順>
 次に、特徴量算出部123による特徴量算出処理の手順を説明する。特徴量算出部123は、図7のステップS37に示すとおり、画像ピラミッドPPを構成する各階層画像P1~Pnに基づいて、各評価点Eについての特徴量x1~xnを算出する処理を行う。ここでは、この特徴量x1~xnの算出処理の手順を具体的に説明する。
 図21は、特徴量算出部123において、各階層画像P1~Pnから特定の評価点Eについての特徴量x1~xnを算出する手順を示す平面図である。具体的には、図21(a) ~(c) の左側には、それぞれ第1の階層画像P1,第2の階層画像P2,第3の階層画像P3の各画素配列に、元図形パターン10を構成する長方形(太枠で示す)を重ねた状態が示されており、図21(a) ~(c) の右側には、各階層画像P1,P2,P3に基づいて、特定の評価点Eについての特徴量x1,x2,x3を算出する原理が示されている。
 図21に示す各階層画像P1,P2,P3は、画像ピラミッドPPの各階層を構成する画像の一部である。実際には、P1~Pnまでのn通りの階層画像が用意され、n組の特徴量x1~xnが抽出されることになるが、図21では、説明の便宜上、3枚の階層画像P1,P2,P3から3組の特徴量x1,x2,x3を抽出する様子が示されている。
 ここで、第1の階層画像P1は、元画像Q1(第1の準備画像)に対してフィルタ処理を施すことによって得られた画像であり、図示の例では、16×16の画素配列を有している。これに対して、第2の階層画像P2は、第1の階層画像P1に対して縮小処理およびフィルタ処理を施すことによって得られた画像であり、図示の例では、8×8の画素配列を有している。また、第3の階層画像P3は、第2の階層画像P2に対して縮小処理およびフィルタ処理を施すことによって得られた画像であり、図示の例では、4×4の画素配列を有している。
 図21では、各階層画像P1,P2,P3を、その輪郭が同じ大きさの正方形になるように描いているため、いずれも同じ大きさの画像になっているが、画素配列としては、16×16,8×8,4×4と徐々に縮小しており、画像のサイズは徐々に減少したものになっている。ただ、図21では、各階層画像P1,P2,P3の外枠を、同じ大きさの正方形として描いているため、画素の大きさが徐々に大きくなっている。別言すれば、画像の解像度は、階層画像P1,P2,P3の順に低下してゆき、徐々に粗い画像になってゆく。
 上述したとおり、図には、元図形パターン10を構成する長方形が太枠で描かれている。各階層画像P1,P2,P3は、いずれも画素の集合体からなるラスター画像であるので、図に太枠で描かれた長方形の輪郭線は、実際には、輪郭線そのものの情報として含まれているわけではなく、個々の画素の画素値の情報として含まれていることになる。ただ、図21では、説明の便宜上、各階層画像P1,P2,P3上の長方形の位置を太線で示してある。ここでは、この長方形の輪郭線上に定義された特定の評価点Eについて、特徴量x1~xnを抽出する処理を説明する。
 図21(a) ~(c) を見ればわかるとおり、各階層画像P1,P2,P3に対して、太枠で示す長方形は同じ相対位置に配置されており、特定の評価点Eも同じ相対位置に配置されている。ここに示す実施例の場合、1つの評価点Eについての特徴量は、その近傍の画素の画素値に基づいて算出される。
 まず、図21(a) に示すように、第1の階層画像P1に基づいて、評価点Eについての特徴量x1が抽出される。具体的には、特徴量算出部123は、図21(a) の右側に示すように、第1の階層画像P1を構成する画素から、評価点Eの近傍に位置する4個の画素(図にハッチングを施した画素)を着目画素として抽出し、これら4個の着目画素の画素値を用いた演算により特徴量x1を算出する。同様に、図21(b) の右側に示すように、第2の階層画像P2を構成する画素から、評価点Eの近傍に位置する4個の画素(図にハッチングを施した画素)を着目画素として抽出し、これら4個の着目画素の画素値を用いた演算により特徴量x2を算出する。また、図21(c) の右側に示すように、第3の階層画像P3を構成する画素から、評価点Eの近傍に位置する4個の画素(図にハッチングを施した画素)を着目画素として抽出し、これら4個の着目画素の画素値を用いた演算により特徴量x3を算出する。
 このような処理を、第4の階層画像P4~第nの階層画像Pnについても行えば、特定の評価点Eについて、n組の特徴量x1~xnを抽出することができる。これらn組の特徴量x1~xnは、いずれも元図形パターン10上の同じ評価点Eについて、その周囲の特徴を示すパラメータになるが、元図形パターン10から影響を受ける範囲が互いに異なっている。たとえば、第1の階層画像P1から抽出された特徴量x1は、図21(a) の右側の図にハッチングが施された狭い領域内の特徴を示す値になるが、第2の階層画像P2から抽出された特徴量x2は、図21(b) の右側の図にハッチングが施されたより広い領域内の特徴を示す値になり、第3の階層画像P3から抽出された特徴量x3は、図21(c) の右側の図にハッチングが施された更に広い領域内の特徴を示す値になる。
 前述したように、ある1つの評価点Eについてのプロセスバイアスyの値は、前方散乱,後方散乱など、様々なスケール感をもった現象が融合して決まる値になる。したがって、同一の評価点Eについての特徴量として、その周囲のごく狭い範囲に関する特徴量x1から、より広い範囲に関する特徴量xnに至るまで、多様な特徴量x1~xnを抽出すれば、影響範囲がそれぞれ異なる様々な現象を考慮した正確なシミュレーションを行うことができる。図21には、1つの評価点Eについて、n組の特徴量x1~xnを抽出する処理が示されているが、実際には、元図形パターン10上に定義された多数の評価点のそれぞれについて、n組の特徴量x1~xnが同様の手順によって抽出されることになる。
 評価点Eの近傍にある着目画素の画素値に基づいて特徴量xを算出する方法としては、着目画素の画素値の単純平均を特徴量xとする単純な方法を採ることができる。たとえば、図21(a) に示すように、第1の階層画像P1から評価点Eについての特徴量x1を抽出するには、図にハッチングを施して示した着目画素(評価点Eの近傍にある4個の画素)の画素値の単純平均を特徴量x1とすればよい。ただ、より正確な特徴量を算出するためには、評価点Eと各着目画素との距離に応じた重みを考慮した加重平均を求め、この加重平均の値を特徴量x1とするのが好ましい。
 図22は、図21に示す特徴量算出手順で用いる具体的な演算方法(加重平均の値を特徴量とする演算方法)を示す図である。ここでは、特定の評価点Eの近傍に位置する着目画素として、4個の画素A,B,C,Dが選択された例が示されている。具体的には、処理対象となる階層画像P上において、評価点Eに近い順に合計4個の画素を選択する処理を行えば、着目画素A,B,C,Dを決定することができる。そこで、この4個の着目画素A,B,C,Dの画素値について、評価点Eと各画素との距離に応じた重みを考慮した加重平均を特徴量xとする演算を行えばよい。
 図22(a) には、各着目画素A,B,C,Dの中心点にx印が表示され、これらx印を連結する破線が描かれている。各着目画素A,B,C,Dの画素寸法は縦横ともにuであり、上記破線は、この画素寸法uをもった画素を半分に分割する分割線になっている。ここに示す実施例の場合、評価点Eと各着目画素A,B,C,Dとの距離として、評価点Eと各着目画素A,B,C,Dの中心点との横方向距離および縦方向距離を採用している。具体的には、図22(a) に示す例の場合、着目画素Aについては、横方向距離a,縦方向距離cになり、着目画素Bについては、横方向距離b,縦方向距離cになり、着目画素Cについては、横方向距離a,縦方向距離dになり、着目画素Dについては、横方向距離b,縦方向距離dになる。
 この場合、評価点Eの特徴量xは、各着目画素A,B,C,Dの画素値を同じ符号A,B,C,Dで表し、画素寸法u(画素ピッチ)を1とすれば、図22(b) に示すとおり、
    G=(A・b+B・a)/2
    H=(C・b+D・a)/2
    x=(G・d+H・c)/2
なる演算によって求めることができる。
 もちろん、4個の着目画素A,B,C,Dの画素値から特徴量xを算出する方法は、この図22に例示する方法に限定されるものではなく、評価点Eの近傍の画素の画素値を反映した特徴量xを算出することができるのであれば、この他にも様々な算出方法を採ることが可能である。また、図21および図22に例示する算出方法では、着目画素として、評価点Eの近傍に位置する4個の画素を選択しているが、特徴量xの算出に利用する着目画素の数は4個に限定されるものではない。たとえば、評価点Eの近傍に位置する3×3の画素配列を構成する9個の画素を着目画素として選択し、これら9個の着目画素の画素値について、評価点Eとの距離に応じた重みを考慮した加重平均を求め、これを評価点Eについての特徴量xとすることも可能である。
 一般論として、特徴量算出部123は、特定の階層画像P上の特定の評価点Eについての特徴量xを算出する際に、当該特定の階層画像Pを構成する画素から、当該特定の評価点Eに近い順に合計j個の画素を着目画素として抽出し、抽出したj個の着目画素の画素値について、当該特定の評価点Eと各着目画素との距離に応じた重みを考慮した加重平均を求める演算を行い、得られた加重平均の値を特徴量xとすることができる。
 <2.4 特徴量抽出処理の変形例>
 ここでは、これまで述べてきた特徴量抽出処理の手順についての変形例をいくつか述べておく。
 (1) 差分画像Dkを階層画像とする変形例
 §2.2では、画像ピラミッド作成部122による画像ピラミッドPPの作成処理手順として、図7の流れ図に示すステップS33~S36の処理を例示した。この処理は、元画像Q1(第1の準備画像)を出発点として、フィルタ処理と縮小処理を交互に実行し、図20に示すような手順により、フィルタ処理によって作成されるn枚の画像(以下、フィルタ処理画像と呼ぶ)を、そのまま階層画像P1~Pnとして採用し、画像ピラミッドPPを作成する処理である。
 これに対して、ここで述べる変形例は、図7の流れ図に示すステップS33~S36の処理を基本としつつ、更に、ステップS33のフィルタ処理が完了した時点で、フィルタ処理により得られた第kのフィルタ処理画像Pk(§2.2では、第kの階層画像Pkと呼んでいた画像)から第kの準備画像Qkを減じる差分演算「Pk-Qk」を行って第kの差分画像Dkを求める処理が付加される。別言すれば、ここで述べる変形例では、図7の流れ図に示すステップS33~S36の処理がそのまま実行されることになるが、更に、第kのフィルタ処理画像Pkから第kの準備画像Qkを減じる差分演算「Pk-Qk」が余分に行われることになる。
 ここで、差分演算「Pk-Qk」は、第kのフィルタ処理画像Pkと第kの準備画像Qkとについて、画素配列上で同じ位置に配置された画素を対応画素と定義し、画像Pk上の各画素の画素値から画像Qk上の対応画素の画素値を減算して差分をとり、得られた差分を画素値とする新たな画素の集合体からなる差分画像Dkを求める処理である。
 図23は、このような差分演算「Pk-Qk」によって、n通りの差分画像D1~Dnからなる画像ピラミッドPDを作成する手順を示す平面図である。ここで、上段右側に示す第1の階層画像D1は、差分演算「P1-Q1」によって得られる差分画像であり、具体的には、図20の上段右側に示す第1のフィルタ処理画像P1(図20では、第1の階層画像P1と呼ばれている)から上段左側に示す第1の準備画像Q1を減じる差分演算(対応位置にある画素同士の画素値の引き算)によって算出される。
 同様に、図23の中段右側に示す第2の階層画像D2は、差分演算「P2-Q2」によって得られる差分画像であり、具体的には、図20の中段右側に示す第2のフィルタ処理画像P2(図20では、第2の階層画像P2と呼ばれている)から中段左側に示す第2の準備画像Q2を減じる差分演算によって算出される。また、図23の下段右側に示す第3の階層画像D3は、差分演算「P3-Q3」によって得られる差分画像であり、具体的には、図20の下段右側に示す第3のフィルタ処理画像P3(図20では、第3の階層画像P3と呼ばれている)から下段左側に示す第3の準備画像Q3を減じる差分演算によって算出される。以下、同様の差分演算が行われ、最終的に、差分演算「Pn-Qn」によって得られる差分画像が、第nの階層画像Dnということになる。
 §2.2で述べた実施例では、図20に示すとおり、第1の階層画像(第1のフィルタ処理画像)P1~第nの階層画像(第nのフィルタ処理画像)Pnによって画像ピラミッドPPが構成されていたが、ここで述べる変形例では、図23に示すとおり、第1の階層画像(第1の差分画像)D1~第nの階層画像(第nの差分画像)Dnによって画像ピラミッドPDが構成されることになる。
 上述したように、ここで述べる変形例を実施するには、§2.2で述べた実施例の手順に、更に、差分演算の手順を付加すればよい。具体的には、画像ピラミッド作成部122は、元画像作成部121によって作成された元画像を第1の準備画像Q1とし、第kの準備画像Qk(但し、kは自然数)に対するフィルタ処理によって得られるフィルタ処理画像Pkと第kの準備画像Qkとの差分画像Dkを求め、当該差分画像Dkを第kの階層画像Dkとし、第kのフィルタ処理画像Pkに対する縮小処理によって得られる画像を第(k+1)の準備画像Q(k+1)として、第nの階層画像Dnが得られるまでフィルタ処理と縮小処理とを交互に実行することにより、第1の階層画像D1~第nの階層画像Dnを含む複数n通りの階層画像からなる画像ピラミッドPDを作成すればよい。
 結局、この変形例において画像ピラミッドPDの第k番目の階層を構成する第kの階層画像Dkは、フィルタ処理後の画像(フィルタ処理画像Pk)とフィルタ処理前の画像(準備画像Qk)との差分画像ということになり、各画素の画素値は、フィルタ処理前後の画素値の差に相当する。すなわち、§2.2で述べた実施例における第kの階層画像Pkが、フィルタ処理後の画像自体を示しているのに対して、ここで述べる変形例における第kの階層画像Dkは、フィルタ処理によって生じた差を示すことになる。このように、§2.2で述べた実施例で作成される画像ピラミッドPPと、ここで述べた変形例で作成される画像ピラミッドPDとは、その構成要素となる階層画像の意味合いが大きく異なることになるが、いずれも評価点Eについての何らかの特徴を示す画像である点に変わりはない。したがって、ここで述べた変形例で作成される各階層画像D1~Dnからも、特徴量の抽出を行うことが可能であり、本変形例における特徴量算出部123は、各階層画像D1~Dnから特徴量x1~xnを抽出する処理を行うことになる。
 (2) 複数通りのアルゴリズムにより複数通りの画像ピラミッドを作成する変形例
 §2.2で述べた実施例では、図20に示すとおり、元画像(第1の準備画像Q1)に対してフィルタ処理および縮小処理を交互に実行することにより各フィルタ処理画像P1~Pnを求め、これら各フィルタ処理画像P1~Pnをそのままn通りの階層画像P1~Pnとするアルゴリムにより、画像ピラミッドPPが作成されている。これに対して、§2.4(1) で述べた差分画像Dkを階層画像とする変形例では、図23に示すとおり、フィルタ処理画像Pkと準備画像Qkとの差分演算を行うことにより各差分画像D1~Dnを求め、これら各差分画像D1~Dnをn通りの階層画像D1~Dnとするアルゴリムにより、画像ピラミッドPDが作成されている。
 また、フィルタ処理に用いる画像フィルタには、図16や図17に示すように様々な種類があり、縮小処理(プーリング処理)の方法にも、図18や図19に示すように様々な種類がある。このように、出発点が同じ元画像(第1の準備画像Q1)であったとしても、採用するアルゴリズムによって、得られる画像ピラミッドを構成する各階層画像の内容は異なってくる。しかも、先願発明を実行する上で、利用する画像ピラミッドは必ずしも1つである必要はなく、複数通りのアルゴリズムにより複数の画像ピラミッドを作成し、個々の画像ピラミッドからそれぞれ特徴量を抽出することも可能である。
 すなわち、画像ピラミッド作成部122に、1つの元画像(第1の準備画像Q1)について、互いに異なる複数通りのアルゴリズムに基づく画像ピラミッド作成処理を行う機能をもたせておき、複数通りの画像ピラミッドが作成されるようにしてもよい。この場合、特徴量算出部123は、この複数通りの画像ピラミッドのそれぞれを構成する各階層画像について、評価点の位置に応じた画素(評価点の周囲に位置する画素)の画素値に基づいて特徴量を算出する処理を行うようにすればよい。
 たとえば、画像ピラミッド作成部122が画像ピラミッド作成処理を行う際に、主アルゴリズムとして、§2.2で述べた実施例のアルゴリズムを採用すれば、図20に示すように、n通りの主階層画像P1~Pn(フィルタ処理画像)によって構成される主画像ピラミッドPPを作成することができ、副アルゴリズムとして、§2.4(1) で述べた差分画像Dkを階層画像とする変形例のアルゴリズムを採用すれば、図23に示すように、n通りの副階層画像D1~Dn(差分画像)によって構成される副画像ピラミッドPDを作成することができる。したがって、画像ピラミッド作成部122が、上記2通りのアルゴリズムを用いて画像ピラミッド作成処理を行うようにすれば、主画像ピラミッドPPと副画像ピラミッドPDとの2通りの画像ピラミッドを作成することができる。
 ここで、図14に例示するようなガウシアンフィルタを用いたフィルタ処理により作成された主画像ピラミッドPPは、ガウシアンピラミッドと呼ぶことができる。また、差分画像を用いて構成された副画像ピラミッドPDは、ラプラシアンピラミッドと呼ぶことができる。ガウシアンピラミッドとラプラシアンピラミッドは、互いに性質が大きく異なる画像ピラミッドになるので、これらを主画像ピラミッドPPおよび副画像ピラミッドPDとして採用し、2通りの画像ピラミッドを利用して特徴量の抽出を行うようにすれば、より多様性をもった特徴量の抽出が可能になる。
 一方、特徴量算出部123が、主画像ピラミッドPPを構成する主階層画像P1~Pnおよび副画像ピラミッドPDを構成する副階層画像D1~Dnについて、それぞれ評価点Eの近傍の画素の画素値に基づいて特徴量を算出する処理を行うようにすれば、主階層画像P1~Pnから算出された特徴量xp1~xpnと副階層画像D1~Dnから算出された特徴量xd1~xdnとが得られる。すなわち、1つの評価点Eについて、合計2n個の特徴量が抽出されることになる。この場合、推定演算部132に対しては、1つの評価点Eについての特徴量が、2n次元ベクトルとして与えられることになるので、より正確な推定演算を行うことが可能になる。
 結局、上述した変形例を実施するには、画像ピラミッド作成部122が、元画像作成部121によって作成された元画像を第1の準備画像Q1とし、第kの準備画像Qk(但し、kは自然数)に対するフィルタ処理によって得られる画像を第kの主階層画像Pkとし、第kの主階層画像Pkに対する縮小処理によって得られる画像を第(k+1)の準備画像Q(k+1)として、第nの主階層画像Pnが得られるまでフィルタ処理と縮小処理とを交互に実行することにより、第1の主階層画像P1~第nの主階層画像Pnを含む複数n通りの階層画像からなる主画像ピラミッドを作成し、更に、第kの主階層画像Pkと第kの準備画像Qkとの差分画像Dkを求め、当該差分画像Dkを第kの副階層画像Dkとすることにより、第1の副階層画像D1~第nの副階層画像Dnを含む複数n通りの階層画像からなる副画像ピラミッドを作成するようにすればよい。
 また、特徴量算出部123については、主画像ピラミッドPPおよび副画像ピラミッドPDを構成する各階層画像について、評価点Eの近傍の画素の画素値に基づいて特徴量を算出するようにすればよい。そうすれば、1つの評価点Eについての特徴量として、2n次元ベクトルを抽出することが可能になり、より正確な推定演算を行うことが可能になる。
 (3) 複数通りの元画像を作成して複数通りの画像ピラミッドを作成する変形例
 上述した§2.4(2) では、同一の元画像に対して、複数通りのアルゴリズムを適用することにより、複数通りの画像ピラミッドを作成する変形例を述べた。ここでは、複数通りの元画像を作成して複数通りの画像ピラミッドを作成する変形例を述べる。
 先願発明に係る図形パターンの形状推定装置100′では、図1に示すように、元画像作成部121が、与えられた元図形パターン10に基づいて元画像を作成する処理を行う。ここで作成される元画像としては、§2.1で述べたとおり、面積密度マップM1(図10)や、エッジ長密度マップM2(図11)や、ドーズ密度マップM3(図13)など、様々な形態の画像を採用することができる。
 別言すれば、元画像作成部121は、元図形パターン10に基づいて元画像を作成する際に、様々な作成アルゴリズムを採用することができ、いずれのアルゴリズムを採用したかによって、内容の異なる様々な元画像を作成することができる。たとえば、図10に示す面積密度マップM1,図11に示すエッジ長密度マップM2,図13に示すドーズ密度マップM3は、いずれも同一の元図形パターン10に基づいて作成された画像であるが、個々の画素のもつ画素値は相互に異なっており、それぞれ異なる画像になっている。あるいは、同一の元図形パターン10に基づいて、画素サイズ(1画素の寸法)およびマップサイズ(縦横に並んだ画素の数)が異なる複数の密度マップ(要するに、解像度が異なる複数のマップ)を準備し、これら複数の密度マップのそれぞれを元画像として複数の画像ピラミッドを作成してもよい。もちろん、理論的には、画素サイズが小さく、マップサイズが大きな密度マップ(高解像度の密度マップ)を元画像として用いるのが理想的であるが、計算機のもつメモリは有限であるため、実用上は、画素サイズおよびマップサイズが異なる複数の密度マップを元画像として用いるのが好ましい。
 そこで、元画像作成部121に、互いに異なる複数通りのアルゴリズムに基づく元画像作成処理を行い、複数通りの元画像を作成する機能をもたせておき、画像ピラミッド作成部122に、この複数通りの元画像に基づいてそれぞれ別個独立した画像ピラミッドを作成する処理を行う機能をもたせておけば、複数通りの画像ピラミッドを作成することができる。そして、特徴量算出部123に、この複数通りの画像ピラミッドのそれぞれを構成する各階層画像について、評価点Eの近傍の画素の画素値に基づいて特徴量を算出する機能をもたせておけば、より高次元のベクトルからなる特徴量を抽出することが可能になり、より正確な推定演算を行うことが可能になる。
 たとえば、元画像作成部121によって、図10に示す面積密度マップM1からなる第1の元画像と、図11に示すエッジ長密度マップM2からなる第2の元画像と、図13に示すドーズ密度マップM3からなる第3の元画像と、を作成する機能をもたせておけば、画像ピラミッド作成部122は、この3通りの元画像に基づいて、3組の別個独立した画像ピラミッドを作成することができる。いずれの画像ピラミッドも、同一の元図形パターン10に基づいて作成された画像ピラミッドである。特徴量算出部123は、この3通りの画像ピラミッドのそれぞれを構成する各階層画像について、評価点Eの近傍の画素の画素値に基づいて特徴量を算出する処理を行うことができる。1つの画像ピラミッドから、n個の特徴量x1~xnを抽出することにすれば、同一の評価点Eについて、合計3n個の特徴量を抽出することが可能になる。すなわち、1つの評価点Eについての特徴量として、3n次元ベクトルを与えることができるので、より正確な推定演算を行うことが可能になる。
 もちろん、ここで述べた変形例に、上述した§2.4(2) の変形例を組み合わせることも可能である。§2.4(2) で述べたとおり、画像ピラミッド作成部122が、画像ピラミッドを作成する際に、異なる2種類のアルゴリズムを採用すれば、主画像ピラミッドPPと副画像ピラミッドPDとの2通りの画像ピラミッドを作成することができる。そこで、上記3通りの元画像のそれぞれに基づいて、主画像ピラミッドPPと副画像ピラミッドPDとの2通りの画像ピラミッドを作成すれば、同一の元図形パターン10に基づいて合計6組の画像ピラミッドを作成することができるので、1つの評価点Eについての特徴量として、6n次元ベクトルを与えることができる。
 <<< §3. バイアス推定ユニットの詳細 >>>
 ここでは、バイアス推定ユニット130の詳細な処理動作を説明する。図1に示すように、バイアス推定ユニット130は、特徴量入力部131と推定演算部132を有しており、図4の流れ図におけるステップS4のプロセスバイアス推定処理を実行する機能を有している。図6に示す実施例の場合、1つの評価点Eについて、x1~xnなる特徴量(n次元ベクトル)が特徴量入力部131に入力され、推定演算部132による推定演算が実行され、評価点Eについてのプロセスバイアスの推定値yが求められている。図6に示す実施例では、推定演算部132として、ニューラルネットワークが用いられている。そこで、以下、このニューラルネットワークの詳細な構成および動作を説明する。
 <3.1 ニューラルネットワークによる推定演算>
 ニューラルネットワークは、近年、人工知能の根幹をなす技術として注目されており、画像処理をはじめとする様々な分野で利用されている。このニューラルネットワークは、生物の脳の構造を模したコンピュータ上での構築物であり、ニューロンとそれを繋ぐエッジによって構成される。
 図24は、図1に示す推定演算部132として、ニューラルネットワークを利用した実施例を示すブロック図である。図示のとおり、ニューラルネットワークには、入力層、中間層(隠れ層)、出力層が定義され、入力層に与えられた情報に対して、中間層(隠れ層)において所定の情報処理がなされ、出力層にその結果が出力される。先願発明の場合、図示のとおり、ある1つの評価点Eについての特徴量x1~xnが、n次元ベクトルとして入力層に与えられ、出力層には、当該評価点Eについてのプロセスバイアスの推定値yが出力される。ここで、プロセスバイアスの推定値yは、§1で述べたように、所定の図形の輪郭線上に位置する評価点Eについて、当該輪郭線の法線方向についてのずれ量を示す推定値である。
 図24に示す実施例の場合、推定演算部132は、特徴量入力部131が入力した特徴量x1~xnを入力層とし、プロセスバイアスの推定値yを出力層とするニューラルネットワークを有しており、このニューラルネットワークの中間層は、第1隠れ層,第2隠れ層,..., 第N隠れ層なるN層の隠れ層によって構成されている。これら隠れ層は、多数のニューロン(ノード)を有し、これら各ニューロンを繋ぐエッジが定義されている。
 入力層に与えられた特徴量x1~xnは、エッジを介して各ニューロンに信号として伝達されてゆく。そして、最終的に、出力層からプロセスバイアスの推定値yに相当する信号が出力されることになる。ニューラルネットワーク内の信号は、1つの隠れ層のニューロンから次の隠れ層のニューロンへと、エッジを介した演算を経て伝達されてゆく。エッジを介した演算は、学習段階で得られた学習情報L(具体的には、後述するパラメータW,b)を用いて行われる。
 図25は、図24に示すニューラルネットワークで実行される具体的な演算プロセスを示すダイアグラムである。図に太線で示す部分は、第1隠れ層,第2隠れ層,..., 第N隠れ層を示しており、各隠れ層内の個々の円はニューロン(ノード)、各円を連結する線はエッジを示している。前述したとおり、入力層には、ある1つの評価点Eについての特徴量x1~xnが、n次元ベクトルとして与えられ、出力層には、当該評価点Eについてのプロセスバイアスの推定値yがスカラー値(輪郭線の法線方向についてのずれ量を示す寸法値)として出力される。
 図示の例の場合、第1隠れ層はM(1)次元の層であり、合計M(1)個のニューロンh(1,1)~h(1,M(1))によって構成され、第2隠れ層はM(2)次元の層であり、合計M(2)個のニューロンh(2,1)~h(2,M(2))によって構成され、第N隠れ層はM(N)次元の層であり、合計M(N)個のニューロンh(N,1)~h(N,M(N))によって構成されている。
 ここで、第1隠れ層のニューロンh(1,1)~h(1,M(1))に伝達される信号の演算値を、同じ符号を用いて、それぞれ演算値h(1,1)~h(1,M(1))と表すことにすると、これら演算値h(1,1)~h(1,M(1))の値は、図26の上段に示す行列の式で与えられる。この式の右辺の関数f(ξ)としては、図27(a) に示すシグモイド関数、図27(b) に示す正規化線形関数ReLU、図27(c) に示す正規化線形関数Leakey ReLUなどの活性化関数を用いることができる。
 また、関数f(ξ)の引数として記載されているξは、図26の中段に示すように、行列[W]と行列[x1~xn](入力層にn次元ベクトルとして与えられた特徴量)との積に、行列[b]を加えた値になる。ここで、行列[W]および行列[b]の内容は、図26の下段に示すとおりであり、行列の個々の成分(重みパラメータW(u,v)とバイアスパラメータb(u,v))は、後述する学習段階によって得られた学習情報Lである。すなわち、行列[W]および行列[b]を構成する個々の成分(パラメータW(u,v),b(u,v))の値は、学習情報Lとして与えられており、図26に示された演算式を用いれば、入力層に与えられた特徴量x1~xnに基づいて、第1隠れ層の演算値h(1,1)~h(1,M(1))を算出することができる。
 一方、図28は、図25に示すダイアグラムにおける第2隠れ層~第N隠れ層の各値を求める演算式を示す図である。具体的には、第(i+1)隠れ層(1≦i≦N)のニューロンh(i+1,1)~h(i+1,M(i+1))に伝達される信号の演算値を、同じ符号を用いて、それぞれ演算値h(i+1,1)~h(i+1,M(i+1))と表すことにすると、これら演算値h(i+1,1)~h(i+1,M(i+1))の値は、図28の上段に示す行列の式で与えられる。この式の右辺の関数f(ξ)としては、前述したように、図27に示す各関数などを用いることができる。
 また、関数f(ξ)の引数として記載されているξは、図28の中段に示すように、行列[W]と行列[h(i,1)~h(i,M(i))](1つ前の第i隠れ層のニューロンh(i,1)~h(i,M(i))の演算値)との積に、行列[b]を加えた値になる。ここで、行列[W]および行列[b]の内容は、図28の下段に示すとおりであり、行列の個々の成分(パラメータW(u,v),b(u,v))は、やはり、後述する学習段階によって得られた学習情報Lである。
 ここでも、行列[W]および行列[b]を構成する個々の成分(パラメータW(u,v),b(u,v))の値は、学習情報Lとして与えられており、図28に示された演算式を用いれば、第i隠れ層で求められた演算値[h(i,1)~h(i,M(i))]に基づいて、第(i+1)隠れ層の演算値h(i+1,1)~h(i+1,M(i+1))を算出することができる。よって、図25に示すダイアグラムにおける第2隠れ層~第N隠れ層の各値は、図28に示す演算式に基づいて順次求めることができる。
 図29は、図25に示すダイアグラムにおける出力層の値yを求める演算式を示す図である。具体的には、出力値y(評価点Eについてのプロセスバイアスの推定値:スカラー値)は、図29の上段に示す行列の式で与えられる。すなわち、出力値yは、行列[W]と行列[h(N,1)~h(N,M(N))](第N隠れ層のニューロンh(N,1)~h(N,M(N))の値)との積に、スカラー値b(N+1)を加えた値になる。ここで、行列[W]の内容は、図29の下段に示すとおりであり、行列[W]の個々の成分(パラメータW(u,v))およびスカラー値b(N+1)は、やはり、後述する学習段階によって得られた学習情報Lである。
 このように、図25に示すダイアグラムにおける第1隠れ層の各値は、入力層として与えられた特徴量x1~xnに、学習情報Lとして予め準備されているパラメータW(1,v),b(1,v)を作用させることにより求めることができ、第2隠れ層の各値は、第1隠れ層の各値に、学習情報Lとして予め準備されているパラメータW(2,v),b(2,v)を作用させることにより求めることができ、... 、第N隠れ層の各値は、第(N-1)隠れ層の各値に、学習情報Lとして予め準備されているパラメータW(N,v),b(N,v)を作用させることにより求めることができ、出力層yの値は、第N隠れ層の各値に、学習情報Lとして予め準備されているパラメータパラメータW(N+1,v),b(N+1)を作用させることにより求めることができる。具体的な演算式は、図26~図29に示すとおりである。
 なお、§2.4の(2) ,(3) で述べたように、複数通りの画像ピラミッドを作成する変形例を採用する場合は、入力層として与えられる特徴量が、n次元のベクトル(x1~xn)ではなく、V・n次元(Vは、画像ピラミッドの総数)のベクトルになるが、図25に示すダイアグラムにおける入力層の数値がV・n個に増加するだけで、ニューラルネットワークの基本的な構成および動作に変わりはない。
 以上、図25に示すニューラルネットワークを用いて、ある1つの評価点Eについてのプロセスバイアスの推定値yを求める演算を説明したが、実際には、元図形パターン10に含まれる図形の輪郭線上に定義された多数の評価点について同様の演算が行われ、個々の評価点について、それぞれプロセスバイアスの推定値yが求められることになる。図1に示す図形パターンの形状補正装置100では、パターン補正ユニット140が、こうして求められた個々の評価点についてのプロセスバイアスの推定値yに基づいてパターン形状の補正処理(図4のステップS5)を実行することになる。
 <3.2 ニューラルネットワークの学習段階>
 上述したとおり、図24に示す実施例の場合、推定演算部132は、ニューラルネットワークによって構成されており、予め設定されている学習情報Lを利用して、各ニューロンに伝達される信号値を演算することになる。ここで、学習情報Lの実体は、図26の下段、図28の下段、図29の下段に行列[W],[b]の各成分として記載されたパラメータW(u,v),b(u,v)等の値である。したがって、このようなニューラルネットワークを構築するには、予め実行した学習段階によって、学習情報Lを得ておく必要がある。
 すなわち、推定演算部132に含まれるニューラルネットワークは、多数のテストパターン図形を用いたリソグラフィプロセスによって実基板S上に実際に形成される実図形パターン20の実寸法測定によって得られた寸法値と、各テストパターン図形から得られる特徴量と、を用いた学習段階によって得られたパラメータW(u,v),b(u,v)等を学習情報Lとして用い、プロセスバイアスの推定処理を行うことになる。このようなニューラルネットワークの学習段階の処理自体は公知の技術であるが、ここでは先願発明に利用するニューラルネットワークの学習段階に適した処理の概要を簡単に説明しておく。
 図30は、図24に示すニューラルネットワークが用いる学習情報Lを得るための学習段階の手順を示す流れ図である。まず、ステップS81において、テストパターン図形の作成処理が実行される。ここで、テストパターン図形は、たとえば、図2(a) に示すような元図形パターン10に相当するものであり、通常、長方形やL字型図形などの単純な図形が用いられる。実際には、サイズや形状が異なる数千個ものテストパターン図形が作成される。
 続いて、ステップS82において、各テストパターン図形上に評価点Eが設定される。具体的には、個々のテストパターン図形の輪郭線上に、所定間隔で多数の評価点Eを定義する処理を行えばよい。そして、ステップS83において、各評価点Eについて、それぞれ特徴量が抽出される。このステップS83の特徴量抽出処理は、§2で述べた処理と同様であり、特徴量抽出ユニット120と同等の機能を有するユニットによって実行される。§2で述べた手順によれば、個々の評価点Eについて、それぞれ特徴量x1~xnが抽出されることになる。
 ステップS84の推定演算部学習処理は、ステップS83で抽出された特徴量を利用して、学習情報L(すなわち、パラメータW(u,v),b(u,v)等)を決定する処理である。この学習処理を実行するためには、実際のリソグラフィプロセスにより得られた実寸法が必要になる。そこで、ステップS85では、ステップS81で作成されたテストパターン図形に基づいて、実際にリソグラフィプロセスが実行され、実基板Sが作成される。そして、ステップS86において、この実基板S上に形成された実図形パターンに対して、個々の図形の実寸法測定が行われる。この測定結果は、ステップS84の学習処理に利用されることになる。
 このように、図30に示す学習段階のプロセスは、ステップS81~S84からなる計算機上で実行するプロセス(コンピュータプログラムにより実行されるプロセス)と、ステップS85,S86からなる実基板上で実行するプロセスと、によって構成される。ステップS84の推定演算部学習処理は、計算機上の処理で得られた特徴量x1~xnと実基板上で測定された実寸法とに基づいて、ニューラルネットワークに利用される学習情報Lを決定する処理ということになる。
 図31は、図30に示す流れ図におけるステップS84の推定演算部学習の詳細な手順を示す流れ図である。まず、ステップS841において、各評価点の設計位置および特徴量が入力される。ここで、評価点の設計位置は、ステップS82において設定された評価点のテストパターン図形上の位置であり、評価点の特徴量は、ステップS83において抽出された特徴量x1~xnである。続いて、ステップS842において、各評価点の実位置が入力される。ここで、評価点の実位置は、ステップS86において実測された実基板S上の各図形の実寸法に基づいて決定される。そして、ステップS843において、各評価点の実バイアスが算出される。この実バイアスは、ステップS841で入力された評価点の設計位置とステップS842で入力された評価点の実位置とのずれ量に相当する。
 たとえば、ステップS81において、図3(a) に示す元図形パターン10のような長方形がテストパターン図形として作成された場合、ステップS82において、この長方形の輪郭線上に、評価点E11,E12,E13等が設定され、ステップS83において、これら各評価点E11,E12,E13のそれぞれについて、特徴量x1~xnが抽出される。各評価点E11,E12,E13の位置および特徴量は、ステップS841において入力される。
 一方、ステップS85のリソグラフィプロセスによって、実基板S上には、たとえば、図3(b) に示すような実図形パターン20が形成され、ステップS86の実寸法測定によって、この実図形パターン20を構成する長方形の各辺について、実寸法が測定される。この測定により、各評価点E11,E12,E13を、それぞれ輪郭線の法線方向に移動させた点として、評価点の実位置E21,E22,E23が決定される。各評価点の実位置E21,E22,E23は、ステップS842において入力される。
 そこで、ステップS843では、図3(b) に示すように、各評価点E11,E12,E13の設計位置と実位置E21,E22,E23との差として、実バイアスy11,y12,y13が算出される。実際には、たとえば、図3(b) に示す実図形パターン20を構成する長方形の横幅bと、図3(a) に示す元図形パターン10を構成する長方形の横幅aとの差「b-a」を2で除した値yを求める作業により、実バイアスを決定するようにしてもよい。もちろん、実際には、数千個という規模のテストパターン図形が作成され、個々の図形の輪郭線上に多数の評価点が設定されるので、ステップS841~S843の手順は、膨大な数の評価点についてそれぞれ実行されることになる。ここで、1つの評価点Eについて着目すると、当該評価点Eについては、特徴量x1~xnと実バイアスyとの組み合わせが、学習材料として準備されたことになる。
 続いて、ステップS844において、パラメータW,bが初期値に設定される。ここで、パラメータW,bは、図26の下段、図28の下段、図29の下段に行列[W],[b]の各成分として記載されたパラメータW(u,v),b(u,v)等に相当し、学習情報Lを構成する値になる。初期値としては、乱数によってランダムな値を与えればよい。別言すれば、学習前の当初の段階では、学習情報Lを構成するパラメータW,bはデタラメな値になっている。
 続いて実行されるステップS845~S848の各段階は、実際の学習プロセスであり、この学習プロセスを行うことにより、当初はデタラメな値が設定されていたパラメータW,bが徐々に更新されてゆき、やがて学習情報Lとして十分に機能する程度の正確な値に修正される。まず、ステップS845では、特徴量x1~xnからプロセスバイアスyを推定する演算が実行される。
 具体的には、図24に示すようなニューラルネットワークを準備する。もちろん、この段階では、学習情報Lを構成するパラメータW,bには、初期値として乱数が与えられており、このニューラルネットワークは、推定演算部132としての正常な機能を果たすことはできない不完全なものである。この不完全なニューラルネットワークの入力層に、ステップS841で入力した特徴量x1~xnを与え、不完全な値からなる学習情報Lを用いた演算を行い、出力層としてプロセスバイアスの推定値yを算出する。もちろん、当初得られるプロセスバイアスの推定値yは、観測された実バイアスとはかけ離れた値になる。
 そこで、ステップS846において、その時点における実バイアスに対する残差を算出する。すなわち、ステップS845で得られたプロセスバイアスの推定値yと、ステップS843で得られた実バイアスの算出値との差を求め、この差を、当該評価点Eについての残差とする。この残差が所定の許容値以下になれば、その時点での学習情報L(すなわち、パラメータW(u,v),b(u,v)等)は、十分に実用性をもった学習情報であると判断できるので、学習段階を終了することができる。
 ステップS847は、学習段階を終了できるか否かを判定する手順である。実際には、膨大な数の評価点のそれぞれについて残差が求められるので、実用上は、たとえば、残差二乗和の改善量が規定値を下回っていたら、学習終了とする判断を行うような判定方法を採用すればよい。学習終了と判定されなかった場合は、ステップS848において、パラメータW(u,v),b(u,v)等の更新が行われる。具体的には、残差を減少させる作用が生じるように、各パラメータW(u,v),b(u,v)等の値を所定量だけ増減する更新が行われる。具体的な更新方法については、ニューラルネットワークにおける学習手法として様々なアルゴリズムに基づく方法が知られているので、ここでは説明を省略するが、基本方針としては、多数のテストパターン図形の評価点についての残差を総合的に勘案して、それぞれの残差が全体的に少なくなるような総合的な調整を行うアルゴリズムが採用される。
 こうして、ステップS847において肯定的な判定がなされるまで、ステップS845~S848の手順が繰り返し実行される。その結果、学習情報Lを構成するパラメータW(u,v),b(u,v)等の値は、残差を減少させる方向に徐々に修正されてゆき、最終的には、ステップS847において肯定的な判定がなされ、学習段階は終了する。この学習終了段階で得られた学習情報L(パラメータW(u,v),b(u,v)等)は、実バイアスに近いプロセスバイアスの推定値yを出力層に得るのに適した情報になっている。したがって、学習終了段階で得られた学習情報Lを含むニューラルネットワークは、先願発明における推定演算部132として機能することになる。
 <<< §4. 先願発明に係る図形パターンの形状推定方法 >>>
 これまで先願発明を、図1に示す構成を有する図形パターンの形状推定装置100′もしくは図形パターンの形状補正装置100として捉え、その構成および動作を説明した。ここでは、先願発明を、図形パターンの形状推定方法という方法発明として捉えた説明を簡単に行っておく。
 先願発明を図形パターンの形状推定方法の発明として把握した場合、当該方法は、元図形パターンを用いたリソグラフィプロセスをシミュレートすることにより、実基板上に形成される実図形パターンの形状を推定する方法ということになる。そして、この方法は、コンピュータが、図形の内部と外部との境界を示す輪郭線の情報を含む元図形パターン10を入力する元図形パターン入力段階(図4のステップS1で作成されたパターンを入力する段階)と、コンピュータが、入力した図形の輪郭線上の所定位置に評価点Eを設定する評価点設定段階(図4のステップS2)と、コンピュータが、入力した元図形パターン10について、各評価点Eの周囲の特徴を示す特徴量x1~xnを抽出する特徴量抽出段階(図4のステップS3)と、コンピュータが、抽出した特徴量x1~xnに基づいて、各評価点Eの元図形パターン10上の位置と実図形パターン20上の位置とのずれ量を示すプロセスバイアスyを推定するプロセスバイアス推定段階(図4のステップS4)と、によって構成される。
 ここで、特徴量抽出段階(図4のステップS3)は、元図形パターン10に基づいて、それぞれ所定の画素値を有する画素Uの集合体からなる元画像Q1を作成する元画像作成段階(図7のステップS32)と、この元画像Q1に基づいて、縮小画像Qk(準備画像)を作成する縮小処理(図7のステップS35)を含む画像ピラミッド作成処理を行い、それぞれ異なるサイズをもった複数の階層画像P1~Pnからなる画像ピラミッドPPを作成する画像ピラミッド作成段階(図7のステップS33~S35)と、作成された画像ピラミッドPPを構成する各階層画像P1~Pnについて、各評価点Eの近傍の画素の画素値に基づいて特徴量x1~xnを算出する特徴量算出段階(図7のステップS37)と、を含んでいる。
 ここで、上記プロセスバイアス推定段階(図4のステップS4)は、予め実施された学習段階によって得られた学習情報Lに基づいて、評価点Eについての特徴量x1~xnに応じた推定値を求め、求めた推定値を当該評価点Eについてのプロセスバイアスの推定値yとして出力する推定演算段階を含んでいる。
 なお、§2で述べた特徴量抽出ユニット120を使用した場合は、上記画像ピラミッド作成段階で、元画像Q1もしくは縮小画像Qkに対して所定の画像処理フィルタを用いたフィルタ処理を行うフィルタ処理段階(図7のステップS33)と、このフィルタ処理後の画像Pkに対して縮小処理を行う縮小処理段階(図7のステップS35)と、を交互に実行することにより、複数の階層画像P1~Pnからなる画像ピラミッドPPを作成することができる。
 具体的には、§2.2で述べた手順では、画像ピラミッド作成段階で、フィルタ処理後の画像(図7のステップS33で得られたフィルタ処理画像Pk)を階層画像P1~Pnとする画像ピラミッドPPが作成されている。これに対して、§2.4(1) で述べた変形例の手順では、画像ピラミッド作成段階で、フィルタ処理後の画像(フィルタ処理画像Pk)とフィルタ処理前の画像(準備画像Qk)との差分画像Dkが作成され、作成した差分画像を階層画像D1~Dnとする画像ピラミッドPDが作成されている。
 <<< §5. 本発明に係る図形パターンの形状補正装置 >>>
 さて、これまで§1~§4において、先願発明に係る図形パターンの形状補正装置の説明を行った。続いて、この§5以降において、本発明に係る図形パターンの形状補正装置の特徴を、先願発明と対比しながら詳述する。
 <5.1 従来技術および先願発明の問題>
 図1に示す先願発明に係る図形パターンの形状補正装置100は、特徴量抽出ユニット120が画像ピラミッドを利用して各評価点の特徴量を抽出する点に特徴がある。先願発明の従来技術に対する利点は、このようなユニークな方法で適切な特徴量の抽出が可能になる点である。ただ、この先願発明に係る図形パターンの形状補正装置100は、従来技術に係る装置と同様に、プロセスバイアスの推定値yに基づいて補正を行うため、実用上、パターン補正ユニット140による補正処理を繰り返し実行する必要がある。
 たとえば、図1には、元図形パターン10を形状補正装置100に与えることにより、補正図形パターン15が得られる例が示されているが、通常、こうして得られた補正図形パターン15を用いてリソグラフィプロセスを実行し、実基板S上に実図形パターン25(図示省略)を形成しても、得られる実図形パターン25は、設計当初の元図形パターン10には正確には一致しない。これは、元図形パターン10に含まれる図形と補正図形パターン15に含まれる図形とでは、サイズや形状が異なるため、リソグラフィプロセスを実行した場合の近接効果などの影響にも相違が生じるためである。
 このため、実際には、図1に示すとおり、パターン補正ユニット140から出力された補正図形パターン15を、再び、図形パターンの形状補正装置100に与える処理を繰り返し行う必要がある。すなわち、補正図形パターン15は、形状補正装置100に元図形パターンの代わりに与えられ、この補正図形パターン15について再度の補正処理を行い、新たな補正図形パターンを得て、この新たな補正図形パターンを再び形状補正装置100に与えて、更に新たな補正図形パターンを得る、という処理が繰り返される。
 このような繰り返し処理は、図4の流れ図にも示されている。すなわち、ステップS2~S5の補正処理は、最初はステップS1で作成された元図形パターンに対して行われるが、2回目以降は、ステップS5で得られた補正図形パターンに対して行われることになり、ステップS6で補正完了と判断されるまで、ステップS2~S5の補正処理が繰り返し実行されることになる。ステップS7のリソグラフィプロセスを構成する露光、現像、エッチングという実工程は、このような繰り返し処理によって最終的に得られた最後の補正図形パターンに基づいて実行されることになる。
 このように、先願発明に係る形状補正装置や従来技術に係る形状補正装置では、図形パターンに対する補正処理を繰り返し実行する必要があるため、作業工程が複雑になり、多大な作業時間がかかるという問題が生じていた。特に、半導体デバイスを製造するための図形パターンには膨大な数の図形が含まれており、元図形パターンに基づいて最適な補正図形パターンを得るプロセスには多大な作業時間が必要になる。本発明は、このような問題を解決するためのものであり、元図形パターンに対する補正を行うための作業工程をより単純化し、作業時間を短縮することを目的としている。
 <5.2 本発明に係る形状補正装置の基本構成とその特徴>
 図32は、本発明の基本的実施形態に係る図形パターンの形状補正装置100Zの構成を示すブロック図である。図示のとおり、この図形パターンの形状補正装置100Zは、評価点設定ユニット110、特徴量抽出ユニット120、最適補正バイアス推定ユニット130Z、パターン補正ユニット140Zを有している。これらの各構成要素は、いずれもコンピュータに所定のプログラムを組み込むことによって構成されている。したがって、本発明に係る図形パターンの形状補正装置100Zは、実際には、汎用のコンピュータに専用のプログラムを組み込むことによって実現される。
 図32に示す図形パターンの形状補正装置100Zの特徴は、図1に示す先願発明に係る図形パターンの形状補正装置100の構成と比較すると容易に把握できる。なお、ここでは、本発明に係る図形パターンの形状補正装置100Zに固有の構成要素については、符号末尾に「Z」を付して示してある。図1と図32とを比較すると、評価点設定ユニット110および特徴量抽出ユニット120については全く同一であるが、図1のバイアス推定ユニット130が図32では最適補正バイアス推定ユニット130Zに置き換わっており、図1のパターン補正ユニット140が図32ではパターン補正ユニット140Zに置き換わっていることがわかる。
 結局、図32に示す図形パターンの形状補正装置100Zは、図1に示す先願発明に係る図形パターンの形状補正装置100におけるバイアス推定ユニット130を最適補正バイアス推定ユニット130Zに置き換え、パターン補正ユニット140をパターン補正ユニット140Zに置き換えたものということができる。評価点設定ユニット110は、元図形パターン10上に評価点を設定する役割を果たす構成要素であり、特徴量抽出ユニット120は、元図形パターン10について、評価点の周囲の特徴を示す特徴量x1~xnを抽出する構成要素である。これら構成要素110,120は、図1に示す各構成要素と全く同一のものであるため、ここでは詳しい説明は省略する。
 本発明に係る図形パターンの形状補正装置100Zの特徴は、最適補正バイアス推定ユニット130Zによって最適補正バイアスzを推定し、パターン補正ユニット140Zによってこの最適補正バイアスzを用いた補正を行う点にある。ここで、最適補正バイアスzとは、評価点の特徴量に基づいて決定される値であり、実図形パターン20を元図形パターン10に近づけるために必要な評価点の位置補正量である。
 先願発明に係る形状補正装置100や従来技術に係る形状補正装置において、補正処理を繰り返し実行する必要性が生じるのは、プロセスバイアスyに基づいて図形パターンの補正処理を行っているためである。たとえば、図1に示す先願発明に係る形状補正装置100の場合、バイアス推定ユニット130によって、各評価点についてのプロセスバイアスyが推定され、パターン補正ユニット140は、このプロセスバイアスyに基づいて元図形パターン10に対する補正を行い、補正図形パターン15を得ている。
 ただ、プロセスバイアスyは、所定の図形パターンに基づいてリソグラフィプロセスを行った場合に得られるであろう実図形パターン20の形状について、元の図形パターンの形状との偏差を示す量である。したがって、§5.1で問題点として述べたように、元図形パターン10に対して、プロセスバイアスyを相殺する補正を行って補正図形パターン15を得たとしても、この補正図形パターン15をそのまま用いてリソグラフィプロセスを行った場合、得られる実図形パターン25は、元図形パターン10に正確に一致することはない。このため、先願発明に係る形状補正装置100を用いた場合、図4のステップS2~S5の補正処理を繰り返し実行する必要がある。
 これに対して、図32に示す本発明に係る形状補正装置100Zを用いた場合、パターン補正ユニット140Zは、プロセスバイアスyではなく、最適補正バイアスzに基づく補正を行うため、得られた補正図形パターン35をそのまま用いてリソグラフィプロセスを行うと、元図形パターン10に正確に一致した実図形パターンを得ることができる。これは、元図形パターン10をそのまま用いてリソグラフィプロセスを行った場合に実基板S上に得られるパターンを実図形パターン20としたときに、プロセスバイアスyが実図形パターン20と元図形パターン10との形状についての偏差を示す量であるのに対して、最適補正バイアスzは、実図形パターン20を元図形パターン10に近づけるために必要な評価点の位置補正量であるためである。このような最適補正バイアスzを推定する具体的な方法は§6で詳述する。
 結局、図32に示す図形パターンの形状補正装置100Zを用いた場合、パターン補正ユニット140Zから出力された補正図形パターン35をそのまま用いてリソグラフィプロセスを行うことができ、補正図形パターン35に対して更なる補正を行う必要はない。図33は、図32に示す図形パターンの形状補正装置100Zを用いた製品の設計・製造工程を示す流れ図である。ここで、ステップS1Z~S3Zまでの処理は、図4に示す先願発明におけるステップS1~S3の処理と全く同様である。
 具体的には、まず、ステップS1Zにおいて製品設計段階が行われ、元図形パターン10が作成される。そして、ステップS2Zでは、評価点設定ユニットによって、元図形パターン10上に評価点が設定され、ステップS3Zでは、特徴量抽出ユニット120によって、各評価点Eについての特徴量が抽出される。
 一方、ステップS4Zでは、ステップS4とは異なる処理が行われる。すなわち、図4のステップS4では、各評価点について、特徴量に基づいてプロセスバイアスyが推定されていたのに対して、図33のステップS4Zでは、各評価点について、特徴量に基づいて最適補正バイアスzが推定されることになる。上述したとおり、この最適補正バイアスzの推定処理は、最適補正バイアス推定ユニット130Zによって実行される。
 続くステップS5Zでは、この最適補正バイアスzに基づいて、元図形パターン10に対する形状補正が行われ、補正図形パターン35が作成される。図4のステップS5では、プロセスバイアスyに基づいて元図形パターン10に対する形状補正が行われ、補正図形パターン15が作成されていた。前述したとおり、プロセスバイアスyに基づく補正により得られた補正図形パターン15は、まだリソグラフィプロセスに用いるほど正確なパターンにはなっていないため、図4の流れ図では、ステップS6を経た繰り返し処理が必要になる。これに対して、最適補正バイアスzに基づく補正により得られた補正図形パターン35は、リソグラフィプロセスに十分に利用できる正確なパターンになっているため、図33の流れ図では、ステップS5ZからステップS7Zへ移行してリソグラフィプロセスが実行され、実基板Sが製造されることになる。
 このように、図32に示す図形パターンの形状補正装置100Zを用いて製品の設計・製造工程を行えば、図33に示す補正処理段階(ステップS2Z~S5Z)を繰り返し行う必要はない。すなわち、ステップS1Zの製品設計で作成した元図形パターン10に対して、1回だけ補正処理を行えば、ステップS7Zのリソグラフィプロセスで用いる補正図形パターン35を得ることができる。もちろん、この図33に示す流れ図において、ステップS1Z~S5Zの段階は、計算機(コンピュータ)上で実行するプロセスであり、ステップS7Zの段階は、実基板S上で実行するプロセスということになる。
 結局、図32に示す本発明に係る形状補正装置100Zも、図1に示す先願発明に係る形状補正装置100も、元図形パターン10に基づくリソグラフィプロセスによって実基板S上に実図形パターン20を形成する際に、実図形パターン20が元図形パターン10に一致するように、元図形パターン10の形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する図形パターンの形状補正装置という点では共通するが、本発明に係る形状補正装置100Zでは、元図形パターン10に対する補正処理の回数が減るため、元図形パターン10に対する補正を行うための作業工程がより単純化され、作業時間を短縮することが可能になる。
 <<< §6. 最適補正バイアスの具体的な推定方法 >>>
 §5では、図32を参照しながら、本発明に係る形状補正装置100Zの基本構成を説明した。上述したとおり、この形状補正装置100Zの特徴は、最適補正バイアス推定ユニット130Zによって最適補正バイアスzを推定し、パターン補正ユニット140Zによって、推定された最適補正バイアスzを用いた補正を行う点にある。そこで、この§6では、最適補正バイアスzを推定する具体的な方法を詳述する。
 なお、図32に示す形状補正装置100Zは、本発明の一実施形態として、図1に示す先願発明で用いられている評価点設定ユニット110および特徴量抽出ユニット120をそのまま流用した構成を採っているが、本発明の本質的な特徴は上述したとおり、最適補正バイアス推定ユニット130Zおよびパターン補正ユニット140Zにある。したがって、本発明を実施するにあたり、評価点設定ユニット110および特徴量抽出ユニット120は、必ずしも§1,§2で述べた先願発明どおりの構成を採用する必要はない。
 特に、先願発明に用いられている特徴量抽出ユニット120は、§2で述べたとおり、画像ピラミッドを利用して特徴量を抽出するという固有の形態を採用しているが、本発明を実施する上では、特徴量の抽出方法にどのような手法を用いるかは不問である。したがって、図32に示す実施例では、元画像作成部121、画像ピラミッド作成部122、特徴量算出部123を有する特徴量抽出ユニット120が用いられているが、本発明に用いる特徴量抽出ユニットとしては、元図形パターン10について評価点の周囲の特徴を示す何らかの特徴量を何らかの方法で抽出する機能を有していれば、どのようなユニットを採用してもかまわない。たとえば、複数n通りの階層画像P1~Pnからなる画像ピラミッドPPを用いる代わりに、複数n通りの算出関数を用いて各評価点Eについてのn通りの特徴量x1~xnを算出する処理を行うことも可能である。各算出関数としては、座標値X,Yに位置する評価点E(X,Y)について、当該座標値X,Yを変数として代入することにより、評価点E(X,Y)と元図形パターン10に含まれる各図形との位置関係を定量化して所定の関数値を算出することができる関数(たとえば、先願の付加的実施形態に用いられている関数)を用いればよい。
 <6.1 プロセスバイアスと最適補正バイアスの相違>
 上述したとおり、図32に示す図形パターンの形状補正装置100Zの特徴的な構成要素は、最適補正バイアス推定ユニット130Zとパターン補正ユニット140Zである。ここで、最適補正バイアス推定ユニット130Zは、特徴量抽出ユニット120が抽出した各評価点Eの特徴量x1~xnに基づいて、実図形パターン20を元図形パターン10に近づけるために必要な各評価点Eの位置補正量を示す最適補正バイアスzを推定する機能を有しており、パターン補正ユニット140Zは、最適補正バイアス推定ユニット130Zが推定した各評価点Eの最適補正バイアスzに基づいて、元図形パターン10の各評価点Eの位置を移動させることにより、元図形パターン10の形状を補正して補正図形パターン35を作成する機能を有している。
 図1に示す先願発明の図形パターンの形状補正装置100と図32に示す本発明の図形パターンの形状補正装置100Zとの重要な相違点は、前者では、プロセスバイアスyに基づいて元図形パターン10が補正されるのに対して、後者では、最適補正バイアスzに基づいて元図形パターン10が補正される点にある。そこで、ここでは、プロセスバイアスyと最適補正バイアスzとの相違を、具体的な事例を挙げて説明する。
 図34は、図1に示す先願発明に係る図形パターンの形状補正装置100による図形パターンの逐次補正プロセスの一例を示すパターン変遷図である。図には、説明の便宜上、図34(a) の左側に示すように、一辺が30nmの正方形からなる元図形パターン41が与えられた極めて単純な例が示されている。ここでは、この正方形の右辺上に設定された評価点Eに着目する(もちろん、実際には、正方形の輪郭線上に多数の評価点が設定される)。
 いま、図34(a) の左側に示す元図形パターン41をそのまま用いて、リソグラフィプロセスを実施した場合に、図34(a) の右側の図に実線で示すような初期実図形パターン42が得られるものとしよう。図34(a) の右側の図の破線は、元図形パターン41を示している。図示の例の場合、初期実図形パターン42は、一辺が40nmの正方形である。これは、リソグラフィプロセスにおける近接効果やローディング現象などの影響により、実基板S上には、元図形パターン41を構成する正方形よりも一辺の長さが10nm長い正方形が形成されるためである。
 図1に示す形状補正装置100では、図34(a) の右側に示す初期実図形パターン42の形状がシミュレーションによって推定される。すなわち、バイアス推定ユニット130によって、元図形パターン41上の評価点Eについてのプロセスバイアスyが推定されるので、このプロセスバイアスyの推定値に基づいて、初期実図形パターン42の形状を推定することができる。具体的には、図34(a) に示す例の場合、バイアス推定ユニット130によって、元図形パターン41上の評価点Eについてのプロセスバイアスyとして、y=+5nmなる値が算出されるので、評価点Eを正方形の外側に5nm移動させることにより、初期実図形パターン42の形状を推定することができる。
 もちろん、実際には、元図形パターン41を構成する正方形の輪郭線上に多数の評価点が定義される。これらの各評価点について、それぞれy=+5nmなるプロセスバイアス推定値が算出されれば、元図形パターン41を構成する正方形の各辺を外側に5nmだけ移動させることにより、図34(a) の右側に示す初期実図形パターン42が得られることになる。正方形の4辺がいずれも外側に広がるので、元図形パターン41が一辺30nmの正方形で構成されているのに対して、初期実図形パターン42は一辺40nmの正方形で構成されることになる。
 こうして、初期実図形パターン42の形状が把握できれば、エラー量eを求めることができる。プロセスバイアスyが、リソグラフィプロセス前後におけるずれ量を示すのに対して、エラー量eは、「元図形パターン(設計当初のパターン)と実図形パターンとの間における、評価点Eについて生じる輪郭線の法線方向についてのずれ量」として定義される。図34(a) の場合、リソグラフィプロセス前のパターン(リソグラフィプロセスにそのまま利用されるパターン)は、元図形パターン41であるので、初期実図形パターン42についてのエラー量eは、プロセスバイアスyと同じ+5nmになる。すなわち、y=e=+5nmである。
 図1に示す先願発明に係る図形パターンの形状補正装置100の場合、パターン補正ユニット140による補正は、エラー量eを相殺する方向に行われる。具体的には、エラー量eの符号を反転させた量として補正バイアスcを定義し、元図形パターン41の評価点Eの位置を補正バイアスcに応じた量だけ輪郭線の法線方向に移動させるパターン補正処理が行われる。図34(a) に示す例の場合、補正バイアスc=-5nmになるので、元図形パターン41の評価点Eの位置を内側に5nm移動させるパターン補正が行われる。その結果、元図形パターン41は、図34(b) の左側に示すような第1次補正図形パターン43に補正される。
 この第1次補正図形パターン43は、元図形パターン41を構成する正方形の各辺を内側に5nmだけ移動させた図形によって構成されるので、結局、一辺20nmの正方形によって構成されることになる。要するに、元図形パターン41をそのまま用いてリソグラフィプロセスを実施すると、実基板S上には、外側に5nmだけ広がった正方形が初期実図形パターン42として形成されることが推定されるので、元図形パターン41を内側に5nmだけ縮小する補正を行う、という方針により、第1次補正図形パターン43が得られたことになる。
 ところが、この第1次補正図形パターン43をそのまま用いてリソグラフィプロセスを実施しても、実基板S上には、元図形パターン41に等しい一辺が30nmの正方形を得ることはできない。これは既に述べてきたとおり、元図形パターン41についての近接効果やローディング現象などの影響と、第1次補正図形パターン43についての近接効果やローディング現象などの影響とは、同じにはならないためである。
 図34(b) には、左側に示す第1次補正図形パターン43をそのまま用いて、リソグラフィプロセスを実施した場合に、図34(b) の右側の図に実線で示すような第1次実図形パターン44が得られるであろう、との推定がなされた例が示されている。実際には、図1に示すバイアス推定ユニット130によって、評価点Eについてのプロセスバイアス推定値yとして、y=+4nmなる値が算出されるので、第1次補正図形パターン43上の評価点Eの位置を外側に動かすことにより(実際には、多数の評価点の位置を動かすことにより)、図34(b) の右側の図に実線で示す第1次実図形パターン44の形状を把握することができる。
 図34(b) の右側の図の破線は、第1次補正図形パターン43を示している。図示の例の場合、第1次実図形パターン44は、一辺が28nmの正方形であり、リソグラフィプロセスにおける近接効果やローディング現象などの影響により、第1次補正図形パターン43を構成する正方形よりも一辺の長さが8nm長くなっている。しかしながら、元図形パターン41と比べると、一辺の長さは2nmだけ短いので、第1次実図形パターン44についてのエラー量eは、e=-1nmとなり、プロセスバイアスy=+4nmとは異なる値になる。
 そこで、パターン補正ユニット140は、エラー量eの符号を反転させた量として補正バイアスcを定義し、第1次補正図形パターン43の評価点Eの位置を補正バイアスcに応じた量だけ輪郭線の法線方向に移動させる再度のパターン補正処理を行う。図34(b) に示す例の場合、補正バイアスc=+1になるので、第1次補正図形パターン43の評価点Eの位置を外側に1nm移動させるパターン補正が行われる。その結果、第1次補正図形パターン43は、図34(c) の左側に示すような第2次補正図形パターン45に補正される。
 この第2次補正図形パターン45は、第1次補正図形パターン43を構成する正方形の各辺を外側に1nmだけ移動させた図形によって構成されるので、結局、一辺22nmの正方形によって構成されることになる。要するに、第1次補正図形パターン43をそのまま用いてリソグラフィプロセスを実施すると、実基板S上には、元図形パターン41を構成する正方形よりも各辺が1nmだけ内側に縮まった正方形が第1次実図形パターン44として形成されることが推定されるので、第1次補正図形パターン43を外側に1nmだけ拡大する補正を行う、という方針により、第2次補正図形パターン45が得られたことになる。
 通常、この第2次補正図形パターン45をそのまま用いてリソグラフィプロセスを実施しても、実基板S上には、元図形パターン41に等しい一辺が30nmの正方形を得ることはできない。図34(c) には、左側に示す第2次補正図形パターン45をそのまま用いて、リソグラフィプロセスを実施した場合に、図34(c) の右側の図に実線で示すような第2次実図形パターン46が得られるであろう、との推定がなされた例が示されている。実際には、図1に示すバイアス推定ユニット130によって、評価点Eについてのプロセスバイアス推定値yとして、y=+4.1nmなる値が算出されるので、第2次補正図形パターン45上の評価点Eの位置を外側に動かすことにより(実際には、多数の評価点の位置を動かすことにより)、図34(c) の右側の図に実線で示す第2次実図形パターン46の形状を把握することができる。
 図34(c) の右側の図の破線は、第2次補正図形パターン45を示している。図示の例の場合、第2次実図形パターン46は、一辺が30.2nmの正方形であり、本来形成すべき元図形パターン41を構成する一辺30nmの正方形に対して、依然として、エラー量e=+0.1を含んでいる。図4のステップS6では、このエラー量eの絶対値が所定の許容値以下になった場合に、補正完了と判定することになる。上例の場合、エラー量e=+0.1が許容値以下であれば補正完了となり、第2次補正図形パターン45が最終的な補正図形パターンとして、実際のリソグラフィプロセスに用いられることになる。もちろん、エラー量e=+0.1が許容値を超えていた場合には、更なるパターン補正処理が継続されることになる。
 このように、プロセスバイアスyは、「リソグラフィプロセス前後における、評価点Eについて生じる輪郭線の法線方向についてのずれ量」として定義される量であり、図1に示す先願発明に係る形状補正装置100内のバイアス推定ユニット130は、元図形パターン10もしくは補正図形パターン15をそのまま用いてリソグラフィプロセスを実行した場合に得られるであろう実図形パターンと、リソグラフィプロセスに利用した図形パターンと、のずれ量を示すプロセスバイアスyの値を推定する機能を有する。そして、パターン補正ユニット140は、このプロセスバイアスyの推定値に基づいて、実図形パターンの形状を推定し、元図形パターン10の形状との差を示すエラー量eを求め、このエラー量eを相殺する方向にパターン補正を行うことになる。
 これに対して、図32に示す本発明に係る形状補正装置100Z内の最適補正バイアス推定ユニット130Zは、各評価点についての最適補正バイアスzを推定する機能を有する。ここで、最適補正バイアスzは、「実図形パターンを元図形パターンに近づけるために必要な(所定の誤差許容範囲をもって一致させるために必要な)、元図形パターン上の評価点の位置補正量」である。たとえば、図34に示す具体例の場合、図34(c) の右側に示す第2次実図形パターン46が、所定の許容範囲内の誤差(具体的には、+0.1nm)をもって元図形パターン41に一致する図形パターンであるとすれば、元図形パターン41上の各評価点を正方形の内側に4nmだけ移動させれば第2次補正図形パターン45が得られることになるので、元図形パターン41上の評価点Eについての最適補正バイアスzは、z=-4nmということになる。
 図1に示す先願発明に係る形状補正装置100の場合、図34(a) ~(c) に示すように、パターン補正を繰り返し実行することにより、実際のリソグラフィプロセスに用いる第2次補正図形パターン45を得ている。この場合、元図形パターン41が一辺30nmの正方形であるのに対して、第2次補正図形パターン45が一辺22nmの正方形であるので、結果的に、最適補正バイアスzとして、(22nm-30nm)/2=-4nmなる値が求められていることになる。しかしながら、そのためには補正処理を繰返し実施しなければならない。
 本発明に係る形状補正装置100Zの最適補正バイアス推定ユニット130Zは、元図形パターン41上の評価点Eの特徴量に基づいて、当該評価点Eについての最適補正バイアスz(上例の場合、z=-4nm)を推定する機能を有している。このため、パターン補正ユニット140Zは、この最適補正バイアスzに基づいて元図形パターン41に対するパターン補正を行うだけで、実際のリソグラフィプロセスに用いることが可能な補正図形パターン35(上例の場合、第2次補正図形パターン45)を作成することができる。
 <6.2 最適補正バイアス推定ユニットの構成>
 図32に示すとおり、本発明に係る最適補正バイアス推定ユニット130Zは、特徴量入力部131Zと最適補正バイアス推定演算部132Zとを有している。ここで、特徴量入力部131Zは、特徴量抽出ユニット120において、各評価点について抽出された特徴量x1~xnを入力する構成要素である。一方、最適補正バイアス推定演算部132Zは、予め実施された学習段階によって得られた学習情報LZを格納しており、この学習情報LZに基づいて、特徴量入力部131Zが入力した特徴量に応じた推定値を求め、求めた推定値を評価点についての最適補正バイアスzとして出力する構成要素である。
 ここで、図1に示すバイアス推定ユニット130と図32に示す最適補正バイアス推定ユニット130Zとを比較すると、両者の本質的な違いは、前者の推定演算部132が、学習情報Lに基づいてプロセスバイアスyを推定する機能を果たすのに対して、後者の最適補正バイアス推定演算部132Zが、学習情報LZに基づいて最適補正バイアスzを推定する機能を果たす点にある。
 ここに示す実施例の場合、最適補正バイアス推定演算部132Zは、特徴量入力部131Zが入力した特徴量x1~xnを入力層とし、最適補正バイアスzの推定値を出力層とする最適補正バイアス推定用のニューラルネットワークを有しており、実質的な推定演算は、このニューラルネットワークによって実行される。一方、図1に示すバイアス推定ユニット130の推定演算部132も、既に述べたように、特徴量入力部131が入力した特徴量x1~xnを入力層とし、プロセスバイアスyの推定値を出力層とするプロセスバイアス推定用のニューラルネットワークを有しており、実質的な推定演算は、このニューラルネットワークによって実行される。
 図35は、図1に示す先願発明に係る推定演算部132(図35では、プロセスバイアス推定演算部132と呼んでいる)を構成するプロセスバイアス推定用のニューラルネットワーク(図(a) :図24に示すものと実質的に同じ)と、図32に示す本発明に係る最適補正バイアス推定演算部132Zを構成する最適補正バイアス推定用のニューラルネットワーク(図(b) )との対比を示すブロック図である。図示のとおり、両ニューラルネットワークは、いずれも特定の評価点Eについての特徴量x1~xnからなるn次元ベクトルを入力層として、1つのスカラー値を出力層とする点において変わりはない。また、図示の例の場合、いずれのニューラルネットワークも、第1隠れ層~第N隠れ層というN段階の隠れ層を有する点も共通している。
 ただ、図35(a) に示すニューラルネットワークは、出力層に現れるスカラー値が、評価点Eについてのプロセスバイアスの推定値yであるのに対して、図35(b) に示すニューラルネットワークは、出力層に現れるスカラー値が、評価点Eについての最適補正バイアスの推定値zである点が異なっている。
 図1に示す先願発明では、図35(a) に示すニューラルネットワークを用いてプロセスバイアスyを推定し、このプロセスバイアスyを用いてパターン形状補正(図4のステップS5)を行うため、得られた補正図形パターン15の各評価点についての特徴量x1~xnを再度ニューラルネットワークの入力層に与える、という繰り返し処理が必要になる。これに対して、図32に示す本発明では、図35(b) に示すニューラルネットワークを用いて最適補正バイアスzを推定し、この最適補正バイアスzを用いてパターン形状補正(図33のステップS5Z)を行うため、得られた補正図形パターン35をそのまま用いて、実際のリソグラフィプロセス(図33のステップS7Z)を実行することができる
 図35(a) に示すプロセスバイアス推定用のニューラルネットワークと図35(b) に示す最適補正バイアス推定用のニューラルネットワークとにおいて、それぞれ出力層に異なる結果が得られるのは、格納されている学習情報(パラメータW,bの値)が異なっているためである。すなわち、図35(a) に示すニューラルネットワークで用いられる学習情報Lは、入力層に与えられた特徴量x1~xnに基づいて、プロセスバイアスyの推定値が出力層に得られるような学習を行うことにより得られた情報であるのに対して、図35(b) に示すニューラルネットワークで用いられる学習情報LZは、入力層に与えられた特徴量x1~xnに基づいて、最適補正バイアスzの推定値が出力層に得られるような学習を行うことにより得られた情報ということになる。
 ここで述べる実施例の場合、プロセスバイアスyの値や最適補正バイアスzの値として、図形の輪郭線上に設定された評価点についての輪郭線の法線方向についてのずれ量や補正量を用いている。したがって、最適補正バイアス推定演算部132Zは、図形の輪郭線上に位置する評価点Eについての最適補正バイアスの推定値zとして、当該輪郭線の法線方向についての評価点の位置補正量の推定値を求めることになる。
 <6.3 学習情報LZの作成方法>
 上述したように、本発明で重要な機能を果たす最適補正バイアス推定演算部132Zは、最適補正バイアスzを推定する際に、予め実施された学習段階によって得られた学習情報LZを利用することになる。別言すれば、本発明を実施する上では、適切な学習情報LZを作成することが非常に重要である。そこで、ここでは、この学習情報LZを作成する具体的な処理の一例を述べる。
 ここで述べる学習情報LZの作成処理は、本発明に係る図形パターンの形状補正装置100Zを製造する上での準備段階として行われる。この準備段階は、次のように、第1の準備段階と第2の準備段階とによって構成される。第1の準備段階では、多数のテストパターン図形について、それぞれ最適補正バイアスを決定する処理が実行され、第2の準備段階では、これら多数のテストパターン図形とその最適補正バイアスとに基づく学習により、学習情報LZが作成される。以下、これら各準備段階で行われる処理内容を説明する。
 図36は、本発明に係る最適補正バイアス推定用のニューラルネットワークが用いる学習情報LZを得るための第1の準備段階(最適補正バイアス決定処理)を示す流れ図である。
 まず、テストパターン図形作成ステップS91において、内部と外部との境界を示す輪郭線を有するテストパターン図形が作成される。テストパターン図形としては、長方形やL字型図形などの単純な図形を用いればよい。ここでは、説明の便宜上、図34(a) の左側に示すような正方形図形(元図形パターン41)が、テストパターン図形として作成されたものとし、図34を利用しながら、この第1の準備段階の具体的な処理を説明することにする(図34に示されている図形41~45の名称は、適宜読み替えることにする)。
 続いて、評価点設定ステップS92において、補正対象パターン図形の輪郭線上の所定位置に評価点Eが設定される。ここで、補正対象パターン図形としては、ステップS92を初めて実施する場合は、ステップS91で作成されたテストパターン図形が用いられるが、後述するステップS98から戻ってきた2回目以降に実施する場合は、ステップS98によるパターン形状補正で作成された補正後パターン図形が補正対象パターン図形として用いられる。いずれにしても、この補正対象パターン図形は、ステップS98によるパターン形状補正処理での補正対象となる図形である。図34(a) の左側に示す正方形41が補正対象パターン図形の場合、その輪郭線上に評価点Eが設定される。実際には、輪郭線に沿って多数の評価点が設定される(たとえば、所定ピッチで連続的に評価点を設定すればよい。)。
 そして、特徴量抽出ステップS93において、補正対象パターン図形(上例の場合、図34(a) の左側に示す正方形41)上の各評価点Eについて、その周囲の特徴を示す特徴量x1~xnが抽出される。特徴量の抽出処理は、たとえば、§2で述べた方法を採用すればよい(もちろん、他の抽出方法を採用してもよい)。
 次に、プロセスバイアス推定ステップS94において、各評価点Eについてのプロセスバイアスyが、ステップS93で抽出された特徴量x1~xnに基づいて推定される。ここで、プロセスバイアスyは、補正対象パターン図形上の評価点の位置と、この補正対象パターン図形を用いたリソグラフィプロセスによって得られるであろう実図形上の評価点の位置と、のずれ量である。たとえば、図34(a) の左側に示す正方形41が補正対象パターン図形の場合、この補正対象パターン図形を用いたリソグラフィプロセスによって得られるであろう実図形は、図34(a) の右側に示す正方形42になるので、y=+5nmなるプロセスバイアスが、ステップS93で抽出された特徴量x1~xnに基づいて推定されることになる。
 実際には、このステップS94のプロセスバイアス推定処理は、特徴量を入力層とし、プロセスバイアスの推定値yを出力層とするニューラルネットワークを用いて行うことができる。たとえば、図35(a) に示すプロセスバイアス推定演算部132は、特徴量x1~xnを入力層とし、プロセスバイアスの推定値yを出力層とするニューラルネットワークを有しており、ステップS94のプロセスバイアス推定処理は、プロセスバイアス推定演算部132を利用して行うことができる。
 続いて、エラー量算出ステップS95において、プロセスバイアスyに基づいて実図形の形状を推定し、推定された実図形とテストパターン図形とのずれを示すエラー量eが算出される。図34(a) に示す例の場合、プロセスバイアスy=+5nmに基づいて、実図形42の形状が推定され、テストパターン図形41とのずれを示すエラー量として、e=+5nmが算出される。
 そして、判定ステップS96において、エラー量eが所定の許容範囲内に収まるか否かが判定される。具体的には、エラー量の絶対値|e|と所定の許容値ethとを比較して、|e|≦ethなる条件が満たされるか否かが判定される。ここで、条件が満たされなかった場合は、ステップS96からステップS97へと進む。たとえば、eth=0.2nmに設定されていたとすると、上例の場合はエラー量e=+5nmであるので条件は満たされず、ステップS97へと進むことになる。
 補正バイアス決定ステップS97では、エラー量eを相殺するために必要な、補正対象パターン図形上の評価点についての位置補正量を示す補正バイアスcが決定される。図34(a) に示す例の場合、エラー量e=+5nmを相殺するために、+5nmの符号を反転させることにより、c=-5nmなる補正バイアスが決定される。
 そして、パターン形状補正ステップS98では、この補正バイアスcに基づいて、補正対象パターン図形の形状を補正して、補正後パターン図形を作成する処理が行われる。図34(a) に示す例の場合、補正バイアスc=-5nmに基づいて、補正対象パターン図形41に対して、輪郭線を内側に5nmだけ移動させるパターン補正が行われるので、図34(b) の左側に示すような一辺20nmの正方形からなる補正後パターン図形43が作成される。
 こうして、ステップS98において、補正後パターン図形が作成されたら、再びステップS92からの処理が実行される。但し、今回は、図34(b) の左側に示す補正後パターン図形43が、新たな補正対象パターン図形になり、ステップS92~S95を経ることにより、図34(b) に示すように、エラー量e=-1nmが算出される。eth=0.2nmに設定されていた場合、ステップS96では再び否定的判定がなされる。そして、ステップS97へと進み、エラー量e=-1nmを相殺するために、-1nmの符号を反転させることにより、c=+1nmなる補正バイアスが決定される。続くステップS98では、補正バイアスc=+1nmに基づいて、補正対象パターン図形43に対して、輪郭線を外側に1nmだけ移動させるパターン補正が行われるので、図34(c) の左側に示すような一辺22nmの正方形からなる補正後パターン図形45が作成される。
 こうして、ステップS98において補正後パターン図形が作成されたら、ステップS92からの3回目の処理が実行される。この3回目では、図34(c) の左側に示す補正後パターン図形45が、新たな補正対象パターン図形になり、ステップS92~S95を経ることにより、図34(c) に示すように、エラー量e=+0.1nmが算出される。eth=0.2nmに設定されていた場合、今度はステップS96で肯定的判定がなされるので、ステップS96からステップS99へと進み、最適補正バイアス決定処理が行われる。
 最適補正バイアス決定ステップS99において実行される処理は、その時点で得られている最後の補正後パターン図形を最終補正後パターン図形として、テストパターン図形を最終補正後パターン図形に一致させるために必要な、テストパターン図形上の評価点についての位置補正量を最適補正バイアスzと決定する処理である。
 たとえば、上例の場合、ステップS99を実行する時点で得られている最後の補正後パターン図形は、図34(c) の左側に示す図形45ということになるので、この図形45が最終補正後パターン図形ということなる。そこで、ステップS99では、図34(a) の左側に示すテストパターン図形41を最終補正後パターン図形45に一致させるために必要な、テストパターン図形41上の評価点Eについての位置補正量が最適補正バイアスzとして決定される。具体的には、図34に示す例の場合、最適補正バイアスz=-4nmになる。これは、テストパターン図形41上の評価点Eを、図形の内側に4nmだけ移動する位置補正を行えば、テストパターン図形41を最終補正後パターン図形45に一致させられることを意味する。
 結局、この第1の準備段階では、まず、テストパターン図形作成ステップS91においてテストパターン図形(たとえば、図34の図形41)が作成される。そして、このテストパターン図形を最初の補正対象パターン図形として、評価点設定ステップS92、特徴量抽出ステップS93、プロセスバイアス推定ステップS94、補正バイアス決定ステップS97、パターン形状補正ステップS98を実行することにより、補正後パターン図形(たとえば、図34の図形43)が作成される。
 続いて、この補正後パターン図形を新たな補正対象パターン図形として、評価点設定ステップS92、特徴量抽出ステップS93、プロセスバイアス推定ステップS94、補正バイアス決定ステップS97、パターン形状補正ステップS98を実行して新たな補正後パターン図形(たとえば、図34の図形45)を作成する処理を、エラー量eが所定の許容範囲内に収まるまで繰り返し実行し、最後に得られた補正後パターン図形(たとえば、図34の図形45)を最終補正後パターン図形とする。
 そして、最後の最適補正バイアス決定ステップS99において、テストパターン図形(たとえば、図34の図形41)を最終補正後パターン図形(たとえば、図34の図形45)に一致させるために必要な、テストパターン図形上の評価点についての位置補正量を最適補正バイアスzと決定する処理が行われる。1つのテストパターン図形上には多数の評価点が設定されているので、これら個々の評価点のそれぞれについて、最適補正バイアスzが決定されることになる。
 かくして、図36の流れ図に示す第1の準備段階を実施すれば、任意のテストパターン図形について、最適補正バイアスzを決定することができる。この第1の準備段階のうち、ステップS92~S99の処理は、実際には、図1に示す形状補正装置100を利用して実行することができる。そもそも図34は、図1に示す形状補正装置100による図形パターンの逐次補正プロセスの一例を示すパターン変遷図である。したがって、図36の流れ図に示す第1の準備段階は、図1に示す形状補正装置100に対して、元図形パターン10(実際の製品を製造するために設計されたパターン)を与える代わりに、単純なテストパターン図形を与えることにより実行することが可能である。
 もちろん、この図36の流れ図に示す第1の準備段階には、ステップS98からステップS92へと戻るループが存在し、パターン補正処理を繰り返し実行する必要がある。ただ、補正対象パターン図形は、実際の製品を製造するために設計された複雑な元図形パターン10ではなく、単純なテストパターン図形であるので、演算負担はそれほど大きなものにはならない。また、そもそも第1の準備段階は、本発明に係る図形パターンの形状補正装置100Zに利用する学習情報LZを作成するための準備段階なので、処理完了までに長時間が必要になったとしても支障は生じない。
 なお、以上の説明では、1つのテストパターン図形について、最適補正バイアスzを決定するプロセスを述べたが、実際には、サイズや形状が異なる数千個ものテストパターン図形が作成され、これら多数のテストパターン図形のそれぞれについて、かつ、各テストパターン図形上に設定されたすべての評価点について、それぞれ最適補正バイアスzが決定される。したがって、第1の準備段階を実行することにより得られる情報には、作成した多数のテストパターン図形の情報と、各テストパターン図形上に設定された多数の評価点の情報と、これら各評価点について決定された最適補正バイアスzの情報と、が含まれていることになる。これらの情報は、以下に述べる第2の準備段階の学習で利用される。
 図37は、本発明に係る最適補正バイアス推定用のニューラルネットワークが用いる学習情報LZを得るための第2の準備段階(推定演算部132Zの学習処理)を示す流れ図である。
 まず、テストパターン図形入力ステップS101では、図36のステップS91で作成したテストパターン図形の入力が行われ、最適補正バイアス入力ステップS102では、図36のステップS99で決定された最適補正バイアスzの入力が行われる。
 次に、評価点設定ステップS103において、入力したテストパターン図形の輪郭線上に多数の評価点Eが設定され、続く特徴量抽出ステップS104において、各評価点Eのそれぞれについて、その周囲の特徴を示す特徴量x1~xnが抽出される。もっとも、ステップS103の評価点設定処理は、図36のステップS92の評価点設定処理と同じであり、ステップS104の特徴量抽出処理は、図36のステップS93の特徴量抽出処理と同じである。したがって、実際には、ステップS103の評価点設定処理では、ステップS92で設定された評価点をそのまま流用することが可能であり、ステップS104の特徴量抽出処理では、ステップS93で抽出された特徴量をそのまま流用することが可能である。
 最後に、推定演算部学習ステップS105において、ニューラルネットワークの学習が行われる。この学習処理は、§3.1で述べたニューラルネットワークの学習段階と同様のプロセスによって行うことができる。
 図38は、図35(b) に示す本発明に係るニューラルネットワークで実行される具体的な演算プロセスを示すダイアグラムである。このダイアグラムの基本構成は、図25に示すニューラルネットワークと同様であり、図に太線で示す部分は、第1隠れ層,第2隠れ層,..., 第N隠れ層を示し、各隠れ層内の個々の円はニューロン(ノード)、各円を連結する線はエッジを示している。そして、入力層に、ある1つの評価点Eについての特徴量x1~xnを与えると、出力層には、当該評価点Eについての最適補正バイアスの推定値zがスカラー値として出力される。
 図38のニューラルネットワークの場合も、第1隠れ層はM(1)次元の層であり、合計M(1)個のニューロンh(1,1)~h(1,M(1))によって構成され、第2隠れ層はM(2)次元の層であり、合計M(2)個のニューロンh(2,1)~h(2,M(2))によって構成され、第N隠れ層はM(N)次元の層であり、合計M(N)個のニューロンh(N,1)~h(N,M(N))によって構成されている。
 ここで、第1隠れ層のニューロンh(1,1)~h(1,M(1))に伝達される信号の演算値を、同じ符号を用いて、それぞれ演算値h(1,1)~h(1,M(1))と表すことにすると、これら演算値h(1,1)~h(1,M(1))の値は、前述した図26の上段に示す行列の式で与えられる。ここで、この式の右辺の関数f(ξ)としては、図27に示す各活性化関数などを用いることができる。
 また、第(i+1)隠れ層(1≦i≦N)のニューロンh(i+1,1)~h(i+1,M(i+1))に伝達される信号の演算値を、同じ符号を用いて、それぞれ演算値h(i+1,1)~h(i+1,M(i+1))と表すことにすると、これら演算値h(i+1,1)~h(i+1,M(i+1))の値は、図28の上段に示す行列の式で与えられる。この式の右辺の関数f(ξ)としては、やはり図27に示す各関数などを用いることができる。
 そして、出力値z(評価点Eについての最適補正バイアスの推定値:スカラー値)は、図38の下段に示す行列の式で与えられる。すなわち、出力値zは、行列[W]と行列[h(N,1)~h(N,M(N))](第N隠れ層のニューロンh(N,1)~h(N,M(N))の値)との積に、スカラー値b(N+1)を加えた値になる。ここで、行列[W]の内容は、図38の最下段に示すとおりである。
 ニューラルネットワークにおける学習情報LZとは、行列[W]の個々の成分(パラメータW(u,v))およびスカラー値b(N+1)の各パラメータ値W,bに他ならない。ステップS105の推定演算部学習処理では、まず、学習情報LZを構成する各パラメータW,bに、初期値として乱数を与えておく。このような初期値が設定された学習情報LZは不完全なものであるが、学習が進むにつれて、徐々に完全なものへと更新されてゆく。
 このような学習を行うための材料として、第1の準備段階で得られた多数のテストパターン図形の情報と、各テストパターン図形上に設定された多数の評価点の情報と、これら各評価点について決定された最適補正バイアスzの情報と、が用いられる。すなわち、特定のテストパターン図形について、特定の評価点Eの特徴量x1~xnを与えたときに、出力層に、当該評価点Eについて決定された最適補正バイアスzが出力されるように、各パラメータW,bの値を更新する処理が行われることになる。最終的には、多数のテストパターン図形のいずれについても、正しい最適補正バイアスzが出力されるような更新が行われる。具体的な更新方法としては、たとえば、§3.2で述べた方法と同様の方法を採用すればよい。また、このような更新方法としては、ニューラルネットワークにおける学習手法として様々なアルゴリズムに基づく方法が知られているので、ここでは説明を省略する。
 図25に示すニューラルネットワークも、図38に示すニューラルネットワークも、入力層に与えられた特徴量x1~xnに基づいて、出力層に所定のスカラー値を出力するという機能は全く同じである。ただ、前者がプロセスバイアスの推定値yを出力層に出力するのに対して、後者は最適補正バイアスの推定値zを出力層に出力することになる。このように、出力層に出力されるスカラー値が異なるのは、用いる学習情報が異なっているためである。
 図25に示すニューラルネットワークは、プロセスバイアスの推定値yを出力するためのネットワークであるので、正しいプロセスバイアスの推定値yが出力されるような学習の成果である学習情報L(パラメータW,bの値)が利用される。これに対して、図38に示すニューラルネットワークは、最適補正バイアスの推定値zを出力するためのネットワークであるので、正しい最適補正バイアスの推定値zが出力されるような学習の成果である学習情報LZ(やはり、パラメータW,bの値)が利用される。この学習情報LZは、デジタルデータとして、所定の情報記録媒体に格納されて用いられる。
 結局、最適補正バイアス推定用のニューラルネットワークが用いる学習情報LZは、評価点の元図形パターン上の位置と実図形パターン上の位置とのずれ量を示すプロセスバイアスyを推定するプロセスバイアス推定用のニューラルネットワーク(具体的には、図1に示すバイアス推定ユニット130の推定演算部132)を利用して得られた多数のテストパターン図形についての最適補正バイアス(図36の第1の準備段階で得られた値z)を用いた学習段階(図37の第2の準備段階)によって得られたパラメータということになる。
 図37に示す第2の準備段階の処理は、特徴量x1~xnを入力層とし、最適補正バイアスの推定値zを出力層とするニューラルネットワークに利用するための学習情報LZを得る学習処理であり、図33の補正処理段階における最適補正バイアス推定ステップS4Zは、上記学習情報LZを利用したニューラルネットワークを用いて実行されることになる。もちろん、図33に示す補正処理段階、図36に示す第1の準備段階、図37に示す第2の準備段階は、いずれもコンピュータに組み込まれた専用プログラムによって実行される。
 また、図32に示す最適補正バイアス推定演算部132Zに格納されている学習情報LZは、多数のテストパターン図形について抽出された特徴量と各テストパターン図形についての最適補正バイアスとに基づいて、特徴量を入力として与えた場合に最適補正バイアスが出力されるような学習(図37の第2の準備段階)によって得られた学習情報ということになる。そして、この学習に用いられる各テストパターン図形についての最適補正バイアスは、所定の補正対象パターン図形を用いたリソグラフィプロセスのシミュレーション結果に基づいて当該補正対象パターン図形を補正して補正後パターン図形を得るパターン形状補正処理を、得られた補正後パターン図形を新たな補正対象パターン図形として所定回数だけ繰り返し実施すること(図36の第1の準備段階)により得られた位置補正量ということになる。
 図39は、図36に示す最適補正バイアス決定処理で決定された、種々のテストパターン図形についての最適補正バイアスの一例を示す表である。表の各行は、それぞれ特定のテストパターン図形に対応しており、パターンカテゴリの欄に記載された内容は、各テストパターン図形の名称である。また、設計寸法欄の数値は、当該テストパターン図形の基準方向の寸法であり、測長値欄の数値は、当該テストパターン図形を用いてリソフラフィプロセスを実行した場合に得られるであろう実図形の基準方向の寸法である。そして、プロセスバイアス欄の数値は、当該テストパターン図形について算出されたプロセスバイアスyの値であり、最適補正バイアス欄の数値は、当該テストパターン図形について決定された最適補正バイアスzの値である。
 たとえば、表の1行目には、「Line & Space」と呼ばれる単純な形状をもったテストパターン図形についての情報が記載されている。すなわち、このテストパターン図形は、幅1000nm(設計寸法)の長方形パターンからなり、当該テストパターン図形を用いてリソフラフィプロセスを実行した場合に得られるであろう実図形は幅1012.6nm(測長値)の長方形パターンになり、プロセスバイアスyは+6.3nm、最適補正バイアスzは-6.5nmである。
 この表において、プロセスバイアスyの絶対値と最適補正バイアスzの絶対値とを比較すると、両者はある程度近似した値になっているが、若干の相違があることがわかる。既に述べたように、プロセスバイアスyの値に基づく補正を1回だけ行っただけでは、正確な補正図形パターンを得ることはできないが、最適補正バイアスzの値に基づく補正を1回だけ行えば、ある程度正確な補正図形パターンを得ることができる。この表におけるプロセスバイアスyの絶対値と最適補正バイアスzの絶対値との相違は、このような両者の補正精度の相違を反映したものになっている。
 <<< §7. 本発明の変形例 >>>
 ここでは、これまで述べてきた本発明に係る図形パターンの形状補正装置について、いくつかの有用な変形例を述べる。
 <7.1 プロセスバイアスの位置依存性を考慮した変形例>
 本発明は、リソグラフィプロセスによって実基板上に実図形パターンを形成することを前提として、元図形パターンに対して補正を行う技術である。これまで述べてきた先願発明の実施形態や本発明の実施形態では、形成する図形パターンの形状に着目し、図形パターン上に設定された各評価点の特徴量に基づいて、当該評価点についての最適な補正量を推定するという手法を採用しているが、この推定には、実基板S上の位置は考慮されていない。
 しかしながら、実際には、実基板S上の位置によってプロセスバイアスyに変動が生じる。たとえば、図40は、このような変動が生じる例を説明する実基板Sの平面図である。この例では、実基板SがXY平面上に配置されており、この実基板S上に2つの着目点α,βが設定されている。着目点αは実基板Sの中央に位置する点であり、着目点βは実基板Sの右下に位置する点である。本願発明者は、このように実基板S上の位置が異なる2つの着目点α,βでは、全く同じ図形に基づくリソグラフィプロセスを実行した場合でも、プロセスバイアスyの値が異なることを確認した。
 たとえば、図34(a) の左側に示すような正方形からなる元図形パターン41を用いたリソグラフィプロセスによって、実基板S上の着目点α,βの各位置に、それぞれ正方形の図形パターンを形成したものとしよう。この場合、着目点αの位置に形成した正方形についてのプロセスバイアスyが+5nmだったとすると、着目点βの位置に形成した正方形についてのプロセスバイアスyは、正確には+5nmにはならない。すなわち、プロセスバイアスyは、実基板S上の位置に依存して変動することになる。
 プロセスバイアスyが、実基板S上の位置に依存して変動する理由は、リソグラフィプロセスを行った場合の近接効果やローディング現象などの影響が、実基板S上の位置に応じて相違するためと考えられる。図41は、実基板S上の位置によって生じるプロセスバイアスyの具体的な変動量の一例を示す三次元グラフである。この三次元グラフのX軸およびY軸は、XY平面上に配置された実基板Sの横方向および縦方向の位置(単位:cm)を示しており、d軸は、各位置における幅変動量(単位:nm)を示している。この幅変動量dは、テストパターン図形の所定方向の全幅に関する変動量を示しているので、プロセスバイアスyの変動量は、幅変動量dの半分の値になる(たとえば矩形の場合、左辺と右辺についてのプロセスバイアスyの変動量の和が幅変動量dになるため)。
 図41のグラフの場合、座標(0,0)の位置における幅変動量dを0として基準にとれば、基板の周囲にゆくほど、幅変動量d(この例では負の値をとる)の絶対値が増大する傾向にある。したがって、この三次元グラフを図40に示す実基板Sに適用すれば、着目点αのプロセスバイアスをyとした場合、着目点βのプロセスバイアスは「y+d/2」になる。図41の例の場合、幅変動量dは負の値をとるので、着目点αのプロセスバイアスyに比べて、着目点βのプロセスバイアス「y+d/2」は小さくなる。たとえば、実基板Sの右下の位置(座標(6,-6))では、幅変動量d=-3.5nmになっているので、座標(0,0)の基準位置におけるプロセスバイアスyに比べて、3.5/2nmだけ小さなプロセスバイアスが得られることになる。
 もちろん、このような三次元グラフは、用いる実基板Sの形態や、実際に行われるリソグラフィプロセスの露光、現像、エッチング工程の諸条件によって形状が変化することになるが、これらの条件が固定されれば、プロセスバイアスyの位置依存性を示す普遍性をもったグラフになる。もちろん、プロセスバイアスyが位置に依存する変動量を有していれば、当然、最適補正バイアスzも位置に依存する変動量を有することになる。したがって、先願発明や本発明でプロセスバイアスyを推定する際、あるいは、本発明で最適補正バイアスzを推定する際に、プロセスバイアスの位置依存性を考慮すれば、実基板S上のどの位置に図形が形成されるかという情報を考慮した正確な推定を行うことが可能である。
 このように、プロセスバイアスの位置依存性を考慮した推定を行う場合、特徴量抽出ユニット120に、評価点Eの実基板S上の位置に依存する最適補正バイアスもしくはプロセスバイアスの変動量dを特徴量の1つとして抽出させればよい。そうすれば、図1に示す先願発明に係るバイアス推定ユニット130では、評価点Eの周囲の特徴を示す特徴量x1~xnに加えて、更に、(n+1)番目の特徴量として、評価点Eの実基板S上の位置に応じた変動量d(たとえば、図41の三次元グラフで与えられる幅変動量d)を入力することにより、より正確なプロセスバイアスyを推定することができる。
 ニューラルネットワークを用いてプロセスバイアスyの推定を行う場合は、図25に示す演算プロセスの代わりに、図42に示す演算プロセスを採用すればよい。両者の相違は、前者では入力層が特徴量x1~xnを示すn次元ベクトルであったのに対し、後者では入力層が特徴量x1~xnおよび変動量dを示す(n+1)次元ベクトルになっている点である。このように、後者では入力層が1次元分増えることになるが、基本的な演算アルゴリズムは前者と同様である。
 一方、図32に示す本発明に係る最適補正バイアス推定ユニット130Zでは、評価点Eの周囲の特徴を示す特徴量x1~xnに加えて、更に、(n+1)番目の特徴量として、評価点Eの実基板S上の位置に応じた変動量d(たとえば、図41の三次元グラフで与えられる幅変動量d)を入力することにより、より正確な最適補正バイアスzを推定することができる。
 ニューラルネットワークを用いて最適補正バイアスzの推定を行う場合は、図38に示す演算プロセスの代わりに、図43に示す演算プロセスを採用すればよい。両者の相違は、前者では入力層が特徴量x1~xnを示すn次元ベクトルであったのに対し、後者では入力層が特徴量x1~xnおよび変動量dを示す(n+1)次元ベクトルになっている点である。このように、後者では入力層が1次元分増えることになるが、基本的な演算アルゴリズムは前者と同様である。
 図44は、図36に示す最適補正バイアス決定処理で決定された、種々のテストパターン図形についての位置依存性を考慮した最適補正バイアスの一例を示す表である。表の各行は、それぞれ特定のテストパターン図形と特定の幅変動量dとの組み合わせに対応している。具体的には、パターンカテゴリの欄に記載された内容は、各テストパターン図形の名称であり、設計寸法欄の数値は、当該テストパターン図形の基準方向の寸法であり、変動量欄の数値は、当該テストパターン図形を形成する実基板S上の位置に依存した幅変動量(図41の三次元グラフで与えられる幅変動量d)であり、測長値欄の数値は、当該テストパターン図形を用いてリソグラフィプロセスを実行した場合に当該位置に得られるであろう実図形の基準方向の寸法である(NAと記載された欄は測定が省略されている)。そして、プロセスバイアス欄の数値は、当該テストパターン図形と当該位置との組み合わせについて算出されたプロセスバイアスyの値であり、最適補正バイアス欄の数値は、当該テストパターン図形と当該位置との組み合わせについて決定された最適補正バイアスzの値である。
 たとえば、表の1行目には、「Line & Space」と呼ばれる単純な形状をもったテストパターン図形を、幅変動量dに対応する位置に形成した場合の情報が記載されている。すなわち、このテストパターン図形は、幅1000nm(設計寸法)の長方形パターンからなり、当該テストパターン図形を用いてリソフラフィプロセスを実行した場合に、幅変動量d=0に対応する位置(図41の例の場合、座標(0,0)の位置)に得られるであろう実図形は、幅1012.6nm(測長値)の長方形パターンになり、プロセスバイアスyは+6.3nm、最適補正バイアスzは-6.5nmである。
 これに対して、表の2行目には、同じテストパターン図形を、幅変動量d=-2.0に対応する位置(図41の例の場合、たとえば、座標(5,-2)の位置)に形成した場合、プロセスバイアスyは+5.3nm、最適補正バイアスzは-5.4nmであることが示されている。ここで、プロセスバイアスyは、第1行目の値+6.3nmから、幅変動量d=-2.0の絶対値の半分を差し引いた値として算出されている。同様に、表の3行目には、同じテストパターン図形を、幅変動量d=-4.0に対応する位置に形成した場合、プロセスバイアスyは+4.3nm、最適補正バイアスzは-4.3nmであることが示されている。ここで、プロセスバイアスyは、第1行目の値+6.3nmから、幅変動量d=-4.0の絶対値の半分を差し引いた値として算出されている。
 この表によれば、プロセスバイアスの位置依存性を考慮してプロセスバイアスyおよび最適補正バイアスzが求められているため、全く同じテストパターン図形であっても、実基板S上の形成位置に応じた正確なプロセスバイアスyおよび最適補正バイアスzが得られていることがわかる。
 <7.2 先願発明を併用した変形例>
 §5.1では、先願発明の問題点として、プロセスバイアスの推定値yに基づいて補正を行うため、補正処理を繰り返し実行する必要がある点を説明し、本発明では、最適補正バイアスの推定値zに基づいて補正を行うため、補正処理を繰り返し実行しなくても十分な補正を行うことができるメリットを説明した。確かに、最適補正バイアスの推定値zに基づく補正を行えば、元図形パターンに対する補正処理の回数を減らすことができ、作業時間を短縮することが可能になる。
 しかしながら、最適補正バイアス推定ユニット130Zの推定精度は、用いる学習情報LZの内容や、入力として与えられる特徴量の的確性に依存するため、必ずしも常に的確な最適補正バイアスzの推定値を出力できるとは限らない。そこで、ここでは、§5以降で述べてきた本発明に係る図形パターンの形状補正装置100Zに、§1~§3で述べた先願発明に係る図形パターンの形状補正装置100の要素を組み込むことにより、先願発明を併用した変形例を述べることにする。
 図45は、先願発明を併用した変形例に係る図形パターンの形状補正装置100ZZの構成を示すブロック図である。この図45に示す形状補正装置100ZZは、図1に示す先願発明に係る図形パターンの形状補正装置100に、最適補正バイアス推定ユニット130Zを組み込み、パターン補正処理を行うユニットとして、プロセスバイアスyに基づく補正と最適補正バイアスzに基づく補正との双方を行う機能を有するパターン補正ユニット140ZZを設けたものと言うことができる。
 図45に示す形状補正装置100ZZを、図1に示す形状補正装置100と対比すると、評価点設定ユニット110および特徴量抽出ユニット120の部分は全く同じである。また、図45のプロセスバイアス推定ユニット130は、図1のバイアス推定ユニット130と全く同じである。ただ、図1のバイアス推定ユニット130が、プロセスバイアスyを推定するユニットであることを明確にするため、図45では、プロセスバイアス推定ユニット130と呼んでいる。また、図1の推定演算部132のことを、図45では、プロセスバイアス推定演算部132と呼んでいる。
 一方、図45の最適補正バイアス推定ユニット130Zは、図32に示す最適補正バイアス推定ユニット130Zと全く同じである。そして、図45のパターン補正ユニット140ZZは、図1のパターン補正ユニット140(プロセスバイアスyに基づく補正機能を有する)と、図32のパターン補正ユニット140Z(最適補正バイアスzに基づく補正機能を有する)とを兼ねたユニットと言うべきものであり、プロセスバイアスyに基づく補正と最適補正バイアスzに基づく補正との双方を行う機能を有している。
 見方を変えて、この図45に示す形状補正装置100ZZを、図32に示す形状補正装置100Zと対比すると、図45に示す形状補正装置100ZZは、図32に示す形状補正装置100Zに、更に、プロセスバイアス推定ユニット130を付加し、図32に示すパターン補正ユニット140Zに、図1に示すパターン補正ユニット140の機能を加えてパターン補正ユニット140ZZとした変形例に係る装置ということができる。
 ここで、プロセスバイアス推定ユニット130は、上述したとおり、図1に示すバイアス推定ユニット130と同一の構成要素であり、特徴量x1~xnに基づいて、評価点Eの補正図形パターン上の位置とこの補正図形パターンを用いたリソグラフィプロセスによって得られるであろう実図形パターン上の位置とのずれ量を示すプロセスバイアスを推定する機能を有する。ここで、「補正図形パターン」は、パターン補正ユニット140ZZから出力される補正図形パターン35を意味し、図1における補正図形パターン15に相当するものである。
 この図45に示す形状補正装置100ZZには、2通りの補正処理系統が備わっている。第1の補正処理系統は、評価点設定ユニット110→特徴量抽出ユニット120→最適補正バイアス推定ユニット130Z→パターン補正ユニット140ZZという経路で補正処理が行われる系統であり、補正は最適補正バイアスzに基づいて行われる。一方、第2の補正処理系統は、評価点設定ユニット110→特徴量抽出ユニット120→プロセスバイアス推定ユニット130→パターン補正ユニット140ZZという経路で補正処理が行われる系統であり、補正はプロセスバイアスyに基づいて行われる。
 しかも、第1の補正処理系統は、元図形パターン10に対する補正(第1回目の補正)を行うために利用され、第2の補正処理系統は、補正図形パターン35に対する繰り返し補正(第2回目以降の補正)を行うために利用される。別言すれば、最適補正バイアス推定ユニット130Zは、第1回目の補正(元図形パターン10に対する補正)を行うために最適補正バイアスzを推定する処理を行い、プロセスバイアス推定ユニット130は、第2回目以降の繰り返し補正(補正図形パターン35に対する補正)を行うためにプロセスバイアスyを推定する処理を行う。
 このように、2通りの補正処理系統が備わっているため、評価点設定ユニット110は、元図形パターン10上に評価点Eを設定する処理(第1回目の補正時)と、補正図形パターン35上に評価点Eを設定する処理(第2回目以降の補正時)と、を選択的に実行する機能を有している。また、特徴量抽出ユニット120は、元図形パターン10について評価点Eの周囲の特徴を示す特徴量x1~xnを抽出する処理と、補正図形パターン35について評価点Eの周囲の特徴を示す特徴量x1~xnを抽出する処理と、を選択的に実行する機能を有している。
 そして、パターン補正ユニット140ZZは、最適補正バイアス推定ユニット130Zが推定した最適補正バイアスzに基づく補正により補正図形パターン35を作成する処理と、プロセスバイアス推定ユニット130が推定したプロセスバイアスyに基づく補正により補正図形パターン35を更に補正して新たな補正図形パターン35を作成する処理と、を選択的に実行する機能を有している。
 図46は、図45に示す形状補正装置100ZZを用いた製品の設計・製造工程の手順を示す流れ図である。図示のとおり、この手順は、前半段階(ステップS1Z~S5Z)と後半段階(ステップS2~S7)とによって構成されており、ステップS1Z~S6までの工程は計算機(コンピュータ)上で実行するプロセスであり、ステップS7の工程は実基板上で実行するプロセスである。
 前半段階のステップS1Z~S5Zは、上述した第1の補正処理系統を利用して行われる処理であり、図33に示すステップS1Z~S5Zと全く同じである。この前半段階のステップS1Z~S5Zでは、設計装置により作成された元図形パターン10が、図45に示す形状補正装置100ZZに与えられ、第1の補正処理系統により、元図形パターン10に対して最適補正バイアスzを用いる補正が行われ、補正図形パターン35が出力される。図32に示す基本的実施形態に係る形状補正装置100Zの場合、こうして得られた補正図形パターン35を用いて、リソグラフィプロセスが実施され、実基板Sが製造されることになるが、ここで述べる変形例に係る形状補正装置100ZZの場合、こうして得られた補正図形パターン35に対して、更なる補正が続行される。
 すなわち、前半段階のステップS1Z~S5Zに引き続いて、後半段階のステップS2~S7が実行される。この後半段階のステップS2~S6は、上述した第2の補正処理系統を利用して行われる処理であり、図4に示すステップS2~S6と全く同じである。この後半段階のステップS2~S6では、第2の補正処理系統により、前半段階の処理で得られた補正図形パターン35に対して、プロセスバイアスyを用いる補正が必要な回数だけ繰り返し行われ、最終的な補正図形パターン35が出力される。ステップS7のリソグラフィプロセスは、こうして得られた最終的な補正図形パターン35を用いて実行される。
 要するに、この図46の流れ図に示す手順では、まず、与えられた元図形パターン10に対して、評価点設定ユニット110による評価点設定がなされ、特徴量抽出ユニット120による特徴量抽出がなされ、最適補正バイアス推定ユニット130Zによる最適補正バイアスzの推定がなされ、パターン補正ユニット140ZZによる補正により元図形パターン10に対する補正がなされ、補正図形パターン35が作成される(第1の補正処理系統:前半段階のステップS1Z~S5Z)。続いて、この補正図形パターン35に対して、評価点設定ユニット110による評価点設定がなされ、特徴量抽出ユニット120による特徴量抽出がなされ、プロセスバイアス推定ユニット130によるプロセスバイアスyの推定がなされ、パターン補正ユニット140ZZによる更なる補正により新たな補正図形パターン35が作成される(第2の補正処理系統:後半段階のステップS2~S6)。
 もちろん、第2の補正処理系統による補正を1回だけ行うようにしてもかまわないので、ステップS6を省略して、ステップS5からステップS7へと進んでもかまわない。それでも、第1の補正処理系統による補正(前半段階のステップS1Z~S5Z)で得られた補正図形パターン35に対する更なる補正が行われるので、より正確な補正図形パターン35を用いたリソグラフィプロセスを実行することができる。ただ、より正確な補正図形パターンを用いてリソグラフィプロセスを実行するためには、ステップS6からステップS2に戻るループ処理により、第2の補正処理系統による補正を繰り返し実行するのが好ましい。
 したがって、実用上は、パターン補正ユニット140ZZによる第2の補正処理系統に基づく補正により新たな補正図形パターン35が作成された後、当該新たな補正図形パターン35に対して、評価点設定ユニット110による評価点設定がなされ、特徴量抽出ユニット120による特徴量抽出がなされ、プロセスバイアス推定ユニット130によるプロセスバイアスの推定がなされ、パターン補正ユニット140ZZによる補正により更に新たな補正図形パターン35が作成される処理が、所定回数だけ繰り返し実行されるようにするのが好ましい。
 <<< §8. 本発明に係る図形パターンの形状補正方法 >>>
 これまで本発明を、図32に示す構成を有する図形パターンの形状補正装置100Zとして捉え、その構成および動作を説明した。ここでは、本発明を、図形パターンの形状補正方法という方法発明として捉えた説明を簡単に行っておく。
 本発明を図形パターンの形状補正方法の発明として把握した場合、当該方法は、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、実図形パターンが元図形パターンに一致するように、元図形パターンの形状を補正して、リソグラフィプロセスで実際に用いる補正図形パターンを作成する方法ということになる。そして、この形状補正方法は、第1の準備段階と、第2の準備段階と、補正処理段階と、を有している。
 第1の準備段階では、図36の流れ図で説明したとおり、コンピュータが、所定のテストパターン図形を用いたリソグラフィプロセスによって得られるであろう実図形が当該テストパターン図形に一致するように、当該テストパターン図形上に設定された複数の評価点Eについての位置補正量を示す最適補正バイアスzを決定する最適補正バイアス決定処理が、多数のテストパターン図形について行われる。
 より詳細には、図36の流れ図に示されているとおり、内部と外部との境界を示す輪郭線を有するテストパターン図形を作成するテストパターン図形作成ステップS91と、所定の補正対象パターン図形の輪郭線上の所定位置に評価点Eを設定する評価点設定ステップS92と、評価点Eの周囲の特徴を示す特徴量x1~xnを抽出する特徴量抽出ステップS93と、補正対象パターン図形上の評価点Eの位置と、補正対象パターン図形を用いたリソグラフィプロセスによって得られるであろう実図形上の評価点Eの位置と、のずれ量を示すプロセスバイアスyを、上記特徴量x1~xnに基づいて推定するプロセスバイアス推定ステップS94と、プロセスバイアスyに基づいて実図形の形状を推定し、推定された実図形とテストパターン図形とのずれを示すエラー量eを算出するエラー量算出ステップS95と、が順次実行される。
 続いて、エラー量eを相殺するために必要な、補正対象パターン図形上の評価点Eについての位置補正量を示す補正バイアスcを決定する補正バイアス決定ステップS97と、この補正バイアスcに基づいて、補正対象パターン図形の形状を補正して、補正後パターン図形を作成するパターン形状補正ステップS98と、が実行される。
 しかも、テストパターン図形を最初の補正対象パターン図形として、評価点設定ステップS92、特徴量抽出ステップS93、プロセスバイアス推定ステップS94、エラー量算出ステップS95、補正バイアス決定ステップS97、パターン形状補正ステップS98を実行して補正後パターン図形を作成した後、作成された補正後パターン図形を新たな補正対象パターン図形として、評価点設定ステップS92、特徴量抽出ステップS93、プロセスバイアス推定ステップS94、エラー量算出ステップS95、補正バイアス決定ステップS97、パターン形状補正ステップS98を実行して新たな補正後パターン図形を作成する処理を、エラー量eが所定の許容範囲内に収まるまで繰り返し実行する。そして、最後に得られた補正後パターン図形を最終補正後パターン図形とし、テストパターン図形を最終補正後パターン図形に一致させるために必要な、テストパターン図形上の評価点Eについての位置補正量を最適補正バイアスzと決定する処理(ステップS99)が行われる。
 なお、ステップS94のプロセスバイアス推定処理は、特徴量x1~xnを入力層とし、プロセスバイアスの推定値yを出力層とするニューラルネットワークを用いて行うことができる。
 一方、第2の準備段階では、図37の流れ図で説明したとおり、コンピュータが、各テストパターン図形について設定された複数の評価点Eについて、周囲の特徴を示す特徴量x1~xnを抽出し、抽出した特徴量x1~xnを入力としたときに、当該テストパターン図形について第1の準備段階で決定された最適補正バイアスzが出力されるような演算を行うための学習を、上記多数のテストパターン図形について実行することにより学習情報LZを得る学習処理が行われる。
 そして、補正処理段階では、図33の流れ図のステップS2Z~S5Zで説明したとおり、コンピュータが、元図形パターン10について設定された複数の評価点Eについて周囲の特徴を示す特徴量x1~xnを抽出し、第2の準備段階で得られた学習情報LZを利用して、抽出した特徴量x1~xnを入力とした場合の出力として、元図形パターン10上の各評価点Eについての最適補正バイアスzを求め、求めた最適補正バイアスzに基づいて元図形パターン10上の各評価点Eの位置を補正することにより補正図形パターン35を作成する処理が行われる。
 なお、第2の準備段階の学習処理は、特徴量x1~xnを入力層とし、最適補正バイアスの推定値zを出力層とするニューラルネットワークに利用するための学習情報を得る処理として行うことができ、その場合、補正処理段階の処理は、上記ニューラルネットワークを用いて行うことができる。
 本発明に係る図形パターンの形状補正装置および形状補正方法は、半導体デバイスの製造プロセスなど、特定の材料層に対して微細なパターニング加工を施す必要がある分野において、元図形パターンに基づくリソグラフィプロセスによって実基板上に実図形パターンを形成する際に、正確な寸法をもった実図形パターンを形成する技術として広く利用することができる。
10:元図形パターン
15:補正図形パターン
20:実図形パターン
35:補正図形パターン
41:元図形パターン
42:初期実図形パターン
43:第1次補正図形パターン
44:第1次実図形パターン
45:第2次補正図形パターン
46:第2次実図形パターン
100:図形パターンの形状補正装置(先願発明)
100Z:図形パターンの形状補正装置(本発明)
100ZZ:図形パターンの形状補正装置(本発明)
100′:図形パターンの形状推定装置(先願発明)
110:評価点設定ユニット
120:特徴量抽出ユニット
121:元画像作成部
122:画像ピラミッド作成部
123:特徴量算出部
130:バイアス推定ユニット/プロセスバイアス推定ユニット
130Z:最適補正バイアス推定ユニット
131:特徴量入力部
131Z:特徴量入力部
132:推定演算部/プロセスバイアス推定演算部
132Z:最適補正バイアス推定演算部
140:パターン補正ユニット
140Z:パターン補正ユニット
140ZZ:パターン補正ユニット
A~D:個々の画素/個々の画素の画素値
a~d:評価点Eと各画素の中心点との横方向距離もしくは縦方向距離
b,b(1,1)~b(i+1,M(i+1)),b(N+1):ニューラルネットワークのパラメータ
C1,C2:参考円
c:補正バイアス
D1~Dn:差分画像
d:幅変動量(プロセスバイアスyの変動量の2倍)
E,E11~E23:評価点
e:エラー量
F1~F5:元図形パターン10を構成する図形(長方形)
f(ξ):ニューラルネットワークの演算に用いる関数
G:按分値
GF33,GF55:ガウシアンフィルタ
H:按分値
h(1,1)~h(N,M(N)):ニューラルネットワークの隠れ層のニューロン/その演算値
i:ニューラルネットワークの隠れ層の段数を示すパラメータ
k:画像番号を示すパラメータ
L,LZ:学習情報
LF33,LF55:ラプラシアンフィルタ
M1:面積密度マップ
M2:エッジ長密度マップ
M3:ドーズ密度マップ
M(1)~M(N):ニューラルネットワークの各隠れ層の次元
N:ニューラルネットワークの隠れ層の段数
n:画像ピラミッドの階層数
P1~Pn:階層画像
Pk:第k番目の階層画像
PC:補正画像
PD:画像ピラミッド(副画像ピラミッド)
PP:画像ピラミッド(主画像ピラミッド)
Q1:第1番目の準備画像(元画像)
Qk:第k番目の準備画像
S:実基板
S1~S848,S1Z~S7Z:流れ図の各ステップ
U:画素
u:画素寸法
W,W(1,11)~W(N+1,1M(N)):ニューラルネットワークのパラメータ
X:実基板上の座標軸
x,x1~xn:特徴量
Y:実基板上の座標軸
y,y11~y13:プロセスバイアス
z:最適補正バイアス
α,β:実基板上の着目点
ξ:関数fの引数

Claims (23)

  1.  元図形パターン(10)に基づくリソグラフィプロセスによって実基板(S)上に実図形パターン(20)を形成する際に、前記実図形パターン(20)が前記元図形パターン(10)に一致するように、前記元図形パターン(10)の形状を補正して、前記リソグラフィプロセスで実際に用いる補正図形パターン(35)を作成する図形パターンの形状補正装置(100Z)であって、
     前記元図形パターン(10)上に評価点(E)を設定する評価点設定ユニット(110)と、
     前記元図形パターン(10)について、前記評価点(E)の周囲の特徴を示す特徴量(x1~xn)を抽出する特徴量抽出ユニット(120)と、
     前記特徴量(x1~xn)に基づいて、前記実図形パターン(20)を前記元図形パターン(10)に近づけるために必要な前記評価点(E)の位置補正量を示す最適補正バイアス(z)を推定する最適補正バイアス推定ユニット(130Z)と、
     前記最適補正バイアス推定ユニット(130Z)が推定した最適補正バイアス(z)に基づいて、前記元図形パターン(10)の前記評価点(E)の位置を移動させることにより、前記元図形パターン(10)の形状を補正して前記補正図形パターン(35)を作成するパターン補正ユニット(140Z)と、
     を備え、
     前記最適補正バイアス推定ユニット(130Z)は、
     前記評価点(E)について抽出された特徴量(x1~xn)を入力する特徴量入力部(131Z)と、
     予め実施された学習段階によって得られた学習情報(LZ)を格納しており、前記学習情報(LZ)に基づいて、前記特徴量(x1~xn)に応じた推定値を求め、求めた推定値を前記評価点(E)についての最適補正バイアス(z)として出力する最適補正バイアス推定演算部(132Z)と、
     を有することを特徴とする図形パターンの形状補正装置(100Z)。
  2.  請求項1に記載の図形パターンの形状補正装置(100Z)において、
     最適補正バイアス推定演算部(132Z)に格納されている学習情報(LZ)が、多数のテストパターン図形について抽出された特徴量(x1~xn)と各テストパターン図形についての最適補正バイアス(z)とに基づいて、前記特徴量(x1~xn)を入力として与えた場合に前記最適補正バイアス(z)が出力されるような学習によって得られた学習情報であることを特徴とする図形パターンの形状補正装置(100Z)。
  3.  請求項2に記載の図形パターンの形状補正装置(100Z)において、
     所定の補正対象パターン図形を用いたリソグラフィプロセスのシミュレーション結果に基づいて前記補正対象パターン図形を補正して補正後パターン図形を得るパターン形状補正処理(S98)を、得られた補正後パターン図形を新たな補正対象パターン図形として所定回数だけ繰り返し実施することにより得られた位置補正量が、各テストパターン図形についての最適補正バイアス(z)として用いられていることを特徴とする図形パターンの形状補正装置(100Z)。
  4.  請求項1~3のいずれかに記載の図形パターンの形状補正装置(100Z)において、
     評価点設定ユニット(110)が、図形の内部と外部との境界を示す輪郭線の情報を含む元図形パターン(10)に基づいて、前記輪郭線上の所定位置に評価点(E)を設定することを特徴とする図形パターンの形状補正装置(100Z)。
  5.  請求項4に記載の図形パターンの形状補正装置(100Z)において、
     最適補正バイアス推定演算部(132Z)が、図形の輪郭線上に位置する評価点(E)についての最適補正バイアスの推定値(z)として、前記輪郭線の法線方向についての前記評価点(E)の位置補正量の推定値を求めることを特徴とする図形パターンの形状補正装置(100Z)。
  6.  請求項1~5のいずれかに記載の図形パターンの形状補正装置(100Z)において、
     特徴量抽出ユニット(120)が、元図形パターン(10)に基づいて、それぞれ所定の画素値を有する画素(U)の集合体からなる元画像を作成し、1つの評価点(E)の近傍の画素(U)の画素値に基づいて当該評価点(E)の特徴量(x1~xn)を抽出することを特徴とする図形パターンの形状補正装置(100Z)。
  7.  請求項1~6のいずれかに記載の図形パターンの形状補正装置(100Z)において、
     最適補正バイアス推定演算部(132Z)が、特徴量入力部(131Z)が入力した特徴量(x1~xn)を入力層とし、最適補正バイアスの推定値(z)を出力層とする最適補正バイアス推定用のニューラルネットワークを有することを特徴とする図形パターンの形状補正装置(100Z)。
  8.  請求項7に記載の図形パターンの形状補正装置(100Z)において、
     最適補正バイアス推定用のニューラルネットワークが、評価点(E)の元図形パターン(10)上の位置と実図形パターン(20)上の位置とのずれ量を示すプロセスバイアスを推定するプロセスバイアス推定用のニューラルネットワークを利用して得られた多数のテストパターン図形についての最適補正バイアス(z)を用いた学習段階によって得られたパラメータを学習情報(LZ)として用いることを特徴とする図形パターンの形状補正装置(100Z)。
  9.  請求項1~8のいずれかに記載の図形パターンの形状補正装置(100Z)において、
     特徴量(x1~xn)に基づいて、評価点(E)の補正図形パターン(35)上の位置とこの補正図形パターン(35)を用いたリソグラフィプロセスによって得られるであろう実図形パターン(20)上の位置とのずれ量を示すプロセスバイアス(y)を推定するプロセスバイアス推定ユニット(130)を更に備え、
     評価点設定ユニット(110)が、元図形パターン(10)上に評価点(E)を設定する処理と、補正図形パターン(35)上に評価点(E)を設定する処理と、を選択的に実行する機能を有し、
     特徴量抽出ユニット(120)が、元図形パターン(10)について評価点(E)の周囲の特徴を示す特徴量(x1~xn)を抽出する処理と、補正図形パターン(35)について評価点(E)の周囲の特徴を示す特徴量(x1~xn)を抽出する処理と、を選択的に実行する機能を有し、
     パターン補正ユニット(140ZZ)が、最適補正バイアス推定ユニット(130Z)が推定した最適補正バイアス(z)に基づく補正により補正図形パターン(35)を作成する処理と、プロセスバイアス推定ユニット(130)が推定したプロセスバイアス(y)に基づく補正により補正図形パターン(35)を更に補正して新たな補正図形パターン(35)を作成する処理と、を選択的に実行する機能を有することを特徴とする図形パターンの形状補正装置(100ZZ)。
  10.  請求項9に記載の図形パターンの形状補正装置(100ZZ)において、
     与えられた元図形パターン(10)に対して、評価点設定ユニット(110)による評価点設定がなされ、特徴量抽出ユニット(120)による特徴量抽出がなされ、最適補正バイアス推定ユニット(130Z)による最適補正バイアス(z)の推定がなされ、パターン補正ユニット(140ZZ)による補正により補正図形パターン(35)が作成され、
     更に、前記補正図形パターン(35)に対して、評価点設定ユニット(110)による評価点設定がなされ、特徴量抽出ユニット(120)による特徴量抽出がなされ、プロセスバイアス推定ユニット(130)によるプロセスバイアス(y)の推定がなされ、パターン補正ユニット(140ZZ)による更なる補正により新たな補正図形パターン(35)が作成されることを特徴とする図形パターンの形状補正装置(100ZZ)。
  11.  請求項10に記載の図形パターンの形状補正装置(100ZZ)において、
     パターン補正ユニット(140ZZ)による更なる補正により新たな補正図形パターン(35)が作成された後、当該新たな補正図形パターン(35)に対して、評価点設定ユニット(110)による評価点設定がなされ、特徴量抽出ユニット(120)による特徴量抽出がなされ、プロセスバイアス推定ユニット(130)によるプロセスバイアス(y)の推定がなされ、パターン補正ユニット(140ZZ)による補正により更に新たな補正図形パターン(35)が作成される処理が、所定回数だけ繰り返し実行されることを特徴とする図形パターンの形状補正装置(100ZZ)。
  12.  請求項9~11のいずれかに記載の図形パターンの形状補正装置(100ZZ)において、
     プロセスバイアス推定ユニット(130)が、
     評価点(E)について抽出された特徴量(x1~xn)を入力する特徴量入力部(131)と、
     予め実施された学習段階によって得られた学習情報(L)に基づいて、前記特徴量(x1~xn)に応じた推定値を求め、求めた推定値を前記評価点(E)についてのプロセスバイアスの推定値(y)として出力するプロセスバイアス推定演算部(132)と、
     を有することを特徴とする図形パターンの形状補正装置(100ZZ)。
  13.  請求項12に記載の図形パターンの形状補正装置(100ZZ)において、
     プロセスバイアス推定演算部(132)が、特徴量入力部(131)が入力した特徴量(x1~xn)を入力層とし、プロセスバイアスの推定値(y)を出力層とするニューラルネットワークを有することを特徴とする図形パターンの形状補正装置(100ZZ)。
  14.  請求項13に記載の図形パターンの形状補正装置(100ZZ)において、
     プロセスバイアス推定演算部(132)に含まれるニューラルネットワークが、テストパターン図形を用いたリソグラフィプロセスによって実基板(S)上に形成される実図形パターン(20)の実寸法測定によって得られた寸法値と、前記テストパターン図形から得られる特徴量(x1~xn)と、を用いた学習段階によって得られたパラメータを学習情報(L)として用い、プロセスバイアス(y)の推定処理を行うことを特徴とする図形パターンの形状補正装置(100ZZ)。
  15.  請求項9~14のいずれかに記載の図形パターンの形状補正装置(100ZZ)において、
     プロセスバイアス推定演算部(132)が、所定の図形の輪郭線上に位置する評価点(E)についてのプロセスバイアスの推定値(y)として、前記輪郭線の法線方向についての前記評価点(E)のずれ量の推定値を求めることを特徴とする図形パターンの形状補正装置(100ZZ)。
  16.  請求項1~15のいずれかに記載の図形パターンの形状補正装置(100Z;100ZZ)において、
     特徴量抽出ユニット(120)が、評価点(E)の実基板(S)上の位置に依存する最適補正バイアス(z)もしくはプロセスバイアスの変動量を特徴量(x1~xn)の1つとして抽出することを特徴とする図形パターンの形状補正装置(100Z;100ZZ)。
  17.  請求項1~16のいずれかに記載の図形パターンの形状補正装置(100Z;100ZZ)としてコンピュータを機能させるプログラム。
  18.  元図形パターン(10)に基づくリソグラフィプロセスによって実基板(S)上に実図形パターン(20)を形成する際に、前記実図形パターン(20)が前記元図形パターン(10)に一致するように、前記元図形パターン(10)の形状を補正して、前記リソグラフィプロセスで実際に用いる補正図形パターン(35)を作成する図形パターンの形状補正方法であって、
     第1の準備段階(S91~S99)と、第2の準備段階(S101~S105)と、補正処理段階(S2Z~S5Z)と、を有し、
     前記第1の準備段階(S91~S99)では、コンピュータが、所定のテストパターン図形を用いたリソグラフィプロセスによって得られるであろう実図形が前記テストパターン図形に一致するように、前記テストパターン図形上に設定された複数の評価点(E)についての位置補正量を示す最適補正バイアス(z)を決定する最適補正バイアス決定処理を、多数のテストパターン図形について行い、
     前記第2の準備段階(S101~S105)では、コンピュータが、前記テストパターン図形について設定された複数の評価点(E)について周囲の特徴を示す特徴量(x1~xn)を抽出し、抽出した特徴量(x1~xn)を入力としたときに、当該テストパターン図形について前記第1の準備段階で決定された最適補正バイアス(z)が出力されるような演算を行うための学習を前記多数のテストパターン図形について実行することにより学習情報(LZ)を得る学習処理を行い、
     前記補正処理段階(S2Z~S5Z)では、コンピュータが、前記元図形パターン(10)について設定された複数の評価点(E)について周囲の特徴を示す特徴量(x1~xn)を抽出し、前記第2の準備段階で得られた学習情報(LZ)を利用して、抽出した特徴量(x1~xn)を入力とした場合の出力として、前記元図形パターン(10)上の各評価点(E)についての最適補正バイアス(z)を求め、求めた最適補正バイアス(z)に基づいて前記元図形パターン(10)上の各評価点(E)の位置を補正することにより補正図形パターン(35)を作成することを特徴とする図形パターンの形状補正方法。
  19.  請求項18に記載の図形パターンの形状補正方法において、
     第1の準備段階(S91~S99)で行われる最適補正バイアス決定処理が、
     内部と外部との境界を示す輪郭線を有するテストパターン図形を作成するテストパターン図形作成ステップ(S91)と、
     所定の補正対象パターン図形の輪郭線上の所定位置に評価点(E)を設定する評価点設定ステップ(S92)と、
     前記評価点(E)の周囲の特徴を示す特徴量(x1~xn)を抽出する特徴量抽出ステップ(S93)と、
     前記補正対象パターン図形上の前記評価点(E)の位置と、前記補正対象パターン図形を用いたリソグラフィプロセスによって得られるであろう実図形上の前記評価点(E)の位置と、のずれ量を示すプロセスバイアス(y)を、前記特徴量(x1~xn)に基づいて推定するプロセスバイアス推定ステップ(S94)と、
     前記プロセスバイアス(y)に基づいて前記実図形の形状を推定し、推定された実図形と前記テストパターン図形とのずれを示すエラー量を算出するエラー量算出ステップ(S95)と、
     前記エラー量を相殺するために必要な、前記補正対象パターン図形上の評価点(E)についての位置補正量を示す補正バイアス(c)を決定する補正バイアス決定ステップ(S97)と、
     前記補正バイアス(c)に基づいて、前記補正対象パターン図形の形状を補正して、補正後パターン図形を作成するパターン形状補正ステップ(S98)と、
     を有し、
     前記テストパターン図形を最初の補正対象パターン図形として、前記評価点設定ステップ(S92)、前記特徴量抽出ステップ(S93)、前記プロセスバイアス推定ステップ(S94)、前記補正バイアス決定ステップ(S97)、前記パターン形状補正ステップ(S98)を実行して補正後パターン図形を作成した後、
     前記補正後パターン図形を新たな補正対象パターン図形として、前記評価点設定ステップ(S92)、前記特徴量抽出ステップ(S93)、前記プロセスバイアス推定ステップ(S94)、前記補正バイアス決定ステップ(S97)、前記パターン形状補正ステップ(S98)を実行して新たな補正後パターン図形を作成する処理を、前記エラー量が所定の許容範囲内に収まるまで繰り返し実行し、最後に得られた補正後パターン図形を最終補正後パターン図形とし、
     前記テストパターン図形を前記最終補正後パターン図形に一致させるために必要な、前記テストパターン図形上の評価点(E)についての位置補正量を最適補正バイアス(z)と決定することを特徴とすることを特徴とする図形パターンの形状補正方法。
  20.  請求項19に記載の図形パターンの形状補正方法において、
     プロセスバイアス推定ステップ(S94)を、特徴量(x1~xn)を入力層とし、プロセスバイアスの推定値(y)を出力層とするニューラルネットワークを用いて行うことを特徴とする図形パターンの形状補正方法。
  21.  請求項18~20のいずれかに記載の図形パターンの形状補正方法において、
     第2の準備段階(S101~S105)で、特徴量(x1~xn)を入力層とし、最適補正バイアス(z)の推定値を出力層とするニューラルネットワークに利用するための学習情報(LZ)を得る学習処理を行い、
     補正処理段階(S2Z~S5Z)を、前記ニューラルネットワークを用いて行うことを特徴とする図形パターンの形状補正方法。
  22.  請求項18~21のいずれかに記載の図形パターンの形状補正方法における第1の準備段階(S91~S99)、第2の準備段階(S101~S105)、補正処理段階(S2Z~S5Z)のいずれかの段階をコンピュータに実行させるプログラム。
  23.  請求項21に記載の図形パターンの形状補正方法における第2の準備段階(S101~S105)で得られた学習情報(LZ)を構成するデジタルデータを格納した情報記録媒体。
PCT/JP2018/022295 2017-06-19 2018-06-12 図形パターンの形状補正装置および形状補正方法 WO2018235669A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019502260A JP6508504B1 (ja) 2017-06-19 2018-06-12 図形パターンの形状補正装置および形状補正方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017119472 2017-06-19
JP2017-119472 2017-06-19

Publications (1)

Publication Number Publication Date
WO2018235669A1 true WO2018235669A1 (ja) 2018-12-27

Family

ID=64737678

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/022295 WO2018235669A1 (ja) 2017-06-19 2018-06-12 図形パターンの形状補正装置および形状補正方法

Country Status (3)

Country Link
JP (1) JP6508504B1 (ja)
TW (1) TW201905585A (ja)
WO (1) WO2018235669A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113703277A (zh) * 2020-05-20 2021-11-26 中芯国际集成电路制造(上海)有限公司 图形修正方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0794376A (ja) * 1993-09-20 1995-04-07 Fujitsu Ltd 露光パターンデータの補正方法
JPH1116801A (ja) * 1997-06-19 1999-01-22 Hitachi Ltd 電子線描画装置
JP2003151885A (ja) * 2001-11-15 2003-05-23 Hitachi Ltd パターン形成方法および半導体装置の製造方法
JP2004279950A (ja) * 2003-03-18 2004-10-07 Toppan Printing Co Ltd フォトマスクとその製造方法および半導体集積回路とその製造方法
JP2005195787A (ja) * 2004-01-06 2005-07-21 Toppan Printing Co Ltd パターン描画装置及びパターン描画方法ならびにそのプログラム、フォトマスクとその製造方法および半導体集積回路とその製造方法
JP2006165267A (ja) * 2004-12-07 2006-06-22 Toshiba Corp 荷電ビーム描画データの作成方法、荷電ビーム描画方法および荷電ビーム描画装置
JP2007249167A (ja) * 2006-02-14 2007-09-27 Nuflare Technology Inc パタン作成方法及び荷電粒子ビーム描画装置
JP2008071928A (ja) * 2006-09-14 2008-03-27 Nuflare Technology Inc 描画パターンのリサイズ方法及び荷電粒子ビーム描画方法
JP2009194062A (ja) * 2008-02-13 2009-08-27 Nuflare Technology Inc 荷電粒子ビーム描画装置、パターンの寸法誤差補正装置及びパターンの寸法誤差補正方法
JP2010044101A (ja) * 2008-08-08 2010-02-25 Toshiba Corp パターン予測方法、プログラム及び装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6584609B1 (en) * 2000-02-28 2003-06-24 Numerical Technologies, Inc. Method and apparatus for mixed-mode optical proximity correction

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0794376A (ja) * 1993-09-20 1995-04-07 Fujitsu Ltd 露光パターンデータの補正方法
JPH1116801A (ja) * 1997-06-19 1999-01-22 Hitachi Ltd 電子線描画装置
JP2003151885A (ja) * 2001-11-15 2003-05-23 Hitachi Ltd パターン形成方法および半導体装置の製造方法
JP2004279950A (ja) * 2003-03-18 2004-10-07 Toppan Printing Co Ltd フォトマスクとその製造方法および半導体集積回路とその製造方法
JP2005195787A (ja) * 2004-01-06 2005-07-21 Toppan Printing Co Ltd パターン描画装置及びパターン描画方法ならびにそのプログラム、フォトマスクとその製造方法および半導体集積回路とその製造方法
JP2006165267A (ja) * 2004-12-07 2006-06-22 Toshiba Corp 荷電ビーム描画データの作成方法、荷電ビーム描画方法および荷電ビーム描画装置
JP2007249167A (ja) * 2006-02-14 2007-09-27 Nuflare Technology Inc パタン作成方法及び荷電粒子ビーム描画装置
JP2008071928A (ja) * 2006-09-14 2008-03-27 Nuflare Technology Inc 描画パターンのリサイズ方法及び荷電粒子ビーム描画方法
JP2009194062A (ja) * 2008-02-13 2009-08-27 Nuflare Technology Inc 荷電粒子ビーム描画装置、パターンの寸法誤差補正装置及びパターンの寸法誤差補正方法
JP2010044101A (ja) * 2008-08-08 2010-02-25 Toshiba Corp パターン予測方法、プログラム及び装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113703277A (zh) * 2020-05-20 2021-11-26 中芯国际集成电路制造(上海)有限公司 图形修正方法

Also Published As

Publication number Publication date
JP6508504B1 (ja) 2019-05-08
JPWO2018235669A1 (ja) 2019-06-27
TW201905585A (zh) 2019-02-01

Similar Documents

Publication Publication Date Title
JP6497494B1 (ja) 図形パターンの形状補正装置および形状補正方法
WO2018230476A1 (ja) 図形パターンの形状推定装置
CN111627799B (zh) 制造半导体元件的方法
US20140007023A1 (en) Method for proximity correction
CN107908071B (zh) 一种基于神经网络模型的光学邻近校正方法
JP5078543B2 (ja) 階層opcのための局所的な色付け
US7475383B2 (en) Method of fabricating photo mask
JP7120127B2 (ja) 図形パターンの形状推定装置
US20230408929A1 (en) Method and apparatus for evaluating an unknown effect of defects of an element of a photolithography process
KR20010024117A (ko) 디자인 룰 체킹 시스템 및 방법
KR100506106B1 (ko) 마스크 패턴 작성 방법 및 반도체 장치의 제조 방법
CN109782529A (zh) 掩模制造方法
KR20060106589A (ko) 포토마스크의 제조 방법 및 그 포토마스크를 이용한 반도체장치의 제조 방법
CN103376644B (zh) 一种掩模图形修正方法
JP6508504B1 (ja) 図形パターンの形状補正装置および形状補正方法
CN106294935B (zh) 一种基于图形密度的工艺模型建模与修正方法
JP5185235B2 (ja) フォトマスクの設計方法およびフォトマスクの設計プログラム
JP5423286B2 (ja) パターンデータ変換方法
CN114063383A (zh) 基于深度学习在掩模上形成形状的方法、以及使用在掩模上形成形状的方法的掩模制造方法
JP4343245B2 (ja) パターンデータ生成方法、パターンデータ生成装置、及びパターンデータ生成プログラムを格納した記録媒体
CN111538213A (zh) 一种基于神经网络的电子束邻近效应矫正方法
US20240045321A1 (en) Optical proximity correction method using neural jacobian matrix and method of manufacturing mask by using the optical proximity correction method
CN114002912A (zh) 用于掩模合成工具的剂量优化技术
CN114002913A (zh) 用于光刻制造系统的剂量信息生成和传达
JPH1079332A (ja) 集積回路用パタンレイアウト生成方法、集積回路用パタンレイアウト生成装置及び回路パタン形成方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019502260

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18820362

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18820362

Country of ref document: EP

Kind code of ref document: A1