WO2011118745A1 - 画像処理装置、画像処理方法、画像処理プログラム - Google Patents

画像処理装置、画像処理方法、画像処理プログラム Download PDF

Info

Publication number
WO2011118745A1
WO2011118745A1 PCT/JP2011/057274 JP2011057274W WO2011118745A1 WO 2011118745 A1 WO2011118745 A1 WO 2011118745A1 JP 2011057274 W JP2011057274 W JP 2011057274W WO 2011118745 A1 WO2011118745 A1 WO 2011118745A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
angle
rotation
wide
unit
Prior art date
Application number
PCT/JP2011/057274
Other languages
English (en)
French (fr)
Inventor
篠田 伸一
康隆 豊田
松岡 良一
Original Assignee
株式会社日立ハイテクノロジーズ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立ハイテクノロジーズ filed Critical 株式会社日立ハイテクノロジーズ
Priority to US13/578,651 priority Critical patent/US8687921B2/en
Publication of WO2011118745A1 publication Critical patent/WO2011118745A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Definitions

  • the present invention relates to an image processing technique for processing an observation image of a sample.
  • Patent Document 1 describes a method for evaluating the quality of a wiring pattern by comparing design data using CAD (Computer Aided Design) and a wiring pattern image (SEM image) captured by a SEM (Scanning Electron Microscope). Has been.
  • CAD Computer Aided Design
  • SEM image wiring pattern image
  • Patent Document 2 describes a technique for detecting and correcting the rotation of an SEM image using design data before evaluating a pattern. This is because the pattern may be erroneously evaluated if the SEM image is rotated.
  • the present invention has been made to solve the above-described problems, and an object of the present invention is to provide an image processing technique capable of accurately detecting the rotation of an observation image of a sample.
  • the image processing apparatus indirectly corrects the rotational deviation between the measurement image data and the reference image data via the wide-angle image data including the measurement location of the sample.
  • the rotational deviation between the measurement image data and the reference image data is indirectly corrected through the wide-angle image data, the matching between the wide-angle image data and the reference image data, and Matching between wide-angle image data and measurement image data can be performed with high accuracy. Thereby, even when a relatively large rotational deviation occurs, the rotational deviation can be detected with high accuracy.
  • FIG. 2 is a functional block diagram of the image processing apparatus 1 according to Embodiment 1.
  • FIG. 3 is a functional block diagram of a first rotation angle detection unit 10.
  • FIG. It is a figure which shows an example of the pattern which the site
  • 3 is a functional block diagram of a magnification adjustment unit 11.
  • FIG. 3 is a functional block diagram of a second rotation angle detection unit 12.
  • FIG. It is a figure explaining the matching process which the local region matching part 122 performs. It is a figure explaining the method of calculating a rotation angle using the corresponding position shift of a local region.
  • 4 is a functional block diagram of a rotation angle calculation unit 13.
  • FIG. 13 is a functional block diagram of a rotation angle calculation unit 13.
  • FIG. 6 is a functional block diagram of an image processing apparatus 1 according to Embodiment 2.
  • FIG. 6 is a functional block diagram of an image processing apparatus 1 according to Embodiment 3.
  • FIG. 6 is a functional block diagram of an image processing apparatus 1 according to Embodiment 4.
  • FIG. 10 is a functional block diagram of an image processing apparatus 1 according to a fifth embodiment. 6 is an operation flow of the image processing apparatus 1 according to the second embodiment.
  • FIG. 1 is a functional block diagram of an image processing apparatus 1 according to Embodiment 1 of the present invention.
  • the image processing apparatus 1 is an apparatus that processes an observation image of a sample, and includes a reference image data storage unit 2, a wide-angle image data storage unit 3, a measurement image data storage unit 4, a first rotation angle detection unit 10, and a magnification adjustment unit 11. , A second rotation angle detection unit 12, a rotation angle calculation unit 13, and a rotation correction unit 14.
  • the reference image data storage unit 2 stores image data of a reference pattern for evaluating the quality of the pattern as compared with the pattern to be measured.
  • a pattern image created based on integrated circuit design data created using CAD may be used as the reference image data, or a pattern image with correction such as proximity effect correction may be used as the reference image data.
  • a captured image obtained by capturing a good-quality pattern generated on the substrate may be used as the reference image data.
  • the wide-angle image data storage unit 3 stores image data (wide-angle image data) obtained by imaging a wide area including a measurement target pattern at a low magnification.
  • the measurement image data storage unit 4 stores image data (measurement image data) obtained by imaging a pattern to be measured.
  • the measurement image data may be a contour image obtained by extracting a pattern of the measurement image.
  • the measurement image data is contour image data of the measurement image.
  • reference image data and wide-angle image data may be used as contour image data.
  • the first rotation angle detection unit 10 detects a rotation shift angle between the reference image data and the wide angle image data. The detection method will be described with reference to FIGS.
  • the second rotation angle detection unit 12 detects a rotation deviation angle between the wide angle image data and the measurement image data.
  • the magnification of the image differs between the wide-angle image data and the measurement image data. Therefore, the magnification adjustment unit 11 enlarges or reduces each image data and adjusts both magnifications to the same magnification.
  • the second rotation angle detection unit 12 detects a rotation shift angle between the wide-angle image data and the measurement image data using each image data after the magnification adjustment.
  • the rotation angle calculation unit 13 uses the rotation deviation angle detected by the first rotation angle detection unit 10 and the rotation deviation angle detected by the second rotation angle detection unit 12 to rotate between the reference image data and the measurement image data. The deviation angle is calculated.
  • the rotation correction unit 14 corrects the rotation of the measurement image data using the rotation deviation angle calculated by the rotation angle calculation unit 13.
  • the first rotation angle detection unit 10, the second rotation angle detection unit 12, and the rotation angle calculation unit 13 can be configured integrally. The same applies to the following embodiments.
  • FIG. 2 is a functional block diagram of the first rotation angle detection unit 10.
  • the rotation angle detection unit 10 includes a matching unit 101, a part detection unit 102, and a rotation calculation unit 103.
  • the matching unit 101 matches the reference image data and the wide-angle image data in a wide range, and obtains a rough corresponding position where the wide-angle image data and the reference image data correspond to each other. For example, using the wide-angle image data as a template, a region on the reference image data that matches this is searched, the normalized correlation between the two is calculated, and the position with the highest correlation is detected. Thereby, the position where the reference image data and the wide-angle image data correspond to each other can be obtained.
  • the part detection unit 102 detects a pattern on the reference image data used when comparing the reference image data and the wide-angle image data, and obtains positions of the detected pattern on the reference image data and the wide-angle image data.
  • the pattern used here is desirably a pattern that can easily compare the reference image data and the wide-angle image data, for example, a linear pattern or a corner pattern. This pattern is illustrated in FIG. 3 described later.
  • the rotation calculation unit 103 calculates a rotation angle between the wide-angle image data and the reference image data. The calculation method will be described with reference to FIGS.
  • FIG. 3 is a diagram illustrating an example of a pattern detected by the part detection unit 102.
  • a convex pattern is illustrated in FIG.
  • the convex pattern shown in FIG. 3A has four pattern corners P1 to P4.
  • the part detection unit 102 can detect each corner by performing pattern matching using a corner detection filter of a 3 ⁇ 3 pixel matrix corresponding to P1 to P4 as shown in FIG. 3B, for example. .
  • each corner is a straight part.
  • the length between the corners is equal to or longer than the predetermined length, it may be regarded as a straight portion.
  • you may detect a linear part using a line detection filter. Since the pattern shape on the reference image data is the most ideal shape, it is possible to easily detect parts such as a straight line pattern, a corner pattern, and an end point pattern.
  • the part detection unit 102 outputs the detected position of each pattern to the rotation calculation unit 103.
  • the rotation calculation unit 103 uses the position to compare the reference image data and the wide-angle image data in correspondence with each other, and calculates a rotation angle between the image data.
  • FIG. 4 is a diagram illustrating a process of matching wide-angle image data and reference image data.
  • the part detection unit 102 detects the straight line pattern portion described in FIG. 3 from the corresponding patterns of the wide-angle image data and the reference image data.
  • FIG. 4D an example in which a straight line portion of a rectangular pattern of the reference image data 1020 is detected and associated with the wide-angle image data 1021 is shown.
  • the wide-angle image data and the reference image data may be associated with each other using a pattern other than the linear pattern.
  • the rotation calculation unit 103 obtains a distance L1 between the A ′ point of the wide-angle image data 1021 and the A point of the reference image data 1020, for example. Similarly, distances L2 to L4 between points B ′, C ′, and D ′ of the wide-angle image data 1021 corresponding to points B, C, and D of the reference image data 1020 are obtained.
  • the distance L1 between AA ′, the distance L2 between BB ′, the distance L3 between C—C ′, and the distance L4 between DD ′ are substantially the same value.
  • the distance L1 'between A-A' and the distance L2 'between B-B' are different as shown in FIG. 4 (e).
  • the rotation calculation unit 103 can calculate the rotation angle between the image data by using the distance from A to B and the difference (slope) between the distance L1 'and the distance L2'.
  • FIG. 4 shows an example in which the slope of the linear pattern is calculated using four points A to D for the sake of simplicity of explanation, but the rotation is performed by increasing the number of points to be compared or using a longer linear pattern. Corner detection accuracy can also be increased.
  • FIG. 5 is a functional block diagram of the magnification adjustment unit 11.
  • the magnification adjustment unit 11 performs size conversion of the image data so that the wide-angle image data and the measurement image data have the same image size within the same visual field range.
  • the enlargement unit 110 enlarges the wide-angle image data four times, and the measurement image data remains as it is. (1 time). Thereby, each image data becomes the same image size within the same visual field range.
  • the wide-angle image data may be left as it is (1 time), and the reduction unit 111 may reduce the measurement image data to 1/4 times.
  • the enlargement unit 110 and the reduction unit 111 may perform each of the above processes by bilinear processing.
  • the imaging magnification of the wide-angle image data is set to 1/4 with respect to the imaging magnification of the measurement image data.
  • this magnification may always be determined as a fixed value or may be appropriately determined using the actual imaging magnification. You may adjust.
  • each imaging magnification value S11 obtained by photographing the wide-angle image data and the measurement image data is stored in advance in an appropriate storage device, and the wide-angle image data and the measurement image data are the same using the imaging magnification value S11. It is conceivable to adjust the enlargement ratio or reduction ratio so that the same image size is obtained within the visual field range.
  • both the enlargement unit 110 and the reduction unit 111 are provided. However, if any one of the image data is used without being enlarged or reduced, the enlargement unit 110 or the reduction unit 111 may be used. I just need it.
  • FIG. 6 is a functional block diagram of the second rotation angle detection unit 12.
  • the second rotation angle detection unit 12 includes a matching unit 121, a local region matching unit 122, and a rotation calculation unit 123.
  • the matching unit 121 performs matching between the wide-angle image data and the measurement image data, and obtains a corresponding position between the image data. For example, wide-angle image data is searched using the measurement image data as a template, and a normalized correlation is obtained in the same manner as the matching unit 101 to obtain a corresponding image position.
  • the local area matching unit 122 divides the image into a plurality of local areas, and matches each local area individually.
  • the matching here is different from the wide range matching performed between the reference image data and the wide-angle image data.
  • FIG. 7 is a diagram for explaining the matching process performed by the local region matching unit 122.
  • FIG. 7A shows an image obtained by superimposing the measurement image data and the wide-angle image data at the corresponding position obtained by the matching unit 121.
  • the local region matching unit 122 cuts out 25 local regions on the basis of the corresponding positions obtained by the matching unit 121, and sets the same positions as the origin coordinates of each local region.
  • the local area matching unit 122 compares local images with each other based on the origin coordinates of each local area, and performs matching.
  • the position where the reference image data and the measurement image data correspond to each other should be the origin coordinates.
  • the corresponding position deviates from the origin coordinates according to the rotation deviation.
  • the local area matching unit 122 obtains a deviation from the corresponding position and the origin coordinates for each local area.
  • the rotation calculation unit 123 calculates the rotation angle by using the deviation of each local region obtained by the local region matching unit 122.
  • FIG. 8 is a diagram for explaining a method of calculating the rotation angle using the corresponding position shift of the local region.
  • the rotation angle ⁇ can be obtained if the rotation angle is known from the distance W between the local region A and the local region B and the deviation H from the local region A to the local region B.
  • FIG. 9 is a functional block diagram of the rotation angle calculation unit 13.
  • the rotation angle calculation unit 13 uses the addition unit 130 to obtain a rotation angle between the reference image data and the measurement image data. For example, the rotation angle ⁇ 1 between the reference image data and the wide-angle image data obtained by the first rotation angle detection unit 10, and the rotation angle ⁇ 2 between the wide-angle image data and the measurement image data obtained by the second rotation angle detection unit 12. Is added, the rotation angle between the reference image data and the measurement image data can be obtained.
  • the rotation correction unit 14 rotationally corrects the measurement image data using a rotation angle between the reference image data and the measurement image data.
  • the image processing apparatus 1 rotates indirectly via wide-angle image data instead of directly matching the measurement image data and the reference image data to detect the rotation angle. Detect corners. The effect of this will be described below.
  • both the wide-angle image data and the measurement image data are image data obtained by imaging the same pattern. For this reason, even if there is a slight rotational deviation between the time when the wide-angle image data is captured and the time when the measurement image data is captured due to charging or the like, the matching accuracy between the two seems to be relatively good.
  • the matching accuracy between the image data is better when the rotation angle is detected by performing the matching through the wide-angle image data than when the measurement image data and the reference image data are directly compared. it is conceivable that. Therefore, as a result, it is possible to accurately detect the rotational deviation between the measurement image data and the reference image data.
  • FIG. 10 is a functional block diagram of the image processing apparatus 1 according to Embodiment 2 of the present invention.
  • the image processing apparatus 1 according to the second embodiment includes an imaging unit 5 and an output unit 6 in addition to the configuration described in the first embodiment.
  • the imaging unit 5 captures the sample to be measured, acquires wide-angle image data and measurement image data, and stores them in the wide-angle image data storage unit 3 and the measurement image data storage unit 4 respectively. Also, the photographed magnification value S11 is output to the magnification adjustment unit 11. The magnification adjustment unit 11 uses the magnification value S11 to match the image sizes of the wide-angle image data and the measurement image data.
  • the output unit 6 outputs the rotation angle calculated by the rotation calculation unit 13 by a method such as screen display, printer output, or data output. Thereby, the user can grasp
  • the imaging unit 5 or the display unit 6 can be provided similarly in other embodiments.
  • FIG. 11 is a functional block diagram of the image processing apparatus 1 according to the third embodiment.
  • the rotation correction unit 14 rotationally corrects the reference image data instead of the measurement image data. Even in this case, the same effect as in the first embodiment can be exhibited.
  • FIG. 12 is a functional block diagram of the image processing apparatus 1 according to Embodiment 4 of the present invention.
  • the fourth embodiment is different from the first to third embodiments in that the wide-angle image data is rotationally corrected before the measurement image data and the wide-angle image data are matched.
  • a second rotation correction unit 15 that performs rotation correction of wide-angle image data is newly provided.
  • the description will focus on the differences from the first to third embodiments.
  • the second rotation correction unit 15 rotationally corrects the wide angle image data using the rotation angle between the reference image data and the wide angle image data detected by the first rotation angle detection unit 10.
  • the rotation-corrected wide-angle image data is output to the magnification adjustment unit 11.
  • the magnification adjustment unit 11 adjusts the image sizes of the wide-angle image data and the measurement image data that have been rotationally corrected so that the same image size is obtained in the same field of view.
  • the subsequent processing is the same as in the first and second embodiments.
  • FIG. 13 is a functional block diagram of the image processing apparatus 1 according to the fifth embodiment of the present invention.
  • the wide-angle image data and the measurement image data are matched to rotate the wide-angle image data, and then the wide-angle image data and the reference image data are matched to rotate and correct the reference image data.
  • a second rotation correction unit 15 that performs rotation correction of the reference image data is newly provided.
  • the rotation correction unit 14 rotationally corrects the wide-angle image data using the rotation shift angle between the measurement image data and the wide-angle image data detected by the second rotation angle detection unit 12.
  • the rotation-corrected wide-angle image data is output to the first rotation angle detection unit 10.
  • the second rotation correction unit 15 rotationally corrects the reference image data using the rotation angle between the reference image data and the wide-angle image data detected by the first rotation angle detection unit 10.
  • FIG. 14 is an operation flow of the image processing apparatus 1 according to the second embodiment. Hereinafter, each step of FIG. 14 will be described.
  • the operation flow of the image processing apparatus 1 according to another embodiment is substantially the same as that in FIG. 14 except that the order of steps and the image data to be processed are different from those in FIG.
  • the imaging unit 5 captures measurement image data and wide-angle image data. Either may be taken first.
  • the first rotation angle detection unit 10 detects a rotation shift angle between the reference image data and the wide angle image data.
  • the second rotation angle detection unit 12 detects a rotation shift angle between the wide angle image data and the measurement image data.
  • the rotation angle calculation unit 13 calculates the rotation deviation angle between the reference image data and the measurement image data using the rotation deviation angle obtained in steps S1403 to S1404.
  • the rotation correction unit 14 rotationally corrects the measurement image data using the rotation deviation angle.
  • the wide-angle image data is image data captured at a lower magnification than the magnification at which the measurement image data was captured.
  • the measurement image data is not limited to the low magnification image data. It is also possible to use data of an image area wider than the measurement image data.
  • the subsequent image data is rotationally corrected in accordance with the rotation angle, and as a result, the entire panorama composite image is rotated.
  • the rotation can be compared with the reference image data, and the rotation of the panorama composite image data can be detected by the same method described above.
  • the rotation correction unit 14 or the second rotation correction unit 15 performs matching between the image data after obtaining the rotation correction of the image data to obtain a corresponding position, and corrects the position if there is a positional deviation. Also good.
  • Embodiments 1 to 8 described above when obtaining wide-angle image data by imaging, if the number of patterns included in the wide-angle image data is small, the number of comparison targets is small, which is preferable from the viewpoint of detection accuracy. Absent.
  • the imaging unit 5 adjusts the imaging position or imaging magnification so that the number of patterns in the wide-angle image data is equal to or greater than a predetermined threshold. Specifically, every time a wide-angle image is captured, the pattern in the wide-angle image data is detected by the method described in FIG. 3, for example. If the number of patterns is less than a predetermined threshold, the imaging position or imaging magnification is changed. Then take a new image. By repeating this process, it is possible to obtain wide-angle image data including a pattern that includes a predetermined threshold value or more.
  • each storage unit included in the image processing apparatus 1 can be configured using a writable storage device such as an HDD (Hard Disk Drive) or a memory device.
  • a writable storage device such as an HDD (Hard Disk Drive) or a memory device.
  • the imaging unit 5 can be configured using an imaging device such as a length-measuring scanning electron microscope and its control device.
  • each of the other functional units can be configured using hardware such as a circuit device that realizes these functions, and defines an arithmetic device such as a microcomputer or a CPU (Central Processing Unit) and its operation. It can also be configured using software. Furthermore, software that realizes the operations of these functional units can be installed in a computer, and the computer can be configured as the image processing apparatus 1.
  • hardware such as a circuit device that realizes these functions, and defines an arithmetic device such as a microcomputer or a CPU (Central Processing Unit) and its operation. It can also be configured using software.
  • software that realizes the operations of these functional units can be installed in a computer, and the computer can be configured as the image processing apparatus 1.
  • 1 image processing device
  • 2 reference image data storage unit
  • 3 wide-angle image data storage unit
  • 4 measurement image data storage unit
  • 5 imaging unit
  • 6 output unit
  • 10 first rotation angle detection unit
  • 101 Matching unit
  • 102 site detection unit
  • 103 rotation calculation unit
  • 11 magnification adjustment unit
  • 110 enlargement unit
  • 111 reduction unit
  • 12 second rotation angle detection unit
  • 121 matching unit
  • 122 local region Matching unit
  • 123 rotation calculation unit
  • 13 rotation angle calculation unit
  • 130 addition unit
  • 14 rotation correction unit
  • 15 second rotation correction unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Testing Or Measuring Of Semiconductors Or The Like (AREA)

Abstract

 本発明の目的は、試料の観察画像の回転を精度よく検出することのできる画像処理技術を提供することである。 本発明に係る画像処理装置は、試料の測定箇所を含む広角画像データを介して、測定画像データと基準画像データの間の回転ずれを間接的に補正する(図1)。

Description

画像処理装置、画像処理方法、画像処理プログラム
 本発明は、試料の観察画像を処理する画像処理技術に関するものである。
 半導体装置を製造する際、各プロセスにおいて基板上に形成されたパターンが設計された通りに形成されているかどうかを検査するため、従来から測長走査型電子顕微鏡などが広く用いられている。
 下記特許文献1には、CAD(Computer Aided Design)を用いた設計データとSEM(Scanning Electron Microscope)で撮像した配線パターンの画像(SEM画像)を比較して配線パターンの出来映えを評価する手法が記載されている。
 下記特許文献2には、パターンを評価する前に設計データを用いてSEM像の回転を検出して補正する手法が記載されている。これは、SEM像が回転しているとパターンを誤評価する可能性があるためである。
特開2002-31525号公報 特開2006-269710号公報
 近年では半導体の微細化が進み、パターン形状が複雑化している。そのため、SEM像のパターン形状と設計データのパターン形状の間に乖離が生じると、パターン評価の精度に与える影響は従来よりも大きくなってきている。
 上記特許文献2に記載の技術では、SEM像のパターン形状と設計データのパターン形状が似ている場合には高精度な回転補正が可能であるが、両者の形状が乖離すると回転の検出精度が低下してしまう可能性がある。また、帯電等による撮像毎の微小な回転を精度よく検出するのは難しい。
 本発明は、上記のような課題を解決するためになされたものであり、試料の観察画像の回転を精度よく検出することのできる画像処理技術を提供することを目的とする。
 本発明に係る画像処理装置は、試料の測定箇所を含む広角画像データを介して、測定画像データと基準画像データの間の回転ずれを間接的に補正する。
 本発明に係る画像処理装置によれば、広角画像データを介して測定画像データと基準画像データの間の回転ずれを間接的に補正するので、広角画像データと基準画像データの間のマッチング、および広角画像データと測定画像データの間のマッチングを精度よく行うことができる。これにより、比較的大きな回転ずれが生じている場合でも、その回転ずれを精度よく検出することができる。
実施の形態1に係る画像処理装置1の機能ブロック図である。 第1回転角検出部10の機能ブロック図である。 部位検出部102が検出するパターンの1例を示す図である。 広角画像データと基準画像データをマッチングする過程を説明する図である。 倍率調整部11の機能ブロック図である。 第2回転角検出部12の機能ブロック図である。 局所領域マッチング部122が行うマッチング処理を説明する図である。 局所領域の対応位置ずれを用いて回転角を算出する手法を説明する図である。 回転角算出部13の機能ブロック図である。 実施の形態2に係る画像処理装置1の機能ブロック図である。 実施の形態3に係る画像処理装置1の機能ブロック図である。 実施の形態4に係る画像処理装置1の機能ブロック図である。 実施の形態5に係る画像処理装置1の機能ブロック図である。 実施の形態2における画像処理装置1の動作フローである。
<実施の形態1>
 図1は、本発明の実施の形態1に係る画像処理装置1の機能ブロック図である。画像処理装置1は、試料の観察画像を処理する装置であり、基準画像データ記憶部2、広角画像データ記憶部3、測定画像データ記憶部4、第1回転角検出部10、倍率調整部11、第2回転角検出部12、回転角算出部13、回転補正部14を備える。
 基準画像データ記憶部2は、測定対象となるパターンと比較してパターンの出来栄えを評価するための基準パターンの画像データを記憶する。例えば、CADを用いて作成した集積回路の設計データを基に作成したパターン画像を基準画像データとしてもよいし、さらに近接効果補正等の補正を加えたパターン画像を基準画像データとしてもよい。また、基板上に生成された出来映えの良いパターンを撮像して得た撮像画像を基準画像データとしても用いてもよい。
 広角画像データ記憶部3は、測定対象のパターンが含まれる広い領域を低倍率で撮像して得た画像データ(広角画像データ)を記憶する。
 測定画像データ記憶部4は、測定対象のパターンを撮像して得た画像データ(測定画像データ)を記憶する。測定画像データは測定画像のパターンを抽出して得た輪郭画像としてもよい。以降の説明では、測定画像データは測定画像の輪郭画像データであるものとする。同様に、基準画像データおよび広角画像データを輪郭画像データとしてもよい。
 第1回転角検出部10は、基準画像データと広角画像データの間の回転ずれ角度を検出する。検出手法は後述の図3~図4で説明する。
 第2回転角検出部12は、広角画像データと測定画像データの間の回転ずれ角度を検出する。ただし、広角画像データと測定画像データは画像の倍率が異なる。そこで倍率調整部11は、各画像データを拡大または縮小して両者の倍率を同じ倍率に合わせる。第2回転角検出部12は、倍率調整後の各画像データを用いて、広角画像データと測定画像データの間の回転ずれ角度を検出する。
 回転角算出部13は、第1回転角検出部10が検出した回転ずれ角度と、第2回転角検出部12が検出した回転ずれ角度を用いて、基準画像データと測定画像データの間の回転ずれ角度を算出する。
 回転補正部14は、回転角算出部13が算出した回転ずれ角度を用いて測定画像データを回転補正する。
 第1回転角検出部10、第2回転角検出部12、回転角算出部13は、一体的に構成することもできる。以下の実施の形態でも同様である。
 図2は、第1回転角検出部10の機能ブロック図である。回転角検出部10は、マッチング部101、部位検出部102、回転算出部103を備える。
 マッチング部101は、基準画像データと広角画像データを広い範囲でマッチングし、広角画像データと基準画像データが相互に対応する大まかな対応位置を求める。例えば、広角画像データをテンプレートとしてこれに合致する基準画像データ上の領域を検索し、両者の正規化相関を算出し、最も相関が高い位置を検出する。これにより、基準画像データと広角画像データが相互に対応する位置を求めることができる。
 部位検出部102は、基準画像データと広角画像データを比較する際に用いる基準画像データ上のパターンを検出し、検出したパターンの基準画像データ上および広角画像データ上における位置を求める。ここで用いるパターンは、基準画像データと広角画像データを比較し易いパターン、例えば直線パターンやコーナーパターンなどとすることが望ましい。後述の図3でこのパターンを例示する。
 回転算出部103は、広角画像データと基準画像データの間の回転角を算出する。算出手法は後述の図3~図4で説明する。
 図3は、部位検出部102が検出するパターンの1例を示す図である。ここでは凸型のパターンを図3(a)に例示した。
 図3(a)に示した凸型パターンは、P1からP4の4パターンのコーナーを有する。部位検出部102は、例えば図3(b)に示すような、P1~P4に対応する3×3画素マトリクスのコーナー検出フィルタを用いてパターンマッチングを行なうことにより、各コーナーを検出することができる。
 各コーナー間は直線部であると考えることができる。コーナー間の長さが所定長以上の場合は直線部であるとみなしてもよい。また、線検出フィルタを用いて直線部を検出してもよい。基準画像データ上のパターン形状は最も理想的な形状であるため、直線パターン、コーナーパターン、端点パターン等の部位を容易に検出することができる。
 部位検出部102は、検出した各パターンの位置を、回転算出部103へ出力する。回転算出部103は、その位置を用いて基準画像データと広角画像データとを対応させて比較し、画像データ間の回転角を算出する。
 図4は、広角画像データと基準画像データをマッチングする過程を説明する図である。図4(a)に示す広角画像データと、図4(b)に示す基準画像データを、マッチング部101が取得した対応位置で合わせると、図4(c)のようになる。
 部位検出部102は、広角画像データと基準画像データの対応するパターンのうち、図3で説明した直線パターン部分を検出する。ここでは図4(d)に示すように、基準画像データ1020の矩形パターンの直線部分を検出し、広角画像データ1021と対応させた例を示した。直線パターン以外のパターンを用いて、広角画像データと基準画像データを対応させてもよい。
 回転算出部103は、例えば、基準画像データ1020のA点と対応する広角画像データ1021のA’点の距離L1を求める。同様に基準画像データ1020のB、C、D点と対応する広角画像データ1021のB’、C’、D’点の距離L2~L4を求める。
 画像データ間に回転ずれが生じていなければ、A-A’間の距離L1、B-B’間の距離L2C-C’間の距離L3、D-D’間の距離L4は略同じ値となる。画像データ間に回転ずれが生じている場合は、図4(e)に示すように、A-A’間の距離L1’とB-B’間の距離L2’の値が異なってくる。回転算出部103は、AからBまでの距離と、距離L1’と距離L2’の差分(傾き)を用いて、画像データ間の回転角を算出することができる。
 なお、図4では説明の簡易のためA~Dの4点を用いて直線パターンの傾きを算出する例を示したが、比較する点数を増やしたり、より長い直線パターンを用いたりして、回転角の検出精度を上げることもできる。
 図5は、倍率調整部11の機能ブロック図である。倍率調整部11は、広角画像データと測定画像データが同じ視野範囲内で同じ画像サイズとなるように、画像データのサイズ変換を行う。
 例えば、広角画像データを撮像する倍率が測定画像データを撮像する倍率に対して1/4の低倍率である場合、拡大部110は広角画像データを4倍に拡大処理し、測定画像データはそのまま(1倍)とする。これにより、各画像データは同じ視野範囲内で同じ画像サイズとなる。または、広角画像データをそのまま(1倍)にしておき、縮小部111は測定画像データを1/4倍に縮小してもよい。拡大部110、縮小部111は、バイリニア処理で上記各処理を行ってもよい。
 上記説明では、広角画像データの撮像倍率は測定画像データの撮像倍率に対して1/4としたが、この倍率は常に固定値として決めておいてもよいし、実際の撮像倍率を用いて適宜調整してもよい。例えば、広角画像データおよび測定画像データを撮影したそれぞれの撮像倍率値S11を、あらかじめ適当な記憶装置に格納しておき、その撮像倍率値S11を用いて、広角画像データと測定画像データが、同じ視野範囲内で同じ画像サイズになるように、拡大率または縮小率を調整することが考えられる。
 また、ここでは拡大部110と縮小部111をともに設けているが、いずれかの画像データは拡大または縮小せず1倍のままで用いるのであれば、拡大部110と縮小部111どちらか一方があればよい。
 図6は、第2回転角検出部12の機能ブロック図である。第2回転角検出部12は、マッチング部121、局所領域マッチング部122、回転算出部123を備える。
 マッチング部121は、広角画像データと測定画像データとの間でマッチングを行い、画像データ間の対応位置を求める。例えば、測定画像データをテンプレートとして広角画像データを検索し、マッチング部101と同様に正規化相関を求めて対応する画像位置を求める。
 局所領域マッチング部122は、画像を分割して複数の局所領域に分け、各局所領域を個別にマッチングする。ここでのマッチングは、基準画像データと広角画像データの間で行う広い範囲のマッチングとは異なる。
 図7は、局所領域マッチング部122が行うマッチング処理を説明する図である。図7(a)は、マッチング部121が求めた対応位置で測定画像データと広角画像データを重ね合せた画像である。局所領域マッチング部122は、図7(b)に示すように、測定画像データを縦横5×5=25個の局所領域に分け、局所領域毎に測定画像データと基準画像データの間でマッチングを行う。
 局所領域マッチング部122は、マッチングを行う際に、マッチング部121が求めた対応位置を基準として25個の局所領域を切り出し、同位置をそれぞれの局所領域の原点座標とする。局所領域マッチング部122は、各局所領域の原点座標を基準として局所画像同士を比較し、マッチングを行う。
 画像データ間に回転が生じていなければ、各局所領域をマッチングさせると、基準画像データと測定画像データが相互に対応する位置は原点座標となるはずである。しかし、画像データ間に回転が生じている場合は、図7(c)に示すように、対応位置は回転ずれに応じて原点座標からずれる。
 局所領域マッチング部122は、この対応位置と原点座標からのズレを、それぞれの局所領域について求める。回転算出部123は、局所領域マッチング部122が求めたそれぞれの局所領域のズレを用いて、回転角を算出する。
 図8は、局所領域の対応位置ずれを用いて回転角を算出する手法を説明する図である。図8に示す例では、回転角は、局所領域Aと局所領域Bの間の距離Wと、局所領域Aから局所領域BまでのズレHが判れば、回転角θを求めることができる。
 図9は、回転角算出部13の機能ブロック図である。回転角算出部13は、加算部130を用いて基準画像データと測定画像データの間の回転角を求める。例えば、第1回転角検出部10が求めた基準画像データと広角画像データの間の回転角θ1と、第2回転角検出部12が求めた広角画像データと測定画像データの間の回転角θ2を加算することにより、基準画像データと測定画像データの間の回転角を求めることができる。回転補正部14は、基準画像データと測定画像データの間の回転角を用いて測定画像データを回転補正する。
 以上のように、本実施の形態1に係る画像処理装置1は、測定画像データと基準画像データを直接マッチングして回転角を検出することに代えて、広角画像データを介して間接的に回転角を検出する。これによる効果について以下に説明する。
 測定画像データは高倍率で撮像するため、基準画像データと比較する際に狭い領域の比較しか行うことができず、回転ずれの影響を大きく受け、回転角を正確に検出することができない可能性がある。これに対し、広角画像データは広い領域の画像であるため、多少の回転ずれが生じていても比較的マッチングを行いやすい。したがって、広角画像データと基準画像データのマッチング精度は比較的よいと思われる。
 また、広角画像データと測定画像データは、ともに同じパターンを撮像して得た画像データである。そのため、帯電等により広角画像データと撮像した時点と測定画像データを撮像した時点の間で回転ずれが多少生じていても、両者のマッチング精度は比較的よいと思われる。
 すなわち、測定画像データと基準画像データを直接比較してマッチングを行う場合よりも、広角画像データを介してマッチングを行って回転角を検出する方が、各画像データ間のマッチング精度が良好であると考えられる。そのため、結果として測定画像データと基準画像データの間の回転ずれを精度よく検出することができる。
<実施の形態2>
 図10は、本発明の実施の形態2に係る画像処理装置1の機能ブロック図である。本実施の形態2に係る画像処理装置1は、実施の形態1で説明した構成に加え、新たに撮像部5と出力部6を備える。
 撮像部5は、測定対象である試料を撮像して広角画像データおよび測定画像データを取得し、それぞれ広角画像データ記憶部3と測定画像データ記憶部4に格納する。また、撮影した倍率値S11を倍率調整部11に出力する。倍率調整部11は、その倍率値S11を用いて、広角画像データと測定画像データの画像サイズを合わせる。
 出力部6は、回転算出部13が算出した回転角を、画面表示、プリンタ出力、データ出力などの手法で出力する。これにより、ユーザが回転ずれ角度を明確に把握することができる。
 撮像部5または表示部6は、他の実施の形態においても同様に設けることができる。
<実施の形態3>
 本実施の形態3では、実施の形態1~2とは異なる画像処理装置1の構成例を説明する。各機能部の処理は概ね実施の形態1~2と同様であるため、以下では差異点を中心に説明する。
 図11は、本実施の形態3に係る画像処理装置1の機能ブロック図である。本実施の形態3では、回転角検出部13が測定画像データと基準画像データの間の回転角を算出した後、回転補正部14は、測定画像データに代えて基準画像データを回転補正する。この場合でも、実施の形態1と同様の効果を発揮することができる。
<実施の形態4>
 図12は、本発明の実施の形態4に係る画像処理装置1の機能ブロック図である。本実施の形態4では、測定画像データと広角画像データをマッチングする前に、広角画像データを回転補正する点が、実施の形態1~3とは異なる。また、広角画像データの回転補正を行う第2回転補正部15を新たに備える。以下では、実施の形態1~3との差異点を中心に説明する。
 第2回転補正部15は、第1回転角検出部10が検出した、基準画像データと広角画像データの間の回転角を用いて、広角画像データを回転補正する。回転補正した広角画像データは、倍率調整部11に出力される。
 倍率調整部11は、回転補正した広角画像データと測定画像データの画像サイズを調整し、同じ視野範囲で同じ画像の大きさになるようにする。以後の処理は実施の形態1~2と同様である。
 以上のように、本実施の形態4では、実施の形態1~3と同様に、広角画像データを介して基準画像データと測定画像データの間の回転ずれを検出することができる。
<実施の形態5>
 図13は、本発明の実施の形態5に係る画像処理装置1の機能ブロック図である。本実施の形態5では、まず初めに広角画像データと測定画像データをマッチングして広角画像データを回転補正し、次に広角画像データと基準画像データをマッチングして基準画像データを回転補正する。また、基準画像データの回転補正を行う第2回転補正部15を新たに備える。以下では、実施の形態1~4との差異点を中心に説明する。
 回転補正部14は、第2回転角検出部12が検出した、測定画像データと広角画像データの間の回転ずれ角度を用いて、広角画像データを回転補正する。回転補正した広角画像データは、第1回転角検出部10に出力される。
 第2回転補正部15は、第1回転角検出部10が検出した、基準画像データと広角画像データの間の回転角を用いて、基準画像データを回転補正する。
 以上のように、本実施の形態5では、実施の形態1~4と同様に、広角画像データを介して基準画像データと測定画像データの間の回転ずれを検出することができる。
<実施の形態6>
 図14は、実施の形態2における画像処理装置1の動作フローである。以下、図14の各ステップについて説明する。なお、他の実施の形態に係る画像処理装置1の動作フローは、ステップの順番や処理対象となる画像データが図14とは異なるが、その他は図14と概ね同様である。
(図14:ステップS1401~S1402)
 撮像部5は、測定画像データと広角画像データを撮影する。撮影順序はいずれが先でもよい。
(図14:ステップS1403)
 第1回転角検出部10は、基準画像データと広角画像データの間の回転ずれ角度を検出する。
(図14:ステップS1404)
 第2回転角検出部12は、広角画像データと測定画像データの間の回転ずれ角度を検出する。
(図14:ステップS1405)
 回転角算出部13は、ステップS1403~S1404で得た回転ずれ角度を用いて、基準画像データと測定画像データの間の回転ずれ角度を算出する。回転補正部14は、その回転ずれ角度を用いて測定画像データを回転補正する。
<実施の形態7>
 以上の実施の形態1~6では、広角画像データは測定画像データを撮像した倍率よりも低倍率で撮像した画像データであるとしたが、低倍率の画像データでなくても、測定画像データを含む、測定画像データより広い画像領域のデータを用いることもできる。
 例えば、測定画像と同じ倍率の画像を複数枚撮像して、パノラマ処理で広い画像として合成した画像を用いることが考えられる。画像を合成する際に、画像間で回転補正を行いながら合成することにより、パノラマ合成する画像間の回転を少なくすることができる。
 ただし、パノラマ合成する最初の時点で画像データが回転していれば、その回転角に合わせて以降の画像データが回転補正されていくので、結果としてパノラマ合成画像全体が回転することになる。その回転を基準画像データと比較して、上記で説明した同様の方法でパノラマ合成画像データの回転を検出することもできる。
<実施の形態8>
 以上の実施の形態1~7では、画像データ間をマッチングして相互に対応する位置を求め、回転角を検出することを説明した。一方、回転ずれが生じている場合は、回転角のみならず対応位置も正確でない場合がある。
 そこで、回転補正部14または第2回転補正部15は、画像データを回転補正した後に改めて画像データ間のマッチングを行って対応位置を求め、位置ずれが生じていれば位置補正を行うようにしてもよい。
<実施の形態9>
 以上の実施の形態1~8において、広角画像データを撮像して得る際に、広角画像データ内に含まれるパターンの数が少ないと、比較対象が少ないことになるので、検出精度の観点から好ましくない。
 そこで撮像部5は、広角画像データ内のパターン数が所定閾値以上となるように、撮像位置または撮像倍率を調整する。具体的には、広角画像を撮像する毎にその広角画像データ内のパターンを例えば図3で説明したような手法で検出し、パターン数が所定閾値未満である場合は撮像位置または撮像倍率を変更して改めて撮像する。この繰り返しにより、パターンが所定閾値以上含まれる広角画像データを得ることができる。
<実施の形態10>
 以上の実施の形態1~9において、画像処理装置1が備える各記憶部は、例えばHDD(Hard Disk Drive)やメモリ装置などの書き込み可能な記憶装置を用いて構成することができる。
 撮像部5は、測長走査型電子顕微鏡などの撮像デバイスとその制御装置を用いて構成することができる。
 また、その他の各機能部は、これらの機能を実現する回路デバイスのようなハードウェアを用いて構成することもできるし、マイコンやCPU(Central Processing Unit)のような演算装置とその動作を規定するソフトウェアを用いて構成することもできる。さらには、コンピュータにこれら機能部の動作を実現したソフトウェアをインストールし、当該コンピュータを画像処理装置1として構成することもできる。
 1:画像処理装置、2:基準画像データ記憶部、3:広角画像データ記憶部、4:測定画像データ記憶部、5:撮像部、6:出力部、10:第1回転角検出部、101:マッチング部、102:部位検出部、103:回転算出部、11:倍率調整部、110:拡大部、111:縮小部、12:第2回転角検出部、121:マッチング部、122:局所領域マッチング部、123:回転算出部、13:回転角算出部、130:加算部、14:回転補正部、15:第2回転補正部。

Claims (17)

  1.  試料の観察画像を処理する画像処理装置であって、
     試料上の測定箇所を撮影して得た測定画像データを記憶する測定画像データ記憶部と、
     前記測定箇所を包含する広角領域を撮影して得た広角画像データを記憶する広角画像データ記憶部と、
     前記測定箇所が所望のパターンを有するか否かを判断する基準となる基準画像データを記憶する基準画像データ記憶部と、
     画像データの回転角を算出する回転角算出部と、
     画像データを回転補正する回転補正部と、
     を備え、
     前記回転角算出部は、
     前記測定画像データ、前記広角画像データ、および前記基準画像データの間の回転ずれ角度を算出し、
     前記回転補正部は、
     その回転ずれ角度を用いて前記測定画像データと前記基準画像データの間の回転ずれを補正する
     ことを特徴とする画像処理装置。
  2.  前記回転角算出部は、
     前記広角画像データと前記基準画像データの間の第1回転ずれ角度と、
     前記広角画像データと前記測定画像データの間の第2回転ずれ角度と、
     を算出するとともに、
     前記第1回転ずれ角度と前記第2回転ずれ角度を用いて前記基準画像データと前記測定画像データの間の回転ずれ角度を算出し、
     前記回転補正部は、
     その回転ずれ角度を用いて前記測定画像データの回転ずれを補正する
     ことを特徴とする請求項1記載の画像処理装置。
  3.  画像データの拡大または縮小を行う倍率調整部を備え、
     前記倍率調整部は、
     前記測定画像データまたは前記広角画像データを拡大または縮小して倍率を揃え、
     前記回転角算出部は、
     倍率を揃えた前記広角画像データと前記基準画像データを用いて前記第2回転ずれ角度を算出する
     ことを特徴とする請求項2記載の画像処理装置。
  4.  前記回転角算出部は、
     前記広角画像データと前記基準画像データの間の第1回転ずれ角度と、
     前記広角画像データと前記測定画像データの間の第2回転ずれ角度と、
     を算出するとともに、
     前記第1回転ずれ角度と前記第2回転ずれ角度を用いて前記測定画像データと前記基準画像データの間の回転ずれ角度を算出し、
     前記回転補正部は、
     その回転ずれ角度を用いて前記基準画像データの回転ずれを補正する
     ことを特徴とする請求項1記載の画像処理装置。
  5.  画像データの拡大または縮小を行う倍率調整部を備え、
     前記倍率調整部は、
     前記測定画像データまたは前記広角画像データを拡大または縮小して倍率を揃え、
     前記回転角算出部は、
     倍率を揃えた前記広角画像データと前記基準画像データを用いて前記第2回転ずれ角度を算出する
     ことを特徴とする請求項4記載の画像処理装置。
  6.  前記広角画像データと前記基準画像データの間の第1回転ずれ角度を算出する第1回転ずれ角検出部と、
     前記第1回転ずれ角度を用いて前記基準画像データと前記広角画像データの間の回転ずれを補正する第1回転ずれ補正部と、
     前記第1回転ずれ補正部が補正した前記広角画像データと前記測定画像データの間の第2回転ずれ角度を算出する第2回転ずれ角検出部と、
     前記第2回転ずれ角度を用いて前記広角画像データと前記測定画像データの間の回転ずれを補正する第2回転ずれ補正部と、
     を備え、
     前記回転角算出部は前記第1回転ずれ角検出部と前記第2回転ずれ角検出部を含み、
     前記回転補正部は前記第1回転ずれ補正部と前記第2回転ずれ補正部を含む
     ことを特徴とする請求項1記載の画像処理装置。
  7.  画像データの拡大または縮小を行う倍率調整部を備え、
     前記倍率調整部は、
     前記第1回転ずれ補正部が補正した前記広角画像データまたは前記測定画像データを拡大または縮小して倍率を揃え、
     前記第2回転ずれ角算出部は、
     倍率を揃えた前記広角画像データと前記基準画像データを用いて前記第2回転ずれ角度を算出する
     ことを特徴とする請求項6記載の画像処理装置。
  8.  前記広角画像データと前記測定画像データの間の第1回転ずれ角度を算出する第1回転ずれ角検出部と、
     前記第1回転ずれ角度を用いて前記測定画像データと前記広角画像データの間の回転ずれを補正する第1回転ずれ補正部と、
     前記第1回転ずれ補正部が補正した前記広角画像データと前記基準画像データの間の第2回転ずれ角度を算出する第2回転ずれ角検出部と、
     前記第2回転ずれ角度を用いて前記広角画像データと前記基準画像データの間の回転ずれを補正する第2回転ずれ補正部と、
     を備え、
     前記回転角算出部は前記第1回転ずれ角検出部と前記第2回転ずれ角検出部を含み、
     前記回転補正部は前記第1回転ずれ補正部と前記第2回転ずれ補正部を含む
     ことを特徴とする請求項1記載の画像処理装置。
  9.  画像データの拡大または縮小を行う倍率調整部を備え、
     前記倍率調整部は、
     前記測定画像データまたは前記広角画像データを拡大または縮小して倍率を揃え、
     前記第1回転ずれ角算出部は、
     倍率を揃えた前記広角画像データと前記測定画像データを用いて前記第1回転ずれ角度を算出する
     ことを特徴とする請求項8記載の画像処理装置。
  10.  前記測定画像データ、前記広角画像データ、前記基準画像データは、輪郭抽出処理で抽出した画像データであることを特徴とする請求項1記載の画像処理装置。
  11.  前記回転角算出部の算出結果を出力する出力部を備えたことを特徴とする請求項1記載の画像処理装置。
  12.  前記広角画像データは、パノラマ合成処理で作成した画像データであることを特徴とする請求項1記載の画像処理装置。
  13.  前記回転補正部は、
     回転補正した後の画像データ間の位置ずれを検出し、その位置ずれを補正する
     ことを特徴とする請求項1記載の画像処理装置。
  14.  前記広角領域を撮影して前記広角画像データを得る撮影部を備え、
     前記撮影部は、
     前記広角領域に含まれるパターンの密度が所定閾値以上となるように撮影位置を定める
     ことを特徴とする請求項1記載の画像処理装置。
  15.  前記広角領域を撮影して前記広角画像データを得る撮影部を備え、
     前記撮影部は、
     前記広角領域に含まれるパターンの密度が所定閾値以上となるように撮影倍率を定める
     ことを特徴とする請求項1記載の画像処理装置。
  16.  試料の観察画像を処理する画像処理方法であって、
     試料上の測定箇所を撮影して得た測定画像データを取得するステップと、
     前記測定箇所を包含する広角領域を撮影して得た広角画像データを取得するステップと、
     前記測定箇所が所望のパターンを有するか否かを判断する基準となる基準画像データを取得するステップと、
     画像データの回転角を算出する回転角算出ステップと、
     画像データを回転補正する回転補正ステップと、
     を有し、
     前記回転角算出ステップでは、
     前記測定画像データ、前記広角画像データ、および前記基準画像データの間の回転ずれ角度を算出し、
     前記回転補正ステップでは、
     その回転ずれ角度を用いて前記測定画像データと前記基準画像データの間の回転ずれを補正する
     ことを特徴とする画像処理方法。
  17.  請求項16記載の画像処理方法をコンピュータに実行させることを特徴とする画像処理プログラム。
PCT/JP2011/057274 2010-03-25 2011-03-25 画像処理装置、画像処理方法、画像処理プログラム WO2011118745A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US13/578,651 US8687921B2 (en) 2010-03-25 2011-03-25 Image processing apparatus, image processing method, and image processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010070043A JP5221584B2 (ja) 2010-03-25 2010-03-25 画像処理装置、画像処理方法、画像処理プログラム
JP2010-070043 2010-03-25

Publications (1)

Publication Number Publication Date
WO2011118745A1 true WO2011118745A1 (ja) 2011-09-29

Family

ID=44673287

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/057274 WO2011118745A1 (ja) 2010-03-25 2011-03-25 画像処理装置、画像処理方法、画像処理プログラム

Country Status (3)

Country Link
US (1) US8687921B2 (ja)
JP (1) JP5221584B2 (ja)
WO (1) WO2011118745A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5795847B2 (ja) * 2010-09-15 2015-10-14 キヤノン株式会社 画像処理装置および画像処理方法
JP2015118351A (ja) * 2013-12-20 2015-06-25 Ntn株式会社 パターン加工方法
SG11201602201XA (en) * 2013-12-26 2016-04-28 Hamamatsu Photonics Kk Image processing method, image processing system, image processing program, and storage medium storing image processing program
US20160292845A1 (en) * 2015-03-31 2016-10-06 Macronix International Co., Ltd. Determining contact edge roughness of a contact hole etched in a wafer
WO2016181338A1 (en) * 2015-05-13 2016-11-17 Vinay Bawri Computer implemented method for ranking, searching and managing contacts in electronic device
US10522376B2 (en) * 2017-10-20 2019-12-31 Kla-Tencor Corporation Multi-step image alignment method for large offset die-die inspection

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031525A (ja) * 2000-07-14 2002-01-31 Seiko Instruments Inc 半導体ウエハのパターン形状評価方法及び装置
JP2006269710A (ja) * 2005-03-24 2006-10-05 Toshiba Corp パターン評価方法および半導体装置の製造方法
WO2007094439A1 (ja) * 2006-02-17 2007-08-23 Hitachi High-Technologies Corporation 試料寸法検査・測定方法、及び試料寸法検査・測定装置
JP2008251766A (ja) * 2007-03-30 2008-10-16 Hitachi High-Technologies Corp 半導体デバイスの欠陥観察方法及びその装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466701B1 (en) * 1997-09-10 2002-10-15 Ricoh Company, Ltd. System and method for displaying an image indicating a positional relation between partially overlapping images
WO2006075687A1 (ja) * 2005-01-14 2006-07-20 Fujitsu Limited パターン欠陥検査方法及び半導体装置の製造方法
JP4943304B2 (ja) * 2006-12-05 2012-05-30 株式会社 Ngr パターン検査装置および方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002031525A (ja) * 2000-07-14 2002-01-31 Seiko Instruments Inc 半導体ウエハのパターン形状評価方法及び装置
JP2006269710A (ja) * 2005-03-24 2006-10-05 Toshiba Corp パターン評価方法および半導体装置の製造方法
WO2007094439A1 (ja) * 2006-02-17 2007-08-23 Hitachi High-Technologies Corporation 試料寸法検査・測定方法、及び試料寸法検査・測定装置
JP2008251766A (ja) * 2007-03-30 2008-10-16 Hitachi High-Technologies Corp 半導体デバイスの欠陥観察方法及びその装置

Also Published As

Publication number Publication date
US8687921B2 (en) 2014-04-01
JP2011203080A (ja) 2011-10-13
JP5221584B2 (ja) 2013-06-26
US20130011080A1 (en) 2013-01-10

Similar Documents

Publication Publication Date Title
JP5221584B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP5987073B2 (ja) 撮像部を用いたワークの位置決め装置
US9390324B1 (en) Image processing device and method of image processing
TWI461861B (zh) 測量複數個半導體裝置層的相對位置之方法及系統
JP4951496B2 (ja) 画像生成方法及びその画像生成装置
WO2012053521A1 (ja) 光学情報処理装置、光学情報処理方法、光学情報処理システム、光学情報処理プログラム
JP6002480B2 (ja) オーバーレイ誤差測定装置、及びパターン測定をコンピューターに実行させるコンピュータープログラム
TW201842329A (zh) 圖案測定裝置,及半導體計測系統
JP6061496B2 (ja) パターン計測装置、パターン計測方法及びパターン計測プログラム
JP2012021919A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2011182397A (ja) ずれ量算出方法およびずれ量算出装置
JP6208419B2 (ja) 算出装置、搬送ロボットシステム、及び算出方法
JP5114302B2 (ja) パターン検査方法,パターン検査装置及びパターン処理装置
JP2008014700A (ja) ワークの検査方法及びワーク検査装置
CN109148433B (zh) 用于确定集成电路器件的尺寸的方法和设备
JP2009162718A (ja) 基板検査装置および検査領域設定方法
JP2008052598A (ja) 画像位置計測方法、画像位置計測装置、および画像位置計測プログラム
JP2006269710A (ja) パターン評価方法および半導体装置の製造方法
JP2008283050A (ja) 画像処理用データ作成方法及び画像処理用データ作成装置
JP4750084B2 (ja) キャリブレーション方法およびキャリブレーション装置
JP2018059768A (ja) 演算処理装置、形状測定装置、演算処理方法、形状測定方法及びプログラム
JP2013170829A (ja) ひずみ計測装置及びひずみ計測方法
JP2004192506A (ja) パターンマッチング装置、パターンマッチング方法およびプログラム
JP2016063336A (ja) キャリブレーション方法、キャリブレーションプログラム及びキャリブレーション装置
JP5261891B2 (ja) アライメントマークおよび位置計測方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11759549

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13578651

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11759549

Country of ref document: EP

Kind code of ref document: A1