JP2015018577A - Pattern matching device and computer program - Google Patents

Pattern matching device and computer program Download PDF

Info

Publication number
JP2015018577A
JP2015018577A JP2014209609A JP2014209609A JP2015018577A JP 2015018577 A JP2015018577 A JP 2015018577A JP 2014209609 A JP2014209609 A JP 2014209609A JP 2014209609 A JP2014209609 A JP 2014209609A JP 2015018577 A JP2015018577 A JP 2015018577A
Authority
JP
Japan
Prior art keywords
image
matching
region
pattern
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014209609A
Other languages
Japanese (ja)
Other versions
JP5857106B2 (en
Inventor
敬模 梁
Keimo Yana
敬模 梁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp, Hitachi High Tech Corp filed Critical Hitachi High Technologies Corp
Priority to JP2014209609A priority Critical patent/JP5857106B2/en
Publication of JP2015018577A publication Critical patent/JP2015018577A/en
Application granted granted Critical
Publication of JP5857106B2 publication Critical patent/JP5857106B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length-Measuring Devices Using Wave Or Particle Radiation (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a pattern matching device and a computer program that are capable of properly selecting an area not to be subjected to pattern matching processing.SOLUTION: In order to achieve the purpose, a pattern matching device that executes pattern matching on an image using a template formed based on design data and that acquires an image in an area to be subjected to matching, extracts an area not to be subjected to matching from the acquired image, and executes pattern matching with the area being a non-matching area, or a computer program is proposed.

Description

本発明は、パターンマッチング装置、及びパターンマッチングをコンピューターに実行させるコンピュータープログラムに係り、特に設計データに基づいて得られる画像と、撮像に基づいて得られる画像との間の位置合わせを行う装置、及びコンピュータープログラムに関する。   The present invention relates to a pattern matching apparatus and a computer program that causes a computer to execute pattern matching, and in particular, an apparatus that performs alignment between an image obtained based on design data and an image obtained based on imaging, and Regarding computer programs.

対象試料上に存在する特定のパターンを探索するための手法としてテンプレートマッチング法が知られている。特に、半導体デバイスの微細化に伴い、半導体デバイス評価用の走査電子顕微鏡(Scanning Electron Microscope:SEM)等によって取得した画像の位置合わせのためのテンプレートマッチング法には、より高い精度が求められている。特許文献1には、パターンマッチングの処理対象外となる領域にマスクを施すパターンマッチング法が説明されている。   A template matching method is known as a method for searching for a specific pattern existing on a target sample. In particular, with the miniaturization of semiconductor devices, higher accuracy is required for a template matching method for aligning images acquired by a scanning electron microscope (SEM) or the like for semiconductor device evaluation. . Patent Document 1 describes a pattern matching method in which a mask is applied to an area that is not subject to pattern matching processing.

特開2003−109002号公報JP 2003-109002 A

特許文献1に開示のパターンマッチング法によれば、パターンマッチングの対象とならない領域をマッチングの対象から除外できるため、処理時間の遅延抑制等に一定の効果がある。一方、例えば、半導体製造プロセスの中でもイオン打ち込み工程では、打ち込み領域と非打ち込み領域を設定し、部分的な打ち込みを可能とすべく、イオン打ち込み工程前に、非打ち込み領域にマスク(マスク層)を施す処理が行われている。このようなマスク層を含んだ状態の試料を、電子顕微鏡等による測定、或いは検査対象とする場合、所望の領域に電子顕微鏡等の視野(Field Of View:FOV)を位置付けるために、上記パターンマッチングが行われるが、パターンの形成精度と比較すると、マスク層の形成精度が低い場合がある。すなわち、マスク層の位置ずれによって、予め登録しておいたマッチング用のテンプレートとの形状的な乖離が発生する可能性がある。テンプレートと試料上に形成された実パターンとの間に形状的な乖離があると、マッチングの成功率が低下する可能性がある。このようなマッチング成功率の低下要因に対し、特許文献1に説明されているようなマスクを、マスク層に施すことも考えられるが、マスク層の位置が安定しないため、マスクの適用領域を決定することは困難である。マスク層の変動を考慮して、大きなマスクを適用すると、マッチングに供される領域が狭くなり、マッチングの成功率を低下させる要因となる可能性がある。   According to the pattern matching method disclosed in Patent Document 1, since a region that is not a pattern matching target can be excluded from the matching target, there is a certain effect in delaying processing time and the like. On the other hand, for example, in the ion implantation process in the semiconductor manufacturing process, a mask region (mask layer) is formed in the non-implanted region before the ion implantation process in order to set a implanted region and a non-implanted region and enable partial implantation. Processing to be performed is performed. When a sample including such a mask layer is to be measured or inspected by an electron microscope or the like, the pattern matching is performed in order to position the field of view (FOV) of the electron microscope or the like in a desired region. However, the mask layer formation accuracy may be lower than the pattern formation accuracy. That is, there is a possibility that a geometrical deviation from a previously registered template for matching may occur due to the displacement of the mask layer. If there is a geometric divergence between the template and the actual pattern formed on the sample, the success rate of matching may decrease. Although it is conceivable to apply a mask as described in Patent Document 1 to the mask layer for such a factor of decreasing the matching success rate, the mask layer position is not stable, so the mask application area is determined. It is difficult to do. If a large mask is applied in consideration of the variation of the mask layer, the region used for matching becomes narrow, which may be a factor for reducing the success rate of matching.

以下に、パターンマッチング処理の対象外となる領域を適正に選択することを目的としたパターンマッチング装置、及びパターンマッチング処理をコンピューターに実行させるコンピュータープログラムを説明する。   In the following, a pattern matching apparatus for the purpose of appropriately selecting a region that is not subject to pattern matching processing and a computer program that causes a computer to execute the pattern matching processing will be described.

上記目的を達成するための一態様として、以下に設計データに基づいて形成されたテンプレートを用いて、画像上でパターンマッチングをコンピューターに実行させるコンピュータープログラム、或いはパターンマッチング装置であって、マッチングの対象となる領域の画像を取得し、当該取得画像からマッチングの対象外となる領域を抽出し、当該領域を非マッチング領域とした上で、パターンマッチングを実行するパターンマッチング装置、或いは当該パターンマッチングをコンピューターに実行させるコンピュータープログラムを提案する。   As one aspect for achieving the above object, there is provided a computer program or a pattern matching device for causing a computer to perform pattern matching on an image using a template formed based on design data as follows. A pattern matching device that extracts a region that is not subject to matching from the acquired image, sets the region as a non-matching region, and performs pattern matching, or performs the pattern matching on a computer We propose a computer program to be executed.

特に試料の上層に形成されるマスク層等は、離散的に配置されているわけではなく、FOV内で部分的に集合した状態にて配置されているため、FOV内の上層が位置する側から上層のエッジ部分を見出すためのサーチを行う。また、FOV内のマスク層が存在する側の信号を検出することによって、マスクのエッジ部分の検出を行う。   In particular, the mask layer or the like formed on the upper layer of the sample is not arranged discretely, but is arranged in a partially assembled state in the FOV, and therefore from the side where the upper layer in the FOV is located. A search is performed to find the upper edge portion. Further, the edge portion of the mask is detected by detecting the signal on the side where the mask layer in the FOV exists.

上記構成によれば、上層の存在によるマッチング精度の低下を抑制しつつ、マッチング処理を実行することが可能となる。   According to the above configuration, it is possible to execute the matching process while suppressing a decrease in matching accuracy due to the presence of the upper layer.

特に、FOV内の上層が位置する側から上層のエッジ部分を見出すためのサーチを行う、或いはマスク層等が存在する側に存在する信号を検出することによって、下層パターンのエッジ等と取り違えることなく、マスクのエッジ部分を捉えることができ、その結果、上層をマスクするのに必要な領域を選択的に非マッチング領域とすることが可能となる。   In particular, by performing a search for finding the edge portion of the upper layer from the side where the upper layer is located in the FOV, or by detecting a signal existing on the side where the mask layer or the like is present, it can be mistaken for the edge or the like of the lower layer pattern. The edge portion of the mask can be captured, and as a result, the region necessary for masking the upper layer can be selectively set as a non-matching region.

走査電子顕微鏡の概略構成図。The schematic block diagram of a scanning electron microscope. 半導体デバイスのイオン打ち込み工程の際に施されるマスク層の断面構造(Vertical構造)図と上視図(Top Down SEM Image)。The cross-sectional structure (vertical structure) figure and top view (Top Down SEM Image) of the mask layer given in the case of the ion implantation process of a semiconductor device. SEM画像上にて抽出されたパターンマッチング禁止領域を設定した画像上にてパターンマッチングを実行する工程を示すフローチャート。The flowchart which shows the process of performing pattern matching on the image which set the pattern matching prohibition area | region extracted on the SEM image. パターンマッチング工程の概要を示す図。The figure which shows the outline | summary of a pattern matching process. SEMを含む半導体測定、或いは検査システムの概要を示す図。The figure which shows the outline | summary of the semiconductor measurement or inspection system containing SEM. 上層のエッジ部の抽出法の一例を示す図。The figure which shows an example of the extraction method of the edge part of an upper layer. ピーク位置検出フィルタの一例を示す図。The figure which shows an example of a peak position detection filter. ピーク位置検出フィルタを用いたピーク選択の工程を示すブロック図。The block diagram which shows the process of the peak selection using a peak position detection filter. SEM画像上にて非サーチ領域を選択する工程を示すフローチャート。The flowchart which shows the process of selecting a non-search area | region on a SEM image. ピーク位置検出フィルタを用いてエッジ位置を検出するときのピーク位置検出フィルタと画像の一致度の推移を示す図。The figure which shows transition of the coincidence degree of a peak position detection filter and an image when detecting an edge position using a peak position detection filter.

SEM等の画像取得装置を含む半導体計測装置等にて取得された画像の中から所望のパターン等を見つけ出す手法の1つとしてパターンマッチング法が知られている。このようなパターンマッチング法に代表される画像認識法は、SEM画像とSEM画像、及びOM(Optical Microscope)の画像とOMの画像のように同一種の画像間での比較であった。ところが最近画像認識技術では、半導体デバイスの設計データを利用した画像認識技術が現れている。しかしながらデザインデータはプロセス変動等による形状変動が含まれていない理想形状を示している。このような理想形状に基づいて画像認識を実行する場合、実際の試料状態との乖離故、画像認識に失敗する可能性がある。半導体プロセスの1つであるイオン打ち込み工程では、イオンが打ち込まれる領域(打ち込み領域)と、イオンが打ち込まれない領域(非打ち込み領域)を設定するために、非打ち込み領域にマスク(以下、Top Layer(上層)パターン、或いはIon Implant(イオン打ち込み)パターンと称することもある)を施すことがある。しかしながら、Top Layerパターンと下地(下層レイヤ)間の相対的な位置が安定せず、Top Layerパターンのエッジ部の位置の変動故、パターン認識が困難となる場合があることが明らかになってきた。以下に、イオン打ち込み工程のように上層パターンが存在する領域内にてパターンマッチングを行うのに好適な画像認識法,装置、及びコンピュータープログラムを説明する。   A pattern matching method is known as one of methods for finding a desired pattern or the like from an image acquired by a semiconductor measurement device including an image acquisition device such as an SEM. An image recognition method typified by such a pattern matching method is a comparison between images of the same type, such as an SEM image and an SEM image, and an OM (Optical Microscope) image and an OM image. Recently, however, image recognition technology using design data of semiconductor devices has appeared. However, the design data shows an ideal shape that does not include shape variation due to process variation. When image recognition is executed based on such an ideal shape, there is a possibility that image recognition may fail due to a deviation from the actual sample state. In an ion implantation process which is one of semiconductor processes, a mask (hereinafter referred to as Top Layer) is set in a non-implanted region in order to set a region where ions are implanted (implanted region) and a region where ions are not implanted (non-implanted region). (Sometimes referred to as an (upper layer) pattern or an Ion Implant pattern). However, it has become clear that the relative position between the Top Layer pattern and the underlying layer (lower layer) is not stable, and pattern recognition may be difficult due to the variation in the position of the edge portion of the Top Layer pattern. . Hereinafter, an image recognition method, apparatus, and computer program suitable for performing pattern matching in a region where an upper layer pattern exists as in the ion implantation process will be described.

以下に、デザインデータと実際のSEM画像間の画像認識法であって、SEM画像の下地はTop Layerの重ね合わせが大きくずれたとしても、そのずれに対応した画像認識が可能な手法を説明する。特に、Ion Implant Layerのように下地とTop Layerパターンの重ね合わせが大きくずれる可能性のある試料であっても、目的のパターンの検出を容易に実現できる手法を説明する。   In the following, an image recognition method between design data and an actual SEM image, in which even if the overlay of the top layer of the background of the SEM image greatly deviates, a method capable of image recognition corresponding to the deviation will be described. . In particular, a description will be given of a method that can easily detect a target pattern even in a sample such as Ion Implant Layer where the overlay of a ground layer and a Top Layer pattern may be greatly shifted.

上記手法の提供のためには、変動要因の大きいTop Layerパターンを、除外して画像認識を行う必要がある。   In order to provide the above method, it is necessary to perform image recognition by removing the Top Layer pattern having a large variation factor.

そのための一態様として、以下の2つの特徴を持つマッチングアルゴリズムを提案する。   For this purpose, a matching algorithm having the following two features is proposed.

1番目は、デザインデータからのテンプレ−トを作成する際、下地はTop Layerの画像認識用テンプレートを区別して作成する。画像認識の手順としては、まず、Ion Implant Layer(Top Layer)は一定の形と方向性を持っているため、その特徴を利用して画像認識行い、残りパターンに対して下地のデザインデータを利用して画像認識を行う方法である。   First, when creating a template from design data, the base layer is created by distinguishing Top Layer image recognition templates. As an image recognition procedure, first, since Ion Implant Layer (Top Layer) has a certain shape and directionality, image recognition is performed using the features, and the design data of the background is used for the remaining pattern. Then, image recognition is performed.

2番目は、Top Layerが画像内に離散的に配置されているわけではなく、部分的に一体に形成されていると共に、画像外にまで広がって形成されていると言う点に鑑み、そのような特徴を持つ部分領域を選択的に除外する手法を適用する。このように一定の形と方向性を持っているIon Implant Layerパターンを削除する方法で、残りの下地のみを利用して画像認識を行うことで、下地はTop Layerの重ね合わせのずれの存在によらず、高精度なマッチングを可能とする。   Secondly, in view of the fact that the Top Layers are not discretely arranged in the image, but are partially formed integrally and spread out of the image. Apply a method to selectively exclude partial regions with special features. In this way, by deleting the Ion Implant Layer pattern having a certain shape and directionality, by performing image recognition using only the remaining background, the background is in the presence of misalignment of Top Layer. Regardless, high-precision matching is possible.

上述のようなマッチング法によれば、デザインデータを利用した画像認識の精度向上が期待できる。   According to the matching method as described above, improvement in the accuracy of image recognition using design data can be expected.

以下、上層の位置精度によらず、安定して高精度な画像認識を行い得るマッチングアルゴリズムについて、図面を用いて説明する。図1は、SEMの概略構成図である。陰極101と第1陽極102に印加された一次電子線104は第1陽極102と第2陽極103に印加される電圧Vaccにより加速されて後段のレンズ系に進行する。この一次電子線104はレンズ制御電源114で制御された集束レンズ105と対物レンズ106によりウェーハ(試料)107に微小スポットとして集束され、二段の偏向コイル108によってウェーハ(試料)107上を二次元的に走査される。偏向コイル108の走査信号は観察倍率に応じて偏向制御装置109によって制御される。   Hereinafter, a matching algorithm that can stably and highly accurately recognize an image regardless of the position accuracy of the upper layer will be described with reference to the drawings. FIG. 1 is a schematic configuration diagram of an SEM. The primary electron beam 104 applied to the cathode 101 and the first anode 102 is accelerated by the voltage Vacc applied to the first anode 102 and the second anode 103 and proceeds to the subsequent lens system. The primary electron beam 104 is focused as a minute spot on a wafer (sample) 107 by a focusing lens 105 and an objective lens 106 controlled by a lens control power source 114, and two-dimensionally on the wafer (sample) 107 by a two-stage deflection coil 108. Scanned. The scanning signal of the deflection coil 108 is controlled by the deflection controller 109 according to the observation magnification.

ウェーハ(試料)107上を走査した一次電子線104により試料から発生した二次電子110は二次電子検出器111で検出される。二次電子検出器111で検出された二次電子情報は増幅器112で増幅されCRT113上に表示される。本実施例ではCRT113に表示された試料形状の情報を利用してパターンの自動計測を実施する。   The secondary electrons 110 generated from the sample by the primary electron beam 104 scanned on the wafer (sample) 107 are detected by the secondary electron detector 111. Secondary electron information detected by the secondary electron detector 111 is amplified by the amplifier 112 and displayed on the CRT 113. In the present embodiment, automatic measurement of the pattern is performed by using the sample shape information displayed on the CRT 113.

図5は、SEMを含む測定,検査システムをより詳細に示す図である。本システムには、SEM本体501、当該SEM本体の制御装置503、及び演算処理装置505が含まれている。演算処理装置505には、制御装置503に所定の制御信号を供給するレシピ実行部506と、走査偏向器502の走査と同期して検出器503によって得られた検出信号を配列することによって得られる画像の画像処理を行う画像処理部507、及び取得された画像情報や、レシピ実行部506にて実行するレシピ情報を記憶するメモリ508が内蔵されている。   FIG. 5 is a diagram showing the measurement and inspection system including the SEM in more detail. The system includes an SEM main body 501, a control device 503 of the SEM main body, and an arithmetic processing unit 505. The arithmetic processing unit 505 is obtained by arranging a recipe execution unit 506 that supplies a predetermined control signal to the control unit 503 and a detection signal obtained by the detector 503 in synchronization with the scanning of the scanning deflector 502. An image processing unit 507 that performs image processing of an image, and a memory 508 that stores acquired image information and recipe information executed by the recipe execution unit 506 are incorporated.

試料から放出された電子は、検出器503にて捕捉され、制御装置504に内蔵されたA/D変換器でデジタル信号に変換される。画像処理部507に内蔵されるCPU,ASIC,FPGA等の画像処理ハードウェアによって、目的に応じた画像処理が行われる。また、画像処理部507は、検出信号に基づいて、ラインプロファイルを作成し、プロファイルのピーク間の寸法を測定する機能をも備えている。   Electrons emitted from the sample are captured by the detector 503 and converted into a digital signal by an A / D converter built in the control device 504. Image processing according to the purpose is performed by image processing hardware such as a CPU, ASIC, and FPGA incorporated in the image processing unit 507. The image processing unit 507 also has a function of creating a line profile based on the detection signal and measuring a dimension between peaks of the profile.

更に演算処理装置505は、入力手段を備えた入力装置518と接続され、当該入力装置518に設けられた表示装置に、操作者に対して画像や検査結果等を表示するGUI(Graphical User Interface)等の機能を有する。   Further, the arithmetic processing device 505 is connected to an input device 518 having an input means, and displays a graphic user interface (GUI) for displaying images, inspection results, and the like to the operator on a display device provided in the input device 518. Etc.

なお、演算処理装置507における制御や処理の一部又は全てを、CPUや画像の蓄積が可能なメモリを搭載した電子計算機等に割り振って処理・制御することも可能である。また、入力装置518は、検査等に必要とされる電子デバイスの座標,位置決めに利用するパターンマッチング用のテンプレート,撮影条件等を含む撮像レシピを手動もしくは、電子デバイスの設計データ記憶媒体517に記憶された設計データを活用して作成する撮像レシピ作成装置としても機能する。   Note that some or all of the control and processing in the arithmetic processing unit 507 can be assigned to a CPU or an electronic computer equipped with a memory capable of storing images and processed and controlled. Also, the input device 518 stores an imaging recipe including the coordinates of the electronic device required for inspection, a pattern matching template used for positioning, imaging conditions, etc. manually or in the design data storage medium 517 of the electronic device. It also functions as an imaging recipe creation device that creates by utilizing the designed data.

入力装置518は、設計データに基づいて形成される線図画像の一部を切り出して、テンプレートとするテンプレート作成部を備えており、作成されたテンプレートは画像処理部507に内蔵されるマッチング処理部509におけるテンプレートマッチングのテンプレートとして、メモリ508に登録される。テンプレートマッチングは、位置合わせの対象となる撮像画像と、テンプレートが一致する個所を、正規化相関法等を用いた一致度判定に基づいて特定する手法であり、マッチング処理部509は、一致度判定に基づいて、撮像画像の所望の位置を特定する。   The input device 518 includes a template creation unit that cuts out a part of a diagram image formed based on design data and uses it as a template. The created template is a matching processing unit built in the image processing unit 507. The template matching template 509 is registered in the memory 508. Template matching is a technique for identifying a location where a captured image to be aligned and a template match based on matching degree determination using a normalized correlation method or the like, and the matching processing unit 509 performs matching degree determination. Based on the above, a desired position of the captured image is specified.

以下に説明する実施例は、主に設計データに基づいて得られるエッジ情報と、SEM等によって撮像された撮像画像間との間のパターンマッチングに関するものであり、設計データに基づいて得られるエッジ情報は、設計データに基づいて形成されるパターンの理想形状を示す線分画像情報や、シミュレーターによって、実パターンに近くなるような変形処理が施された線分画像情報である。また、設計データは例えばGDSフォーマットやOASISフォーマットなどで表現されており、所定の形式にて記憶されている。なお、設計データは、設計データを表示するソフトウェアがそのフォーマット形式を表示でき、図形データとして取り扱うことができれば、その種類は問わない。   The embodiment described below relates to pattern matching between edge information obtained mainly based on design data and captured images taken by SEM or the like, and edge information obtained based on design data. Is line segment image information indicating the ideal shape of the pattern formed based on the design data, or line segment image information that has been subjected to deformation processing close to the actual pattern by the simulator. The design data is expressed in, for example, the GDS format or the OASIS format, and is stored in a predetermined format. The design data can be of any type as long as the software that displays the design data can display the format and can handle the data as graphic data.

なお、以下に説明する実施例では、SEMに搭載された制御装置、或いはSEMに通信回線等を経由して接続される演算処理装置505にてマッチング処理を実行する例を説明するが、これに限られることはなく、コンピュータープログラムによって、画像処理を実行する汎用の演算装置を用いて、後述するような処理を行うようにしても良い。更に、集束イオンビーム(Focused Ion beam:FIB)装置等、他の荷電粒子線装置に対しても、後述する手法の適用が可能である。   In the embodiment described below, an example in which matching processing is executed by a control device mounted on the SEM or an arithmetic processing device 505 connected to the SEM via a communication line or the like will be described. The present invention is not limited, and a process as described later may be performed using a general-purpose arithmetic device that executes image processing by a computer program. Furthermore, the method described later can be applied to other charged particle beam apparatuses such as a focused ion beam (FIB) apparatus.

以下に説明する実施例は、パターンマッチングを行う装置、パターンマッチングをコンピューターに実行させるプログラム、及び当該プログラムを記憶する記憶媒体に関するものである。   The embodiment described below relates to an apparatus that performs pattern matching, a program that causes a computer to execute pattern matching, and a storage medium that stores the program.

図2は半導体デバイスのイオン打ち込み工程の際に施されるマスク層の断面構造(Vertical構造)図と上視図(Top Down SEM Image)である。図2のAは、イオン打ち込み工程時のマスク層と下地層の断面図と上視図である。ウェーハ201には、下地パターンであるパターン202が形成されている。このパターン202の一部をイオン打ち込み領域205とし、パターン202の他の一部を非打ち込み領域206とすべく、マスク層203aを試料上に堆積し、その上からイオン204を打ち込む。   FIG. 2 shows a cross-sectional structure (vertical structure) and a top view (Top Down SEM Image) of the mask layer applied in the ion implantation process of the semiconductor device. FIG. 2A is a cross-sectional view and a top view of the mask layer and the underlayer during the ion implantation process. A pattern 202 that is a base pattern is formed on the wafer 201. A mask layer 203a is deposited on the sample so that a part of the pattern 202 serves as an ion implantation region 205 and another part of the pattern 202 serves as a non-implantation region 206, and ions 204 are implanted thereon.

図2の上図のように、マスク層203aが適正に形成されている場合と、図2の下図のように、マスク層203bの位置がずれて形成される場合がある。このように、試料ごとにマスク層の位置が変化すると、テンプレートを用いたマッチングの場合、画像(試料)によっては、マッチングの正解位置におけるテンプレートと画像の一致度が変化し、マッチング位置を誤ってしまうことが考えられる。例えば、パターン202のラインエンドを、マスク層203bのエッジ部分と認識してしまう可能性もある。または一致度の低さ故、全く関係のない個所をマッチング位置として認識してしまう可能性もある。   As shown in the upper diagram of FIG. 2, the mask layer 203a may be properly formed, and as shown in the lower diagram of FIG. 2, the mask layer 203b may be formed in a shifted position. In this way, when the position of the mask layer changes for each sample, in the case of matching using a template, the matching degree between the template and the image at the correct matching position changes depending on the image (sample), and the matching position is incorrect. It is possible to end up. For example, the line end of the pattern 202 may be recognized as the edge portion of the mask layer 203b. Or, since the degree of coincidence is low, there is a possibility that a part that is completely unrelated is recognized as a matching position.

マスク層203が存在する領域において、マッチングエラーが起こり得る要因の1つはマスク層203のデポジションの位置精度とパターンの傾斜の変化にある。マスク層203aとマスク層203bのように、プロセスの変化に対して、Top Down SEM画像が変化する可能性があるのに対し、設計データにおけるマスク層203とパターン202との位置関係は一定であるため、プロセス変動が激しいイオン打ち込み工程ではデザインデータを利用した画像認識ではパターンの正しい検出が困難な場合がある。   In a region where the mask layer 203 exists, one of the factors that may cause a matching error is a change in the positional accuracy of the deposition of the mask layer 203 and the inclination of the pattern. Like the mask layer 203a and the mask layer 203b, the Top Down SEM image may change with process changes, whereas the positional relationship between the mask layer 203 and the pattern 202 in the design data is constant. For this reason, in the ion implantation process in which the process variation is severe, it may be difficult to correctly detect the pattern by image recognition using design data.

本実施例では、特にイオン打ち込み工程のようなプロセス変動に伴うパターンの相対的な位置関係の変動が顕著に見られる工程の測定,検査に当たり、適正なマッチング処理を実行すべく、図3に例示するような工程を経て、マッチング処理を実行する手法を提案する。   In the present embodiment, particularly in the measurement and inspection of a process in which the relative positional relationship of the pattern is remarkably changed due to the process change such as the ion implantation process, it is illustrated in FIG. 3 in order to execute an appropriate matching process. We propose a method for executing the matching process through these steps.

ステップ301において、デザインデータをステップ304とステップ305のようにTop Layer(Ion Implant Layer)と下地Layerに区別して画像認識用テンプレートを作成する。ステップ303で作成したTop Layer(Ion Implant layer)のみを利用してパターンの方向性を検出する(ステップ305)。検出したIon Implantパターンの方向性を用いて、Top down SEM画像(ステップ306)でIon Implantパターンを検出する(ステップ307)。Top down SEM画像でIon Implantパターンを検出したら、Ion Implantパターンを画像処理で削除する(ステップ308)か、或いは309で下地を利用した画像認識の際の禁止Areaとして設定する(ステップ308)。ステップ309の最後の画像認識ではIon Implantパターンを省いて下地のみで画像認識を行うことで、デザインデータと実際のTop down SEM画像との画像認識成功率を向上する。   In step 301, an image recognition template is created by distinguishing the design data into a top layer (Ion Implant Layer) and a base layer as in steps 304 and 305. The pattern directionality is detected using only the top layer (Ion Implant layer) created in step 303 (step 305). Using the directionality of the detected Ion Implant pattern, an Ion Implant pattern is detected from the Top down SEM image (Step 306) (Step 307). When the Ion Implant pattern is detected in the Top down SEM image, the Ion Implant pattern is deleted by image processing (Step 308), or set as a prohibited Area at the time of image recognition using the background in Step 309 (Step 308). In the final image recognition in step 309, the Ion Implant pattern is omitted and image recognition is performed only on the background, thereby improving the image recognition success rate between the design data and the actual Top down SEM image.

以下に、図4、及び図5を用いて、図3に例示した工程をより詳細に説明する。図4のAは実際のTop down SEM画像で、401は下地パターンであり、402はTop Layer(Ion Implant Layer)パターンである。図4のBはIon Implant Layerのデザインテンプレートであり、図4のCは下地のデザインテンプレートである。図4のBと図4のCを利用して、図4のDのようにIon Implantパターンに隠れる下地のパターンを削除し、図4のEのような下地用デザインテンプレートを作成する。   Hereinafter, the steps illustrated in FIG. 3 will be described in more detail with reference to FIGS. 4 and 5. 4A is an actual Top down SEM image, 401 is a ground pattern, and 402 is a Top Layer (Ion Implant Layer) pattern. 4B is a design template of Ion Implant Layer, and C of FIG. 4 is a base design template. Using B in FIG. 4 and C in FIG. 4, the base pattern hidden in the Ion Implant pattern is deleted as shown in FIG. 4D, and a base design template like E in FIG. 4 is created.

次は、図4のBのIon Implantデザインテンプレートを利用して図4のAのTop down SEM画像でIon Implantパターンを検出する。Top down SEM画像でのIon Implantパターンの検出方法は図4のFの403に示しているように、Ion Implant Layerが存在する(図4には)右側からサーチしてパターンのエッジを検出することで下地の影響なしでIon Implantパターンを検出することが可能である。Top down SEM画像でIon Implantパターンを検出した後には図4のBのIon Implantデザインが存在するAreaを画像認識禁止Areaとして設定し(404)、次の図4のGで行う図4のE(下地のデザインデータ)と図4のF画像との画像認識でIon Implantパターンが下地の画像認識に邪魔にならないようにする。   Next, the Ion Implant pattern is detected from the Top down SEM image of FIG. 4A using the Ion Implant design template of FIG. 4B. The detection method of the Ion Implant pattern in the top down SEM image is to detect the edge of the pattern by searching from the right side (in FIG. 4), as indicated by 403 in FIG. Thus, it is possible to detect the Ion Implant pattern without the influence of the background. After detecting the Ion Implant pattern in the Top down SEM image, the Area in which the Ion Implant design of B in FIG. 4 exists is set as an image recognition prohibition Area (404), and E in FIG. The Ion Implant pattern is prevented from interfering with the background image recognition by the image recognition of the background design data) and the F image of FIG.

ステップ301では、設計データ記憶媒体301より設計データを読み出し、ステップ302にて所望の位置(領域)のテンプレートをレイヤー別に作成する。このテンプレート領域は、設計データ上、マスク層のエッジ部分と、下地のパターンの双方が含まれる領域である。テンプレート領域選択部513では、設計データ上の座標情報や任意に選択される領域情報、或いは撮像画像の座標,倍率情報(視野(Field Of View:FOV)サイズ情報)等に基づいて、領域選択を行い、当該領域のパターンのレイアウトデータを選択する。選択された領域に含まれるのは、マスク層(Top Layer)のレイアウトデータ303と、下地パターン(Lower Layer)のレイアウトデータであり、この下地パターンのレイアウトデータに基づいて、マッチング用のテンプレートを作成する(ステップ304)。なお、この際に平滑化処理等を施すことによって、レイアウトデータをSEM画像に近づけるような処理を行うようにしても良い。このような処理は、例えば画像処理部512にて行われる。   In step 301, design data is read from the design data storage medium 301, and in step 302, templates of desired positions (areas) are created for each layer. This template area is an area that includes both the edge portion of the mask layer and the underlying pattern in the design data. The template area selection unit 513 performs area selection based on coordinate information on design data, arbitrarily selected area information, or coordinates of a captured image, magnification information (field of view (FOV) size information), and the like. The layout data of the pattern of the area is selected. The selected area includes the layout data 303 of the mask layer (Top Layer) and the layout data of the base pattern (Low Layer), and a matching template is created based on the layout data of the base pattern (Step 304). At this time, a process for bringing the layout data closer to the SEM image may be performed by performing a smoothing process or the like. Such processing is performed by the image processing unit 512, for example.

一方、マスク層については、マスク層の位置(方向性)を検出する(ステップ305)。具体的にはマスク層がFOV内において、どちらの側に存在するのかを判定し、マスク層のエッジをサーチするためのサーチ始点とする。図2に例示するようなマスク層の場合、SEM画像右側にマスク層のエッジが存在し、当該マスク層のエッジに対し相対的に、左側に下地パターンのエッジが存在する。即ち、FOVの右片をサーチ始点とし、サーチを開始すれば、最初に現れるのはマスク層のエッジになるはずである。このようなサーチを可能とするために、サーチ方向・始点設定部516では、レイアウトデータ上に設定されるFOVの各片について、当該片がレイアウトデータ上のどの位置に属するのかを判定し、1片全てがマスク層に属すると判定できる場合に、当該片をサーチ始点とするような設定を行うようにしても良い。また、サーチ始点は入力装置518を介して、任意に設定するようにしても良い。   On the other hand, for the mask layer, the position (direction) of the mask layer is detected (step 305). Specifically, it is determined on which side the mask layer exists in the FOV, and is set as a search start point for searching for an edge of the mask layer. In the case of the mask layer as illustrated in FIG. 2, the edge of the mask layer exists on the right side of the SEM image, and the edge of the base pattern exists on the left side relative to the edge of the mask layer. That is, if the right side of the FOV is set as the search start point and the search is started, the first appearing should be the edge of the mask layer. In order to enable such a search, the search direction / start point setting unit 516 determines, for each piece of FOV set on the layout data, to which position on the layout data the piece belongs. When it can be determined that all the pieces belong to the mask layer, a setting may be made such that the piece is set as a search start point. The search start point may be arbitrarily set via the input device 518.

また、サーチには、図7に例示するような画素配列を持つテンプレートを用いることが考えられる。図7に例示するテンプレートは、M×N(図7では5×5)の画素からなり、中心列(3列)が最も明るい画素値を持ち、端に行くに従って(0列及び4列に行くに従って)、徐々に輝度値が下がっていく輝度分布を有する。このようなテンプレートを、画像の右から左に向かってサーチしていくと、テンプレートと画像との間の一致度が最も高くなるサーチ位置は、マスク層のエッジの中で明るさが最も明るい部分と、テンプレートの中心列の位置が一致した個所である。このような一致度判定に基づいて、マスク層のエッジ位置を検出するために、図7に例示するようなテンプレートを作成するようにすると良い。   Further, it is conceivable to use a template having a pixel array as illustrated in FIG. 7 for the search. The template illustrated in FIG. 7 includes pixels of M × N (5 × 5 in FIG. 7), and the center column (3 columns) has the brightest pixel value, and goes to the end (goes to 0 column and 4 columns). And a luminance distribution in which the luminance value gradually decreases. When such a template is searched from the right to the left of the image, the search position where the degree of coincidence between the template and the image is the highest is the brightest part of the edge of the mask layer. And the position of the central row of the template match. In order to detect the edge position of the mask layer based on such coincidence determination, it is preferable to create a template as illustrated in FIG.

なお、エッジ位置の検出法として上述のように、サーチ位置の始点と方向を決定し、最初に現れたエッジを検出するようにしても良いし、テンプレートを用いて、右から左、或いは左から右にサーチを行うことによって、得られる一致度が最も高い位置をエッジ位置と決定するようにしても良い。例えば、図10に例示するように、サーチ位置(Position)に対するテンプレートと画像の一致度(Degree of Correspondence)を求め、一致度が所定値を超えた位置を、エッジ位置と判定するようにしても良い。特に、明らかにマスク層のエッジ部と、下地パターンのエッジ部との間にエッジ幅や輝度に乖離があるような場合には有効な手法である。   As described above, as the edge position detection method, the start point and direction of the search position may be determined, and the first appearing edge may be detected, or from the right or left using the template. By performing a search to the right, the position with the highest degree of matching obtained may be determined as the edge position. For example, as illustrated in FIG. 10, the degree of coincidence (Degree of Correspondence) between the template and the image with respect to the search position (Position) is obtained, and the position where the degree of coincidence exceeds a predetermined value may be determined as the edge position. good. In particular, this is an effective technique when there is a clear difference in edge width and brightness between the edge portion of the mask layer and the edge portion of the base pattern.

また、下地パターンのエッジ部とマスク層のエッジ部との幅や輝度値に大きな乖離があるような場合、図6に例示するように、取得された撮像画像から、X方向に輝度分布を取得し、ピーク位置が所定の明るさ以上の場合、或いはピークの幅が所定値以上の場合に、そのピーク位置に相当する画像上の位置をエッジ位置601と決定するようにしても良い。   Further, when there is a large difference between the width and the luminance value of the edge portion of the base pattern and the edge portion of the mask layer, the luminance distribution is acquired in the X direction from the acquired captured image as illustrated in FIG. However, when the peak position is greater than or equal to a predetermined brightness, or when the peak width is greater than or equal to a predetermined value, the position on the image corresponding to the peak position may be determined as the edge position 601.

以上のようにテンプレートを用いてエッジ位置を検出する場合には、テンプレート設定部515やサーチ方向・始点設定部516によって、エッジ位置を特定するための処理条件を登録し、輝度情報に基づいて、エッジ位置を特定する場合には、閾値等の条件を登録する。図7に例示するようなテンプレートを作成する場合には、例えばテンプレート設定部515に含まれるエッジ幅情報設定部801(図8参照)にて、エッジ幅,輝度分布等の条件を入力して、テンプレートを作成する。   When the edge position is detected using the template as described above, the processing conditions for specifying the edge position are registered by the template setting unit 515 or the search direction / start point setting unit 516, and based on the luminance information, When specifying the edge position, conditions such as a threshold value are registered. When creating a template as illustrated in FIG. 7, for example, an edge width information setting unit 801 included in the template setting unit 515 (see FIG. 8) inputs conditions such as edge width and luminance distribution, Create a template.

以上のような条件設定がなされた状態にて、SEM画像を取得し(ステップ306)、上述のような手法にてマスク層のエッジ(Ion Implantパターン)を検出する(ステップ307)。この処理はエッジ抽出部514にて行われる。マスク設定部519は、マスク層領域(Ion Implantパターンのarea)を画像認識の除外領域(画像認識禁止area)として設定する(ステップ308)。この処理ではステップ307にて検出されたエッジ位置
を基準として、マスク層にマッチング除外領域を設定する。この設定は例えばレイアウトデータに設定されたFOVの1片全てがマスク層に属すると判定できる片と、検出されたエッジ位置、或いは当該エッジ位置よりも所定値分、上記1片から離れた位置との間をマッチング除外領域とすることによって実現することが可能である。
With the condition set as described above, an SEM image is acquired (step 306), and the edge of the mask layer (Ion Implant pattern) is detected by the method as described above (step 307). This processing is performed by the edge extraction unit 514. The mask setting unit 519 sets the mask layer area (area of the Ion Implant pattern) as an image recognition exclusion area (image recognition prohibited area) (step 308). In this process, a matching exclusion region is set in the mask layer using the edge position detected in step 307 as a reference. This setting includes, for example, a piece that can be determined that all one piece of the FOV set in the layout data belongs to the mask layer, a detected edge position, or a position that is a predetermined value away from the one piece. It is possible to realize this by setting a matching exclusion area.

このようにマッチング除外領域を設定したSEM画像と、ステップ304にて作成したテンプレートとの間でマッチング処理を実行する(ステップ309)。   A matching process is executed between the SEM image in which the matching exclusion region is set in this way and the template created in step 304 (step 309).

図9は、図7に例示したテンプレートを用いて非サーチ領域(マッチング除外領域)を設定する工程を示すフローチャートである。SEM画像を取得(ステップ901)した後、図7に例示したようなテンプレート(ピーク位置検出フィルタ803)を用いてピーク位置を検出する(ステップ902)。例えばピーク位置の検出には、ピーク検出部804によって、所定の条件を持つピークを選択的に検出する工程(ステップ903)を含ませるようにしても良い。このような工程を経て、非サーチ領域を設定する(ステップ904)。   FIG. 9 is a flowchart illustrating a process of setting a non-search area (matching exclusion area) using the template illustrated in FIG. After acquiring the SEM image (step 901), the peak position is detected using the template (peak position detection filter 803) illustrated in FIG. 7 (step 902). For example, the peak position detection may include a step (step 903) of selectively detecting a peak having a predetermined condition by the peak detection unit 804. Through these steps, a non-search area is set (step 904).

上述の実施例によれば、得られたSEM画像に応じて、適宜マッチング除外領域を設定した上で、マッチング処理を行うことが可能となるため、プロセス変動によらず安定したマッチングを実行することが可能となる。即ち、上述のアルゴリズムを利用することで、Ion Implantのようなプロセスの変動が激しいパターンに対しても、デザインデータを利用した画像認識の精度と成功率を向上することが可能になる。   According to the above-described embodiment, matching processing can be performed after appropriately setting a matching exclusion region according to the obtained SEM image, so that stable matching is performed regardless of process variations. Is possible. In other words, by using the above-described algorithm, it is possible to improve the accuracy and success rate of image recognition using design data even for a pattern such as Ion Implant that has a large process variation.

101 陰極
102 第1陽極
103 第2陽極
104 一次電子線
105 集束レンズ
106 対物レンズ
107 ウェーハ
108 偏向コイル
109 偏向制御装置
110 二次電子
111 二次電子検出器
112 増幅器
113 CRT
101 Cathode 102 First Anode 103 Second Anode 104 Primary Electron Beam 105 Focusing Lens 106 Objective Lens 107 Wafer 108 Deflection Coil 109 Deflection Controller 110 Secondary Electron 111 Secondary Electron Detector 112 Amplifier 113 CRT

Claims (10)

設計データに基づいて形成されたテンプレートを用いて、画像上でパターンマッチングを実行する画像処理部を備えたパターンマッチング装置において、
前記画像処理部は、マッチングの対象となる領域の画像を取得し、当該取得画像からマッチングの対象外となる領域を抽出し、当該マッチングの対象外となる領域を除いた前記画像上にて、前記テンプレートを用いたパターンマッチングを実行し、前記マッチングの対象外となる領域は、イオン打ち込みによるイオンの試料への到達を遮断するマスク層であることを特徴とするパターンマッチング装置。
In a pattern matching device including an image processing unit that performs pattern matching on an image using a template formed based on design data,
The image processing unit acquires an image of a region to be matched, extracts a region that is not a matching target from the acquired image, and on the image excluding the region that is not a matching target, A pattern matching apparatus that performs pattern matching using the template, and the region that is not the target of matching is a mask layer that blocks ions from reaching the sample by ion implantation.
請求項1において、
前記画像処理部は、前記マスク層のエッジ位置の検出に基づいて、前記マッチングの対象外となる領域を抽出することを特徴とするパターンマッチング装置。
In claim 1,
The image processing unit extracts a region that is not subject to matching based on detection of an edge position of the mask layer.
請求項2において、
前記画像処理部は、前記マスク層が存在する領域の情報と前記エッジ位置の検出位置情報に基づいて、前記マッチングの対象外となる領域を抽出することを特徴とするパターンマッチング装置。
In claim 2,
The pattern processing apparatus, wherein the image processing unit extracts a region that is not subject to matching based on information on a region where the mask layer exists and detection position information on the edge position.
設計データに基づいて形成されたテンプレートを用いて、画像上でパターンマッチングを実行する画像処理部を備えたパターンマッチング装置において、
前記画像処理部は、マッチングの対象となる領域の画像を取得し、当該取得画像から上層のエッジとなる部分を、前記画像上をサーチすることによって検出し、当該エッジの検出に基づいて、当該エッジを、前記マッチングの対象外となるように除いた前記画像上にて、前記テンプレートを用いたパターンマッチングを実行することを特徴とするパターンマッチング装置。
In a pattern matching device including an image processing unit that performs pattern matching on an image using a template formed based on design data,
The image processing unit acquires an image of a region to be matched, detects a portion that becomes an upper layer edge from the acquired image by searching the image, and based on the detection of the edge, A pattern matching apparatus that performs pattern matching using the template on the image from which edges are excluded so as to be excluded from the matching target.
請求項4において、
前記画像処理部は、前記上層が存在する領域の情報と前記エッジ位置の検出位置情報に基づいて、前記マッチングの対象外となる領域を抽出することを特徴とするパターンマッチング装置。
In claim 4,
The pattern processing apparatus, wherein the image processing unit extracts a region that is not a target of matching based on information on a region where the upper layer exists and detection position information on the edge position.
設計データに基づいて形成されたテンプレートを用いて、画像上でパターンマッチングをコンピューターに実行させるコンピュータープログラムにおいて、
当該プログラムは、前記コンピューターにマッチングの対象となる領域の画像を取得させ、当該取得画像からマッチングの対象外となる領域を抽出させ、当該マッチングの対象外となる領域を除いた前記画像上にて、前記テンプレートを用いたパターンマッチングを実行させることを特徴とするコンピュータープログラムであって、
前記マッチングの対象外となる領域は、イオン打ち込みによるイオンの試料への到達を遮断するマスク層であることを特徴とするコンピュータープログラム。
In a computer program that causes a computer to perform pattern matching on an image using a template formed based on design data,
The program causes the computer to acquire an image of a region to be matched, to extract a region that is not a matching target from the acquired image, and on the image excluding the region that is not a matching target. A computer program characterized by executing pattern matching using the template,
The computer program characterized in that the region that is not subject to matching is a mask layer that blocks ions from reaching the sample by ion implantation.
請求項6において、
前記プログラムは、前記コンピューターに、前記マスク層のエッジ位置の検出に基づいて、前記マッチングの対象外となる領域を抽出させることを特徴とするコンピュータープログラム。
In claim 6,
The computer program causes the computer to extract a region that is not subject to matching based on detection of an edge position of the mask layer.
請求項7において、
前記プログラムは、前記コンピューターに、前記マスク層が存在する領域の情報と前記エッジ位置の検出位置情報に基づいて、前記マッチングの対象外となる領域を抽出させることを特徴とするコンピュータープログラム。
In claim 7,
The computer program causes the computer to extract a region that is not subject to matching based on information on a region where the mask layer is present and detection position information on the edge position.
設計データに基づいて形成されたテンプレートを用いて、画像上でパターンマッチングをコンピューターに実行させるコンピュータープログラムにおいて、
当該プログラムは、前記コンピューターにマッチングの対象となる領域の画像を取得させ、当該取得画像から上層のエッジとなる部分を、前記画像上をサーチさせることによって検出させ、当該エッジの検出に基づいて、当該エッジを、前記マッチングの対象外となるように除いた前記画像上にて、前記テンプレートを用いたパターンマッチングを実行させることを特徴とするコンピュータープログラム。
In a computer program that causes a computer to perform pattern matching on an image using a template formed based on design data,
The program causes the computer to acquire an image of a region to be matched, causes the upper edge of the acquired image to be detected by searching the image, and based on the detection of the edge, A computer program for executing pattern matching using the template on the image from which the edge is excluded from the matching target.
請求項9において、
前記プログラムは、前記コンピューターに、前記上層が存在する領域の情報と前記エッジ位置の検出位置情報に基づいて、前記マッチングの対象外となる領域を抽出させることを特徴とするコンピュータープログラム。
In claim 9,
The computer program causes the computer to extract a region that is not subject to matching based on information on a region in which the upper layer exists and detection position information on the edge position.
JP2014209609A 2014-10-14 2014-10-14 Pattern matching device and computer program Expired - Fee Related JP5857106B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014209609A JP5857106B2 (en) 2014-10-14 2014-10-14 Pattern matching device and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014209609A JP5857106B2 (en) 2014-10-14 2014-10-14 Pattern matching device and computer program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011015898A Division JP2012155637A (en) 2011-01-28 2011-01-28 Pattern matching device and computer program

Publications (2)

Publication Number Publication Date
JP2015018577A true JP2015018577A (en) 2015-01-29
JP5857106B2 JP5857106B2 (en) 2016-02-10

Family

ID=52439448

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014209609A Expired - Fee Related JP5857106B2 (en) 2014-10-14 2014-10-14 Pattern matching device and computer program

Country Status (1)

Country Link
JP (1) JP5857106B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003174065A (en) * 2001-12-07 2003-06-20 Dainippon Screen Mfg Co Ltd System, method and program for inspecting semiconductor substrate
JP2007157924A (en) * 2005-12-02 2007-06-21 Fujitsu Ltd Semiconductor device and method of manufacturing same
JP2007334702A (en) * 2006-06-16 2007-12-27 Hitachi High-Technologies Corp Template matching method and scanning electron microscope
JP2010086925A (en) * 2008-10-03 2010-04-15 Hitachi High-Technologies Corp Pattern matching method and image processing device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003174065A (en) * 2001-12-07 2003-06-20 Dainippon Screen Mfg Co Ltd System, method and program for inspecting semiconductor substrate
JP2007157924A (en) * 2005-12-02 2007-06-21 Fujitsu Ltd Semiconductor device and method of manufacturing same
JP2007334702A (en) * 2006-06-16 2007-12-27 Hitachi High-Technologies Corp Template matching method and scanning electron microscope
JP2010086925A (en) * 2008-10-03 2010-04-15 Hitachi High-Technologies Corp Pattern matching method and image processing device

Also Published As

Publication number Publication date
JP5857106B2 (en) 2016-02-10

Similar Documents

Publication Publication Date Title
US10318805B2 (en) Pattern matching method and apparatus
US20140016854A1 (en) Pattern matching device and computer program
US11836906B2 (en) Image processing system and computer program for performing image processing
TWI597494B (en) Contour-based array inspection of patterned defects
WO2014017337A1 (en) Matching process device, matching process method, and inspection device employing same
US9310325B2 (en) Focused ion beam apparatus and method of working sample using the same
WO2013168487A1 (en) Defect analysis assistance device, program executed by defect analysis assistance device, and defect analysis system
JP5651428B2 (en) Pattern measuring method, pattern measuring apparatus, and program using the same
US10712152B2 (en) Overlay error measurement device and computer program
US20150285627A1 (en) Overlay error measuring device and computer program for causing computer to measure pattern
US10977786B2 (en) Wafer observation device
US20110262043A1 (en) Pattern matching method and image processing device
JP6454533B2 (en) Charged particle beam equipment
JP2013179105A (en) Semiconductor evaluation device and computer program
US10255519B2 (en) Inspection apparatus and method using pattern matching
US9704235B2 (en) Semiconductor inspection system
JP5308766B2 (en) PATTERN SEARCH CONDITION DETERMINING METHOD AND PATTERN SEARCH CONDITION SETTING DEVICE
JP5857106B2 (en) Pattern matching device and computer program
JP5043741B2 (en) Semiconductor pattern inspection method and inspection apparatus
JP6859944B2 (en) Scanning electron microscope and control program
JP2012155637A (en) Pattern matching device and computer program
CN110889417A (en) Contour extraction method, contour extraction device, and non-volatile recording medium
US10984980B2 (en) Charged particle beam device for imaging vias inside trenches
JP6207893B2 (en) Template creation device for sample observation equipment
WO2015064399A1 (en) Charged-particle-beam device and program recording medium

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150924

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5857106

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees