JP4262288B2 - Pattern matching method and apparatus - Google Patents
Pattern matching method and apparatus Download PDFInfo
- Publication number
- JP4262288B2 JP4262288B2 JP2007332968A JP2007332968A JP4262288B2 JP 4262288 B2 JP4262288 B2 JP 4262288B2 JP 2007332968 A JP2007332968 A JP 2007332968A JP 2007332968 A JP2007332968 A JP 2007332968A JP 4262288 B2 JP4262288 B2 JP 4262288B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- design data
- pattern matching
- electron microscope
- scanning electron
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
本発明は、例えば、設計データを利用して半導体ウェハ上のパターンマッチングを行うパターンマッチング方法及び装置に関し、特に設計データからパターンの撮影/検査条件を自動的に生成するシステム構成と設計データとSEM(走査型電子顕微鏡、Scanning Electron Microscopeの略語)画像とのマッチング処理を安定して行う方法及び装置に関するものである。 The present invention relates to, for example, a pattern matching method and apparatus for performing pattern matching on a semiconductor wafer using design data, and more particularly to a system configuration, design data, and SEM that automatically generate a pattern photographing / inspection condition from design data. (Abbreviation for Scanning Electron Microscope) This invention relates to a method and apparatus for stably performing matching processing with an image.
近年、半導体業界がメモリ生産からシステムLSI(大規模集積回路、Large Scale Integrated Circuitの略語)生産へシフトして来ている。半導体ウェハ上のパターンとして見ると、システムLSIのパターンは、メモリのパターンと異なり、単なる繰返しパターンとして作られていない。したがって、半導体評価装置の一つである測長SEMで、システムLSIのパターン測定を行う場合、測定する位置つまりマッチング用のテンプレートを頻繁に変える必要が生じる。実際の測定の際に頻繁にテンプレート登録用の撮影を行うことは全体のスループットを著しく低下させることになるため、CAD(コンピュータを利用した設計、Computer Aided Designの略語)の様な予めある設計データから直接、テンプレートを生成することが望まれている。また、ウェハの大きさが300mmとなり人手による運搬ができなくなり、さらには高純度のクリーンルームでの検査が必要になってきていることから、半導体工場内は完全にロボット化することが望まれている。したがって、位置決めのためのテンプレートのみではなく、設計情報から撮影の条件、測長するポイント、測長のアルゴリズムまで検査に必要な全ての条件を作成し、その条件で実際の検査を行うオペレータフリーな完全自動化された半導体検査システムが求められている。 In recent years, the semiconductor industry has shifted from memory production to system LSI (abbreviation for Large Scale Integrated Circuit) production. When viewed as a pattern on a semiconductor wafer, the pattern of the system LSI is not created as a simple repetitive pattern, unlike the pattern of the memory. Therefore, when measuring a pattern of a system LSI with a length measuring SEM which is one of semiconductor evaluation apparatuses, it is necessary to frequently change a measurement position, that is, a matching template. Pre-design data such as CAD (Computer Aided Design) is used because taking images for template registration frequently during actual measurement significantly reduces the overall throughput. It is desirable to generate a template directly from In addition, since the wafer size is 300mm and it can no longer be transported by hand, and inspection in a high-purity clean room is becoming necessary, it is desired that the semiconductor factory be completely robotized. . Therefore, not only the template for positioning, but also all the conditions necessary for inspection, from design information to shooting conditions, points to measure, and length measurement algorithms, and operator-free to perform actual inspection under those conditions There is a need for a fully automated semiconductor inspection system.
従来の測長SEMでは、画像認識のためのポイントや測長位置及び測長アルゴリズムの登録は、実際のウェハを一度撮影してみて、それを用いて行っていた。つまり、実際のウェハが必要であり、しかもSEM画像の撮影及び諸条件の登録を行うために一時的に測長SEMを占有しなければならない。また、設計データとSEM画像とのマッチング技術も充分ではなく精度よくマッチングが行えなかった。例えば、従来技術で設計データをテンプレートに使用して半導体ウェハのSEM画像上のパターン位置を特定する場合は、SEM画像に対してソーベルフィルタ等のフィルタリングを行いエッジ成分を検出してエッジ画像を作成し、そのエッジ画像と設計データの間で正規化相関処理の様なマッチングを行っていた。 In the conventional length measurement SEM, registration of the point for image recognition, the length measurement position, and the length measurement algorithm is performed by photographing an actual wafer once and using it. In other words, an actual wafer is required, and the length measuring SEM must be temporarily occupied in order to take an SEM image and register various conditions. Moreover, the matching technology between the design data and the SEM image is not sufficient, and the matching cannot be performed with high accuracy. For example, when design data is used as a template in the prior art to specify the pattern position on a SEM image of a semiconductor wafer, the edge image is detected by filtering the SEM image using a Sobel filter or the like to detect edge components. It was created and matching was performed between the edge image and the design data, such as normalized correlation processing.
従来処理の概略フローと処理に使われる画像例を図1.と図7.に示す。初めに、101で設計データから求めたいパターンのテンプレート登録を行う。設計データから登録されたパターンを701に示す。次に102でSEM画像を取得する。取得されたSEM画像を702に示す。103で取得したSEM画像にソーベルフィルタ等のエッジ強調フィルタを施す。104でエッジが強調された画像を2値化してエッジだけが抽出された線画像にする。703に702のSEM画像から抽出された線画像を示す。105では101で登録された設計データと正規化相関等のマッチング処理を行う。
Fig. 1 shows an outline flow of conventional processing and an image example used for processing. And FIG. Shown in First, in 101, a template of a pattern desired to be obtained from design data is registered. A
従来の半導体検査システムでは、画像認識のためのポイントや測長位置及び測長アルゴリズムの登録は、実際のウェハを一度撮影してみて、それを用いて行っていた。そのため、登録のための時間がかかることとその時間装置を占有することからスループットが向上しないという問題があった。また、実際のSEM画像を見て人が判断し登録するため必ず操作者が必要となりオペレータフリーな完全自動化された半導体検査システムが構築できないという問題があった。さらに、設計情報とSEM画像のマッチング技術においても従来の技術では、CADデータとSEM画像の形状変化に対応できないことや、SEM画像からエッジ情報を取り出す場合に画像のS/N(信号/雑音比)によりエッジ情報を充分に取り出せないことや、2値化により線画像を作る場合に閾値の決定が難しく最適な値を求められないことがあった。そのため、その後の正規化相関によるマッチング処理で、相関係数が非常に小さくなる問題があった。 In the conventional semiconductor inspection system, registration of the point for image recognition, the measurement position, and the measurement algorithm is performed by photographing an actual wafer once and using it. For this reason, there is a problem that throughput is not improved because it takes time for registration and occupies the time device. In addition, there is a problem in that an operator is always required for a person to judge and register by looking at an actual SEM image, and an operator-free fully automated semiconductor inspection system cannot be constructed. Furthermore, in the matching technology between design information and SEM image, the conventional technology cannot cope with changes in the shape of CAD data and SEM image, and the S / N (signal / noise ratio) of image when extracting edge information from SEM image. ) Cannot sufficiently extract edge information, and when a line image is created by binarization, it is difficult to determine a threshold value, and an optimal value may not be obtained. Therefore, there has been a problem that the correlation coefficient becomes very small in the subsequent matching processing by normalized correlation.
本発明はこのような状況に鑑みてなされたものであり、CADデータ等の設計情報から撮影の条件、測長するポイント、測長のアルゴリズムまで検査に必要な全ての条件を作成し、その条件で実際の検査を行うオペレータフリーな完全自動化された半導体検査システムを実現することとそのシステムにおいて設計データをテンプレートにしてSEM画像とのマッチング処理行う場合に、相関値が高く安定したマッチング処理を実行できる方法及び装置を実現するものである。 The present invention has been made in view of such a situation, creating all conditions necessary for inspection from design information such as CAD data to shooting conditions, length measurement points, and length measurement algorithms. Realizes an operator-free fully automated semiconductor inspection system that performs actual inspections at the same time, and performs matching processing with high correlation values when matching processing with SEM images using design data as a template in that system The method and apparatus which can be implemented are realized.
上記目的を達成するために、本発明のパターンマッチング方法は、設計データと走査型電子顕微鏡によって取得される画像との間でパターンマッチングを行うパターンマッチング方法において、前記設計データのエッジと、前記走査型電子顕微鏡によって取得される画像のエッジ間で、方向別のマッチング処理を行うことを特徴とする。 In order to achieve the above object, a pattern matching method of the present invention includes a pattern matching method for performing pattern matching between design data and an image acquired by a scanning electron microscope, the edge of the design data, and the scanning. A matching process for each direction is performed between edges of an image acquired by a scanning electron microscope.
さらに、本発明のパターンマッチング装置は、設計データと走査型電子顕微鏡によって取得される画像との間でパターンマッチングを行うパターンマッチング装置において、前記設計データのエッジと、前記走査型電子顕微鏡によって取得される画像のエッジを取得するエッジ取得手段と、前記設計データのエッジと前記画像のエッジ間で、方向別のマッチング処理を行うパターンマッチング手段と、を備えることを特徴とする。 Furthermore, the pattern matching apparatus of the present invention is a pattern matching apparatus that performs pattern matching between design data and an image acquired by a scanning electron microscope, and is acquired by an edge of the design data and the scanning electron microscope. Edge acquisition means for acquiring an edge of the image to be obtained, and pattern matching means for performing matching processing according to direction between the edge of the design data and the edge of the image.
本発明によれば、相関値が高く安定したマッチング処理を実行できる方法及び装置を実現することができる。 According to the present invention, it is possible to realize a method and an apparatus capable of executing a matching process having a high correlation value and stable.
図3は、本発明の走査型電子顕微鏡システムの構成概要のブロック図である。301は電子顕微鏡の鏡体部であり、電子銃302から発せられた電子線303が図には描かれていない電子レンズによって収束され、試料305に照射される。電子線照射によって、試料表面から発生する二次電子、或いは反射電子の強度が電子検出器306によって検出され、増幅器307で増幅される。304は電子線の位置を移動させる偏向器であり、制御用計算機310の制御信号308によって電子線303を試料表面上でラスタ走査させる。増幅器307から出力される信号を画像処理プロセッサ309内でAD変換し、デジタル画像データを作る。311は、その画像データを表示する表示装置である。また、画像処理プロセッサ309は、デジタル画像データを格納する画像メモリと各種の画像処理を行う画像処理回路、表示制御を行う表示制御回路を持つ。制御用計算機310には、キーボードやマウス等の入力手段312が接続される。
FIG. 3 is a block diagram of a schematic configuration of the scanning electron microscope system of the present invention. Reference numeral 301 denotes a mirror body part of an electron microscope, and an electron beam 303 emitted from an
半導体デバイス作成時、ウェハ上に描かれた微細なパターンの線幅を計測する場合に電子顕微鏡装置が使われる。この時、ウェハ上の線幅を計測する部分を見つけ出す方法として、現在では、正規化相関法が使われており、その場合に最適なテンプレート選択が必要とされている。本発明の画像処理プロセッサ309は、テンプレートマッチングにおけるテンプレート選択を最適に行うことができるよう構成されているため、電子顕微鏡装置に適応することが可能である。
An electron microscope apparatus is used to measure the line width of a fine pattern drawn on a wafer when creating a semiconductor device. At this time, the normalized correlation method is currently used as a method for finding a portion for measuring the line width on the wafer, and in this case, an optimal template selection is required. Since the
図2は、本発明の一実施例である設計データとSEM画像を使ったマッチング処理フローである。初めに201で設計データから検出したいパターン部分をテンプレート登録する。202でSEM画像を取得し、203でマッチング処理を行う。このマッチング処理に関しては、いろいろな手法があるが、例えば図1の103〜105と同様な手法(エッジ強調フィルタ処理、2値化処理、正規化相関処理)を用いれば良い。その結果、設計データのパターンと相対応したSEM画像上位置が204で検出される。次に205で、204で検出された位置に対応したSEM画像の部分をテンプレートとして再登録する。その後、206でSEM画像を取得し、205で再登録したSEM画像をテンプレートとしてマッチング処理を行い、208で位置検出を行う。こうすることで、再登録したテンプレートがSEM画像であるので、SEMの濃淡画像同士のマッチング処理となるため、相関値を高く、検出率も安定したマッチング処理を行う事が可能になる。複数の検出を行う場合は、206から209までの過程を繰り返すことになる。なお、最初に登録するテンプレートを予め設定しておけば、その後の処理はコンピュータプログラムにより自動的に進行させられる。 FIG. 2 shows a matching processing flow using design data and an SEM image according to an embodiment of the present invention. First, in 201, a pattern portion to be detected from design data is registered as a template. An SEM image is acquired at 202 and matching processing is performed at 203. For this matching process, there are various techniques. For example, the same techniques (edge enhancement filter process, binarization process, normalized correlation process) as 103 to 105 in FIG. 1 may be used. As a result, a position on the SEM image corresponding to the design data pattern is detected at 204. Next, at 205, the part of the SEM image corresponding to the position detected at 204 is re-registered as a template. Thereafter, an SEM image is acquired at 206, matching processing is performed using the SEM image re-registered at 205 as a template, and position detection is performed at 208. By doing so, since the re-registered template is the SEM image, the matching process between the SEM gray images is performed, so that the matching process with a high correlation value and a stable detection rate can be performed. When a plurality of detections are performed, the process from 206 to 209 is repeated. If a template to be registered first is set in advance, the subsequent processing is automatically advanced by a computer program.
図4は、本発明の一実施例である経時的にテンプレートとしてSEM画像を再登録する場合の処理フローである。401から408は図2の201から208に対応する。409で一定の時間間隔または処理回数間隔でテンプレート再登録を行うか行わないかの判定を行い、行う場合は、再度、設計データとSEM画像を使ったマッチング処理を行うため、402から405の工程を実行する。こうすることで、撮影途中でのSEM画像が経時変化しても、相関値を高く、検出率も安定したマッチング処理を行う事ができる。
FIG. 4 is a processing flow for re-registering an SEM image as a template over time according to an embodiment of the present invention. 401 to 408 correspond to 201 to 208 in FIG. In
図5は、本発明の一実施例である前回の相関値より大きい相関値が得られた場合にテンプレートとしてSEM画像を再登録する場合の処理フローである。501から504と506から510は図4の401から404と405から409に対応する。510で一定の時間間隔または処理回数間隔でテンプレート再登録を行うか行わないかの判定を行い、行う場合は、再度、設計データとSEM画像を使ったマッチング処理を行うため、502から504の工程を実行する。次に505で今回検出された位置の相関値が前回までのテンプレートの相関値より大きい場合は、506のテンプレート再登録を行うが、小さい場合は、再登録を行わず、507からの処理に入る。したがって、使用するテンプレートを相関値が最も高いテンプレートに最適化を行うことができる。
FIG. 5 is a processing flow for re-registering an SEM image as a template when a correlation value larger than the previous correlation value is obtained according to an embodiment of the present invention.
図6は、本発明の一実施例である任意回数、設計データとSEM画像とのマッチング処理を行い、その内、相関値が最も高い位置のSEM画像をテンプレートとして再登録する場合の処理フローである。601から604と606から610は図2の201から204と205から209に対応する。602から605まで任意回数、設計データとSEM画像を使ったマッチング処理を繰返し、606で、検出された位置の内で相関値が最も高い位置のSEM画像をテンプレートとして再登録する。そのため、相関値が高いSEM画像のテンプレートを選択できる。複数の検出を行う場合は、そのテンプレートを使い、607から609までの過程を繰り返すことになる。なお、図4から図6の処理もコンピュータプログラムによる自動化が可能である。
FIG. 6 is a processing flow in the case where the design data and the SEM image are matched any number of times according to an embodiment of the present invention, and the SEM image at the highest correlation value is re-registered as a template. is there.
図8は、本発明の一実施例であるビットマップデータのテンプレートとSEM画像とのマッチング処理の処理フローである。801でビットマップデータとSEM画像、それぞれからエッジ情報を抽出する。この部分の処理には、一般的にはソーベルフィルタ等のエッジ強調フィルタが用いられる。この部分で両画像は、コントラスト情報が失われマッチングがしやすくなるが、SEM画像は実際のCADデータとはかなり形状が異なっているため、このままではマッチングの検出率が低いものになってしまう。そこで、802でエッジ画像となった両画像に対して平滑化処理を施して両者の形状変化を補う。この部分の処理には、やや強めの平滑フィルタを施す。また、CADデータとSEM画像の平滑化の強度を変え、CADデータの平滑化をより強めに行う必要がある。このように、形状変形部分を補正したエッジ画像同士を803でマッチング処理するため検出率の高いマッチング処理が行える。なお、最初に抽出するビットマップデータとSEM画像、それぞれからエッジ情報を予め設定しておけば、コンピュータプログラムによるマッチング処理の自動化が可能である。
FIG. 8 is a processing flow of matching processing between a bitmap data template and an SEM image according to an embodiment of the present invention. In
図9は、本発明の別の実施例であるビットマップデータのテンプレートとSEM画像とのマッチング処理の処理フローである。図8の処理フローと異なる点は、901でのエッジ抽出を方向別に行う点である。方向別のエッジ抽出処理には、一般的に方向別のエッジを抽出ができるソーベルフィルタを用いる。方向は、X,Yの2方向もしくはX,Y,XY,YXの4方向を用いる。902では、形状変化部分を補うための平滑化処理を各方向に分解されたエッジ画像それぞれに対して行う。903では、各方向に分割された画像を図10のように合成統合する。このように合成することで903では1枚の画像同士のマッチングとして処理を行うことができる。もちろん、903の統合を行わず、それぞれの方向同士を別々にマッチング処理させることもできる。このように方向別にエッジを抽出しマッチング処理させることで、各方向のマッチング精度を向上させることができる。なお、図10の元画像は図9のテンプレート及び入力SEM画像に対応しており、これらの画像のX方向微分を求めるときには、元画像をY方向に複数行に分割して行う。また、Y方向微分を求めるときには、元画像をX方向に複数行に分割して行う。このマッチング処理についてもコンピュータプログラムによる自動化が可能である。 FIG. 9 is a processing flow of a matching process between a bitmap data template and an SEM image according to another embodiment of the present invention. A difference from the processing flow of FIG. 8 is that edge extraction in 901 is performed for each direction. The edge extraction process for each direction generally uses a Sobel filter that can extract edges for each direction. As directions, two directions of X and Y or four directions of X, Y, XY and YX are used. In 902, smoothing processing for compensating for the shape change portion is performed on each edge image decomposed in each direction. In 903, the images divided in each direction are combined and integrated as shown in FIG. By synthesizing in this way, in 903, processing can be performed as matching between one image. Of course, it is also possible to perform matching processing for each direction separately without performing the integration of 903. Thus, by extracting the edge for each direction and performing matching processing, the matching accuracy in each direction can be improved. Note that the original image in FIG. 10 corresponds to the template and the input SEM image in FIG. 9, and when obtaining the X-direction differentiation of these images, the original image is divided into a plurality of lines in the Y direction. Further, when obtaining the Y-direction differentiation, the original image is divided into a plurality of lines in the X direction. This matching process can also be automated by a computer program.
図11は、本発明の一実施例である半導体検査システムの構成図である。1101がCADデータ等の半導体チップの設計情報を格納し、その設計情報内から検査すべき領域を任意に取り出すことのできるナビゲーションシステムである。1102がその情報を使って実際に半導体ウェハの撮影を行い、所定の検査を実行する走査型電子顕微鏡システムである。これらのシステム1101と1102はネットワークで繋がっており、情報やデータをやり取りできる構成になっている。
FIG. 11 is a configuration diagram of a semiconductor inspection system according to an embodiment of the present invention.
図12は、本発明の一実施例であるナビゲーションシステムの構成図である。ナビゲーションシステム1101は、格納されている設計情報から所望の設計データを取り出し、ビットマップデータを作成する機能を有するビットマップデータ作成部1201とその設計データから走査型電子顕微鏡システム1102で使用する撮影/検査条件を編集し送信する機能を有する撮影/検査条件編集部1202から構成される。また、ナビゲーションシステム1101は、1台のWS(ワークステーション)もしくはPC(パーソナルコンピュータ)内にビットマップデータ作成部1201と撮影/検査条件編集部1202の機能部分を分割し構成しても良いし、2台もしくは複数のWSもしくはPCに機能を分割して構成しても良い。
FIG. 12 is a configuration diagram of a navigation system according to an embodiment of the present invention. The
図13は、本発明の一実施例である半導体検査システムの構成図である。1302のナビゲーションシステムは、自ら半導体パターンの設計機能を持ち、設計機能を持たない場合は、ネットワークを介して接続されていて設計機能を持つ他のシステム1301から設計情報を受け取り、その情報を用いる。
FIG. 13 is a configuration diagram of a semiconductor inspection system according to an embodiment of the present invention. If the
図14は、本発明の一実施例である半導体検査システムのネットワーク構成図である。本発明の半導体検査システムにおいては、ナビゲーションシステム1401は、設置施設のネットワークに接続されている他のナビゲーションシステム1402〜1404とデータの授受ができ、さらにネットワークに接続されている複数の走査型電子顕微鏡システム1405〜1406へ撮影/検査条件を送信できる。こうすることで撮影/検査条件の共有化ができると伴に複数のシステムを同時に自動運転することができる。
FIG. 14 is a network configuration diagram of a semiconductor inspection system according to an embodiment of the present invention. In the semiconductor inspection system of the present invention, the
図15は、本発明の一実施例であるナビゲーションシステムでの表示例である。ナビゲーションシステムには、半導体の設計データ1501が格納されていて、操作者が1502のレイヤ、セル等の設計情報を指定入力することで、その設計データ1501から指定部分1502を取り出し、1503のように表示画面上に表示する機能を持つ。この場合、1501は、図13のようにネットワークで繋がった設計システム上にあってもよい。
FIG. 15 is a display example in the navigation system according to one embodiment of the present invention. In the navigation system,
図16は、本発明の一実施例であるナビゲーションシステム1302で作成されるビットマップデータ例である。1601が図15で設計データから取り出された領域であり、この領域内から1602のような検査/測長する部分を指定する。この場合、検査/測長指定領域1602は1603のようなビットマップデータに変換され、走査型電子顕微鏡システム1303へ送られる。ここでは、ビットマップデータ1603として白黒2値を用いているが、この色は任意に設定することができる。
FIG. 16 is an example of bitmap data created by the
図17は、本発明の一実施例であるナビゲーションシステムで行われる処理フローである。1701で、図15に示したように、設計のレイヤ、セル情報等を指定し、格納されている設計データから指定されたデータを画面上に表示する。1702は撮影領域の指定であり、1703で視野内(撮影領域として指定された領域)のパターンデータと位置情報を取り込み、ビットマップデータ1603に変換する。この部分は図16に示した内容と同じである。次に1704で検査/測長する箇所を指定し、その座標データを読み込み、1705で位置決め用のテンプレートの指定を行う。テンプレートの指定は、通常最も特異性の強い特徴のある部分を操作者が選んで指定するが、このような特徴のある部分は画像の高周波成分や特異性を評価する画像処理技術を用いて自動指定することも可能である。最後に1706で、1701から1705の情報に基づいて走査型電子顕微鏡システムで撮影/検査を行うために必要な全ての情報を編集し、操作型電子顕微鏡システムへ送信する。
FIG. 17 is a processing flow performed in the navigation system according to one embodiment of the present invention. At 1701, as shown in FIG. 15, the design layer, cell information, etc. are designated, and the designated data from the stored design data is displayed on the screen.
図18は、本発明の一実施例であるナビゲーションシステムにおける測長点とテンプレートの指定例である。1801が測長点の指定であり、1802がテンプレートの指定である。ここで指定対象の画像をビットマップデータとしたが、もちろんビットマップデータ変換前の設計データ上で指定しても構わない。
FIG. 18 is an example of specifying the measurement points and templates in the navigation system according to one embodiment of the present invention.
図19は、本発明の一実施例である走査型電子顕微鏡システムで行われる処理フローである。1901から1904においては、図17の1706から送られた情報からウェハアライメント情報、位置決め用のテンプレート情報、測長点情報、及び撮影条件と測長方法の登録を行う。1905で実際の撮影を行い、1906で1902で登録されたテンプレートを使ったサーチ処理(位置検出)を実行する。1907では1906で検出した位置決め座標から測長点を算出し測長を実行する。1908は全測長点に対して測長が終了したか否かの判定で、全測長点に対して測長を行うためである。
FIG. 19 is a processing flow performed in the scanning electron microscope system according to one embodiment of the present invention. In
図20は、本発明の一実施例である撮影/検査条件を登録した自動条件ファイルである。自動条件ファイルはナビゲーションシステムもしくは走査型電子顕微鏡システムのどちらあっても良い。自動条件ファイル2001に登録されている条件に従って走査型電子顕微鏡システムで実際の撮影/検査が行われる。ナビゲーションシステムで得られた情報から撮影/検査条件を決定する場合に本発明のように事前に登録されてあるレシピの中から最も適した条件を選択するようにすれば、条件作成処理を簡略化でき、管理やメンテナンスにおいても便利である。また、自動条件ファイルに登録されている各レシピは、2002のように一部変更、削除が可能であり、また別の名前で登録することも可能である。さらに、各レシピがどの程度使用されているか統計をとり、使用頻度の少ないレシピは自動的に削除していくことも可能である。
FIG. 20 is an automatic condition file in which imaging / inspection conditions are registered according to an embodiment of the present invention. The automatic condition file may be either a navigation system or a scanning electron microscope system. Actual photographing / inspection is performed by the scanning electron microscope system according to the conditions registered in the
図21は、本発明の一実施例である自動条件ファイルを使った場合の処理フローである。2101でレシピを新規作成すべきか否かを判断する。既に同一か一部修正可能なレシピが自動条件ファイル2001に存在していなければ、2102で新規に作成する。作成したら、2106で自動条件ファイル2001に新規レシピを登録する。登録後は当該レシピを参照して、2108で実行することが可能である。登録せずに実行のみ行うこともある。同一か一部修正可能なレシピが自動条件ファイル2001に既に存在している場合は、2103で自動条件ファイル内にある既存のレシピを参照して、2104で一部変更をすべきか否かを判断する。同一であれば一部変更の必要はなく、2108でそのまま既存のレシピを実行する。また、同一でなくても既存レシピで代用可能であれば同様である。一部変更する場合は、2105で一部変更の後に、2106で自動条件ファイル2001に変更したレシピを登録すべきか否かの判断を行い、2107、2008で登録して実行するか、登録せず2108で実行する。このフローに従い一度使ったレシピを自動条件ファイルに登録することで、次回その条件を参照にすることが可能になる。また、撮影/検査条件の一部を変更した場合、2106で、その条件を別の条件として登録することも可能であり、この場合は変更前、変更後どちらのファイルも参照可能となる。
FIG. 21 is a processing flow when an automatic condition file according to an embodiment of the present invention is used. In 2101, it is determined whether or not a new recipe should be created. If there is no recipe that can be already corrected or partially corrected in the
本実施形態は、以上説明してきたように構成されているので以下に記載されるような効果を奏する。 Since the present embodiment is configured as described above, the following effects can be obtained.
従来の半導体検査システムでは、画像認識のためのポイントや測長位置及び測長アルゴリズムの登録は、実際のウェハを一度撮影してみて、それを用いて行っていた。そのため、登録のための時間がかかることとその時間装置を占有することからスループットが向上しないという問題があった。また、実際のSEM画像を見て人が判断し登録するため必ず操作者が必要となりオペレータフリーな完全自動化された半導体検査システムが構築できないという問題があった。 In the conventional semiconductor inspection system, registration of the point for image recognition, the measurement position, and the measurement algorithm is performed by photographing an actual wafer once and using it. For this reason, there is a problem that throughput is not improved because it takes time for registration and occupies the time device. In addition, there is a problem in that an operator is always required for a person to judge and register by looking at an actual SEM image, and an operator-free fully automated semiconductor inspection system cannot be constructed.
これらの問題に対し、本発明は、CADデータ等の設計情報から撮影の条件、測長するポイント、測長のアルゴリズムまで検査に必要な全ての条件を作成し、その条件で実際の検査を行うので、オペレータフリーな完全自動化された高スループットな半導体検査システムを実現することができる。 In response to these problems, the present invention creates all the conditions necessary for inspection from design information such as CAD data to shooting conditions, length measurement points, and length measurement algorithms, and performs actual inspection under those conditions. Therefore, an operator-free fully automated high-throughput semiconductor inspection system can be realized.
また、従来、設計データとSEM画像のマッチング処理を行う場合、設計データとSEM画像の形状変化分が対策できずに相関係数が非常に小さくなり、安定したマッチング処理を行うことができなかった。この問題に対し、本発明は設計データとSEM画像のマッチング処理を行う場合に方向別のエッジ情報とその平滑化により形状変化分を補うマッチング処理を行う。また本発明は、エッジ画像と設計データのテンプレートとの間でマッチング処理を行い、検出された位置に対応したSEM画像の部分をテンプレートとして再登録しなおしマッチング処理を行うため、相関値が高く、検出率も安定したマッチング処理を実現することができる。 Conventionally, when performing matching processing between design data and SEM images, the shape coefficient of the design data and SEM images cannot be dealt with, and the correlation coefficient becomes very small, making it impossible to perform stable matching processing. . In order to solve this problem, the present invention performs matching processing that compensates for shape change by edge information for each direction and its smoothing when matching processing between design data and SEM images. Further, the present invention performs a matching process between the edge image and the template of the design data, re-registers the part of the SEM image corresponding to the detected position as the template, and performs the matching process. Matching processing with a stable detection rate can be realized.
本実施形態のパターンマッチング方法は、設計データと走査型電子顕微鏡にて取得される画像との間でパターンマッチングを行うパターンマッチング方法に関する。このパターンマッチング方法において、設計データをビットマップに変換して、このビットマップ化された設計データと、走査型電子顕微鏡によって取得された画像とのマッチングを行う。これにより、設計情報を利用した精度が高く効率的なマッチング処理の自動化が可能となる。 The pattern matching method of the present embodiment relates to a pattern matching method for performing pattern matching between design data and an image acquired by a scanning electron microscope. In this pattern matching method, design data is converted into a bitmap, and the bitmapped design data is matched with an image acquired by a scanning electron microscope. As a result, it is possible to automate matching processing with high accuracy and high efficiency using design information.
また、このビットマップに対してエッジ強調が行われた後に、マッチング処理が行われるようにするので、マッチング処理がしやすくなる。さらに、このエッジ強調が行われたビットマップに対して、平滑化処理が施された後に、マッチング処理を行えば、検出率をより高くすることができる。 In addition, since the matching process is performed after edge enhancement is performed on the bitmap, the matching process is facilitated. Furthermore, the detection rate can be further increased by performing the matching process after the smoothing process is performed on the bitmap subjected to the edge enhancement.
1101・・・ナビゲーションシステム、1102・・・走査型電子顕微鏡システム 1101 ... Navigation system, 1102 ... Scanning electron microscope system
Claims (8)
前記設計データの方向別のエッジと、前記走査型電子顕微鏡によって取得される画像の方向別のエッジを抽出し、これらのエッジに平滑化処理を施し、当該平滑化処理が施された設計データの方向別のエッジを統合すると共に、前記走査型電子顕微鏡によって取得された画像の方向別エッジを統合し、当該統合画像間でマッチング処理を行うことを特徴とするパターンマッチング方法。 In a pattern matching method for performing pattern matching between design data and an image acquired by a scanning electron microscope,
Extracting the edge for each direction of the design data and the edge for each direction of the image acquired by the scanning electron microscope , performing a smoothing process on these edges, and the design data subjected to the smoothing process A pattern matching method comprising integrating edges according to directions, integrating edges according to directions of images acquired by the scanning electron microscope, and performing matching processing between the integrated images .
前記設計データの方向別のエッジと、前記走査型電子顕微鏡によって取得される画像の方向別のエッジを抽出し、これらのエッジに平滑化処理を施し、当該平滑化処理が施された設計データのエッジと前記走査型電子顕微鏡によって取得された画像のエッジのエッジについて、それぞれの方向別同士で別々にマッチング処理を行うことを特徴とするパターンマッチング方法。Extracting the edge for each direction of the design data and the edge for each direction of the image acquired by the scanning electron microscope, performing a smoothing process on these edges, and the design data subjected to the smoothing process A pattern matching method, wherein matching processing is performed separately for each direction in each direction with respect to an edge and an edge of an edge of an image acquired by the scanning electron microscope.
前記走査型電子顕微鏡によって取得された画像についての前記方向別のエッジの抽出にはソーベルフィルタが用いられることを特徴とするパターンマッチング方法。A pattern matching method, wherein a Sobel filter is used for extracting the edge for each direction of the image acquired by the scanning electron microscope.
前記エッジ抽出の方向は、2方向、若しくは4方向であることを特徴とするパターンマッチング方法。2. The pattern matching method according to claim 1, wherein the direction of edge extraction is two directions or four directions.
前記設計データの方向別のエッジと、前記走査型電子顕微鏡によって取得される画像の方向別のエッジを抽出するエッジ抽出手段と、
前記設計データのエッジと前記画像のエッジに平滑化処理を施し、当該平滑化処理が施された設計データの方向別のエッジを統合すると共に、前記走査型電子顕微鏡によって取得された画像の方向別エッジを統合し、当該統合画像間でマッチング処理を行うパターンマッチング手段と、
を備えることを特徴とするパターンマッチング装置。 In a pattern matching device that performs pattern matching between design data and an image acquired by a scanning electron microscope,
An edge for each direction of the design data, and an edge extraction means for extracting an edge for each direction of an image acquired by the scanning electron microscope;
Smoothing the edges of the design data and the edges of the image, integrating the edges for each direction of the design data subjected to the smoothing process, and for each direction of the image acquired by the scanning electron microscope Pattern matching means for integrating edges and performing matching processing between the integrated images ;
A pattern matching apparatus comprising:
前記設計データの方向別のエッジと、前記走査型電子顕微鏡によって取得される画像の方向別のエッジを抽出するエッジ抽出手段と、An edge for each direction of the design data, and an edge extraction means for extracting an edge for each direction of an image acquired by the scanning electron microscope;
前記設計データのエッジと前記画像のエッジに平滑化処理を施し、当該平滑化処理が施された設計データのエッジと前記走査型電子顕微鏡によって取得された画像のエッジのエッジについて、それぞれの方向別同士で別々にマッチング処理を行うパターンマッチング手段と、The edge of the design data and the edge of the image are subjected to a smoothing process, and the edge of the design data subjected to the smoothing process and the edge of the edge of the image acquired by the scanning electron microscope are classified by direction. Pattern matching means for performing matching processing separately from each other;
を備えることを特徴とするパターンマッチング装置。A pattern matching apparatus comprising:
前記走査型電子顕微鏡によって取得された画像についての前記方向別のエッジの抽出にはソーベルフィルタが用いられることを特徴とするパターンマッチング装置。A pattern matching apparatus, wherein a Sobel filter is used to extract the edge for each direction of an image acquired by the scanning electron microscope.
前記エッジ抽出の方向は、2方向、若しくは4方向であることを特徴とするパターンマッチング装置。The pattern matching apparatus according to claim 1, wherein the edge extraction direction is two directions or four directions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007332968A JP4262288B2 (en) | 2007-12-25 | 2007-12-25 | Pattern matching method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007332968A JP4262288B2 (en) | 2007-12-25 | 2007-12-25 | Pattern matching method and apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006201138A Division JP4262269B2 (en) | 2006-07-24 | 2006-07-24 | Pattern matching method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008159061A JP2008159061A (en) | 2008-07-10 |
JP4262288B2 true JP4262288B2 (en) | 2009-05-13 |
Family
ID=39659839
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007332968A Expired - Lifetime JP4262288B2 (en) | 2007-12-25 | 2007-12-25 | Pattern matching method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4262288B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4199939B2 (en) * | 2001-04-27 | 2008-12-24 | 株式会社日立製作所 | Semiconductor inspection system |
JP5386519B2 (en) * | 2011-01-27 | 2014-01-15 | 株式会社日立ハイテクノロジーズ | Semiconductor inspection apparatus and charged particle beam image or optical condition selection apparatus |
JP6606858B2 (en) * | 2015-05-12 | 2019-11-20 | 沖電気工業株式会社 | Object detection apparatus and object detection method |
-
2007
- 2007-12-25 JP JP2007332968A patent/JP4262288B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2008159061A (en) | 2008-07-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4199939B2 (en) | Semiconductor inspection system | |
US9040937B2 (en) | Charged particle beam apparatus | |
US8045789B2 (en) | Method and apparatus for inspecting defect of pattern formed on semiconductor device | |
KR102195029B1 (en) | Defect Classification Device and Defect Classification Method | |
JP5715873B2 (en) | Defect classification method and defect classification system | |
US9082585B2 (en) | Defect observation method and device using SEM | |
JP4262269B2 (en) | Pattern matching method and apparatus | |
JP5320329B2 (en) | SEM type defect observation apparatus and defect image acquisition method | |
JP2006269489A (en) | Defect observation device and defect observation method using defect observation device | |
WO2016092640A1 (en) | Defect observation device and defect observation method | |
JP6391170B2 (en) | Inspection device | |
JP2006066478A (en) | Pattern matching device and scanning electron microscope employing it | |
JP5838138B2 (en) | Defect observation system and defect observation method | |
JP2008051617A (en) | Image inspection device, image inspection method and recording medium | |
JP4262288B2 (en) | Pattern matching method and apparatus | |
JP2008294451A (en) | Image forming method and image forming apparatus | |
US20230052350A1 (en) | Defect inspecting system and defect inspecting method | |
JP2009053197A (en) | Pattern inspection method and apparatus | |
JP2013221761A (en) | Defect observation apparatus | |
JP2008147679A (en) | Electron beam application device | |
JP6138460B2 (en) | Charged particle beam equipment | |
JP2016111166A (en) | Defect observation device and defect observation method | |
JP2017027651A (en) | Charged particle beam device and program storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081007 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090203 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4262288 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120220 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130220 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140220 Year of fee payment: 5 |
|
EXPY | Cancellation because of completion of term |