JP2009068998A - Position-detecting device and position-detecting method - Google Patents

Position-detecting device and position-detecting method Download PDF

Info

Publication number
JP2009068998A
JP2009068998A JP2007237762A JP2007237762A JP2009068998A JP 2009068998 A JP2009068998 A JP 2009068998A JP 2007237762 A JP2007237762 A JP 2007237762A JP 2007237762 A JP2007237762 A JP 2007237762A JP 2009068998 A JP2009068998 A JP 2009068998A
Authority
JP
Japan
Prior art keywords
image
template
edge enhancement
processing
enhancement filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007237762A
Other languages
Japanese (ja)
Inventor
Yasutoshi Kaneko
泰俊 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2007237762A priority Critical patent/JP2009068998A/en
Publication of JP2009068998A publication Critical patent/JP2009068998A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a position-detecting device capable of improving matching accuracy by eliminating pseudo-matching, and capable of making the template matching processing time improved. <P>SOLUTION: The device for detecting the position of a mark pattern that coincides with a template in a retrieving target image is provided with a retrieving target image processing part 20 for performing image processing of the retrieving target image so as to extract a part that varies between adjacent pixels, in pixels that constitute the image; and a detecting part (template matching processing part 40) for detecting a position of the mark pattern coinciding a template image of the template in the retrieving target image, to which the image processing is applied. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は画像処理によって検索対象画像中のテンプレートと合致するマークパターンの位置を検出する位置検出装置及び位置検出方法に関する。   The present invention relates to a position detection apparatus and a position detection method for detecting the position of a mark pattern that matches a template in a search target image by image processing.

画像を利用して位置を検出する装置では、予め検出する対象をテンプレートとして登録しておき、このテンプレートのテンプレート画像と探索対象の画像データとのテンプレートマッチングを行い、テンプレート画像と合致する検索対象画像中のマークパターンの位置を検出している(特許文献1)。   In an apparatus for detecting a position using an image, an object to be detected is registered as a template in advance, template matching between the template image of this template and image data to be searched is performed, and a search target image that matches the template image The position of the mark pattern inside is detected (Patent Document 1).

しかし、探索対象自体の状態、例えば探索対象が半導体ウェハの場合にあっては半導体ウェハ表面の状態、あるいはこの探索対象を撮影した入力画像のコンディション(コントラストやノイズ)などによって、探索対象画像中に検出対象となるマークパターンに似た疑似パターンが発生することがある。   However, depending on the state of the search target itself, for example, if the search target is a semiconductor wafer, the state of the surface of the semiconductor wafer, or the condition (contrast and noise) of the input image obtained by photographing the search target, A pseudo pattern similar to the mark pattern to be detected may occur.

このような疑似パターンとマッチングをしてしまう疑似マッチングを回避するためには、探索対象画像上で疑似パターンとマークパターンとを判別して、最終的にマークパターンを探し出す必要がある。   In order to avoid such a pseudo matching that matches the pseudo pattern, it is necessary to discriminate the pseudo pattern from the mark pattern on the search target image and finally find the mark pattern.

また、マークパターンが探索対象画像の状態によって画像の階調が反転する可能性がある場合には、予め2種類のテンプレートを用意しておき、2種類のテンプレートのうち何れか一方のテンプレートを使用してテンプレートマッチングを行い、次いで他方のテンプレートを使用してテンプレートマッチングを行い、マッチングしたマークパターンの位置を探し出すように、2回分のテンプレートマッチングを行う必要がある。
特開2000−155011号公報
Also, if there is a possibility that the gradation of the image of the mark pattern is reversed depending on the state of the search target image, two types of templates are prepared in advance, and one of the two types of templates is used. It is necessary to perform template matching for two times so that template matching is performed and then template matching is performed using the other template to find the position of the matched mark pattern.
JP 2000-155011 A

しかし、探索対象画像上で疑似パターンとマークパターンとを判別する作業は、熟練を要し、疑似パターンにマッチングしてしまう疑似マッチングが発生する可能性を回避できず、マッチング精度が低下する課題があった。   However, the task of discriminating between the pseudo pattern and the mark pattern on the search target image requires skill, cannot avoid the possibility of the occurrence of pseudo matching that matches the pseudo pattern, and there is a problem that matching accuracy decreases. there were.

また、マークパターンの画像階調が反転することを許容してマークパターンを探すには2回分のテンプレートマッチングを実施する必要があり、テンプレートマッチングの処理時間が長くなる課題があった。   In addition, in order to allow a mark pattern to be inverted while searching for a mark pattern, it is necessary to perform template matching for two times, which increases the processing time for template matching.

本発明は上記事情に鑑みてなされたもので、疑似マッチングを低減してマッチング精度を向上させ且つテンプレートマッチング処理時間の短縮を図ることが可能な、位置検出装置及び位置検出方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and provides a position detection device and a position detection method capable of improving pseudo-matching to improve matching accuracy and shortening template matching processing time. Objective.

上記目的を達成する本発明の請求項1に記載の位置検出装置は、検索対象画像中のテンプレートと合致するマークパターンの位置を検出する装置であって、前記検索対象画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施す検索対象画像処理部と、前記画像処理が施された前記検索対象画像中の、前記テンプレートのテンプレート画像と合致する前記マークパターンの位置を検出する検出部と、を備えたことを特徴とする。   The position detection device according to claim 1 of the present invention that achieves the above object is a device that detects the position of a mark pattern that matches a template in a search target image, and the image is configured in the search target image. A search target image processing unit that performs image processing to extract a portion that changes between adjacent pixels among the pixels to be matched with a template image of the template in the search target image that has been subjected to the image processing And a detection unit for detecting the position of the mark pattern.

本発明の請求項2に記載の位置検出装置は、前記テンプレート画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施すテンプレート画像処理部を更に備え、前記検出部が、前記検索対象画像処理部によって前記画像処理が施された前記探索対象画像中の、前記テンプレート画像処理部によって前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出することを特徴とする。   The position detection apparatus according to claim 2 of the present invention includes a template image processing unit that performs image processing for extracting a part that changes between adjacent pixels from the pixels constituting the image in the template image. The mark that matches the template image that has been subjected to the image processing by the template image processing unit in the search target image that has been subjected to the image processing by the search target image processing unit The position of the pattern is detected.

本発明の請求項3に記載の位置検出装置は、前記画像処理が、画像に互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す処理であることを特徴とする。   The position detection apparatus according to a third aspect of the present invention is characterized in that the image processing is processing for performing edge enhancement filter processing in two directions intersecting each other.

本発明の請求項4に記載の位置検出装置は、前記マークパターンが複数の要素パターンで構成され、該要素パターンが前記エッジ強調フィルタ処理の処理エリアよりも小さいことを特徴とする。   According to a fourth aspect of the present invention, the mark pattern is composed of a plurality of element patterns, and the element patterns are smaller than a processing area of the edge enhancement filter process.

本発明の請求項5に記載の位置検出装置は、前記要素パターンが、対応する画素数が2×2の画像であることを特徴とする。   The position detection apparatus according to claim 5 of the present invention is characterized in that the element pattern is an image having a corresponding number of pixels of 2 × 2.

本発明の請求項6に記載の位置検出装置は、前記エッジ強調フィルタ処理が、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、次いでこの一方向で前記エッジ強調フィルタ処理を施した前記画像に更に他方向で前記エッジ強調フィルタ処理を施すことを特徴とする。   In the position detection device according to a sixth aspect of the present invention, the edge enhancement filter process performs the edge enhancement filter process on the image in one of the two directions, and then the edge enhancement filter in the one direction. The edge enhancement filter process is further performed in the other direction on the processed image.

本発明の請求項7に位置検出装置は、前記エッジ強調フィルタ処理が、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、また他方向で前記画像にエッジ強調フィルタ処理を施し、これら前記エッジ強調フィルタ処理を施した前記両画像を重ね合わせ、重ね合わさった部分を前記画像とすることを特徴とする。   According to a seventh aspect of the present invention, in the position detection device, the edge enhancement filter process performs the edge enhancement filter process on the image in one direction out of the two directions, and the edge enhancement filter process on the image in the other direction. And the two images subjected to the edge enhancement filter processing are overlapped, and the overlapped portion is defined as the image.

本発明の請求項8に記載の位置検出方法は、検索対象画像中のテンプレートと合致するマークパターンの位置を検出する方法であって、前記テンプレートのテンプレート画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施すテンプレート処理工程と、前記検索対象画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す探索対象画像処理工程と、前記画像処理が施された前記検索対象画像中に、前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出する工程とを備えたことを特徴とする。   A position detection method according to an eighth aspect of the present invention is a method for detecting the position of a mark pattern that matches a template in a search target image, and the template image of the template is edged in two directions intersecting each other. In the template processing step for performing enhancement filter processing, the search target image processing step for applying edge enhancement filter processing to the search target image in two directions intersecting each other, and the search target image subjected to the image processing, And a step of detecting a position of the mark pattern that matches the template image subjected to the image processing.

本発明によれば、疑似マッチングを低減してマッチング精度を向上させ且つテンプレートマッチング処理時間の短縮を図ることが可能である。   According to the present invention, pseudo matching can be reduced, matching accuracy can be improved, and template matching processing time can be shortened.

以下本発明の位置検出装置及び位置検出方法の一実施形態について図1乃至図12を参照して説明する。   Hereinafter, an embodiment of a position detection apparatus and a position detection method of the present invention will be described with reference to FIGS.

本実施形態の位置検出装置及び位置検出方法では、テンプレート用のテンプレート画像(パターン画像)と探索対象画像にそれぞれ縦方向のエッジ強調フィルタ処理(以下、縦エッジ強調フィルタ処理と記す)と横方向にエッジ強調フィルタ処理(以下、横エッジ強調フィルタ処理と記す)の双方の画像処理を施し、これらフィルタ処理を施した画像を使用してテンプレートマッチングを行う。   In the position detection apparatus and position detection method of the present embodiment, a vertical edge enhancement filter process (hereinafter referred to as a vertical edge enhancement filter process) and a horizontal direction are applied to a template image (pattern image) and a search target image, respectively. Both image processing of edge enhancement filter processing (hereinafter referred to as horizontal edge enhancement filter processing) is performed, and template matching is performed using the image subjected to these filter processing.

図1は本発明の位置検出装置の一実施形態を示す概略ブロック図である。   FIG. 1 is a schematic block diagram showing an embodiment of the position detection apparatus of the present invention.

本実施形態の位置検出装置は、テンプレートのパターン画像に縦・横エッジ強調フィルタ処理を施すテンプレート画像処理部10と、探索対象画像に縦・横エッジ強調フィルタ処理を施す探索対象画像処理部20と、これらテンプレート画像処理部10と探索対象画像処理部20でのフィルタ処理画像を記憶するストアー部30と、このストアー部30に記憶されたフィルタ処理画像のパターン画像と探索対象画像とのテンプレートマッチングを実行する検出部としてのテンプレートマッチング処理部40と、これら処理部10,20,40とストアー部30を制御する制御部50とを備える。   The position detection apparatus according to the present embodiment includes a template image processing unit 10 that performs vertical / horizontal edge enhancement filter processing on a template pattern image, and a search target image processing unit 20 that performs vertical / horizontal edge enhancement filter processing on a search target image. The store unit 30 that stores the filtered image in the template image processing unit 10 and the search target image processing unit 20, and the template matching between the pattern image of the filter processed image stored in the store unit 30 and the search target image is performed. A template matching processing unit 40 as a detection unit to be executed, and a control unit 50 that controls the processing units 10, 20, 40 and the store unit 30 are provided.

テンプレート画像処理部10は、図2に示すように、テンプレート用のパターン画像を入力する画像取得部11と、入力した画像に縦・横エッジ強調フィルタ処理を施すフィルタ処理部12と備える。探索対象画像処理部20も同様に探索対象画像を入力する画像取得部21と、入力した画像に縦・横エッジ強調フィルタ処理を施すフィルタ処理部22と備える。   As shown in FIG. 2, the template image processing unit 10 includes an image acquisition unit 11 that inputs a pattern image for a template, and a filter processing unit 12 that performs vertical / horizontal edge enhancement filter processing on the input image. Similarly, the search target image processing unit 20 includes an image acquisition unit 21 that inputs a search target image and a filter processing unit 22 that performs vertical / horizontal edge enhancement filter processing on the input image.

縦・横エッジ強調フィルタ処理によって、探索対象画像中の疑似パターンは大幅に減少し(図12参照)、マッチング精度が向上する。また、これにともないマークパターンを小さくすることが出来る。   By the vertical / horizontal edge enhancement filter processing, the pseudo patterns in the search target image are significantly reduced (see FIG. 12), and the matching accuracy is improved. As a result, the mark pattern can be reduced.

また、縦・横エッジ強調フィルタ処理によって、画像の階調が反転した画像と反転していない画像はともに同じパターンになるので、マークパターンの階調が反転する影響を受けず、パターン画像を2種類用意する必要はなく、テンプレートマッチング処理は1回で済み、処理時間の短縮を図ることが可能である。   Further, the vertical and horizontal edge emphasis filter processing causes the image with the inverted gradation of the image and the non-inverted image to have the same pattern, so that the pattern image is not affected by the inversion of the gradation of the mark pattern. There is no need to prepare a type, and the template matching process is only required once, and the processing time can be shortened.

図6(a)、(b)はテンプレート画像処理部10と探索対象画像処理部20での縦・横エッジ強調フィルタ処理に使用する縦エッジ強調フィルタと横エッジ強調フィルタの説明図である。   FIGS. 6A and 6B are explanatory diagrams of a vertical edge enhancement filter and a horizontal edge enhancement filter used for vertical / horizontal edge enhancement filter processing in the template image processing unit 10 and the search target image processing unit 20.

入力画像(パターン画像、探索対象画像)に対して縦エッジ強調フィルタのカーネル60(図6(a))を使用して畳み込み演算を実行すると、入力画像から横方向のエッジ成分が無くなり、縦方向のエッジ成分のみが残る。これは、入力画像について横方向の隣接画素の差(隣接する画素との階調の差)を出力画像の画素値とするからである。   When the convolution operation is executed on the input image (pattern image, search target image) using the kernel 60 (FIG. 6A) of the vertical edge enhancement filter, the horizontal edge component is eliminated from the input image, and the vertical direction Only the edge component remains. This is because the difference between adjacent pixels in the horizontal direction of the input image (the difference in gradation from the adjacent pixels) is used as the pixel value of the output image.

同様に、横エッジ強調フィルタのカーネル61(図6(b))を使用して畳み込み演算を実行すると、入力画像から縦方向のエッジ成分が無くなり、横方向のエッジ成分のみが残る。これは、入力画像について縦方向の隣接画素の差を出力画像の画素値とするからである。   Similarly, when the convolution operation is executed using the kernel 61 (FIG. 6B) of the horizontal edge enhancement filter, the vertical edge component disappears from the input image, and only the horizontal edge component remains. This is because the difference between adjacent pixels in the vertical direction of the input image is used as the pixel value of the output image.

縦エッジ強調フィルタによる処理も、横エッジ強調フィルタにより処理も、いずれも隣接画素との差を出力とするため、階調が反転していても同じ画像が得られる。これによって階調が反転する可能性がある場合でも2種類のテンプレートを用意しなくてもテンプレートマッチングが行える。   Since both the processing using the vertical edge enhancement filter and the processing using the horizontal edge enhancement filter output the difference from adjacent pixels, the same image can be obtained even if the gradation is inverted. Thus, even if there is a possibility that the gradation is inverted, template matching can be performed without preparing two types of templates.

例えば、隣接する一方の画素の階調が255階調で、他方の画素の階調が0階調であるとした場合、両者の差255(255−0)が出力画像の画素値となる。この隣接する画素の階調が反転して、隣接する一方の画素の階調が255階調から0階調に変化し、他方の画素の階調が0階調から255階調に変化しても、両者の差は255階調(255−0)であり、これが出力画像の画素値となるので、同じ画像が得られる。隣接する画素の階調が共に255階調あるいは0階調の場合、両者の差は0階調で、出力画像の画素値は0となる(出力画像がない)。   For example, when the gradation of one adjacent pixel is 255 gradation and the gradation of the other pixel is 0 gradation, the difference 255 (255-0) between the two is the pixel value of the output image. The gradation of this adjacent pixel is inverted, the gradation of one adjacent pixel changes from 255 gradation to 0 gradation, and the gradation of the other pixel changes from 0 gradation to 255 gradation. However, the difference between them is 255 gradations (255-0), and this is the pixel value of the output image, so the same image can be obtained. When the gradations of adjacent pixels are both 255 gradations or 0 gradations, the difference between them is 0 gradations, and the pixel value of the output image is 0 (no output image).

換言すると、フィルタ処理によって、画像を構成する画素中、隣接する画素との間で変化する部位は抽出され、変化しないそれ以外の部位は除去されることになる。   In other words, the part that changes between adjacent pixels is extracted by the filtering process, and the other part that does not change is removed.

図3は本発明の位置検出方法の一実施形態を示すフローチャートである。   FIG. 3 is a flowchart showing an embodiment of the position detection method of the present invention.

ステップS1では、テンプレート用のパターン画像に対して縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理を組み合わせて処理を施し、本実施形態で使用するテンプレート画像に変換する。   In step S1, the template pattern image is processed by combining vertical edge enhancement filter processing and horizontal edge enhancement filter processing, and converted to a template image used in the present embodiment.

同じテンプレートを使用してテンプレートマッチングを行う場合には、このステップS1を1回実行すればよく、テンプレートマッチング毎にステップS1を実行する必要はない。同じテンプレートを使用しない場合にはその都度ステップS1を実行する。   When template matching is performed using the same template, this step S1 may be executed once, and step S1 need not be executed for each template matching. When the same template is not used, step S1 is executed each time.

ステップS2では、探索対象画像に対して縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理を組み合わせて処理を施し、本実施形態で使用する探索対象画像に変換する。   In step S2, the search target image is processed by combining the vertical edge enhancement filter processing and the horizontal edge enhancement filter processing, and is converted into a search target image used in the present embodiment.

ステップS3では、ステップS1とステップS2で得られた画像を使用して、テンプレートマッチングによってマークパターンの位置を求める処理を実行する。   In step S3, processing for obtaining the position of the mark pattern by template matching is executed using the images obtained in steps S1 and S2.

図4は、図3のステップS1とステップS2で実行される縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理との組み合わせの内容を具体的に示す第1のフローチャートである。   FIG. 4 is a first flowchart specifically showing the contents of the combination of the vertical edge enhancement filter process and the horizontal edge enhancement filter process executed in steps S1 and S2 of FIG.

図4に示すように、ステップS4で入力画像(テンプレート用のパターン画像、探索対象画像)に対して縦エッジ強調フィルタ処理を実行し、次いでステップS5で縦エッジ強調フィルタ処理後の画像に対して更に横エッジ強調フィルタ処理を実行する。   As shown in FIG. 4, in step S4, vertical edge enhancement filter processing is executed on the input image (template pattern image, search target image), and then in step S5, the image after vertical edge enhancement filter processing is executed. Further, horizontal edge enhancement filter processing is executed.

なお、ステップS4で縦エッジ強調フィルタ処理ではなく、横エッジ強調フィルタ処理を実行し、次いでステップS5で横エッジ強調フィルタ処理後の画像に対して更に縦エッジ強調フィルタ処理を実行するようにしてもよい。   In step S4, horizontal edge enhancement filter processing is executed instead of vertical edge enhancement filter processing, and then vertical edge enhancement filter processing is further executed on the image after horizontal edge enhancement filter processing in step S5. Good.

図7及び図8は検索対象画像中のマークパターンに対して図4に示す方法でフィルタ処理を実行した結果を示している。   FIGS. 7 and 8 show the result of executing the filter process by the method shown in FIG. 4 on the mark pattern in the search target image.

図7は、縦エッジ強調フィルタ処理を実行し、次いで縦エッジ強調フィルタ処理後の画像に対して横エッジ強調フィルタ処理を実行した結果を示している。同図(a)は、本実施形態で使用する検索対象画像中のマークパターン70を示している。このマークパターン70には、画素71を四個(2×2)組み合わせて構成された要素パターン(以下要素と記す)72が、縦方向と横方向にそれぞれ画素71二個分に相当する間隔をあけて複数配置されている。マークパターン70の寸法は、要素72間の配置関係(要素72間の間隔)を維持するように設定される。例えば、本実施形態において、画素71のサイズが1mm角の場合、要素72のサイズは2mm角で、要素72間の間隔を2mmとすると、マークパターン70は10mm角のサイズになる。   FIG. 7 shows a result of executing the vertical edge enhancement filter process and then executing the horizontal edge enhancement filter process on the image after the vertical edge enhancement filter process. FIG. 5A shows a mark pattern 70 in the search target image used in the present embodiment. In this mark pattern 70, an element pattern (hereinafter referred to as an element) 72 formed by combining four (2 × 2) pixels 71 has an interval corresponding to two pixels 71 in the vertical and horizontal directions. A plurality of them are arranged. The dimension of the mark pattern 70 is set so as to maintain the arrangement relationship between the elements 72 (interval between the elements 72). For example, in this embodiment, when the size of the pixel 71 is 1 mm square, if the size of the element 72 is 2 mm square and the interval between the elements 72 is 2 mm, the mark pattern 70 has a size of 10 mm square.

このマークパターン70を縦エッジ強調フィルタで処理すると、図7(a)に示すマークパターン70が図7(b)に示すように横長の複数の要素73を有するマークパターン74に変化する。   When this mark pattern 70 is processed by the vertical edge emphasis filter, the mark pattern 70 shown in FIG. 7A is changed to a mark pattern 74 having a plurality of horizontally long elements 73 as shown in FIG. 7B.

図7(a)において、例えば、斜線模様が付された斜線部分の画素71の階調を255階調とし、斜線模様のない白地部分の画素71を0階調として、フィルタ処理を施した場合において、横方向において互いに隣接する画素71aと71bについてみると、画素71aの階調は0階調で、隣の画素71bの階調は255階調であり、両者の差は255階調で、これが出力画像の画素値になる。また、同じく、互いに隣接する画素71cと画素71dについてみると、画素71cは255階調で、画素71dは0階調で、両者の差は255階調で、これが出力画像の画素値になる。これらに対して、画素71eと画素71fについてみると、画素71eと画素71fは共に0階調で、両者の差は0階調で、これが出力画像の画素値になる。   In FIG. 7A, for example, when the gradation processing is performed by setting the gradation of the pixel 71 in the hatched portion with a hatched pattern to 255 gradation and setting the pixel 71 in the white background portion without the hatched pattern to 0 gradation. In the pixel 71a and 71b adjacent to each other in the horizontal direction, the gradation of the pixel 71a is 0 gradation, the gradation of the adjacent pixel 71b is 255 gradation, and the difference between them is 255 gradation. This is the pixel value of the output image. Similarly, regarding the pixels 71c and 71d adjacent to each other, the pixel 71c has 255 gradations, the pixel 71d has 0 gradation, and the difference between them is 255 gradations, which is the pixel value of the output image. On the other hand, regarding the pixel 71e and the pixel 71f, both the pixel 71e and the pixel 71f have 0 gradation, and the difference between them is 0 gradation, which is the pixel value of the output image.

すなわち、マークパターン70の横方向(X軸方向)において、要素72間の画素71の階調が255階調になって、上述したように、横長の要素73を有するマークパターン74に変化する。   That is, in the horizontal direction (X-axis direction) of the mark pattern 70, the gradation of the pixel 71 between the elements 72 becomes 255 gradation, and changes to the mark pattern 74 having the horizontally long element 73 as described above.

次いで、この縦エッジ強調フィルタ処理を実行した後のマークパターン74に対して更に横エッジ強調フィルタで処理すると、マークパターン70の縦方向において図7(b)の要素73間の画素71の階調が0階調から255階調になって、図7(c)に示すように、矩形の要素75を有するマークパターン76に変化する。   Next, if the mark pattern 74 after this vertical edge enhancement filter processing is further processed by the horizontal edge enhancement filter, the gradation of the pixel 71 between the elements 73 in FIG. Changes from 0 gradation to 255 gradation, and changes to a mark pattern 76 having a rectangular element 75 as shown in FIG.

図7(b)において、例えば、マークパターン76の縦方向(Y軸方向)において互いに隣接する画素71aと71hについてみると、一方の画素71aの階調は255階調で、他方の画素71hの階調は0階調であり、両者の差は255階調で、これが出力画像の画素値になる。また、同じく、互いに隣接する画素71gと画素71eについてみると、一方の画素71gは255階調で、他方の画素71eは0階調で、両者の差は255階調で、これが出力画像の画素値になる。   In FIG. 7B, for example, regarding the pixels 71a and 71h adjacent to each other in the vertical direction (Y-axis direction) of the mark pattern 76, the gradation of one pixel 71a is 255 gradations, and the other pixel 71h The gradation is 0 gradation, and the difference between the two is 255 gradation, which is the pixel value of the output image. Similarly, regarding the pixels 71g and 71e adjacent to each other, one pixel 71g has 255 gradations, the other pixel 71e has 0 gradation, and the difference between them is 255 gradations. Value.

このように図4に示す方法でフィルタ処理を実行した場合においては、図3のステップS3で実行するパターンマッチングで図7(c)に示す画像のマークターン76を探索することになる。   As described above, when the filtering process is executed by the method shown in FIG. 4, the mark turn 76 of the image shown in FIG. 7C is searched by the pattern matching executed in step S3 of FIG.

図8は、図7に示す場合とは異なり、横エッジ強調フィルタ処理を実行し、次いで横エッジ強調フィルタ処理後の画像に対して縦エッジ強調フィルタ処理を実行した結果を示している。同図(a)は、本実施形態で使用する検索対象画像中のマークパターン70を示し、図7(a)に示すものと同じである。   FIG. 8 shows the result of executing the horizontal edge enhancement filter process and then performing the vertical edge enhancement filter process on the image after the horizontal edge enhancement filter process, unlike the case shown in FIG. FIG. 7A shows a mark pattern 70 in the search target image used in this embodiment, which is the same as that shown in FIG.

このマークパターン70を横エッジ強調フィルタで処理すると、図8(a)に示すマークパターン70が図8(b)に示すように縦長の複数の要素77を有するマークパターン78に変化する。   When this mark pattern 70 is processed by the horizontal edge enhancement filter, the mark pattern 70 shown in FIG. 8A is changed to a mark pattern 78 having a plurality of vertically long elements 77 as shown in FIG. 8B.

すなわち、マークパターン70の縦方向において、要素77間の画素71の階調が255階調になって、上述したように、縦長の要素77を有するマークパターン78に変化する。   That is, in the vertical direction of the mark pattern 70, the gradation of the pixel 71 between the elements 77 becomes 255 gradation, and changes to the mark pattern 78 having the vertically long elements 77 as described above.

次いで、この横エッジ強調フィルタ処理を実行した後のマークパターン78に対して更に縦エッジ強調フィルタで処理すると、マークパターン78の横方向において図8(b)の要素77間の画素71の階調が0階調から255階調になって、図8(c)に示すように、矩形の要素79を有するマークパターン80に変化する。   Next, when the mark pattern 78 after this horizontal edge enhancement filter processing is further processed by the vertical edge enhancement filter, the gradation of the pixel 71 between the elements 77 in FIG. 8B in the horizontal direction of the mark pattern 78. Changes from 0 gradation to 255 gradation, and changes to a mark pattern 80 having a rectangular element 79 as shown in FIG.

このように、図4に示すステップS4とステップS5の順序を逆にした、横エッジ強調フィルタ処理を実行し、次いで横エッジ強調フィルタ処理後の画像に対して縦エッジ強調フィルタ処理を実行した場合においては、図3のステップS3で実行するパターンマッチングで図8(c)に示す画像のマークターン80を探索することになる。   As described above, when the horizontal edge enhancement filter process is executed by reversing the order of steps S4 and S5 shown in FIG. 4, and then the vertical edge enhancement filter process is executed on the image after the horizontal edge enhancement filter process. In FIG. 8, the mark turn 80 of the image shown in FIG. 8C is searched by pattern matching executed in step S3 of FIG.

図5は、図3のステップS1とステップS2で実行される縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理との組み合わせの内容を具体的に示す第2のフローチャートである。   FIG. 5 is a second flowchart specifically showing the contents of the combination of the vertical edge enhancement filter process and the horizontal edge enhancement filter process executed in steps S1 and S2 of FIG.

図5では、テンプレート用のパターン画像又は探索対象画像を入力する画像取得後に、ステップS6で入力画像に対して縦エッジ強調フィルタ処理を実行し、またステップS7で同じくテンプレート用のパターン画像又は探索対象画像の入力画像に対して横エッジ強調フィルタ処理を実行する。次いで、ステップS8で縦エッジ強調フィルタの処理結果の画像と横エッジ強調フィルタの処理結果の画像について、同じ場所での画素の画素値を比較して低い方の画素値を出力画像の画素値とする処理を実行する。   In FIG. 5, after acquiring an image for inputting a template pattern image or a search target image, vertical edge enhancement filter processing is executed on the input image in step S <b> 6, and the template pattern image or search target is also determined in step S <b> 7. The horizontal edge enhancement filter process is executed on the input image. Next, in step S8, the pixel value of the pixel at the same place is compared with the pixel value of the output image for the image of the vertical edge enhancement filter processing result and the image of the horizontal edge enhancement filter processing result. Execute the process.

図9及び図10は検索対象画像中のマークパターンに対して図5に示す方法でフィルタ処理を実行した結果を示している。   FIG. 9 and FIG. 10 show the result of executing the filtering process by the method shown in FIG. 5 on the mark pattern in the search target image.

図9は、図7(a)に示すマークパターン70を縦エッジ強調フィルタで処理した、横長の要素73を有するマークパターン74と、横エッジ強調フィルタで処理した、縦長の要素77を有するマークパターン78とを重ね合わせた画像82を示している。   FIG. 9 shows a mark pattern 74 having a horizontally long element 73 obtained by processing the mark pattern 70 shown in FIG. 7A using a vertical edge enhancement filter, and a mark pattern having a vertically long element 77 processed by a horizontal edge enhancement filter. 78 shows an image 82 superimposed on 78.

この画像82からマークパターン74とマークパターン78の双方に共通する(重ね合わさった)画素を取り出すために、共通する画素のうち、画素値の小さい方の画素値を選択し、これを出力画像の画素値とする処理(図5のステップS8参照)を実行すると、図10に示すマークパターン83が得られる。   In order to extract pixels that are common (overlapped) to both the mark pattern 74 and the mark pattern 78 from the image 82, a pixel value having a smaller pixel value is selected from the common pixels, and this is selected as the output image. When the pixel value processing (see step S8 in FIG. 5) is executed, a mark pattern 83 shown in FIG. 10 is obtained.

図5に示す方法でフィルタ処理を実行した場合においては、図3のステップS3で実行するパターンマッチングでこの図10に示す画像のマークターン83を探索することになる。   When the filtering process is executed by the method shown in FIG. 5, the mark turn 83 of the image shown in FIG. 10 is searched by the pattern matching executed in step S3 of FIG.

図11は探索対象画像に対して縦エッジ強調フィルタで処理した場合を示している。同図(a)に示す探索対象画像100には、マークターン85の他に疑似マッチングの原因となる疑似パターン86も含まれている。図11(a)ではマークパターン85を便宜上矩形パターンとして表示しているが、実際には図7(a)に示すマークパターン70と同じ形状を有している。なお、縦エッジ強調フィルタ処理する方向の画像である、マークパターン85は、縦エッジ強調フィルタ処理エリアよりも小さく設定されている。   FIG. 11 shows a case where the search target image is processed by the vertical edge enhancement filter. In addition to the mark turn 85, the search target image 100 shown in FIG. 10A includes a pseudo pattern 86 that causes pseudo matching. In FIG. 11A, the mark pattern 85 is displayed as a rectangular pattern for convenience, but actually has the same shape as the mark pattern 70 shown in FIG. Note that the mark pattern 85, which is an image in the direction in which vertical edge enhancement filter processing is performed, is set smaller than the vertical edge enhancement filter processing area.

探索対象画像100に対して縦エッジ強調フィルタで処理すると、図11(b)に示す探索対象画像101が得られる。この探索対象画像101では、疑似パターン86は縦エッジパターン89に変化し、またマークパターン85は図7(b)に示すマークパターン74と同じ形状のマークパターン87(図では便宜上矩形パターンとして表示)に変化する。   When the search target image 100 is processed by the vertical edge enhancement filter, a search target image 101 shown in FIG. 11B is obtained. In the search target image 101, the pseudo pattern 86 changes to a vertical edge pattern 89, and the mark pattern 85 is a mark pattern 87 having the same shape as the mark pattern 74 shown in FIG. 7B (displayed as a rectangular pattern in the figure for convenience). To change.

図12は、縦エッジ強調フィルタ処理を施した探索対象画像101に対して更に横エッジ強調フィルタ処理をした場合を示している。なお、横エッジ強調フィルタ処理する方向の画像である、マークパターン87は、横エッジ強調フィルタ処理エリアよりも小さく設定されている。   FIG. 12 illustrates a case where the horizontal edge enhancement filter process is further performed on the search target image 101 that has been subjected to the vertical edge enhancement filter process. Note that the mark pattern 87, which is an image in the direction in which the horizontal edge enhancement filter process is performed, is set smaller than the horizontal edge enhancement filter processing area.

探索対象画像101に横エッジ強調フィルタで処理すると、図12に示す探索対象画像102が得られる。この探索対象画像102では、縦エッジパターン89はその端部が点に変化した端点90になり、またマークパターン87は図7(c)に示すマークパターン76と同じ形状のマークパターン88(図では便宜上矩形パターンとして表示)に変化する。   When the search target image 101 is processed by the horizontal edge enhancement filter, a search target image 102 shown in FIG. 12 is obtained. In this search target image 102, the vertical edge pattern 89 becomes an end point 90 whose end is changed to a point, and the mark pattern 87 is a mark pattern 88 having the same shape as the mark pattern 76 shown in FIG. (Displayed as a rectangular pattern for convenience).

このように探索対象画像100を縦・横エッジ強調フィルタで処理すると、疑似マッチングの原因となる疑似パターン86は最終的に端点90となり、マークパターン88とは大きさや形状などが大きく異なる。この結果、疑似マッチングを減らしてマッチング精度を高めることが出来る。   As described above, when the search target image 100 is processed by the vertical / horizontal edge emphasis filter, the pseudo pattern 86 that causes the pseudo matching finally becomes the end point 90, and the size and shape of the mark pattern 88 are greatly different. As a result, pseudo matching can be reduced and matching accuracy can be increased.

また、疑似パターン86が最終的に端点90となることからマークパターン88の寸法を小さく設定することが可能となる。   Further, since the pseudo pattern 86 finally becomes the end point 90, the dimension of the mark pattern 88 can be set small.

本発明は上記実施形態に示すものに限定されるものではない。テンプレート画像や探索対象画像を構成する画素中、隣接する画素との間で変化する部位を抽出し、それ以外の部位を除去する、画像処理として、エッジ強調フィルタ処理を示したが、これに限定されるものではない。   The present invention is not limited to the one shown in the above embodiment. Edge enhancement filter processing has been shown as image processing that extracts a portion that changes between adjacent pixels from the pixels that make up the template image and search target image, and removes other portions, but this is not the only case Is not to be done.

また、縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理の双方の処理を行った場合を示したが、何れか一方の処理だけを施してもよい。要は、疑似パターンを減らすことができれば、縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理の何れか一方の処理だけでもよい。   Moreover, although the case where the process of both the vertical edge emphasis filter process and the horizontal edge emphasis filter process was shown was shown, you may perform only any one process. In short, as long as the pseudo patterns can be reduced, only one of the vertical edge enhancement filter processing and the horizontal edge enhancement filter processing may be performed.

本発明の位置検出装置の一実施形態を示す概略ブロック図である。It is a schematic block diagram which shows one Embodiment of the position detection apparatus of this invention. 図1の位置検出装置のテンプレート画像処理部10(探索対象画像処理部20)の内容を示すブロック図である。It is a block diagram which shows the content of the template image process part 10 (search target image process part 20) of the position detection apparatus of FIG. 本発明の位置検出方法の一実施形態を示すフローチャートである。It is a flowchart which shows one Embodiment of the position detection method of this invention. 図3のステップS1とステップS2で実行される縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理との組み合わせの内容を具体的に示す第1のフローチャートである。FIG. 4 is a first flowchart specifically showing the content of a combination of vertical edge enhancement filter processing and horizontal edge enhancement filter processing executed in step S1 and step S2 of FIG. 3. 図3のステップS1とステップS2で実行される縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理との組み合わせの内容を具体的に示す第2のフローチャートである。FIG. 4 is a second flowchart specifically showing the content of a combination of vertical edge enhancement filter processing and horizontal edge enhancement filter processing executed in step S1 and step S2 of FIG. 3. 図1のテンプレート画像処理部10と探索対象画像処理部20での縦・横エッジ強調フィルタ処理に使用する縦エッジ強調フィルタと横エッジ強調フィルタの説明図である。It is explanatory drawing of the vertical edge emphasis filter and horizontal edge emphasis filter used for the vertical / horizontal edge emphasis filter process in the template image process part 10 and the search object image process part 20 of FIG. 検索対象画像中のマークパターンに対して図4に示す方法でフィルタ処理を実行した結果を示す説明図である。FIG. 5 is an explanatory diagram illustrating a result of performing filter processing on a mark pattern in a search target image by the method illustrated in FIG. 4. 検索対象画像中のマークパターンに対して図4に示す方法でフィルタ処理を実行した結果を示す説明図である。FIG. 5 is an explanatory diagram illustrating a result of performing filter processing on a mark pattern in a search target image by the method illustrated in FIG. 4. 検索対象画像中のマークパターンに対して図5に示す方法でフィルタ処理を実行した結果を示す説明図である。It is explanatory drawing which shows the result of having performed the filter process with the method shown in FIG. 5 with respect to the mark pattern in a search object image. 検索対象画像中のマークパターンに対して図5に示す方法でフィルタ処理を実行した結果を示す説明図である。It is explanatory drawing which shows the result of having performed the filter process with the method shown in FIG. 5 with respect to the mark pattern in a search object image. 探索対象画像に対して縦エッジ強調フィルタで処理した場合の説明図である。It is explanatory drawing at the time of processing with a vertical edge emphasis filter with respect to a search object image. 縦エッジ強調フィルタ処理を施した探索対象画像に対して更に横エッジ強調フィルタ処理をした場合の説明図である。It is explanatory drawing at the time of carrying out the horizontal edge emphasis filter process further with respect to the search object image which performed the vertical edge emphasis filter process.

符号の説明Explanation of symbols

10 テンプレート処理部
20 探索対象画像処理部
30 ストアー部
40 テンプレートマッチング処理部
50 制御部
60 縦エッジ強調フィルタのカーネル
61 横エッジ強調フィルタのカーネル
70 マークパターン
71 画素
72 要素(要素パターン)
73 要素(要素パターン)
77 要素(要素パターン)
74 マークパターン
76 マークパターン
78 マークパターン
80 マークパターン
83 マークパターン
85 マークパターン
86 疑似パターン
87 マークパターン
88 マークパターン
100 探索対象画像
101 探索対象画像
102 探索対象画像
DESCRIPTION OF SYMBOLS 10 Template process part 20 Search object image process part 30 Store part 40 Template matching process part 50 Control part 60 Kernel of vertical edge emphasis filter 61 Kernel of horizontal edge emphasis filter 70 Mark pattern 71 Pixel 72 Element (element pattern)
73 elements (element patterns)
77 elements (element patterns)
74 Mark pattern 76 Mark pattern 78 Mark pattern 80 Mark pattern 83 Mark pattern 85 Mark pattern 86 Pseudo pattern 87 Mark pattern 88 Mark pattern 100 Search target image 101 Search target image 102 Search target image

Claims (8)

検索対象画像中のテンプレートと合致するマークパターンの位置を検出する装置であって、
前記検索対象画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施す検索対象画像処理部と、
前記画像処理が施された前記検索対象画像中の、前記テンプレートのテンプレート画像と合致する前記マークパターンの位置を検出する検出部と、
を備えたことを特徴とする位置検出装置。
An apparatus for detecting the position of a mark pattern that matches a template in a search target image,
A search target image processing unit that performs image processing to extract a portion that changes between adjacent pixels among the pixels constituting the image to the search target image;
A detection unit that detects a position of the mark pattern that matches a template image of the template in the search target image subjected to the image processing;
A position detection device comprising:
請求項1に記載の位置検出装置において、
前記テンプレート画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施すテンプレート画像処理部を更に備え、
前記検出部は、前記検索対象画像処理部によって前記画像処理が施された前記探索対象画像中の、前記テンプレート画像処理部によって前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出することを特徴とする位置検出装置。
The position detection device according to claim 1,
A template image processing unit that performs image processing for extracting a portion that changes between adjacent pixels among the pixels constituting the image to the template image,
The detection unit includes a position of the mark pattern that matches the template image subjected to the image processing by the template image processing unit in the search target image subjected to the image processing by the search target image processing unit. A position detecting device for detecting
請求項1又は2に記載の位置検出装置において、
前記画像処理は、画像に互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す処理であることを特徴とする位置検出装置。
In the position detection device according to claim 1 or 2,
The position detection apparatus according to claim 1, wherein the image processing is processing for performing edge enhancement filter processing in two directions intersecting with each other.
請求項3に記載の位置検出装置において、
前記マークパターンは複数の要素パターンで構成され、該要素パターンは前記エッジ強調フィルタ処理の処理エリアよりも小さいことを特徴とする位置検出装置。
In the position detection device according to claim 3,
The position detection apparatus according to claim 1, wherein the mark pattern includes a plurality of element patterns, and the element patterns are smaller than a processing area of the edge enhancement filter processing.
請求項4に記載の位置検出装置において、
前記要素パターンは、対応する画素数が2×2の画像であることを特徴とする位置検出装置。
The position detection device according to claim 4,
The position detection apparatus according to claim 1, wherein the element pattern is an image having a corresponding number of pixels of 2 × 2.
請求項3に記載の位置検出装置において、
前記エッジ強調フィルタ処理は、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、次いでこの一方向で前記エッジ強調フィルタ処理を施した前記画像に更に他方向で前記エッジ強調フィルタ処理を施すことを特徴とする位置検出装置。
In the position detection device according to claim 3,
In the edge enhancement filter processing, the edge enhancement filter processing is performed on the image in one direction out of the two directions, and then the edge enhancement filter processing is performed on the image subjected to the edge enhancement filter processing in this one direction in the other direction. A position detection device characterized by performing a filtering process.
請求項3に記載の位置検出装置において、
前記エッジフィルタ処理は、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、また他方向で前記画像にエッジ強調フィルタ処理を施し、これら前記エッジ強調フィルタ処理を施した前記両画像を重ね合わせ、重ね合わさった部分を前記画像とすることを特徴とする位置検出装置。
In the position detection device according to claim 3,
In the edge filter processing, the edge enhancement filter processing is performed on the image in one direction out of the two directions, the edge enhancement filter processing is performed on the image in the other direction, and the edge enhancement filter processing is performed on the image. A position detecting device, wherein both images are overlapped and the overlapped portion is used as the image.
検索対象画像中のテンプレートと合致するマークパターンの位置を検出する方法であって、
前記テンプレートのテンプレート画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施すテンプレート処理工程と、
前記検索対象画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す探索対象画像処理工程と、
前記画像処理が施された前記検索対象画像中に、前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出する工程と、
を備えたことを特徴とする位置検出方法。
A method of detecting a position of a mark pattern that matches a template in a search target image,
A template processing step of applying edge enhancement filter processing to the template image of the template in two directions intersecting each other;
A search target image processing step for subjecting the search target image to edge enhancement filter processing in two directions intersecting each other;
Detecting the position of the mark pattern that matches the template image subjected to the image processing in the search target image subjected to the image processing;
A position detection method comprising:
JP2007237762A 2007-09-13 2007-09-13 Position-detecting device and position-detecting method Pending JP2009068998A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007237762A JP2009068998A (en) 2007-09-13 2007-09-13 Position-detecting device and position-detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007237762A JP2009068998A (en) 2007-09-13 2007-09-13 Position-detecting device and position-detecting method

Publications (1)

Publication Number Publication Date
JP2009068998A true JP2009068998A (en) 2009-04-02

Family

ID=40605411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007237762A Pending JP2009068998A (en) 2007-09-13 2007-09-13 Position-detecting device and position-detecting method

Country Status (1)

Country Link
JP (1) JP2009068998A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014156723A1 (en) 2013-03-27 2014-10-02 株式会社ニコン Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014156723A1 (en) 2013-03-27 2014-10-02 株式会社ニコン Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program
US9952038B2 (en) 2013-03-27 2018-04-24 Nikon Corporation Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program

Similar Documents

Publication Publication Date Title
RU2012145349A (en) METHOD AND DEVICE FOR PROCESSING IMAGES FOR REMOVING DEPTH ARTIFacts
JP2016038732A5 (en)
JP4518139B2 (en) Image processing device
WO2010044433A1 (en) Image processing method, image processing device, and surface inspection device using the image processing device
JP2010103694A (en) Camera with translation function, and method of displaying text
EP3014528B1 (en) Determining barcode locations in documents
JP2017084975A (en) Position detecting apparatus, position detecting method, information processing program, and recording medium
JP5772675B2 (en) Gray image edge extraction method, edge extraction device, and gray image edge extraction program
JP3806125B2 (en) Defect inspection apparatus and defect inspection method
JP2009068998A (en) Position-detecting device and position-detecting method
JP6643301B2 (en) Defect inspection device and defect inspection method
JP2021108022A5 (en)
JP2006196937A (en) Image processing apparatus and image processing method
JP2005352543A (en) Template matching device
JP2009157701A (en) Method and unit for image processing
JP2016121875A (en) X-ray inspection device
JP2018092507A (en) Image processing apparatus, image processing method, and program
JP2010244320A (en) Image processor
US10380463B2 (en) Image processing device, setting support method, and non-transitory computer-readable media
JP2006208340A (en) Defect inspecting device
JP2014215840A (en) Image processing circuit, image processor, and image processing method
JP2007241418A (en) Template matching device
JP5005482B2 (en) Pattern search method and apparatus
JP2006201135A (en) Defect inspection device, defect inspection method, and defect inspection program
JP2006017489A (en) Cell identification device, program for cell identification, cell analysis device, and program for cell analysis