JP2009068998A - Position-detecting device and position-detecting method - Google Patents
Position-detecting device and position-detecting method Download PDFInfo
- Publication number
- JP2009068998A JP2009068998A JP2007237762A JP2007237762A JP2009068998A JP 2009068998 A JP2009068998 A JP 2009068998A JP 2007237762 A JP2007237762 A JP 2007237762A JP 2007237762 A JP2007237762 A JP 2007237762A JP 2009068998 A JP2009068998 A JP 2009068998A
- Authority
- JP
- Japan
- Prior art keywords
- image
- template
- edge enhancement
- processing
- enhancement filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は画像処理によって検索対象画像中のテンプレートと合致するマークパターンの位置を検出する位置検出装置及び位置検出方法に関する。 The present invention relates to a position detection apparatus and a position detection method for detecting the position of a mark pattern that matches a template in a search target image by image processing.
画像を利用して位置を検出する装置では、予め検出する対象をテンプレートとして登録しておき、このテンプレートのテンプレート画像と探索対象の画像データとのテンプレートマッチングを行い、テンプレート画像と合致する検索対象画像中のマークパターンの位置を検出している(特許文献1)。 In an apparatus for detecting a position using an image, an object to be detected is registered as a template in advance, template matching between the template image of this template and image data to be searched is performed, and a search target image that matches the template image The position of the mark pattern inside is detected (Patent Document 1).
しかし、探索対象自体の状態、例えば探索対象が半導体ウェハの場合にあっては半導体ウェハ表面の状態、あるいはこの探索対象を撮影した入力画像のコンディション(コントラストやノイズ)などによって、探索対象画像中に検出対象となるマークパターンに似た疑似パターンが発生することがある。 However, depending on the state of the search target itself, for example, if the search target is a semiconductor wafer, the state of the surface of the semiconductor wafer, or the condition (contrast and noise) of the input image obtained by photographing the search target, A pseudo pattern similar to the mark pattern to be detected may occur.
このような疑似パターンとマッチングをしてしまう疑似マッチングを回避するためには、探索対象画像上で疑似パターンとマークパターンとを判別して、最終的にマークパターンを探し出す必要がある。 In order to avoid such a pseudo matching that matches the pseudo pattern, it is necessary to discriminate the pseudo pattern from the mark pattern on the search target image and finally find the mark pattern.
また、マークパターンが探索対象画像の状態によって画像の階調が反転する可能性がある場合には、予め2種類のテンプレートを用意しておき、2種類のテンプレートのうち何れか一方のテンプレートを使用してテンプレートマッチングを行い、次いで他方のテンプレートを使用してテンプレートマッチングを行い、マッチングしたマークパターンの位置を探し出すように、2回分のテンプレートマッチングを行う必要がある。
しかし、探索対象画像上で疑似パターンとマークパターンとを判別する作業は、熟練を要し、疑似パターンにマッチングしてしまう疑似マッチングが発生する可能性を回避できず、マッチング精度が低下する課題があった。 However, the task of discriminating between the pseudo pattern and the mark pattern on the search target image requires skill, cannot avoid the possibility of the occurrence of pseudo matching that matches the pseudo pattern, and there is a problem that matching accuracy decreases. there were.
また、マークパターンの画像階調が反転することを許容してマークパターンを探すには2回分のテンプレートマッチングを実施する必要があり、テンプレートマッチングの処理時間が長くなる課題があった。 In addition, in order to allow a mark pattern to be inverted while searching for a mark pattern, it is necessary to perform template matching for two times, which increases the processing time for template matching.
本発明は上記事情に鑑みてなされたもので、疑似マッチングを低減してマッチング精度を向上させ且つテンプレートマッチング処理時間の短縮を図ることが可能な、位置検出装置及び位置検出方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides a position detection device and a position detection method capable of improving pseudo-matching to improve matching accuracy and shortening template matching processing time. Objective.
上記目的を達成する本発明の請求項1に記載の位置検出装置は、検索対象画像中のテンプレートと合致するマークパターンの位置を検出する装置であって、前記検索対象画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施す検索対象画像処理部と、前記画像処理が施された前記検索対象画像中の、前記テンプレートのテンプレート画像と合致する前記マークパターンの位置を検出する検出部と、を備えたことを特徴とする。
The position detection device according to
本発明の請求項2に記載の位置検出装置は、前記テンプレート画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施すテンプレート画像処理部を更に備え、前記検出部が、前記検索対象画像処理部によって前記画像処理が施された前記探索対象画像中の、前記テンプレート画像処理部によって前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出することを特徴とする。 The position detection apparatus according to claim 2 of the present invention includes a template image processing unit that performs image processing for extracting a part that changes between adjacent pixels from the pixels constituting the image in the template image. The mark that matches the template image that has been subjected to the image processing by the template image processing unit in the search target image that has been subjected to the image processing by the search target image processing unit The position of the pattern is detected.
本発明の請求項3に記載の位置検出装置は、前記画像処理が、画像に互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す処理であることを特徴とする。 The position detection apparatus according to a third aspect of the present invention is characterized in that the image processing is processing for performing edge enhancement filter processing in two directions intersecting each other.
本発明の請求項4に記載の位置検出装置は、前記マークパターンが複数の要素パターンで構成され、該要素パターンが前記エッジ強調フィルタ処理の処理エリアよりも小さいことを特徴とする。 According to a fourth aspect of the present invention, the mark pattern is composed of a plurality of element patterns, and the element patterns are smaller than a processing area of the edge enhancement filter process.
本発明の請求項5に記載の位置検出装置は、前記要素パターンが、対応する画素数が2×2の画像であることを特徴とする。 The position detection apparatus according to claim 5 of the present invention is characterized in that the element pattern is an image having a corresponding number of pixels of 2 × 2.
本発明の請求項6に記載の位置検出装置は、前記エッジ強調フィルタ処理が、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、次いでこの一方向で前記エッジ強調フィルタ処理を施した前記画像に更に他方向で前記エッジ強調フィルタ処理を施すことを特徴とする。 In the position detection device according to a sixth aspect of the present invention, the edge enhancement filter process performs the edge enhancement filter process on the image in one of the two directions, and then the edge enhancement filter in the one direction. The edge enhancement filter process is further performed in the other direction on the processed image.
本発明の請求項7に位置検出装置は、前記エッジ強調フィルタ処理が、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、また他方向で前記画像にエッジ強調フィルタ処理を施し、これら前記エッジ強調フィルタ処理を施した前記両画像を重ね合わせ、重ね合わさった部分を前記画像とすることを特徴とする。 According to a seventh aspect of the present invention, in the position detection device, the edge enhancement filter process performs the edge enhancement filter process on the image in one direction out of the two directions, and the edge enhancement filter process on the image in the other direction. And the two images subjected to the edge enhancement filter processing are overlapped, and the overlapped portion is defined as the image.
本発明の請求項8に記載の位置検出方法は、検索対象画像中のテンプレートと合致するマークパターンの位置を検出する方法であって、前記テンプレートのテンプレート画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施すテンプレート処理工程と、前記検索対象画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す探索対象画像処理工程と、前記画像処理が施された前記検索対象画像中に、前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出する工程とを備えたことを特徴とする。 A position detection method according to an eighth aspect of the present invention is a method for detecting the position of a mark pattern that matches a template in a search target image, and the template image of the template is edged in two directions intersecting each other. In the template processing step for performing enhancement filter processing, the search target image processing step for applying edge enhancement filter processing to the search target image in two directions intersecting each other, and the search target image subjected to the image processing, And a step of detecting a position of the mark pattern that matches the template image subjected to the image processing.
本発明によれば、疑似マッチングを低減してマッチング精度を向上させ且つテンプレートマッチング処理時間の短縮を図ることが可能である。 According to the present invention, pseudo matching can be reduced, matching accuracy can be improved, and template matching processing time can be shortened.
以下本発明の位置検出装置及び位置検出方法の一実施形態について図1乃至図12を参照して説明する。 Hereinafter, an embodiment of a position detection apparatus and a position detection method of the present invention will be described with reference to FIGS.
本実施形態の位置検出装置及び位置検出方法では、テンプレート用のテンプレート画像(パターン画像)と探索対象画像にそれぞれ縦方向のエッジ強調フィルタ処理(以下、縦エッジ強調フィルタ処理と記す)と横方向にエッジ強調フィルタ処理(以下、横エッジ強調フィルタ処理と記す)の双方の画像処理を施し、これらフィルタ処理を施した画像を使用してテンプレートマッチングを行う。 In the position detection apparatus and position detection method of the present embodiment, a vertical edge enhancement filter process (hereinafter referred to as a vertical edge enhancement filter process) and a horizontal direction are applied to a template image (pattern image) and a search target image, respectively. Both image processing of edge enhancement filter processing (hereinafter referred to as horizontal edge enhancement filter processing) is performed, and template matching is performed using the image subjected to these filter processing.
図1は本発明の位置検出装置の一実施形態を示す概略ブロック図である。 FIG. 1 is a schematic block diagram showing an embodiment of the position detection apparatus of the present invention.
本実施形態の位置検出装置は、テンプレートのパターン画像に縦・横エッジ強調フィルタ処理を施すテンプレート画像処理部10と、探索対象画像に縦・横エッジ強調フィルタ処理を施す探索対象画像処理部20と、これらテンプレート画像処理部10と探索対象画像処理部20でのフィルタ処理画像を記憶するストアー部30と、このストアー部30に記憶されたフィルタ処理画像のパターン画像と探索対象画像とのテンプレートマッチングを実行する検出部としてのテンプレートマッチング処理部40と、これら処理部10,20,40とストアー部30を制御する制御部50とを備える。
The position detection apparatus according to the present embodiment includes a template
テンプレート画像処理部10は、図2に示すように、テンプレート用のパターン画像を入力する画像取得部11と、入力した画像に縦・横エッジ強調フィルタ処理を施すフィルタ処理部12と備える。探索対象画像処理部20も同様に探索対象画像を入力する画像取得部21と、入力した画像に縦・横エッジ強調フィルタ処理を施すフィルタ処理部22と備える。
As shown in FIG. 2, the template
縦・横エッジ強調フィルタ処理によって、探索対象画像中の疑似パターンは大幅に減少し(図12参照)、マッチング精度が向上する。また、これにともないマークパターンを小さくすることが出来る。 By the vertical / horizontal edge enhancement filter processing, the pseudo patterns in the search target image are significantly reduced (see FIG. 12), and the matching accuracy is improved. As a result, the mark pattern can be reduced.
また、縦・横エッジ強調フィルタ処理によって、画像の階調が反転した画像と反転していない画像はともに同じパターンになるので、マークパターンの階調が反転する影響を受けず、パターン画像を2種類用意する必要はなく、テンプレートマッチング処理は1回で済み、処理時間の短縮を図ることが可能である。 Further, the vertical and horizontal edge emphasis filter processing causes the image with the inverted gradation of the image and the non-inverted image to have the same pattern, so that the pattern image is not affected by the inversion of the gradation of the mark pattern. There is no need to prepare a type, and the template matching process is only required once, and the processing time can be shortened.
図6(a)、(b)はテンプレート画像処理部10と探索対象画像処理部20での縦・横エッジ強調フィルタ処理に使用する縦エッジ強調フィルタと横エッジ強調フィルタの説明図である。
FIGS. 6A and 6B are explanatory diagrams of a vertical edge enhancement filter and a horizontal edge enhancement filter used for vertical / horizontal edge enhancement filter processing in the template
入力画像(パターン画像、探索対象画像)に対して縦エッジ強調フィルタのカーネル60(図6(a))を使用して畳み込み演算を実行すると、入力画像から横方向のエッジ成分が無くなり、縦方向のエッジ成分のみが残る。これは、入力画像について横方向の隣接画素の差(隣接する画素との階調の差)を出力画像の画素値とするからである。 When the convolution operation is executed on the input image (pattern image, search target image) using the kernel 60 (FIG. 6A) of the vertical edge enhancement filter, the horizontal edge component is eliminated from the input image, and the vertical direction Only the edge component remains. This is because the difference between adjacent pixels in the horizontal direction of the input image (the difference in gradation from the adjacent pixels) is used as the pixel value of the output image.
同様に、横エッジ強調フィルタのカーネル61(図6(b))を使用して畳み込み演算を実行すると、入力画像から縦方向のエッジ成分が無くなり、横方向のエッジ成分のみが残る。これは、入力画像について縦方向の隣接画素の差を出力画像の画素値とするからである。 Similarly, when the convolution operation is executed using the kernel 61 (FIG. 6B) of the horizontal edge enhancement filter, the vertical edge component disappears from the input image, and only the horizontal edge component remains. This is because the difference between adjacent pixels in the vertical direction of the input image is used as the pixel value of the output image.
縦エッジ強調フィルタによる処理も、横エッジ強調フィルタにより処理も、いずれも隣接画素との差を出力とするため、階調が反転していても同じ画像が得られる。これによって階調が反転する可能性がある場合でも2種類のテンプレートを用意しなくてもテンプレートマッチングが行える。 Since both the processing using the vertical edge enhancement filter and the processing using the horizontal edge enhancement filter output the difference from adjacent pixels, the same image can be obtained even if the gradation is inverted. Thus, even if there is a possibility that the gradation is inverted, template matching can be performed without preparing two types of templates.
例えば、隣接する一方の画素の階調が255階調で、他方の画素の階調が0階調であるとした場合、両者の差255(255−0)が出力画像の画素値となる。この隣接する画素の階調が反転して、隣接する一方の画素の階調が255階調から0階調に変化し、他方の画素の階調が0階調から255階調に変化しても、両者の差は255階調(255−0)であり、これが出力画像の画素値となるので、同じ画像が得られる。隣接する画素の階調が共に255階調あるいは0階調の場合、両者の差は0階調で、出力画像の画素値は0となる(出力画像がない)。 For example, when the gradation of one adjacent pixel is 255 gradation and the gradation of the other pixel is 0 gradation, the difference 255 (255-0) between the two is the pixel value of the output image. The gradation of this adjacent pixel is inverted, the gradation of one adjacent pixel changes from 255 gradation to 0 gradation, and the gradation of the other pixel changes from 0 gradation to 255 gradation. However, the difference between them is 255 gradations (255-0), and this is the pixel value of the output image, so the same image can be obtained. When the gradations of adjacent pixels are both 255 gradations or 0 gradations, the difference between them is 0 gradations, and the pixel value of the output image is 0 (no output image).
換言すると、フィルタ処理によって、画像を構成する画素中、隣接する画素との間で変化する部位は抽出され、変化しないそれ以外の部位は除去されることになる。 In other words, the part that changes between adjacent pixels is extracted by the filtering process, and the other part that does not change is removed.
図3は本発明の位置検出方法の一実施形態を示すフローチャートである。 FIG. 3 is a flowchart showing an embodiment of the position detection method of the present invention.
ステップS1では、テンプレート用のパターン画像に対して縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理を組み合わせて処理を施し、本実施形態で使用するテンプレート画像に変換する。 In step S1, the template pattern image is processed by combining vertical edge enhancement filter processing and horizontal edge enhancement filter processing, and converted to a template image used in the present embodiment.
同じテンプレートを使用してテンプレートマッチングを行う場合には、このステップS1を1回実行すればよく、テンプレートマッチング毎にステップS1を実行する必要はない。同じテンプレートを使用しない場合にはその都度ステップS1を実行する。 When template matching is performed using the same template, this step S1 may be executed once, and step S1 need not be executed for each template matching. When the same template is not used, step S1 is executed each time.
ステップS2では、探索対象画像に対して縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理を組み合わせて処理を施し、本実施形態で使用する探索対象画像に変換する。 In step S2, the search target image is processed by combining the vertical edge enhancement filter processing and the horizontal edge enhancement filter processing, and is converted into a search target image used in the present embodiment.
ステップS3では、ステップS1とステップS2で得られた画像を使用して、テンプレートマッチングによってマークパターンの位置を求める処理を実行する。 In step S3, processing for obtaining the position of the mark pattern by template matching is executed using the images obtained in steps S1 and S2.
図4は、図3のステップS1とステップS2で実行される縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理との組み合わせの内容を具体的に示す第1のフローチャートである。 FIG. 4 is a first flowchart specifically showing the contents of the combination of the vertical edge enhancement filter process and the horizontal edge enhancement filter process executed in steps S1 and S2 of FIG.
図4に示すように、ステップS4で入力画像(テンプレート用のパターン画像、探索対象画像)に対して縦エッジ強調フィルタ処理を実行し、次いでステップS5で縦エッジ強調フィルタ処理後の画像に対して更に横エッジ強調フィルタ処理を実行する。 As shown in FIG. 4, in step S4, vertical edge enhancement filter processing is executed on the input image (template pattern image, search target image), and then in step S5, the image after vertical edge enhancement filter processing is executed. Further, horizontal edge enhancement filter processing is executed.
なお、ステップS4で縦エッジ強調フィルタ処理ではなく、横エッジ強調フィルタ処理を実行し、次いでステップS5で横エッジ強調フィルタ処理後の画像に対して更に縦エッジ強調フィルタ処理を実行するようにしてもよい。 In step S4, horizontal edge enhancement filter processing is executed instead of vertical edge enhancement filter processing, and then vertical edge enhancement filter processing is further executed on the image after horizontal edge enhancement filter processing in step S5. Good.
図7及び図8は検索対象画像中のマークパターンに対して図4に示す方法でフィルタ処理を実行した結果を示している。 FIGS. 7 and 8 show the result of executing the filter process by the method shown in FIG. 4 on the mark pattern in the search target image.
図7は、縦エッジ強調フィルタ処理を実行し、次いで縦エッジ強調フィルタ処理後の画像に対して横エッジ強調フィルタ処理を実行した結果を示している。同図(a)は、本実施形態で使用する検索対象画像中のマークパターン70を示している。このマークパターン70には、画素71を四個(2×2)組み合わせて構成された要素パターン(以下要素と記す)72が、縦方向と横方向にそれぞれ画素71二個分に相当する間隔をあけて複数配置されている。マークパターン70の寸法は、要素72間の配置関係(要素72間の間隔)を維持するように設定される。例えば、本実施形態において、画素71のサイズが1mm角の場合、要素72のサイズは2mm角で、要素72間の間隔を2mmとすると、マークパターン70は10mm角のサイズになる。
FIG. 7 shows a result of executing the vertical edge enhancement filter process and then executing the horizontal edge enhancement filter process on the image after the vertical edge enhancement filter process. FIG. 5A shows a
このマークパターン70を縦エッジ強調フィルタで処理すると、図7(a)に示すマークパターン70が図7(b)に示すように横長の複数の要素73を有するマークパターン74に変化する。
When this
図7(a)において、例えば、斜線模様が付された斜線部分の画素71の階調を255階調とし、斜線模様のない白地部分の画素71を0階調として、フィルタ処理を施した場合において、横方向において互いに隣接する画素71aと71bについてみると、画素71aの階調は0階調で、隣の画素71bの階調は255階調であり、両者の差は255階調で、これが出力画像の画素値になる。また、同じく、互いに隣接する画素71cと画素71dについてみると、画素71cは255階調で、画素71dは0階調で、両者の差は255階調で、これが出力画像の画素値になる。これらに対して、画素71eと画素71fについてみると、画素71eと画素71fは共に0階調で、両者の差は0階調で、これが出力画像の画素値になる。
In FIG. 7A, for example, when the gradation processing is performed by setting the gradation of the
すなわち、マークパターン70の横方向(X軸方向)において、要素72間の画素71の階調が255階調になって、上述したように、横長の要素73を有するマークパターン74に変化する。
That is, in the horizontal direction (X-axis direction) of the
次いで、この縦エッジ強調フィルタ処理を実行した後のマークパターン74に対して更に横エッジ強調フィルタで処理すると、マークパターン70の縦方向において図7(b)の要素73間の画素71の階調が0階調から255階調になって、図7(c)に示すように、矩形の要素75を有するマークパターン76に変化する。
Next, if the
図7(b)において、例えば、マークパターン76の縦方向(Y軸方向)において互いに隣接する画素71aと71hについてみると、一方の画素71aの階調は255階調で、他方の画素71hの階調は0階調であり、両者の差は255階調で、これが出力画像の画素値になる。また、同じく、互いに隣接する画素71gと画素71eについてみると、一方の画素71gは255階調で、他方の画素71eは0階調で、両者の差は255階調で、これが出力画像の画素値になる。
In FIG. 7B, for example, regarding the
このように図4に示す方法でフィルタ処理を実行した場合においては、図3のステップS3で実行するパターンマッチングで図7(c)に示す画像のマークターン76を探索することになる。
As described above, when the filtering process is executed by the method shown in FIG. 4, the
図8は、図7に示す場合とは異なり、横エッジ強調フィルタ処理を実行し、次いで横エッジ強調フィルタ処理後の画像に対して縦エッジ強調フィルタ処理を実行した結果を示している。同図(a)は、本実施形態で使用する検索対象画像中のマークパターン70を示し、図7(a)に示すものと同じである。
FIG. 8 shows the result of executing the horizontal edge enhancement filter process and then performing the vertical edge enhancement filter process on the image after the horizontal edge enhancement filter process, unlike the case shown in FIG. FIG. 7A shows a
このマークパターン70を横エッジ強調フィルタで処理すると、図8(a)に示すマークパターン70が図8(b)に示すように縦長の複数の要素77を有するマークパターン78に変化する。
When this
すなわち、マークパターン70の縦方向において、要素77間の画素71の階調が255階調になって、上述したように、縦長の要素77を有するマークパターン78に変化する。
That is, in the vertical direction of the
次いで、この横エッジ強調フィルタ処理を実行した後のマークパターン78に対して更に縦エッジ強調フィルタで処理すると、マークパターン78の横方向において図8(b)の要素77間の画素71の階調が0階調から255階調になって、図8(c)に示すように、矩形の要素79を有するマークパターン80に変化する。
Next, when the
このように、図4に示すステップS4とステップS5の順序を逆にした、横エッジ強調フィルタ処理を実行し、次いで横エッジ強調フィルタ処理後の画像に対して縦エッジ強調フィルタ処理を実行した場合においては、図3のステップS3で実行するパターンマッチングで図8(c)に示す画像のマークターン80を探索することになる。
As described above, when the horizontal edge enhancement filter process is executed by reversing the order of steps S4 and S5 shown in FIG. 4, and then the vertical edge enhancement filter process is executed on the image after the horizontal edge enhancement filter process. In FIG. 8, the
図5は、図3のステップS1とステップS2で実行される縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理との組み合わせの内容を具体的に示す第2のフローチャートである。 FIG. 5 is a second flowchart specifically showing the contents of the combination of the vertical edge enhancement filter process and the horizontal edge enhancement filter process executed in steps S1 and S2 of FIG.
図5では、テンプレート用のパターン画像又は探索対象画像を入力する画像取得後に、ステップS6で入力画像に対して縦エッジ強調フィルタ処理を実行し、またステップS7で同じくテンプレート用のパターン画像又は探索対象画像の入力画像に対して横エッジ強調フィルタ処理を実行する。次いで、ステップS8で縦エッジ強調フィルタの処理結果の画像と横エッジ強調フィルタの処理結果の画像について、同じ場所での画素の画素値を比較して低い方の画素値を出力画像の画素値とする処理を実行する。 In FIG. 5, after acquiring an image for inputting a template pattern image or a search target image, vertical edge enhancement filter processing is executed on the input image in step S <b> 6, and the template pattern image or search target is also determined in step S <b> 7. The horizontal edge enhancement filter process is executed on the input image. Next, in step S8, the pixel value of the pixel at the same place is compared with the pixel value of the output image for the image of the vertical edge enhancement filter processing result and the image of the horizontal edge enhancement filter processing result. Execute the process.
図9及び図10は検索対象画像中のマークパターンに対して図5に示す方法でフィルタ処理を実行した結果を示している。 FIG. 9 and FIG. 10 show the result of executing the filtering process by the method shown in FIG. 5 on the mark pattern in the search target image.
図9は、図7(a)に示すマークパターン70を縦エッジ強調フィルタで処理した、横長の要素73を有するマークパターン74と、横エッジ強調フィルタで処理した、縦長の要素77を有するマークパターン78とを重ね合わせた画像82を示している。
FIG. 9 shows a
この画像82からマークパターン74とマークパターン78の双方に共通する(重ね合わさった)画素を取り出すために、共通する画素のうち、画素値の小さい方の画素値を選択し、これを出力画像の画素値とする処理(図5のステップS8参照)を実行すると、図10に示すマークパターン83が得られる。
In order to extract pixels that are common (overlapped) to both the
図5に示す方法でフィルタ処理を実行した場合においては、図3のステップS3で実行するパターンマッチングでこの図10に示す画像のマークターン83を探索することになる。
When the filtering process is executed by the method shown in FIG. 5, the
図11は探索対象画像に対して縦エッジ強調フィルタで処理した場合を示している。同図(a)に示す探索対象画像100には、マークターン85の他に疑似マッチングの原因となる疑似パターン86も含まれている。図11(a)ではマークパターン85を便宜上矩形パターンとして表示しているが、実際には図7(a)に示すマークパターン70と同じ形状を有している。なお、縦エッジ強調フィルタ処理する方向の画像である、マークパターン85は、縦エッジ強調フィルタ処理エリアよりも小さく設定されている。
FIG. 11 shows a case where the search target image is processed by the vertical edge enhancement filter. In addition to the
探索対象画像100に対して縦エッジ強調フィルタで処理すると、図11(b)に示す探索対象画像101が得られる。この探索対象画像101では、疑似パターン86は縦エッジパターン89に変化し、またマークパターン85は図7(b)に示すマークパターン74と同じ形状のマークパターン87(図では便宜上矩形パターンとして表示)に変化する。
When the
図12は、縦エッジ強調フィルタ処理を施した探索対象画像101に対して更に横エッジ強調フィルタ処理をした場合を示している。なお、横エッジ強調フィルタ処理する方向の画像である、マークパターン87は、横エッジ強調フィルタ処理エリアよりも小さく設定されている。
FIG. 12 illustrates a case where the horizontal edge enhancement filter process is further performed on the
探索対象画像101に横エッジ強調フィルタで処理すると、図12に示す探索対象画像102が得られる。この探索対象画像102では、縦エッジパターン89はその端部が点に変化した端点90になり、またマークパターン87は図7(c)に示すマークパターン76と同じ形状のマークパターン88(図では便宜上矩形パターンとして表示)に変化する。
When the
このように探索対象画像100を縦・横エッジ強調フィルタで処理すると、疑似マッチングの原因となる疑似パターン86は最終的に端点90となり、マークパターン88とは大きさや形状などが大きく異なる。この結果、疑似マッチングを減らしてマッチング精度を高めることが出来る。
As described above, when the
また、疑似パターン86が最終的に端点90となることからマークパターン88の寸法を小さく設定することが可能となる。
Further, since the
本発明は上記実施形態に示すものに限定されるものではない。テンプレート画像や探索対象画像を構成する画素中、隣接する画素との間で変化する部位を抽出し、それ以外の部位を除去する、画像処理として、エッジ強調フィルタ処理を示したが、これに限定されるものではない。 The present invention is not limited to the one shown in the above embodiment. Edge enhancement filter processing has been shown as image processing that extracts a portion that changes between adjacent pixels from the pixels that make up the template image and search target image, and removes other portions, but this is not the only case Is not to be done.
また、縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理の双方の処理を行った場合を示したが、何れか一方の処理だけを施してもよい。要は、疑似パターンを減らすことができれば、縦エッジ強調フィルタ処理と横エッジ強調フィルタ処理の何れか一方の処理だけでもよい。 Moreover, although the case where the process of both the vertical edge emphasis filter process and the horizontal edge emphasis filter process was shown was shown, you may perform only any one process. In short, as long as the pseudo patterns can be reduced, only one of the vertical edge enhancement filter processing and the horizontal edge enhancement filter processing may be performed.
10 テンプレート処理部
20 探索対象画像処理部
30 ストアー部
40 テンプレートマッチング処理部
50 制御部
60 縦エッジ強調フィルタのカーネル
61 横エッジ強調フィルタのカーネル
70 マークパターン
71 画素
72 要素(要素パターン)
73 要素(要素パターン)
77 要素(要素パターン)
74 マークパターン
76 マークパターン
78 マークパターン
80 マークパターン
83 マークパターン
85 マークパターン
86 疑似パターン
87 マークパターン
88 マークパターン
100 探索対象画像
101 探索対象画像
102 探索対象画像
DESCRIPTION OF
73 elements (element patterns)
77 elements (element patterns)
74
Claims (8)
前記検索対象画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施す検索対象画像処理部と、
前記画像処理が施された前記検索対象画像中の、前記テンプレートのテンプレート画像と合致する前記マークパターンの位置を検出する検出部と、
を備えたことを特徴とする位置検出装置。 An apparatus for detecting the position of a mark pattern that matches a template in a search target image,
A search target image processing unit that performs image processing to extract a portion that changes between adjacent pixels among the pixels constituting the image to the search target image;
A detection unit that detects a position of the mark pattern that matches a template image of the template in the search target image subjected to the image processing;
A position detection device comprising:
前記テンプレート画像に、該画像を構成する画素中、隣接する画素との間で変化する部位を抽出する、画像処理を施すテンプレート画像処理部を更に備え、
前記検出部は、前記検索対象画像処理部によって前記画像処理が施された前記探索対象画像中の、前記テンプレート画像処理部によって前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出することを特徴とする位置検出装置。 The position detection device according to claim 1,
A template image processing unit that performs image processing for extracting a portion that changes between adjacent pixels among the pixels constituting the image to the template image,
The detection unit includes a position of the mark pattern that matches the template image subjected to the image processing by the template image processing unit in the search target image subjected to the image processing by the search target image processing unit. A position detecting device for detecting
前記画像処理は、画像に互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す処理であることを特徴とする位置検出装置。 In the position detection device according to claim 1 or 2,
The position detection apparatus according to claim 1, wherein the image processing is processing for performing edge enhancement filter processing in two directions intersecting with each other.
前記マークパターンは複数の要素パターンで構成され、該要素パターンは前記エッジ強調フィルタ処理の処理エリアよりも小さいことを特徴とする位置検出装置。 In the position detection device according to claim 3,
The position detection apparatus according to claim 1, wherein the mark pattern includes a plurality of element patterns, and the element patterns are smaller than a processing area of the edge enhancement filter processing.
前記要素パターンは、対応する画素数が2×2の画像であることを特徴とする位置検出装置。 The position detection device according to claim 4,
The position detection apparatus according to claim 1, wherein the element pattern is an image having a corresponding number of pixels of 2 × 2.
前記エッジ強調フィルタ処理は、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、次いでこの一方向で前記エッジ強調フィルタ処理を施した前記画像に更に他方向で前記エッジ強調フィルタ処理を施すことを特徴とする位置検出装置。 In the position detection device according to claim 3,
In the edge enhancement filter processing, the edge enhancement filter processing is performed on the image in one direction out of the two directions, and then the edge enhancement filter processing is performed on the image subjected to the edge enhancement filter processing in this one direction in the other direction. A position detection device characterized by performing a filtering process.
前記エッジフィルタ処理は、前記2方向のうち、一方向で前記画像に前記エッジ強調フィルタ処理を施し、また他方向で前記画像にエッジ強調フィルタ処理を施し、これら前記エッジ強調フィルタ処理を施した前記両画像を重ね合わせ、重ね合わさった部分を前記画像とすることを特徴とする位置検出装置。 In the position detection device according to claim 3,
In the edge filter processing, the edge enhancement filter processing is performed on the image in one direction out of the two directions, the edge enhancement filter processing is performed on the image in the other direction, and the edge enhancement filter processing is performed on the image. A position detecting device, wherein both images are overlapped and the overlapped portion is used as the image.
前記テンプレートのテンプレート画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施すテンプレート処理工程と、
前記検索対象画像に、互いに交差する2方向でそれぞれエッジ強調フィルタ処理を施す探索対象画像処理工程と、
前記画像処理が施された前記検索対象画像中に、前記画像処理が施された前記テンプレート画像と合致する前記マークパターンの位置を検出する工程と、
を備えたことを特徴とする位置検出方法。 A method of detecting a position of a mark pattern that matches a template in a search target image,
A template processing step of applying edge enhancement filter processing to the template image of the template in two directions intersecting each other;
A search target image processing step for subjecting the search target image to edge enhancement filter processing in two directions intersecting each other;
Detecting the position of the mark pattern that matches the template image subjected to the image processing in the search target image subjected to the image processing;
A position detection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237762A JP2009068998A (en) | 2007-09-13 | 2007-09-13 | Position-detecting device and position-detecting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007237762A JP2009068998A (en) | 2007-09-13 | 2007-09-13 | Position-detecting device and position-detecting method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009068998A true JP2009068998A (en) | 2009-04-02 |
Family
ID=40605411
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007237762A Pending JP2009068998A (en) | 2007-09-13 | 2007-09-13 | Position-detecting device and position-detecting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009068998A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014156723A1 (en) | 2013-03-27 | 2014-10-02 | 株式会社ニコン | Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program |
-
2007
- 2007-09-13 JP JP2007237762A patent/JP2009068998A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014156723A1 (en) | 2013-03-27 | 2014-10-02 | 株式会社ニコン | Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program |
US9952038B2 (en) | 2013-03-27 | 2018-04-24 | Nikon Corporation | Shape measurement device, structure production system, shape measurement method, structure production method, and shape measurement program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2012145349A (en) | METHOD AND DEVICE FOR PROCESSING IMAGES FOR REMOVING DEPTH ARTIFacts | |
JP2016038732A5 (en) | ||
JP4518139B2 (en) | Image processing device | |
WO2010044433A1 (en) | Image processing method, image processing device, and surface inspection device using the image processing device | |
JP2010103694A (en) | Camera with translation function, and method of displaying text | |
EP3014528B1 (en) | Determining barcode locations in documents | |
JP2017084975A (en) | Position detecting apparatus, position detecting method, information processing program, and recording medium | |
JP5772675B2 (en) | Gray image edge extraction method, edge extraction device, and gray image edge extraction program | |
JP3806125B2 (en) | Defect inspection apparatus and defect inspection method | |
JP2009068998A (en) | Position-detecting device and position-detecting method | |
JP6643301B2 (en) | Defect inspection device and defect inspection method | |
JP2021108022A5 (en) | ||
JP2006196937A (en) | Image processing apparatus and image processing method | |
JP2005352543A (en) | Template matching device | |
JP2009157701A (en) | Method and unit for image processing | |
JP2016121875A (en) | X-ray inspection device | |
JP2018092507A (en) | Image processing apparatus, image processing method, and program | |
JP2010244320A (en) | Image processor | |
US10380463B2 (en) | Image processing device, setting support method, and non-transitory computer-readable media | |
JP2006208340A (en) | Defect inspecting device | |
JP2014215840A (en) | Image processing circuit, image processor, and image processing method | |
JP2007241418A (en) | Template matching device | |
JP5005482B2 (en) | Pattern search method and apparatus | |
JP2006201135A (en) | Defect inspection device, defect inspection method, and defect inspection program | |
JP2006017489A (en) | Cell identification device, program for cell identification, cell analysis device, and program for cell analysis |