JP2000259829A - Image recognition method - Google Patents

Image recognition method

Info

Publication number
JP2000259829A
JP2000259829A JP11057328A JP5732899A JP2000259829A JP 2000259829 A JP2000259829 A JP 2000259829A JP 11057328 A JP11057328 A JP 11057328A JP 5732899 A JP5732899 A JP 5732899A JP 2000259829 A JP2000259829 A JP 2000259829A
Authority
JP
Japan
Prior art keywords
image
pattern
constituent
density difference
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11057328A
Other languages
Japanese (ja)
Inventor
Yoshihiko Katsura
仁彦 葛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sokkia Co Ltd
Original Assignee
Sokkia Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sokkia Co Ltd filed Critical Sokkia Co Ltd
Priority to JP11057328A priority Critical patent/JP2000259829A/en
Publication of JP2000259829A publication Critical patent/JP2000259829A/en
Pending legal-status Critical Current

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To quickly extract the shape of a measured object by calculating the density difference between a part corresponding to the measured object and its peripheral part in regard to the kernel component images of the red, green and blue images respectively and using the kernel component image having the largest density difference to extract the edge of the measured object. SOLUTION: A color image FCR is separated into the component images and the noise components are eliminates. Then the density difference of every component image is calculated along a scanning line L crossing the outer fringe of an image pattern TP that is obtained by photographing a measured object T. In other words, the density differences CR, CG and CB of the R, G and B images are calculated respectively. These differences CR, CG and CB are compared with each other and the component image having the largest density difference is used to extract the edge of the object T. Thus, it is possible to quickly extract even the border line of an object that cannot be extracted with its monochromatic image since the density difference of this image cannot be calculated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、水平なテーブル上
に載置された被測定物を上方から撮像して被測定物の測
定を行う二次元測定機や三次元測定機に用いられる画像
認識方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition apparatus used in a two-dimensional measuring device or a three-dimensional measuring device for measuring an object to be measured by imaging the object to be measured placed on a horizontal table from above. About the method.

【0002】[0002]

【従来の技術】従来の二次元測定機として、例えば特開
平8−189813号公報により、被測定物が載置され
る水平なテーブルを有し、該被測定物の上方を所定間隔
を存してテーブルと平行にX−Y方向に移動されるCC
Dカメラ(撮像手段)を備えたものが知られている。こ
のような二次元測定機を用いて例えばプラズマディスプ
レイに用いられるパネルの電極を測定する場合、該電極
をCCDカメラで撮像し、撮像された画像データから電
極のエッジを抽出し、該エッジの座標から電極の寸法を
測定したり、あるいはパネルのアライメントマークを抽
出して、該アライメントマークの形状が予め記憶されて
いる正規のマスターパターンの形状に一致するかを判断
するパターンマッチングを行い、両パターン形状が一致
していれば被測定物であるパネルのアライメントマーク
を測定し、パネルの座標系を設定する。カラー画像は光
の3原色である赤画像(R画像)、緑画像(G画像)、
青画像(B画像)の3色の構成画像に分解することがで
きる。エッジを抽出する場合には測定対象となるエッジ
部分を指定し、3色の構成画像毎にエッジ検出を行う。
また、パターンマッチングを行う場合には画像処理によ
りパターンの外縁を抽出するが、カラー画像の場合には
3色の構成画像毎にパターン形状の抽出を行わなければ
ならず、また各構成画像毎に同じパターン形状が抽出さ
れるとは限らない。カラー画像を濃度差データからなる
単色画像に変換すればこのような不具合が解消される。
カラー画像を単色の画像に変換する方法として、例えば
特開平10−145612号公報により、画像の濃度差
が強調されるようにカラー画像を構成する3色の比率を
決定する変換ベクトルを求め、該変換ベクトルに基づい
て3色を合成し、単色画像に変換する方法が知られてい
る。
2. Description of the Related Art As a conventional two-dimensional measuring machine, for example, Japanese Patent Laid-Open Publication No. Hei 8-189813 has a horizontal table on which an object to be measured is placed, and a predetermined distance is provided above the object to be measured. Moved in the X-Y direction parallel to the table
A camera equipped with a D camera (imaging means) is known. When measuring an electrode of a panel used for a plasma display, for example, using such a two-dimensional measuring device, an image of the electrode is taken by a CCD camera, an edge of the electrode is extracted from the image data obtained, and coordinates of the edge are extracted. Measure the dimensions of the electrodes from, or extract the alignment marks of the panel, and perform pattern matching to determine whether the shape of the alignment marks matches the shape of the regular master pattern stored in advance. If the shapes match, the alignment mark of the panel to be measured is measured, and the coordinate system of the panel is set. The color images are three primary colors of light: a red image (R image), a green image (G image),
It can be decomposed into three color constituent images of a blue image (B image). When extracting an edge, an edge portion to be measured is specified, and edge detection is performed for each of the three color component images.
When performing pattern matching, the outer edge of the pattern is extracted by image processing. However, in the case of a color image, the pattern shape must be extracted for each of the three color component images. The same pattern shape is not always extracted. Converting a color image into a single-color image composed of density difference data solves such a problem.
As a method of converting a color image into a monochromatic image, for example, according to Japanese Patent Application Laid-Open No. H10-145612, a conversion vector for determining a ratio of three colors constituting a color image so that a density difference of the image is emphasized is obtained. There is known a method of combining three colors based on a conversion vector and converting the three colors into a single-color image.

【0003】[0003]

【発明が解決しようとする課題】カラー画像を単色画像
に変換する上記従来の方法では、撮像されたカラー画像
から変換ベクトルを求め、更に該変換ベクトルに基づい
て各色の合成比率を求めるため演算に時間を要するとい
う不具合が生じる。
In the above-described conventional method of converting a color image into a single-color image, a conversion vector is obtained from a captured color image, and further, an operation is performed to obtain a composition ratio of each color based on the conversion vector. A problem that time is required occurs.

【0004】そこで本発明は、上記の問題点に鑑み、カ
ラー画像から被測定物の形状を短時間で抽出することの
できる画像認識方法を提供することを課題とする。
In view of the above problems, an object of the present invention is to provide an image recognition method capable of extracting a shape of a measured object from a color image in a short time.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
に第1の本発明は、撮像手段により撮像された被測定物
のカラー画像から被測定物のパターンの境界線であるエ
ッジを検出し、該エッジの位置から画像を認識する方法
において、カラー画像を構成する赤画像(R画像)、緑
画像(G画像)、青画像(B画像)の各構成画像に分離
し、これら3つの各構成画像について被測定物に対応す
る部分と該部分の周囲の部分との濃度差を求め、各構成
画像の内の最も濃度差が大きい構成画像を用いて被測定
物のエッジを抽出することを特徴とする。
According to a first aspect of the present invention, an edge, which is a boundary of a pattern of a device under test, is detected from a color image of the device under test captured by an image capturing means. In the method of recognizing an image from the position of the edge, a color image is separated into a red image (R image), a green image (G image), and a blue image (B image). The density difference between the portion corresponding to the device under test and the portion surrounding the portion is determined for the constituent images, and the edge of the device under test is extracted using the component image having the largest density difference among the component images. Features.

【0006】また、第2の本発明は、予め記憶されるマ
スターパターンとなる被測定物のパターン形状を、撮像
手段により撮像された被測定物のカラー画像から抽出す
る画像認識方法において、カラー画像を構成する赤画像
(R画像)、緑画像(G画像)、青画像(B画像)の各
構成画像の内の濃度差の最も大きい構成画像から上記マ
スターパターンを抽出しておき、撮像されたカラー画像
を構成する構成画像の内の、マスター画像を抽出した構
成画像と同じ種類の構成画像からパターン形状を抽出す
ることを特徴とする。
According to a second aspect of the present invention, there is provided an image recognition method for extracting a pattern shape of an object to be measured as a master pattern stored in advance from a color image of the object to be measured captured by an imaging means. The master pattern is extracted from the constituent image having the largest density difference among the constituent images of the red image (R image), the green image (G image), and the blue image (B image) constituting It is characterized in that a pattern shape is extracted from a constituent image of the same type as a constituent image from which a master image is extracted, among constituent images constituting a color image.

【0007】3色の構成画像の濃度差は相違する場合が
多いので、各構成画像の内の最も濃度差の大きい構成画
像を用いて被測定物の形状を抽出すれば、従来の抽出方
法のような複雑な演算を必要としない。また、パターン
マッチングを行う場合には濃度差の最も大きい構成画像
からマスターパターンを抽出しておき、マスターパター
ンを抽出した構成画像と同じ種類の構成画像から被測定
物に関するパターン形状を抽出すればマスターパターン
や抽出されたパターン形状を同一条件で比較しパターン
マッチングを行うことができる。
Since the density difference between the three color component images is often different, if the shape of the object to be measured is extracted using the component image having the largest density difference among the component images, the conventional extraction method can be used. It does not require such complicated calculations. When performing pattern matching, a master pattern is extracted from a constituent image having the largest density difference, and if a pattern shape relating to the device under test is extracted from a constituent image of the same type as the constituent image from which the master pattern is extracted, the master pattern is extracted. Pattern matching can be performed by comparing patterns and extracted pattern shapes under the same conditions.

【0008】尚、画像にノイズが含まれる場合には上記
分離された赤画像(R画像)、緑画像(G画像)、青画
像(B画像)にフィルタ処理を施し、画像に含まれるノ
イズを除去することが望ましい。
If the image contains noise, the separated red image (R image), green image (G image), and blue image (B image) are subjected to filter processing to remove the noise contained in the image. It is desirable to remove it.

【0009】[0009]

【発明の実施の形態】図1を参照して、1は二次元測定
機であり、摺りガラス等の半透過性を有する平板状の水
平なテーブル11を備えている。該テーブル11上には
被測定物であるプリント配線基板Tが載置されている。
該テーブル11上にはテーブル11に対して平行にX−
Y方向に移動自在な撮像手段であるCCDカメラ2が取
り付けられている。該CCDカメラ2により撮像される
画像はカラー画像である。また、CCDカメラ2の両側
にはCCDカメラ2の撮像位置には図示しないが照明用
の光を導く顕微鏡光学系と同軸の落射照明装置が取り付
けられている。また、図2に示すように、テーブル11
の下方には面状発光体12が配置されており、被測定物
Tが透光性を備えている場合には面状発光体12を発光
させて被測定物Tのパターン形状がシルエットになるよ
うにし、プリント配線基板のように透光性を備えていな
い場合には光ファイバ21を介して被測定物Tの上面に
光を照射する。CCDカメラ2からの画像データは画像
処理装置31を含むコンピュータ3に取り込まれ、二次
元測定機1の近傍に設置されたカラーモニター35にカ
ラー画像として表示される。CCDカメラ2からカラー
画像の信号がコンピュータ3に入力されると、コンピュ
ータ3内ではカラー画像を赤画像(R画像)、緑画像
(G画像)、青画像(B画像)の各構成画像に分離す
る。パターン形状を抽出する際に誤差要因となる不要な
パターンが存在する場合、ノイズである該不要なパター
ンを除去するためフィルタ処理を施す。該フィルタ処理
はメディアンフィルタ等の従来知られているフィルタ処
理でよく、撮像した画像からパルスノイズのように突出
した値をもつノイズ成分を除去し、目的とするパターン
形状を構成する信号以外を除去する。このように各構成
画像からノイズ成分が除去されると、画像処理装置は各
構成画像を再び合成してカラーモニター35にカラー画
像を表示させる。また、図3に示すように、カラー画像
FCRを各構成画像に分離し、ノイズ成分を除去した
後、被測定物Tを撮像した画像パターンTP’の外縁を
またぐ走査線Lに沿って各構成画像毎に濃度差を求め
る。即ち、R画像での濃度差CRとG画像での濃度差C
GとB画像での濃度差CBとを求める。該走査線Lの長
さは始点と終点とをマウスを操作して決定することによ
り任意に規定される。尚該走査線Lは斜めに傾斜して規
定してもよい。このように走査線Lを自由に規定できる
ので画像の濃淡に応じて適切な位置に規定することがで
きる。そして各濃度差を比較し、最も濃度差が大きな構
成画像を特定する。本実施の形態ではG画像での濃度差
CGが他の構成画像における濃度差CR、CBより大き
くなっている。そこで、各構成画像の中からG画像FG
を選択する。濃度差が等しい構成画像が複数存在する場
合には各構成画像に優先順位を付けておき、優先順位の
高い構成画像を選択する。画像パターンTP’のエッジ
を検出する場合、モニター35の画像上で指定された位
置若しくは範囲における該G画像の濃度差が所定の閾値
を超えた点の座標を画像パターンTP’の座標とする。
相対する別の画像パターンのエッジの座標を同様に求め
て両座標を比較することでパターン幅やパターン間隔を
測定することができる。画像パターンTP’の形状が円
などの曲線を含む場合であっても同様にエッジの座標や
寸法を求めることができる。また、図4に示すように、
パターンマッチングを行う場合には、該G画像FGを所
定の閾値を用いて2値化する。2値化したG画像を基に
従来の処理方法により画像パターンTP’の周縁を求
め、画像パターンTP’の大きさや位置を求める。該図
3に示した実施の形態ではカラー画像を各構成画像に分
離してもパターン形状が変化しない場合であったが、パ
ターン形状部分が完全に1色でない場合には各構成画像
に分離すると構成画像毎にパターン形状が相違する。そ
のような場合であっても、パターンマッチングを行うに
は問題ない。図5に示すように、マスターとなるパター
ンを含む領域TDをカラー画像FCRの中で指定する。
そして、各構成画像であるR画像FRとG画像FGとB
画像FBとに分離する。該領域Tは測定者によって種々
の形状に設定される。例えば円形や矩形でもよく、また
該領域TD内には複数の画像パターンが含まれる場合も
あり、あるいは画像パターンが1つしか含まれない場合
もある。その際、各構成画像にあらわれる各範囲TD
R、TDG、TDB内の各形状の濃度差が相違してい
る。G画像FGでの濃度差が1番大きいとすると、パタ
ーン形状を含む範囲TDGをマスター画像G−MAST
ERとしてコンピュータ3に登録しておく。その際、マ
スター画像F−MASTERと共に該マスター画像F−
MASTERがG画像FGであったというデータも合わ
せて登録しておく。次にパターンマッチングされるべき
被測定物の別の位置を撮像したカラー画像4Gが画像処
理装置31に入力され、モニター画像に表示された領域
TDを指定する。画像処理装置31は該カラー画像4G
についてパターンマッチングするため上記マスター画像
F−MASTERをコンピュータ3のメモリから呼び出
してくる。その際、マスター画像F−MASTERがG
画像FGであったデータも呼び出される。すると、画像
処理装置31はカラー画像4Gを構成する構成画像の
内、濃度差の大きい画像TDG’を取り出しマスター画
像F−MASTERと該画像TDG’とをパターンマッ
チングさせる。ところで、パターン形状が相違する場
合、相関係数を用いてパターンマッチングを行う。例え
ばマスターパターンとの相違を、全く相違しない場合を
1として例えば0.9,0.8,0.7,・・・の9段
階に分け、0.3以上であれば同一であると判断するよ
うにパターンマッチングの判断基準を設けておく。この
ように相関係数を用いてパターンマッチングを行えば複
数のプリント配線基板について検査を素早く行うことが
できる。また、相関係数を用いれば検査ばかりでなくパ
ターンの一致や検索を素早く行え、また、上述の濃度差
を求める手法と組み合わせることによりパターン形状の
座標位置を得ることができ、同一のパターンがどの位置
にあるのかを素早く知ることができる。尚、上記実施の
形態は本発明を二次元測定機に適用したものを示した
が、三次元測定機にも適用することができる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Referring to FIG. 1, reference numeral 1 denotes a two-dimensional measuring machine provided with a flat table 11 having a semi-permeable property such as ground glass. On the table 11, a printed wiring board T as an object to be measured is placed.
On the table 11, X-
A CCD camera 2, which is an imaging means movable in the Y direction, is attached. The image captured by the CCD camera 2 is a color image. On both sides of the CCD camera 2, epi-illumination devices (not shown) coaxial with a microscope optical system for guiding illumination light, which are not shown, are attached to the imaging position of the CCD camera 2. Also, as shown in FIG.
Is disposed below the light-emitting device 12. When the device T has a light-transmitting property, the surface light-emitting device 12 emits light, and the pattern shape of the device T becomes a silhouette. In a case where the printed circuit board does not have a light-transmitting property as in the case of a printed wiring board, light is irradiated onto the upper surface of the DUT via the optical fiber 21. Image data from the CCD camera 2 is taken into a computer 3 including an image processing device 31 and displayed as a color image on a color monitor 35 installed near the two-dimensional measuring device 1. When a signal of a color image is input from the CCD camera 2 to the computer 3, the computer 3 separates the color image into constituent images of a red image (R image), a green image (G image), and a blue image (B image). I do. When there is an unnecessary pattern that becomes an error factor when extracting a pattern shape, filter processing is performed to remove the unnecessary pattern that is noise. The filter processing may be a conventionally known filter processing such as a median filter, and removes a noise component having a prominent value such as pulse noise from a captured image and removes a signal other than a signal constituting a target pattern shape. I do. When the noise component is removed from each of the constituent images in this manner, the image processing apparatus combines the constituent images again and causes the color monitor 35 to display the color image. Further, as shown in FIG. 3, after separating the color image FCR into the respective constituent images and removing the noise components, the respective components are arranged along the scanning line L straddling the outer edge of the image pattern TP ′ obtained by imaging the device under test T. A density difference is obtained for each image. That is, the density difference CR in the R image and the density difference C in the G image
A density difference CB between the G and B images is obtained. The length of the scanning line L is arbitrarily defined by determining a start point and an end point by operating a mouse. The scanning line L may be defined obliquely. Since the scanning line L can be freely defined in this way, it can be defined at an appropriate position according to the density of the image. Then, the respective density differences are compared, and the constituent image having the largest density difference is specified. In the present embodiment, the density difference CG in the G image is larger than the density differences CR and CB in the other constituent images. Therefore, the G image FG is selected from the constituent images.
Select When there are a plurality of constituent images having the same density difference, priorities are assigned to the constituent images, and a constituent image having a higher priority is selected. When detecting the edge of the image pattern TP ′, the coordinates of a point where the density difference of the G image at a position or range specified on the image of the monitor 35 exceeds a predetermined threshold value is set as the coordinates of the image pattern TP ′.
The pattern width and the pattern interval can be measured by similarly obtaining the coordinates of the edge of another opposing image pattern and comparing the two coordinates. Even when the shape of the image pattern TP ′ includes a curve such as a circle, the coordinates and dimensions of the edge can be similarly obtained. Also, as shown in FIG.
When performing pattern matching, the G image FG is binarized using a predetermined threshold. Based on the binarized G image, the periphery of the image pattern TP 'is obtained by a conventional processing method, and the size and position of the image pattern TP' are obtained. In the embodiment shown in FIG. 3, the pattern shape does not change even if the color image is separated into each component image. However, if the pattern shape portion is not completely one color, the pattern image is separated into each component image. The pattern shape differs for each constituent image. Even in such a case, there is no problem in performing pattern matching. As shown in FIG. 5, a region TD including a pattern to be a master is designated in the color image FCR.
Then, the R image FR, the G image FG, and the B
Image FB. The region T is set in various shapes by a measurer. For example, the area TD may be circular or rectangular, and the area TD may include a plurality of image patterns, or may include only one image pattern. At this time, each range TD appearing in each constituent image
The density difference of each shape in R, TDG, and TDB is different. Assuming that the density difference in the G image FG is the largest, the range TDG including the pattern shape is set to the master image G-MAST.
It is registered in the computer 3 as ER. At that time, the master image F-MASTER and the master image F-
The data that the master is the G image FG is also registered. Next, a color image 4G obtained by capturing another position of the device under test to be subjected to pattern matching is input to the image processing device 31, and the region TD displayed on the monitor image is specified. The image processing device 31 performs the color image 4G
The above-mentioned master image F-MASTER is called from the memory of the computer 3 in order to perform pattern matching. At that time, the master image F-MASTER is G
The data that was the image FG is also called. Then, the image processing device 31 extracts an image TDG ′ having a large density difference from the constituent images constituting the color image 4G, and performs pattern matching between the master image F-MASTER and the image TDG ′. When the pattern shapes are different, pattern matching is performed using the correlation coefficient. For example, the difference from the master pattern is divided into nine steps, for example, 0.9, 0.8, 0.7,... Thus, a criterion for pattern matching is provided. As described above, if pattern matching is performed using the correlation coefficient, inspection can be quickly performed on a plurality of printed wiring boards. In addition, using the correlation coefficient enables not only inspection but also pattern matching and search to be performed quickly, and by combining with the above-described method of obtaining a density difference, a coordinate position of a pattern shape can be obtained. You can quickly know if you are in a position. In the above embodiment, the present invention is applied to a two-dimensional measuring machine. However, the present invention can be applied to a three-dimensional measuring machine.

【0010】[0010]

【発明の効果】以上の説明から明らかなように、本発明
は、従来の方法のようにカラー画像を構成する3つの構
成画像から単色画像を生成するのではなく、構成画像の
内の1つを用いるので、従来の方法より画像処理速度が
速くなる。また、従来モノクロ画像では濃度差が出ない
ため境界線が抽出できなかったものでも迅速に境界線を
抽出することができる。
As is apparent from the above description, the present invention does not generate a single-color image from three constituent images constituting a color image as in the conventional method, but instead generates one of the constituent images. Is used, the image processing speed is higher than in the conventional method. Further, in the conventional monochrome image, even if the boundary line cannot be extracted because there is no density difference, the boundary line can be quickly extracted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用される二次元測定機の外観図FIG. 1 is an external view of a two-dimensional measuring machine to which the present invention is applied.

【図2】画像処理装置の構成を示すブロック図FIG. 2 is a block diagram illustrating a configuration of an image processing apparatus.

【図3】本発明の第1の実施の形態を説明する概念図FIG. 3 is a conceptual diagram illustrating a first embodiment of the present invention.

【図4】エッジ抽出工程を説明する概念図FIG. 4 is a conceptual diagram illustrating an edge extraction step.

【図5】本発明の第2の実施の形態を説明する概念図FIG. 5 is a conceptual diagram illustrating a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 二次元測定機 2 CCDカメラ(撮像手段) 3 コンピュータ 31 画像処理装置 DESCRIPTION OF SYMBOLS 1 2D measuring machine 2 CCD camera (imaging means) 3 Computer 31 Image processing apparatus

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 17/04 G06F 15/70 330Z 5C082 H04N 1/40 101C 5L096 1/46 Z 9A001 Fターム(参考) 2F065 AA07 AA12 AA51 BB02 BB13 BB22 BB24 CC18 CC25 DD06 FF01 FF02 FF04 GG18 HH16 JJ03 JJ26 LL02 PP03 PP24 QQ04 QQ24 QQ33 QQ38 QQ41 UU05 5B057 CE02 CE06 DA07 DB06 DC16 DC22 5C061 BB03 CC01 5C077 LL18 MP08 PP01 PP32 PP58 5C079 HB01 NA11 5C082 AA27 BA12 BA34 CB01 DA87 MM02 5L096 AA02 EA05 FA14 FA69 GA40 9A001 BB02 BB03 BB04 BB06 DZ08 EE02 EE05 FF03 HH21 HH25 HH28 HH29 HH31 JJ45 KK37 KK54 LL05 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 17/04 G06F 15/70 330Z 5C082 H04N 1/40 101C 5L096 1/46 Z 9A001 F term (Reference) 2F065 AA07 AA12 AA51 BB02 BB13 BB22 BB24 CC18 CC25 DD06 FF01 FF02 FF04 GG18 HH16 JJ03 JJ26 LL02 PP03 PP24 QQ04 QQ24 QQ33 QQ38 QQ41 UU05 5B057 CE02 CE06 DA07 DB06 DC16 DC22 5C06101B03 CC01 CCB5C011 CC1 DA87 MM02 5L096 AA02 EA05 FA14 FA69 GA40 9A001 BB02 BB03 BB04 BB06 DZ08 EE02 EE05 FF03 HH21 HH25 HH28 HH29 HH31 JJ45 KK37 KK54 LL05

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により撮像された被測定物の
カラー画像から被測定物のパターンの境界線であるエッ
ジを検出し、該エッジの位置から画像を認識する方法に
おいて、カラー画像を構成する赤画像(R画像)、緑画
像(G画像)、青画像(B画像)の各構成画像に分離
し、これら3つの各構成画像について被測定物に対応す
る部分と該部分の周囲の部分との濃度差を求め、各構成
画像の内の最も濃度差が大きい構成画像を用いて被測定
物のエッジを抽出することを特徴とする画像認識方法。
1. A method for detecting an edge, which is a boundary line of a pattern of a device under test, from a color image of the device under test captured by an imaging unit and recognizing the image from the position of the edge, forms a color image. Each of the three component images is separated into a red image (R image), a green image (G image), and a blue image (B image). An image recognition method comprising: obtaining a density difference of a target object; and extracting an edge of an object to be measured using a constituent image having the largest density difference among constituent images.
【請求項2】 予め記憶されるマスターパターンとな
る被測定物のパターン形状を、撮像手段により撮像され
た被測定物のカラー画像から抽出する画像認識方法にお
いて、カラー画像を構成する赤画像(R画像)、緑画像
(G画像)、青画像(B画像)の各構成画像の内の濃度
差の最も大きい構成画像から上記マスターパターンを抽
出しておき、撮像されたカラー画像を構成する構成画像
の内の、マスター画像を抽出した構成画像と同じ種類の
構成画像からパターン形状を抽出することを特徴とする
画像認識方法。
2. An image recognition method for extracting a pattern shape of an object to be measured as a master pattern stored in advance from a color image of the object to be measured imaged by an imaging means, wherein a red image (R) Image), a green image (G image), and a blue image (B image), the master pattern is extracted from a constituent image having the largest density difference among constituent images, and a constituent image forming a captured color image An image recognition method characterized by extracting a pattern shape from a constituent image of the same type as a constituent image from which a master image has been extracted.
【請求項3】 上記分離された赤画像(R画像)、緑
画像(G画像)、青画像(B画像)にフィルタ処理を施
し、画像に含まれ、エッジを抽出する際に誤差要因とな
る不要なパターンについてのデータを除去するため画像
に含まれるノイズ除去を行うことを特徴とする請求項1
または請求項2に記載の画像認識方法。
3. A filter process is performed on the separated red image (R image), green image (G image), and blue image (B image) to be included in the image and cause an error when extracting an edge. 2. The method according to claim 1, wherein noise included in the image is removed in order to remove data on an unnecessary pattern.
Alternatively, the image recognition method according to claim 2.
JP11057328A 1999-03-04 1999-03-04 Image recognition method Pending JP2000259829A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11057328A JP2000259829A (en) 1999-03-04 1999-03-04 Image recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11057328A JP2000259829A (en) 1999-03-04 1999-03-04 Image recognition method

Publications (1)

Publication Number Publication Date
JP2000259829A true JP2000259829A (en) 2000-09-22

Family

ID=13052515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11057328A Pending JP2000259829A (en) 1999-03-04 1999-03-04 Image recognition method

Country Status (1)

Country Link
JP (1) JP2000259829A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001068519A (en) * 1999-08-24 2001-03-16 Sumitomo Metal Mining Co Ltd Method of measuring etch pit density in semiconductor single crystal
JP2006208085A (en) * 2005-01-26 2006-08-10 Mitsutoyo Corp Picture image measuring instrument and picture image measuring method
KR101119873B1 (en) 2004-08-10 2012-02-22 신토 에스 프레시젼 가부시키가이샤 Measurer for minute dimension

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001068519A (en) * 1999-08-24 2001-03-16 Sumitomo Metal Mining Co Ltd Method of measuring etch pit density in semiconductor single crystal
KR101119873B1 (en) 2004-08-10 2012-02-22 신토 에스 프레시젼 가부시키가이샤 Measurer for minute dimension
JP2006208085A (en) * 2005-01-26 2006-08-10 Mitsutoyo Corp Picture image measuring instrument and picture image measuring method

Similar Documents

Publication Publication Date Title
KR100689792B1 (en) Apparatus and method for detecting defect and apparatus and method for extracting wire area
JP2007285754A (en) Flaw detection method and flaw detector
JP7214432B2 (en) Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method
CN110879131B (en) Imaging quality testing method and imaging quality testing device for visual optical system, and electronic apparatus
EP2793172B1 (en) Image processing apparatus, image processing method and program
JP2011106899A (en) Method of processing image
TWI512284B (en) Bubble inspection system for glass
JP2000259829A (en) Image recognition method
US8055056B2 (en) Method of detecting defects of patterns on a semiconductor substrate and apparatus for performing the same
WO2018135112A1 (en) Positional-deviation-amount acquisition device, inspection device, positional-deviation-amount acquisition method, and inspection method
KR101511089B1 (en) Teaching data auto-generating method for aoi apparatus
JP2010113562A (en) Apparatus, method and program for detecting and tracking object
TWI510776B (en) Bubble inspection processing method for glass
JP4178875B2 (en) Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method
JP2017133868A (en) Pattern inspection device and pattern inspection method
JP2008275392A (en) Three-dimensional shape measurement method and system
JP2007132858A (en) Flaw detection method, device and computer program
JP2009250777A (en) Surface inspection device and surface inspection method
JP2006145228A (en) Unevenness defect detecting method and unevenness defect detector
JP4235756B2 (en) Misalignment detection method, misalignment detection apparatus, image processing method, image processing apparatus, and inspection apparatus using the same
JP6324289B2 (en) Surface inspection device
JP5686376B2 (en) Image processing apparatus, method, and program
JP2010243214A (en) Method and device for detection of flaw
JP4484041B2 (en) Edge position detection device
JP4300802B2 (en) Mark position detection device, mark position detection method, overlay measurement device, and overlay measurement method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070517

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081111

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090512