JPH07146937A - Pattern matching method - Google Patents

Pattern matching method

Info

Publication number
JPH07146937A
JPH07146937A JP5295039A JP29503993A JPH07146937A JP H07146937 A JPH07146937 A JP H07146937A JP 5295039 A JP5295039 A JP 5295039A JP 29503993 A JP29503993 A JP 29503993A JP H07146937 A JPH07146937 A JP H07146937A
Authority
JP
Japan
Prior art keywords
image
edge
information
extracted
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5295039A
Other languages
Japanese (ja)
Other versions
JP2981382B2 (en
Inventor
Shingo Yuasa
信吾 湯浅
Kazuo Sawada
和男 澤田
Tomoharu Nakahara
智治 中原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP5295039A priority Critical patent/JP2981382B2/en
Publication of JPH07146937A publication Critical patent/JPH07146937A/en
Application granted granted Critical
Publication of JP2981382B2 publication Critical patent/JP2981382B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To perform highly precise matching at a high speed while holding the information of data obtained from an original image. CONSTITUTION:An image of an object 1 of extraction is picked up by an image pickup means 2, the analog image which is picked up is converted by an A/D converting means 3 from analog to digital to obtain a digital gradation image, and an edge extracting means 6 extracts an edge from the digital gradation image. A dot array on the extracted edge and a dot array at the periphery of the edge are stored as templates in a template image storage means 8 and a gradation image having density values at the respective points as pixel values is stored as a template in the template image storage means 8. A correlative value arithmetic means 9 performs correlative value arithmetic between the image stored in this template and the inputted gradation image to be inspected to find the maximum value. A matching position detecting means 10 decides the pixel position where the maximum value is larger than a certain threshold value as a matching position to extract the object 1 of discrimination and detect its position.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理によって製品
の外観検査のための位置合わせを高速且つ高精度に行う
ためのパターンマッチング方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pattern matching method for performing high-speed and high-accuracy alignment for visual inspection of products by image processing.

【0002】[0002]

【従来の技術】一般に、2枚の画像データfijとgij
がある場合、二つの画像の一致度を表す指標として、種
々の相関値演算が行われる。相関演算手法としては、次
に挙げるようなものがある。 ΣΣ(fij−gij)^2 …(1) ΣΣ|fij−gij| …(2) fij:i行j列のFの画素値 gij:i行j列のGの画素値 式(1)や式(2)の値が小さいほど、二つの画像デー
タの対応する値が似通っていることになり、一致度が高
いと言える。相関値演算は一般的に計算量が多く、計算
時間の短縮のために様々な手法が考案されてきた。
2. Description of the Related Art Generally, when there are two pieces of image data f ij and g ij , various correlation value calculations are performed as an index showing the degree of coincidence of two images. The following are examples of correlation calculation methods. ΣΣ (f ij −g ij ) ^ 2 (1) ΣΣ | f ij −g ij | (2) f ij : pixel value of F at i row and j column g ij : pixel value of G at i row and j column It can be said that the smaller the values of Expression (1) and Expression (2), the more similar the corresponding values of the two image data are, and the higher the degree of coincidence is. Correlation value calculation generally requires a large amount of calculation, and various methods have been devised to reduce the calculation time.

【0003】濃淡パターンマッチングとしては特開平3
−10107号に示される「濃淡パターンパッチングに
よる検査方法」があるが、これは小領域内の全点で相関
値演算を行っている。特開平3−156585号に示さ
れる「画像処理装置」と特開平4−18685号に示さ
れる「画像処理方式」では、類似度の演算に用いるデー
タの点数をデータの変換点だけに圧縮(この場合は、エ
ッジ点における濃度勾配の大きさをデータとして用いて
いる。)することによって高速化を行っている。またエ
ッジ点列の中から予め設定された条件を満たすエッジ点
を抽出する手段を設けることによって高速化を図ってい
る。
Japanese Patent Application Laid-Open No. HEI-3 has been used as the light and shade pattern matching.
No. 10107, “Inspection method by light and shade pattern patching” is used, in which correlation value calculation is performed at all points in a small area. In the "image processing device" shown in Japanese Patent Laid-Open No. 3-156585 and the "image processing method" shown in Japanese Patent Laid-Open No. 18685, the number of data points used for calculating the similarity is compressed only to the conversion points of the data. In this case, the size of the density gradient at the edge point is used as data.) To increase the speed. Further, the speed is increased by providing a means for extracting an edge point satisfying a preset condition from the edge point sequence.

【0004】[0004]

【発明が解決しようとする課題】しかし、前者(特開平
3−10107号)の方法は、原画像の濃度値という最
初に得られたデータをそのまま演算に利用している点で
は評価できるが、全点を用いた演算を行っているために
演算に時間がかかっている。また、後者の方法は高速化
を行ってはいるものの、エッジの検出精度によって二つ
の画像の一致度の評価が大きく左右されるため、一致度
の精度としては不安定であり、照明条件の変化に対する
安定性に欠けている。
However, the former method (Japanese Patent Laid-Open No. 3-10107) can be evaluated in that the density data of the original image, which is the first obtained data, is directly used for the calculation. The calculation takes time because it uses all points. Although the latter method is speeding up, the accuracy of matching of two images is greatly affected by the accuracy of edge detection, so that the accuracy of matching is unstable and changes in lighting conditions. Lacks stability against.

【0005】更にエッジ抽出のように、画像を処理する
ことによって得られる特徴量を一致度の演算に用いるこ
とは、比較する二つの原画像間の濃度値が持つ情報の相
違をまるめてしまったり、損失させてしまう恐れがあ
り、この点でも精度が落ちると考えられる。本発明は、
前記の問題点に鑑みて為されたもので、その目的とする
ところは、原画像から得られるデータの情報を保ったま
ま高精度のマッチングが高速に行えるパターンマッチン
グ方法を提供するにある。
Further, when the feature amount obtained by processing the image is used for the calculation of the degree of coincidence like the edge extraction, the difference in the information of the density value between the two original images to be compared is rounded. , There is a risk of loss, and it is thought that the accuracy will be reduced in this respect as well. The present invention is
The present invention has been made in view of the above problems, and an object thereof is to provide a pattern matching method capable of performing high-precision matching at high speed while maintaining information of data obtained from an original image.

【0006】[0006]

【課題を解決するための手段】上述の目的を達成するた
めに、請求項1の発明では、予め抽出対象となる物を含
む基準濃淡画像を得て該基準濃淡画像から対象物のエッ
ジ情報を抽出し、前記抽出されたエッジ情報を基にして
相関値演算に用いるための点を選択して該選択点の濃度
値を得、一方被検査用の入力濃淡画像を得て該入力濃淡
画像と前記選択点の濃度値との相関値演算を行い、この
演算結果から入力濃淡画像中における対象物の抽出及び
位置を検出することを特徴とする。
In order to achieve the above object, according to the invention of claim 1, a reference grayscale image including an object to be extracted is obtained in advance, and edge information of the target is obtained from the reference grayscale image. Extracting, selecting a point to be used for correlation value calculation based on the extracted edge information to obtain a density value of the selected point, while obtaining an input grayscale image for inspection and obtaining the input grayscale image It is characterized in that the correlation value with the density value of the selected point is calculated, and the extraction and position of the object in the input gray-scale image is detected from the calculation result.

【0007】請求項2の発明では、予め特徴的な色情報
を持った抽出対象となる物を含む基準カラー画像を得て
該基準カラー画像における各色情報間の演算により対象
物のエッジ情報を抽出し、該エッジ情報を基にして相関
値演算に用いるための点を選択して該選択点の色情報を
得、一方被検査用の入力カラー画像を得て該入力カラー
画像と前記選択点の色情報との相関値演算を行い、この
演算結果から入力カラー画像中における対象物の抽出及
び位置を検出することを特徴とする。
According to the second aspect of the present invention, the reference color image including the object to be extracted having the characteristic color information is obtained in advance, and the edge information of the object is extracted by the calculation between the color information in the reference color image. Then, a point for use in correlation value calculation is selected based on the edge information to obtain color information of the selected point, while an input color image for inspection is obtained and the input color image and the selected point are selected. It is characterized in that a correlation value calculation with the color information is performed, and the extraction and the position of the object in the input color image are detected from the calculation result.

【0008】請求項3の発明では、予め抽出対象となる
物を含む基準距離画像を得て該基準距離画像から対象物
のエッジ情報を抽出し、前記抽出されたエッジ情報を基
にして相関値演算に用いるための点を選択して該選択点
の距離値を得、一方被検査用の入力距離画像を得て該入
力距離画像と前記選択点の距離値との相関値演算を行
い、この演算結果から入力距離画像中における対象物の
抽出及び位置を検出することを特徴とする。
According to the third aspect of the present invention, a reference distance image including an object to be extracted is obtained in advance, edge information of the object is extracted from the reference distance image, and a correlation value is extracted based on the extracted edge information. A point to be used for calculation is selected to obtain a distance value of the selected point, while an input distance image for inspection is obtained and a correlation value calculation between the input distance image and the distance value of the selected point is performed. It is characterized in that the extraction and the position of the object in the input distance image are detected from the calculation result.

【0009】請求項4の発明では、予め抽出対象となる
物を含む基準濃淡画像を得て該基準濃淡画像から対象物
のエッジ情報を抽出し、前記抽出されたエッジ情報を基
にして相関値演算に用いるためのエッジ上の点を中心と
したエッジを挟む2点をエッジに沿って順次選択し、前
記エッジを挟む2点間の濃度差分値の絶対値を得、一方
被検査用の入力濃淡画像を得て該入力濃淡画像からも前
記濃度差分値の絶対値を得、前記基準濃度画像画像にお
ける濃度差分値の絶対値と前記入力濃淡画像より求まる
濃度差分値の絶対値との相関値演算を行い、この演算結
果から入力濃淡画像中における対象物の抽出及び位置を
検出することを特徴とする。
According to the fourth aspect of the present invention, a reference grayscale image including an object to be extracted is obtained in advance, edge information of the target object is extracted from the reference grayscale image, and a correlation value based on the extracted edge information. Two points sandwiching the edge centering on the edge for use in the calculation are sequentially selected along the edge to obtain the absolute value of the density difference value between the two points sandwiching the edge, while the input for the inspection is made. Obtaining a grayscale image to obtain the absolute value of the density difference value from the input grayscale image, the correlation value between the absolute value of the density difference value in the reference density image image and the absolute value of the density difference value obtained from the input grayscale image It is characterized in that calculation is performed, and the extraction and position of the object in the input gray-scale image is detected from the calculation result.

【0010】請求項5の発明では、請求項1、2、3記
載の発明において、前記選択点として、より重要な対象
物の情報が含まれると想定されるエッジ上の点列及びエ
ッジを挟む点列、又はエッジを挟む点列のみを選択する
ことを特徴とする。請求項6の発明では、請求項1、
2、3、4記載の発明において、前記抽出されたエッジ
情報を表示させ、表示情報の中から必要な情報と不要な
情報とを取捨選択する判断部分を設けることによって解
析的にテンプレート画像を作成することを特徴とする。
According to a fifth aspect of the present invention, in the first, second, and third aspects of the present invention, as the selection points, a point sequence on an edge and an edge on which it is assumed that more important object information is included are sandwiched. It is characterized in that only a point sequence or a point sequence sandwiching an edge is selected. In the invention of claim 6, claim 1,
In the inventions described in 2, 3, and 4, the template image is analytically created by displaying the extracted edge information and providing a judgment part for selecting necessary information and unnecessary information from the displayed information. It is characterized by doing.

【0011】請求項7の発明では、請求項6記載の発明
において、エッジ上の点及びエッジを挟む点列の中か
ら、エッジ点列の曲率の大きい部分は密に、曲率の小さ
い部分は粗に点を選択することによって点の数を更に限
定したことを特徴とする。請求項8の発明では、エッジ
からエッジを挟む点列までの距離を、濃度勾配の大きい
部分は小さく、濃度勾配の小さな部分は大きくとること
に決定することを特徴とする。
According to a seventh aspect of the present invention, in the invention according to the sixth aspect, a portion of the edge point sequence having a large curvature is dense, and a portion of the edge point sequence having a small curvature is coarse, and the portion having a small curvature is coarse. It is characterized in that the number of points is further limited by selecting points. The invention of claim 8 is characterized in that the distance from the edge to the point sequence sandwiching the edge is determined such that a portion having a large concentration gradient is small and a portion having a small concentration gradient is large.

【0012】[0012]

【作用】請求項1乃至請求項3の発明によれば、画像の
最も基本となる濃度値や色情報、或いは距離値をそのま
ま用いて相関値演算を行うので、マッチングの誤差を少
なくでき、しかも抽出対象画像の中から選択点を抽出し
ており、そのため相関値演算の高速化を図ることができ
るものである。
According to the first to third aspects of the invention, since the correlation value calculation is performed using the density value, color information or distance value, which is the most basic of the image, as it is, the error of matching can be reduced, and Since the selected points are extracted from the extraction target image, the correlation value calculation can be speeded up.

【0013】請求項4の発明によれば、エッジ上の点の
みならず、エッジ周辺の点を含めることによって、より
安定したパターンマッチグが行え、更に比較する画像の
最も基本となる情報である濃度値をそのまま用いた相関
値演算を行うため、マッチングの誤差を小さくすること
ができる。請求項5の発明によれば、選択点として、よ
り重要な対象物の情報が含まれると想定されるエッジ上
の点列及びエッジを挟む点列、又はエッジを挟む点列の
みを選択するので、相関値演算時間をより短縮すること
ができる。
According to the invention of claim 4, more stable pattern matching can be performed by including not only the points on the edge but also the points around the edge, which is the most basic information of the images to be compared. Since the correlation value calculation is performed using the density value as it is, the matching error can be reduced. According to the invention of claim 5, as a selection point, a point sequence on an edge and a point sequence sandwiching the edge, or only a point sequence sandwiching the edge, which is assumed to include more important object information, are selected. The correlation value calculation time can be further shortened.

【0014】また請求項6の発明によれば、抽出された
エッジ情報を表示させ、表示情報の中から必要な情報と
不要な情報とを取捨選択する判断部分を設けることによ
って解析的にテンプレート画像を作成するので、より意
味のある部分のみでの相関値を求めることができ、マッ
チング精度のより高いテンプレートを作成することがで
き、対象物の抽出及び位置の検出精度を高めることがで
きる。
According to the invention of claim 6, the template image is analytically analyzed by displaying the extracted edge information and providing a judgment part for selecting necessary information and unnecessary information from the displayed information. Since it is possible to obtain a correlation value only in a more meaningful part, it is possible to create a template with higher matching accuracy, and it is possible to improve the accuracy of object extraction and position detection.

【0015】請求項7の発明によれば、エッジ上の点及
びエッジを挟む点列の中から、エッジ点列の曲率の大き
い部分は密に、曲率の小さい部分は粗に点を選択するの
で、点の数を更に限定することができ、そのため相関値
演算時間の短縮と、相関値演算精度の向上を一層図れ
る。請求項8の発明によれば、エッジからエッジを挟む
点列までの距離を、濃度勾配の大きい部分は小さく、濃
度勾配の小さな部分は大きくとることによって選択する
点を決定するので、請求項7の発明と同様に相関値演算
時間の短縮と、相関値演算精度の向上を一層図れる。
According to the invention of claim 7, from the points on the edge and the point sequence sandwiching the edge, the points of the edge point sequence having a large curvature are selected densely and the portions having a small curvature are selected roughly. Further, the number of points can be further limited, so that the correlation value calculation time can be shortened and the correlation value calculation accuracy can be further improved. According to the invention of claim 8, the point to be selected is determined by taking the distance from the edge to the sequence of points sandwiching the edge such that the portion with a large concentration gradient is small and the portion with a small concentration gradient is large. The correlation value calculation time can be shortened and the correlation value calculation accuracy can be further improved, as in the invention of FIG.

【0016】[0016]

【実施例】図1は本発明方法を採用したシステム構成を
示しており、このシステムでは抽出対象物1を含めた画
像を撮像手段2による撮像で得た、この得られたアナロ
グの画像信号を更にA/D変換手段3によってディジタ
ル信号に変換したディジタル濃淡画像(以下、単に濃淡
画像とする)、又はR、G、Bの3種類のディジタルカ
ラー画像(以下、単にカラー画像とする)を基準画像と
して得る。ここで3種類のカラー画像はカラー画像間演
算手段4を用いて、更に特定の色を強調したカラー画像
間演算結果画像に変換する。
FIG. 1 shows a system configuration adopting the method of the present invention. In this system, an image including an extraction target 1 is obtained by image pickup by an image pickup means 2, and the obtained analog image signal is obtained. Further, a digital grayscale image converted to a digital signal by the A / D conversion means 3 (hereinafter simply referred to as a grayscale image) or three types of digital color images of R, G and B (hereinafter simply referred to as a color image) is used as a reference. Get as an image. Here, the three types of color images are converted into the inter-color-image calculation result image in which specific colors are further emphasized by using the inter-color-image calculation means 4.

【0017】また濃淡画像、カラー画像以外に距離画像
を用いる場合には、ステレオ画像処理やレンジファイン
ダ等の距離画像獲得手段によって距離画像を得る。ここ
でステレオ画像処理の場合の距離画像とは、一定距離だ
け離れたカメラの位置において撮像して得られる2枚の
濃淡画像(右画像と左画像)間で各画素毎に対応付けを
行い、対応付けが成立した画素において三角測量法の原
理より距離を算出し、その距離を画素値とした画像のこ
とを言う。
When a range image is used in addition to the grayscale image and the color image, the range image is obtained by a range image acquisition means such as stereo image processing or a range finder. Here, the distance image in the case of stereo image processing is associated for each pixel between two grayscale images (right image and left image) obtained by imaging at a camera position separated by a certain distance, This is an image in which the distance is calculated for the pixels for which the association is established by the principle of triangulation and the distance is used as the pixel value.

【0018】従って、ステレオ画像処理を採用して距離
画像を得る場合は、撮像手段2において、カメラ位置を
ずらして右画像と左画像とを撮像し、更にこれらの画像
を距離画像変換手段5によって距離画像に変換するので
ある。このようにして得られた濃淡画像又はカラー画像
間演算結果画像或いは距離画像からなる基準画像のデー
タから、エッジ抽出手段6によりエッジを抽出する。
Therefore, when the distance image is obtained by adopting the stereo image processing, the image pickup means 2 shifts the camera position to pick up the right image and the left image, and the distance image conversion means 5 takes these images. It is converted into a range image. Edges are extracted by the edge extraction means 6 from the data of the reference image composed of the grayscale image or the color image inter-image calculation result image or the distance image thus obtained.

【0019】ここで得られたエッジを基にしてテンプレ
ート作成手段7において相関値演算を行うためのテンプ
レートを作成し、テンプレート画像記憶手段8に記憶さ
せる。このテンプレートはマッチングによって抽出した
い対象物を含む画像領域(以下、抽出対象画像とする)
の中から、対象物の特徴的な部分の画素(以下、選択点
と称する)を選び出すことによって得られる。
Based on the edges obtained here, a template for calculating a correlation value is created in the template creating means 7 and stored in the template image storing means 8. This template is an image area containing the target object to be extracted by matching (hereinafter referred to as the extraction target image)
It is obtained by selecting a pixel (hereinafter, referred to as a selection point) of a characteristic portion of the object from among the above.

【0020】ここで言う対象物の特徴的な部分とは、エ
ッジ上及びエッジ周辺の画素を指している。このように
テプレートを作成記憶した後、撮像手段2、A/D変換
手段3によって抽出対象物1を含めた被検査用の入力画
像データを得、必要であればカラー画像間演算手段4又
は距離画像変換手段5によってカラー画像間演算結果や
距離画像を得、この画像と相関値演算手段9においてテ
ンプレート画像記憶手段8に記憶されているテンプレー
ト画像との相関値演算を行い、あるしきい値を越え、し
かも最も一致度の高い最大相関値位置をマッチング位置
検知手段10によって検出することにより、被検査画像
中から抽出対象物1の抽出及び位置の検出を行う。 以
下前記のシステムに採用される本発明の実施例方法につ
いて詳説する。
The characteristic portion of the object mentioned here refers to pixels on and around the edge. After the template is created and stored as described above, the input image data for the inspection including the extraction target 1 is obtained by the image pickup unit 2 and the A / D conversion unit 3, and if necessary, the color image interval calculation unit 4 or the distance is calculated. The image conversion means 5 obtains the calculation result between the color images and the distance image, and the correlation value calculation means 9 calculates the correlation value between the image and the template image stored in the template image storage means 8 to set a certain threshold value. The matching position detecting means 10 detects the maximum correlation value position which exceeds and has the highest degree of coincidence, so that the extraction target 1 is extracted and the position is detected from the inspection image. The method of the embodiment of the present invention used in the above system will be described in detail below.

【0021】(実施例1)本実施例は、請求項1の発明
に対応する方法であり、図2のフローチャートに示すよ
うにまず抽出対象物1を撮像手段2によって撮像し、更
にA/D変換手段2によってA/D変換してディジタル
濃淡画像を得る。次にディジタル濃淡画像からエッジ抽
出手段6によってエッジ抽出を行う。ここでエッジ抽出
手段6としては次に挙げるSobelオペレータを用い
るが、他のエッジ抽出方法を用いてもよい。
(Embodiment 1) This embodiment is a method corresponding to the invention of claim 1. As shown in the flow chart of FIG. 2, first, the object to be extracted 1 is imaged by the image pickup means 2 and further A / D. A / D conversion is performed by the conversion means 2 to obtain a digital grayscale image. Next, edge extraction is performed by the edge extraction means 6 from the digital grayscale image. Here, the Sobel operator described below is used as the edge extraction means 6, but other edge extraction methods may be used.

【0022】さてこのエッジ抽出に当たっては、図3に
示すマスクサイズ3×3のSobelオペレータを用い
た局所空間微分を行い、X方向の微分値fX と、Y方向
の微分値fy を次式より求める。 fX =(c+2f+i)−(a+2d+g) fy =(g+2h+i)−(a+2b+c) a〜iは図3に示すマスク内の濃淡画像の画素値 また数1で示す式により濃淡勾配ベクトルの大きさLと
方向θを求める。
In this edge extraction, local spatial differentiation is performed using a Sobel operator with a mask size of 3 × 3 shown in FIG. 3, and the differential value f X in the X direction and the differential value f y in the Y direction are given by Ask more. f X = (c + 2f + i)-(a + 2d + g) fy = (g + 2h + i)-(a + 2b + c) a to i are pixel values of the grayscale image in the mask shown in FIG. And the direction θ.

【0023】[0023]

【数1】 [Equation 1]

【0024】あるしきい値(thr)を設け、i行j列
の画素におけるLの値(Lijとする)と比較することに
よって2値化を行う。 若しLij≧thrならば、Eij=1 それ以外ならば、Eij=0 (Eijは、2値画像の画素値) ここで得られたエッジ領域(Eij=1の領域)を細線化
することによってエッジ点列を得る。
Binarization is performed by providing a threshold value (thr) and comparing it with the value of L (denoted as L ij ) in the pixel at row i and column j. If L ij ≧ thr, E ij = 1 otherwise, E ij = 0 (E ij is the pixel value of the binary image) The edge area (area of E ij = 1) obtained here is An edge point sequence is obtained by thinning.

【0025】このエッジ点列上の各点を中心として、濃
度勾配ベクトルの方向(θ)とその反対方向(θ−π)
にある一定の距離の点を選択点として順次とる。この一
定の距離は、濃度勾配がある程度小さくなるまで、エッ
ジ点から離れていることを目安としている。このように
して得られたエッジ上の点列及びエッジ周辺の点列をテ
ンプレートとし、これらの各点の濃度値を画素値とする
濃淡画像(fij)をテンプレートとして記憶しておく。
With respect to each point on the edge point sequence, the direction (θ) of the density gradient vector and the opposite direction (θ-π)
The points with a certain distance in are taken in order as selection points. This constant distance is based on the standard that the distance is away from the edge point until the density gradient becomes small to some extent. The point sequence on the edge and the point sequence around the edge obtained as described above are used as templates, and the grayscale image (f ij ) having the density value of each of these points as a pixel value is stored as a template.

【0026】次に、被検査用の濃淡画像(gij)を入力
し、先に記憶しておいたテンプレート画像との相関値演
算を行う。このとき、先に記した式(1)の相関値演算
を行う前に、数2に示す各画素値の正規化を行うと、画
像全体の輝度レベルの変化にも対応できる相対値演算を
行うことができる。
Next, the grayscale image (g ij ) to be inspected is input, and the correlation value with the previously stored template image is calculated. At this time, if each pixel value shown in Expression 2 is normalized before the correlation value calculation of the above-described Expression (1) is performed, the relative value calculation that can cope with the change in the brightness level of the entire image is performed. be able to.

【0027】[0027]

【数2】 [Equation 2]

【0028】式(3)により、ΣΣFijijを計算して
その最大値を求め、更にあるしきい値以上の値を示す画
素位置をマッチング位置とすることによって、抽出対象
物1の抽出及び位置の検出を行う。そしてシステムでは
以上のような処理を最後の被検査用の入力画像が終了す
るまで繰り返する前記の処理を行うのである。
ΣΣF ij G ij is calculated from equation (3) to find its maximum value, and the pixel position showing a value equal to or greater than a certain threshold value is set as the matching position. The position is detected. Then, the system repeats the above-described processing until the final input image for inspection is completed, and performs the above-mentioned processing.

【0029】(実施例2)本実施例は、請求項1の発明
に対応する方法であり、図4のフローチャートに示すよ
うにまず基準となる抽出対象物1を撮像手段2によって
撮像し、更にA/D変換手段2によってA/D変換して
ディジタルカラー画像(R,G,Bの3枚の画像からな
る)を得る。
(Embodiment 2) This embodiment is a method corresponding to the invention of claim 1, and as shown in the flow chart of FIG. 4, first, the reference extraction object 1 is imaged by the imaging means 2, and further, A / D conversion is performed by the A / D conversion means 2 to obtain a digital color image (consisting of three images of R, G and B).

【0030】次に、カラー画像間演算手段4にて3枚の
画像間の演算を行い、特定の色情報を強調した基準画像
となる1枚のカラー画像間演算画像を得る。このカラー
画像間演算の一例とてしては、 fij=αRij+βGij+γBijij:カラー画像間演算結果画素値 Rij:R(赤)画像の画素値 Gij:G(緑)画像の画素値 Bij:B(青)画像の画素値 α,β、γ:演算計数 のように、3枚の画像間での線形演算等が採用される。
Next, the operation between the three images is performed by the inter-color image operation means 4 to obtain a single inter-color image operation image which becomes a reference image in which specific color information is emphasized. It is to an example of the inter-color image operation, f ij = αR ij + βG ij + γB ij f ij: Color inter-image calculation result pixel value R ij: R (red) pixel image values G ij: G (green) Pixel value of image B ij : Pixel value of B (blue) image α, β, γ: Calculation count, such as linear calculation between three images is adopted.

【0031】以後の処理操作は前記の実施例1の場合と
同様にエッジ抽出、テンプレートの作成を経た後、被検
査用のカラー画像の入力、カラー画像間演算を行ってこ
のカラー画像間演算の結果と先に記憶しておいたテンプ
レート画像との相関値演算により最大相関値位置の検出
と、最大相関値位置としきい値との比較を行ってマッチ
ング位置を抽出し、抽出対象物1の抽出及び位置の検出
を行うのである。
The subsequent processing operations are the same as in the case of the first embodiment described above, after the edge extraction and the template creation, the color image to be inspected is input, the inter-color image calculation is performed, and the inter-color image calculation is performed. The maximum correlation value position is detected by calculating the correlation value between the result and the previously stored template image, and the maximum correlation value position is compared with the threshold value to extract the matching position, and the extraction target 1 is extracted. And the position is detected.

【0032】(実施例3)本実施例は請求項3の発明に
対応するもので、本実施例では図5のフローチャートで
示すように撮像手段2の視点をずらすことによって、左
右2枚の基準濃淡濃淡画像をA/D変換手段3を介して
得、この2枚の画像間の演算により、1枚の距離画像に
変換する。この変換後実施例1と同様にエッジ抽出と、
テンプレート作成を行う。
(Embodiment 3) This embodiment corresponds to the invention of claim 3, and in this embodiment, by shifting the viewpoint of the image pickup means 2 as shown in the flow chart of FIG. A grayscale grayscale image is obtained via the A / D conversion means 3, and is converted into one distance image by calculation between these two images. After this conversion, edge extraction and
Create a template.

【0033】その後被検査用の濃淡画像を入力し、その
画像の距離画像変換を行い、この距離画像と先に記憶し
ておいたテンプレート画像との相関値演算により最大相
関値位置の検出を行い、その点における距離値zと画像
上での位置(i,j)より、次の式(4)(5)(6)
より三次元空間中の座標を求める。 x=(z/f)×j …(4) y=(z/f)×i …(5) z=z …(6) f:焦点 このようにして、特定の距離情報をもった抽出対象物1
の抽出及び位置の検出を行うのである。
After that, a grayscale image for inspection is input, distance image conversion of the image is performed, and the maximum correlation value position is detected by calculating the correlation value between this distance image and the template image previously stored. From the distance value z at that point and the position (i, j) on the image, the following equations (4), (5) and (6)
Then, the coordinates in the three-dimensional space are obtained. x = (z / f) × j (4) y = (z / f) × i (5) z = z (6) f: focus In this way, the extraction target having the specific distance information Thing 1
Is extracted and the position is detected.

【0034】(実施例4)本実施例は、請求項4の発明
に対応するもので、図6のフローチャートで示すように
実施例1と同様に抽出対象物1ので基準デジタル濃淡画
像を得、実施例1と同じ方法によりエッジ点列を抽出す
る。抽出したエッジ点列上のエッジ点を中心として、エ
ッジ点を挟む2点を選択する。
(Embodiment 4) This embodiment corresponds to the invention of claim 4, and as shown in the flow chart of FIG. 6, a reference digital grayscale image is obtained with the extraction target object 1 as in the first embodiment. The edge point sequence is extracted by the same method as in the first embodiment. Two points sandwiching the edge point are selected with the edge point on the extracted edge point sequence as the center.

【0035】この2点間の濃度差分値の絶対値を前記エ
ッジ点の画素値とし、前記濃度差分値を画素値として持
つエッジ点列をテンプレート画像(画像値fij)として
記憶しておく。次に被検査用ノディジタル濃淡画像(画
素値gij)を入力し、この被検査画像のエッジ抽出、エ
ッジを挟む2点の抽出、更に2点間の濃度差分の絶対値
の算出を行い、この求めた絶対値と先に記憶しておいた
テンプレート画像との相関値演算を行い、最大相関値位
置の検出、最大相関値としきい値との比較を経て対象物
の抽出及び位置の検出を行う。
The absolute value of the density difference value between these two points is set as the pixel value of the edge point, and the edge point sequence having the density difference value as the pixel value is stored as a template image (image value f ij ). Next, an inspected no-digital grayscale image (pixel value g ij ) is input, the edge of the inspected image is extracted, two points sandwiching the edge are extracted, and the absolute value of the density difference between the two points is calculated. The correlation value between the calculated absolute value and the previously stored template image is calculated, the maximum correlation value position is detected, and the object is extracted and the position is detected through comparison between the maximum correlation value and the threshold value. To do.

【0036】(実施例5)本実施例は、請求項5の発明
に対応するもので、請求項1、2、3の発明の何れにも
適用でき、図7のフローチャートで示すように基準画像
を夫々の方法で得て、エッジ抽出後、図8に示すように
より重要な対象物の情報が含められていると想定できる
エッジ(イ)上の点列及びエッジを挟む点列(ロ)(又
はエッジを挟む点のみ)を選択することにより、相関値
演算時間を短縮にするものであり、その他の処理は実施
例1〜3に準ずる (実施例6)本実施例は、請求項6の発明に対応するも
ので、請求項1、2、3、4の発明の何れにも適用で
き、図9のフローチャートで示すように基準画像を夫々
の方法で作成し、エッジ抽出を行った後、抽出されたエ
ッジ情報をディスレプレイ装置(図示せず)に表示さ
せ、表示情報の中から必要な情報と不要な情報とを取捨
選択するす判断部分を設けることによってテンプレート
画像を作成し、より意味のある部分のみでの相関値を求
めることができるようにしたパターンマッチングを行う
のである。
(Embodiment 5) This embodiment corresponds to the invention of claim 5 and can be applied to any of the inventions of claims 1, 2 and 3, and as shown in the flow chart of FIG. By each method, and after edge extraction, it is assumed that the information of the more important object is included as shown in FIG. 8, and the point sequence on the edge (a) and the point sequence (b) (b) sandwiching the edge. Alternatively, only the points sandwiching the edge) are selected to shorten the correlation value calculation time, and other processing is in accordance with Examples 1 to 3 (Example 6) It corresponds to the invention and can be applied to any of the inventions of claims 1, 2, 3 and 4, and after the reference image is created by each method as shown in the flowchart of FIG. 9 and edge extraction is performed, Display the extracted edge information on a display device (not shown), Pattern matching that creates a template image by providing a judgment part that selects necessary information and unnecessary information from the displayed information and obtains the correlation value only in the more meaningful part To do.

【0037】図10はエッジ情報を表示したディスプレ
ィ装置の画面例を示しており、この例では画面中から
と、つまり外形が円であるような図形を全て抽出した
いような場合、図形に書き込まれた数字部分のエッジ情
報を取り除いた、○の部分のエッジ情報だけをテンプレ
ートとして選択することにより、1つのテンプレートで
外形が円である対象を同時に抽出できるような場合が挙
げられる。これはほんの一例であるが、本実施例によれ
ば、元の画像から得られたエッジ情報をそのままテンプ
レートとするのではなく、より重要な部分だけを選択す
る判断部分を設けることによってよりマッチング精度の
高いテンプレートを作成することができるのである。
FIG. 10 shows an example of a screen of the display device displaying the edge information. In this example, when it is desired to extract all the figures having a circular outline from the screen, the figures are written in the figures. There is a case where objects having a circular outer shape can be simultaneously extracted by one template by selecting only the edge information of the circled portion, which is the edge information of the numeral portion removed, as the template. This is only an example, but according to the present embodiment, the matching information can be made more accurate by providing a judgment part for selecting only a more important part, instead of using the edge information obtained from the original image as a template as it is. It is possible to create high-quality templates.

【0038】(実施例7)本実施例は、実施例5におけ
るエッジ上の点列及びエッジを挟む点列の中から、相関
値演算時間の短縮と相関値演算精度の向上とを図るため
に、更に点を選択して数を減らすことを目的としたもの
であり、図11のフローチャートに示すようにエッジ抽
出後テンプレート作成に至る過程において、図12に示
すように(イ)を挟む点列の中から曲率の大きな部分は
多く点を選択し、曲率の小さな直線的な部分のエッジ点
列からは少なく点を抽出してテンプレートを作成するの
である。図12の白丸は選択点を示す。
(Embodiment 7) In the present embodiment, in order to shorten the correlation value calculation time and improve the correlation value calculation accuracy from the point sequence on the edge and the point sequence sandwiching the edge in the fifth embodiment. In order to further reduce the number of points by selecting points, as shown in the flowchart of FIG. 11, in the process of creating a template after edge extraction, as shown in FIG. A large number of points are selected for a portion having a large curvature, and a small number of points are extracted from the edge point sequence of a linear portion having a small curvature to create a template. White circles in FIG. 12 indicate selected points.

【0039】このようにして作成したテンプレートを用
いることにより、被検査用の画像との相関値演算の時間
の短縮や、その演算精度の向上が図れるのである。 (実施例8)本実施例は、点の選択方法とし、図14
(a)に示すようにエッジ(イ)を挟む選択点までの距
離dを図14(b)に示すように濃度勾配の向きと大き
さによって決定するようにした方法であり、図13は本
実施例のフローチャートを示す。
By using the template thus created, it is possible to shorten the time for calculating the correlation value with the image to be inspected and to improve the calculation accuracy. (Embodiment 8) In this embodiment, a method of selecting points will be described with reference to FIG.
As shown in FIG. 14A, the distance d to the selection point sandwiching the edge (a) is determined by the direction and size of the density gradient as shown in FIG. 14B. The flowchart of an Example is shown.

【0040】ここで本実施例の選択点の位置の決め方に
ついて実施例1に示したLとθとを用いて説明すると、
まず濃度勾配の大きさのしきい値(min)を設けてお
き、初期状態をd=0とし、もしLij>minならば、
d=d+1、それ以外ならばd=dとして濃度勾配がし
きい値(min)よりも小さくなるまで条件式を繰り返
して最終的にdを決定し、選択点をエッジ点から±θ方
向に距離dだけ離れた位置にとるのである。このように
して選択点を決定し、テンプレートを作成するのであ
る。尚図14(a)(b)の白丸は選択点を示し、図1
4(b)の黒丸はエッジ位置を示す。
Here, how to determine the position of the selection point in this embodiment will be explained using L and θ shown in the first embodiment.
First, a threshold value (min) of the magnitude of the concentration gradient is set, the initial state is set to d = 0, and if L ij > min,
d = d + 1, otherwise d = d and repeat the conditional expression until the concentration gradient becomes smaller than the threshold value (min) to finally determine d, and the selected point is moved in the ± θ direction from the edge point. The position is separated by d. In this way, the selection points are determined and the template is created. The white circles in FIGS. 14 (a) and 14 (b) indicate selection points, and FIG.
The black circles in 4 (b) indicate edge positions.

【0041】[0041]

【発明の効果】請求項1乃至請求項3の発明は、画像の
最も基本となる濃度値や色情報、或いは距離値をそのま
ま用いて相関値演算を行うので、マッチングの誤差を少
なくでき、しかも抽出対象画像の中から選択点を抽出し
ており、そのため相関値演算の高速化を図ることができ
るという効果がある。
According to the first to third aspects of the present invention, since the correlation value calculation is performed using the density value, color information or distance value, which is the most basic of the image, as it is, the error in matching can be reduced, and Since the selection points are extracted from the extraction target image, there is an effect that the correlation value calculation can be speeded up.

【0042】請求項4の発明は、エッジ上の点のみなら
ず、エッジ周辺の点を含めることによって、より安定し
たパターンマッチグが行え、更に比較する画像の最も基
本となる情報である濃度値をそのまま用いた相関値演算
を行うため、マッチングの誤差を小さくすることができ
るという効果がある。請求項5の発明は、選択点とし
て、より重要な対象物の情報が含まれると想定されるエ
ッジ上の点列及びエッジを挟む点列、又はエッジを挟む
点列のみを選択するので、相関値演算時間をより短縮す
ることができるという効果がある。
According to the fourth aspect of the present invention, by including not only the points on the edge but also the points around the edge, more stable pattern matching can be performed, and the density value which is the most basic information of the images to be compared. Since the correlation value calculation is performed using as it is, there is an effect that the matching error can be reduced. According to the invention of claim 5, as the selection points, only the point sequence on the edge and the point sequence sandwiching the edge, or the point sequence sandwiching the edge are selected, which is supposed to include the information of the more important object, and therefore the correlation There is an effect that the value calculation time can be further shortened.

【0043】また請求項6の発明は、抽出されたエッジ
情報を表示させ、表示情報の中から必要な情報と不要な
情報とを取捨選択する判断部分を設けることによって解
析的にテンプレート画像を作成するので、より意味のあ
る部分のみでの相関値を求めることができ、マッチング
精度のより高いテンプレートを作成することができ、対
象物の抽出及び位置の検出精度を高めることができると
いう効果がある。
Further, according to the invention of claim 6, a template image is analytically created by displaying the extracted edge information and providing a judgment part for selecting necessary information and unnecessary information from the displayed information. Therefore, it is possible to obtain a correlation value only in a more meaningful part, to create a template with higher matching accuracy, and to improve the accuracy of object extraction and position detection. .

【0044】請求項7の発明は、エッジ上の点及びエッ
ジを挟む点列の中から、エッジ点列の曲率の大きい部分
は密に、曲率の小さい部分は粗に点を選択するので、点
の数を更に限定することができ、そのため相関値演算時
間の短縮と、相関値演算精度の向上を一層図れるという
効果がある。請求項8の発明によれば、エッジからエッ
ジを挟む点列までの距離を、濃度勾配の大きい部分は小
さく、濃度勾配の小さな部分は大きくとることによって
選択する点を決定するので、請求項7の発明と同様に相
関値演算時間の短縮と、相関値演算精度の向上を一層図
れるという効果がある。
According to the seventh aspect of the invention, from the points on the edge and the point sequence sandwiching the edge, the points of the edge point sequence having a large curvature are selected densely and the portions having a small curvature are selected roughly. It is possible to further limit the number of the above, and therefore, it is possible to further shorten the correlation value calculation time and further improve the correlation value calculation accuracy. According to the invention of claim 8, the point to be selected is determined by taking the distance from the edge to the sequence of points sandwiching the edge such that the portion with a large concentration gradient is small and the portion with a small concentration gradient is large. Similar to the invention described above, there is an effect that the correlation value calculation time can be shortened and the correlation value calculation accuracy can be further improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明方法を用いる外観検査システムの構成図
である。
FIG. 1 is a configuration diagram of an appearance inspection system using a method of the present invention.

【図2】本発明の実施例1のフローチャートである。FIG. 2 is a flowchart of Embodiment 1 of the present invention.

【図3】同上に用いるマスクの説明図である。FIG. 3 is an explanatory diagram of a mask used in the above.

【図4】本発明の実施例2のフローチャートである。FIG. 4 is a flowchart of a second embodiment of the present invention.

【図5】本発明の実施例3のフローチャートである。FIG. 5 is a flowchart of a third embodiment of the present invention.

【図6】本発明の実施例4のフローチャートである。FIG. 6 is a flowchart of Embodiment 4 of the present invention.

【図7】本発明の実施例5のフローチャートである。FIG. 7 is a flowchart of a fifth embodiment of the present invention.

【図8】同上のエッジ点列選択の説明図である。FIG. 8 is an explanatory diagram of edge point sequence selection of the above.

【図9】本発明の実施例6のフローチャートである。FIG. 9 is a flowchart of a sixth embodiment of the present invention.

【図10】同上のエッジ情報の選択方法の説明図であ
る。
FIG. 10 is an explanatory diagram of a method of selecting edge information of the above.

【図11】本発明の実施例7のフローチャートである。FIG. 11 is a flowchart of Embodiment 7 of the present invention.

【図12】同上のテンプレートの点の選択方法の説明図
である。
FIG. 12 is an explanatory diagram of a method of selecting points on the template of the above.

【図13】本発明の実施例8のフローチャートである。FIG. 13 is a flowchart of Example 8 of the present invention.

【図14】同上のテンプレートの点の選択方法の説明図
である。
FIG. 14 is an explanatory diagram of a method of selecting points in the template of the above.

【符号の説明】[Explanation of symbols]

1 抽出対象物 2 撮像手段 3 A/D変換手段 4 カラー画像間演算手段 5 距離画像変換手段 6 エッジ抽出手段 7 テンプレート作成手段 8 テンプレート画像記憶手段 9 相関値演算手段 10マッチング位置検出手段 DESCRIPTION OF SYMBOLS 1 Extraction object 2 Imaging means 3 A / D conversion means 4 Color image calculation means 5 Distance image conversion means 6 Edge extraction means 7 Template creation means 8 Template image storage means 9 Correlation value calculation means 10 Matching position detection means

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】予め抽出対象となる物を含む基準濃淡画像
を得て該基準濃淡画像から対象物のエッジ情報を抽出
し、前記抽出されたエッジ情報を基にして相関値演算に
用いるための点を選択して該選択点の濃度値を得、一方
被検査用の入力濃淡画像を得て該入力濃淡画像と前記選
択点の濃度値との相関値演算を行い、この演算結果から
入力濃淡画像中における対象物の抽出及び位置を検出す
ることを特徴とするパターンマッチング方法。
1. A reference grayscale image containing an object to be extracted is obtained in advance, edge information of the target object is extracted from the reference grayscale image, and used for correlation value calculation based on the extracted edge information. A point is selected to obtain a density value of the selected point, an input grayscale image for inspection is obtained, and a correlation value between the input grayscale image and the density value of the selected point is calculated. A pattern matching method characterized by extracting an object and detecting a position in an image.
【請求項2】予め特徴的な色情報を持った抽出対象とな
る物を含む基準カラー画像を得て該基準カラー画像にお
ける各色情報間の演算により対象物のエッジ情報を抽出
し、該エッジ情報を基にして相関値演算に用いるための
点を選択して該選択点の色情報を得、一方被検査用の入
力カラー画像を得て該入力カラー画像と前記選択点の色
情報との相関値演算を行い、この演算結果から入力カラ
ー画像中における対象物の抽出及び位置を検出すること
を特徴とするパターンマッチング方法。
2. A reference color image including an object to be extracted having characteristic color information is obtained in advance, edge information of the object is extracted by performing an operation between the color information in the reference color image, and the edge information is extracted. A point for use in the correlation value calculation is selected based on the above to obtain color information of the selected point, while an input color image for inspection is obtained and the correlation between the input color image and the color information of the selected point is obtained. A pattern matching method comprising performing a value operation and detecting the extraction and position of an object in an input color image from the operation result.
【請求項3】予め抽出対象となる物を含む基準距離画像
を得て該基準距離画像から対象物のエッジ情報を抽出
し、前記抽出されたエッジ情報を基にして相関値演算に
用いるための点を選択して該選択点の距離値を得、一方
被検査用の入力距離画像を得て該入力距離画像と前記選
択点の距離値との相関値演算を行い、この演算結果から
入力距離画像中における対象物の抽出及び位置を検出す
ることを特徴とするパターンマッチング方法。
3. A reference distance image including an object to be extracted is obtained in advance, edge information of the object is extracted from the reference distance image, and used for correlation value calculation based on the extracted edge information. A point is selected to obtain a distance value of the selected point, an input distance image for inspection is obtained, and a correlation value between the input distance image and the distance value of the selected point is calculated. A pattern matching method characterized by extracting an object and detecting a position in an image.
【請求項4】予め抽出対象となる物を含む基準濃淡画像
を得て該基準濃淡画像から対象物のエッジ情報を抽出
し、前記抽出されたエッジ情報を基にして相関値演算に
用いるためのエッジ上の点を中心としたエッジを挟む2
点をエッジに沿って順次選択し、前記エッジを挟む2点
間の濃度差分値の絶対値を得、一方被検査用の入力濃淡
画像を得て該入力濃淡画像からも前記濃度差分値の絶対
値を得、前記基準濃度画像画像における濃度差分値の絶
対値と前記入力濃淡画像より求まる濃度差分値の絶対値
との相関値演算を行い、この演算結果から入力濃淡画像
中における対象物の抽出及び位置を検出することを特徴
とするパターンマッチング方法。
4. A reference grayscale image including an object to be extracted is obtained in advance, edge information of the target object is extracted from the reference grayscale image, and used for correlation value calculation based on the extracted edge information. 2 with an edge centered on a point on the edge
The points are sequentially selected along the edge to obtain the absolute value of the density difference value between the two points sandwiching the edge, while the input grayscale image for inspection is obtained and the absolute value of the density difference value is also obtained from the input grayscale image. Value is obtained, a correlation value is calculated between the absolute value of the density difference value in the reference density image image and the absolute value of the density difference value obtained from the input grayscale image, and the extraction of the target object in the input grayscale image from this calculation result. And a pattern matching method characterized by detecting the position.
【請求項5】前記選択点として、より重要な対象物の情
報が含まれると想定されるエッジ上の点列及びエッジを
挟む点列、又はエッジを挟む点列のみを選択することを
特徴とする請求項1、2、3記載のパターンマッチング
方法。
5. A point sequence on an edge, a point sequence sandwiching an edge, or a point sequence sandwiching an edge, which is assumed to include more important object information, is selected as the selection points. The pattern matching method according to claim 1, 2, or 3.
【請求項6】前記抽出されたエッジ情報を表示させ、表
示情報の中から必要な情報と不要な情報とを取捨選択す
る判断部分を設けることによって解析的にテンプレート
画像を作成することを特徴とする請求項1、2、3、4
記載のパターンマッチング方法。
6. A template image is analytically created by displaying the extracted edge information and providing a judgment part for selecting necessary information and unnecessary information from the displayed information. Claims 1, 2, 3, 4
The described pattern matching method.
【請求項7】エッジ上の点及びエッジを挟む点列の中か
ら、エッジ点列の曲率の大きい部分は密に、曲率の小さ
い部分は粗に点を選択することを特徴とする請求項6記
載のパターンマッチング方法。
7. A point is selected from a point on the edge and a point sequence sandwiching the edge, densely selecting a portion having a large curvature of the edge point sequence and coarsely selecting a portion having a small curvature. The described pattern matching method.
【請求項8】エッジからエッジを挟む点列までの距離
を、濃度勾配の大きい部分は小さく、濃度勾配の小さな
部分は大きくとることによって決定することを特徴とす
る請求項6記載のパターンマッチング方法。
8. The pattern matching method according to claim 6, wherein the distance from the edge to the sequence of points sandwiching the edge is determined by taking a small portion with a large density gradient and a large portion with a small density gradient. .
JP5295039A 1993-11-25 1993-11-25 Pattern matching method Expired - Fee Related JP2981382B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5295039A JP2981382B2 (en) 1993-11-25 1993-11-25 Pattern matching method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5295039A JP2981382B2 (en) 1993-11-25 1993-11-25 Pattern matching method

Publications (2)

Publication Number Publication Date
JPH07146937A true JPH07146937A (en) 1995-06-06
JP2981382B2 JP2981382B2 (en) 1999-11-22

Family

ID=17815536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5295039A Expired - Fee Related JP2981382B2 (en) 1993-11-25 1993-11-25 Pattern matching method

Country Status (1)

Country Link
JP (1) JP2981382B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000016259A1 (en) * 1998-09-10 2000-03-23 Ecchandes Inc. Visual device
KR100459590B1 (en) * 2000-12-22 2004-12-04 가부시키가이샤 신가와 Position detecting apparatus and method thereof
AU2003204600B2 (en) * 1998-09-10 2006-03-02 Ecchandes Inc. Visual device
JP2007164816A (en) * 1995-11-13 2007-06-28 Applied Intelligent Systems Inc Vector correlation system for automatically locating pattern in image
JP2009087238A (en) * 2007-10-02 2009-04-23 Fujitsu Ltd Image tracking program, device, and method
JP2010091525A (en) * 2008-10-10 2010-04-22 Juki Corp Pattern matching method of electronic component
CN108229583A (en) * 2018-02-02 2018-06-29 北京邮电大学 A kind of method and device of the fast Template Matching based on principal direction Differential Characteristics

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164816A (en) * 1995-11-13 2007-06-28 Applied Intelligent Systems Inc Vector correlation system for automatically locating pattern in image
JP4494427B2 (en) * 1995-11-13 2010-06-30 アプライドインテリジェントシステムズ、インク A vector correlation system that automatically locates patterns in images.
WO2000016259A1 (en) * 1998-09-10 2000-03-23 Ecchandes Inc. Visual device
AU2003204600B2 (en) * 1998-09-10 2006-03-02 Ecchandes Inc. Visual device
KR100459590B1 (en) * 2000-12-22 2004-12-04 가부시키가이샤 신가와 Position detecting apparatus and method thereof
JP2009087238A (en) * 2007-10-02 2009-04-23 Fujitsu Ltd Image tracking program, device, and method
JP2010091525A (en) * 2008-10-10 2010-04-22 Juki Corp Pattern matching method of electronic component
CN108229583A (en) * 2018-02-02 2018-06-29 北京邮电大学 A kind of method and device of the fast Template Matching based on principal direction Differential Characteristics

Also Published As

Publication number Publication date
JP2981382B2 (en) 1999-11-22

Similar Documents

Publication Publication Date Title
US6768509B1 (en) Method and apparatus for determining points of interest on an image of a camera calibration object
US10699476B2 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
US6671399B1 (en) Fast epipolar line adjustment of stereo pairs
CN109215063B (en) Registration method of event trigger camera and three-dimensional laser radar
CN107248159A (en) A kind of metal works defect inspection method based on binocular vision
CN109523551B (en) Method and system for acquiring walking posture of robot
KR100591608B1 (en) Method for searching matching point in image matching
CN113012096B (en) Display screen sub-pixel positioning and brightness extraction method, device and storage medium
CN113343976B (en) Anti-highlight interference engineering measurement mark extraction method based on color-edge fusion feature growth
CN110598795A (en) Image difference detection method and device, storage medium and terminal
JP4296617B2 (en) Image processing apparatus, image processing method, and recording medium
JP3814353B2 (en) Image segmentation method and image segmentation apparatus
JPH05181411A (en) Map information collation and update system
JP2981382B2 (en) Pattern matching method
CN110717910B (en) CT image target detection method based on convolutional neural network and CT scanner
JPH05215547A (en) Method for determining corresponding points between stereo images
TWI462027B (en) Image processing device and image processing method thereof
JP3919722B2 (en) Skin shape measuring method and skin shape measuring apparatus
JPH10187972A (en) Discriminating method for light source color
US20220129660A1 (en) System and method of acquiring coordinates of pupil center point
CN114463751A (en) Corner positioning method and device based on neural network and detection algorithm
CN110031471B (en) Method, system and device for analyzing surface defect growth of large-caliber optical element
JP4406978B2 (en) Template matching method
Takaoka et al. Depth map super-resolution for cost-effective rgb-d camera
CN113393383B (en) Splicing method for photographed images of double-depth camera

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 19990907

LAPS Cancellation because of no payment of annual fees