JPH06337939A - Method and device for identifying picture - Google Patents

Method and device for identifying picture

Info

Publication number
JPH06337939A
JPH06337939A JP12756793A JP12756793A JPH06337939A JP H06337939 A JPH06337939 A JP H06337939A JP 12756793 A JP12756793 A JP 12756793A JP 12756793 A JP12756793 A JP 12756793A JP H06337939 A JPH06337939 A JP H06337939A
Authority
JP
Japan
Prior art keywords
image
data
direction differential
search area
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP12756793A
Other languages
Japanese (ja)
Inventor
Kazuo Higashiura
一雄 東浦
Hiroshi Touchi
宏 登内
Akihiro Ito
彰啓 伊藤
Hirokazu Watanabe
洋和 渡邊
Koki Nakamura
幸喜 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Sankyo Corp
Original Assignee
Nidec Sankyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Sankyo Corp filed Critical Nidec Sankyo Corp
Priority to JP12756793A priority Critical patent/JPH06337939A/en
Publication of JPH06337939A publication Critical patent/JPH06337939A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To provide a new picture identifying method capable of effectively shortening processing time. CONSTITUTION:Respective directions of reference axes X, Y mutually meeting at right angles are integrated by the information value of a reference pattern and respective integrated results are differentiated by the directions rectangular to respective integrating directions to prepare X direction differential reference data and Y direction differential reference data. In an identification searching area picture, the reference axes X and Y directions are integrated by an information value and respective integrated results are differentiated by the directions rectangular to respective integrating directions to calculate X direction differential data and Y direction differential data. The X and Y direction differential reference data and the X and Y direction differential data are respectively processed by pattern matching operation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は画像識別方法および画
像識別装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image identifying method and an image identifying apparatus.

【0002】[0002]

【従来の技術】2次元的な画像を識別する方法の一つと
して「パターンマッチング」が知られている。パターン
マッチングでは、「基準画像」の一部で、基準画像の特
徴を良く表している領域を抽出してサーチ領域とし、こ
のサーチ領域内にある画像、即ち「サーチ領域画像」の
一部を「参照パターン」として設定する。
2. Description of the Related Art "Pattern matching" is known as one of methods for identifying a two-dimensional image. In pattern matching, a part of the “reference image” that shows the characteristics of the reference image is extracted as a search region, and an image in this search region, that is, a part of the “search region image” is Set as "reference pattern".

【0003】識別対象となる画像が読取りにより取込ま
れると、取込み画像のうち上記サーチ領域に対応する部
分の画像が「識別サーチ領域画像」として抽出され、こ
の識別サーチ領域画像に対して参照パターンを2次元的
に移動させ、参照パターンの各移動位置において「参照
パターンと重なる識別サーチ領域画像部分」と参照パタ
ーンとの相関を演算する。
When an image to be identified is captured by reading, an image of a portion of the captured image corresponding to the search area is extracted as an "identification search area image", and a reference pattern is applied to the identification search area image. Is two-dimensionally moved, and the correlation between the “identification search area image portion overlapping the reference pattern” and the reference pattern is calculated at each movement position of the reference pattern.

【0004】相関の演算には種々の式が考えられるが、
基本的には、参照パターンの各画素の「情報値」と、こ
の画素に重なる識別サーチ領域内の画素の情報値との積
を、参照パターン内の全画素に就いて加え合わせ、必要
に応じて定数倍すれば良い。この値を「相関値」とよぶ
と、サーチ領域内に「参照パターンと同一のパターン」
があり、参照パターンがこのパターンに重なったとき、
相関値は参照パターンの「自己相関値」となって最大値
を取る。
Although various equations can be considered for calculating the correlation,
Basically, the product of the “information value” of each pixel in the reference pattern and the information value of the pixel in the identification search area that overlaps this pixel is added for all pixels in the reference pattern, and added as necessary. And multiply it by a constant. When this value is called the "correlation value", "the same pattern as the reference pattern" is displayed in the search area.
And when the reference pattern overlaps this pattern,
The correlation value becomes the “autocorrelation value” of the reference pattern and takes the maximum value.

【0005】そこで、自己相関値に近く自己相関値より
も小さい「閾値レベル」を設定し、識別サーチ領域内に
おける相関値の最大値が上記閾値レベルよりも大きいと
き、取り込まれた取込み画像は参照パターンと同一のパ
ターンを含み、従って基準画像と同一の画像の一部であ
ると識別できる。
Therefore, when a "threshold level" close to the autocorrelation value and smaller than the autocorrelation value is set, and the maximum value of the correlation value in the identification search area is larger than the threshold level, the captured image captured is referred to. It contains the same pattern as the pattern and can therefore be identified as being part of the same image as the reference image.

【0006】このようなパターンマッチングによる画像
識別は識別性が良く、識別の信頼性も高いが、相関値の
算出に参照パターンの全画素の情報が用いられるため識
別に到る演算量が多量となり処理時間が長いという問題
があった。
Image discrimination by such pattern matching has good discriminability and high reliability of discrimination, but since the information of all the pixels of the reference pattern is used for calculating the correlation value, the amount of calculation required for discrimination becomes large. There was a problem that the processing time was long.

【0007】演算量を減らすには識別サーチ領域のサイ
ズを小さくしたり、あるいは識別サーチ領域と参照パタ
ーンのサイズを共に小さくする等の方法が考えられる
が、これらのサイズの縮小にともない、識別精度も低下
するので好ましい方法でない。
In order to reduce the amount of calculation, a method such as reducing the size of the identification search area or reducing the size of both the identification search area and the reference pattern can be considered. With the reduction of these sizes, the identification accuracy is reduced. Is also not preferable because it also decreases.

【0008】[0008]

【発明が解決しようとする課題】この発明は上述した事
情に鑑みてなされたものであって、処理時間を有効に短
縮できる新規な画像識別方法およびこの方法を実施する
ための装置を提供することである。
SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and provides a novel image identifying method capable of effectively reducing the processing time and an apparatus for implementing this method. Is.

【0009】[0009]

【課題を解決するための手段】請求項1記載の画像識別
方法は「画像読取りにより取込まれた2次元的な取込み
画像から抽出された識別サーチ領域画像と、予め用意さ
れた2次元参照パターンとのパターンマッチングによ
り、上記取込み画像中に参照パターンが含まれるか否か
を識別する方法」であって、以下の点を特徴とする。
According to a first aspect of the present invention, there is provided an image identification method, comprising: "an identification search area image extracted from a two-dimensional captured image captured by image reading; and a two-dimensional reference pattern prepared in advance. Is a method for identifying whether or not a reference pattern is included in the captured image by pattern matching with the above. ”And is characterized by the following points.

【0010】即ち、予め用意された参照パターンに就
き、互いに直交する基準軸X,Yの各方向において参照
パターンの情報値の積分操作を行い、各積分結果を積分
方向と直交する方向において微分操作して、X方向微分
参照データと、Y方向微分参照データとを用意する。ま
た、識別サーチ領域画像に就いて上記基準軸X,Y方向
に就き情報値の積分操作を行い、各積分結果を積分方向
と直交する方向に就き微分操作してX方向微分データと
Y方向微分データを算出する。X方向微分参照データと
X方向微分データ、Y方向微分参照データとY方向微分
データを、それぞれパターンマッチング操作する。
That is, for a reference pattern prepared in advance, the information value of the reference pattern is integrated in each direction of the reference axes X and Y which are orthogonal to each other, and each integration result is differentiated in the direction orthogonal to the integration direction. Then, X direction differential reference data and Y direction differential reference data are prepared. Further, the identification search area image is subjected to the integration operation of the information values in the reference axes X and Y directions, and each integration result is operated in the direction orthogonal to the integration direction to perform the differentiation operation to differentiate the X direction differential data and the Y direction differential. Calculate the data. Pattern matching operations are performed on the X-direction differential reference data and the X-direction differential data, and the Y-direction differential reference data and the Y-direction differential data, respectively.

【0011】請求項2記載の画像識別装置は上記請求項
1記載の画像識別方法を実施する装置であって、画像取
り込み手段と、参照パターン抽出手段と、演算手段とを
有する。
An image identifying apparatus according to a second aspect is an apparatus for implementing the image identifying method according to the first aspect, and has an image capturing means, a reference pattern extracting means, and a computing means.

【0012】「画像取り込み手段」は、識別対象となる
画像を読取り、サーチ対象となる特徴部分領域の画像情
報を抽出する。このようにして抽出される領域は「識別
サーチ領域」であるが、取り込まれた画像が「基準画
像」である場合には、サーチ領域である。上記抽出され
た画像情報を、識別サーチ領域に対して「識別サーチ領
域画像」、サーチ領域に対して「サーチ領域画像」と呼
ぶ。「参照パターン抽出手段」は、基準画像が取り込ま
れた場合に上記特徴部分(サーチ領域画像)内の所望の
部分を参照パターンとして抽出する。「演算手段」は、
識別対象となる画像が取り込まれたとき、識別サーチ領
域として抽出された領域の識別サーチ領域画像および参
照パターンの画像情報のそれぞれの情報値に就き、互い
に直交するX,Y軸の各方向につき積分操作し、各積分
結果を積分方向と直交する方向につき微分操作して、X
方向微分データ,Y方向微分データおよびX方向微分参
照データ,Y方向微分参照データを算出し、X方向微分
参照データとX方向微分データ、Y方向微分参照データ
とY方向微分データを、それぞれパターンマッチング操
作する手段である。パターンマッチング操作は、相関を
調べることにより行われる。
The "image capturing means" reads the image to be identified and extracts the image information of the characteristic portion area to be searched. The area thus extracted is the "identification search area", but is the search area when the captured image is the "reference image". The extracted image information is referred to as an “identification search area image” for the identification search area and a “search area image” for the search area. The “reference pattern extraction means” extracts a desired portion in the characteristic portion (search area image) as a reference pattern when the standard image is captured. "Calculation means"
When the image to be identified is fetched, the information values of the identification search area image of the area extracted as the identification search area and the image information of the reference pattern are calculated, and integration is performed in each of the X and Y axis directions orthogonal to each other. Operation, and each integration result is differentiated in the direction orthogonal to the integration direction, and X
Directional differential data, Y-direction differential data, X-direction differential reference data, and Y-direction differential reference data are calculated, and pattern matching is performed for the X-direction differential reference data and X-direction differential data, and the Y-direction differential reference data and Y-direction differential data, respectively. It is a means of operating. The pattern matching operation is performed by examining the correlation.

【0013】識別対象である画像を読み込んだ取り込み
画像も参照パターンも、画素ごとに分解された画像情報
であるから、画素ごとに分離した情報でその情報値は空
間的には不連続である。上記説明において、画像情報を
X,Y方向につき積分操作するとは、これらの方向に配
列した画素情報の情報値を上記各方向において加算する
操作を意味する。また、各積分結果を微分操作すると
は、積分方向と直交する方向において、隣接する画素列
の積分値の差(もしくは、その定数倍)を取ること、あ
るいは後述するように、上記「差もしくはその定数倍」
の絶対値を取ることを意味する。
Since both the captured image from which the image to be identified and the reference pattern are image information decomposed for each pixel, the information values separated for each pixel are spatially discontinuous. In the above description, the operation of integrating the image information in the X and Y directions means an operation of adding the information values of the pixel information arranged in these directions in each of the above directions. In addition, differentiating each integration result means taking the difference (or a constant multiple) of the integrated values of adjacent pixel rows in the direction orthogonal to the integration direction, or, as described later, Constant multiple "
Means to take the absolute value of.

【0014】なお、参照パターンおよび識別サーチ領域
画像は何れもデジタル化され、積分操作・微分操作はデ
ジタル的に行われる。
Both the reference pattern and the identification search area image are digitized, and the integration operation and the differentiation operation are performed digitally.

【0015】[0015]

【作用】図1において、(a)は予め用意された参照パ
ターンを示している。図のように互いに直交するX,Y
方向を設定する。説明の簡単のため、参照パターンは図
示のように「白」と「黒」からなる2値情報であると
し、各画素の情報値は、上記「白」に対して1、「黒」
に対して0とする。
In FIG. 1, (a) shows a reference pattern prepared in advance. X and Y orthogonal to each other as shown
Set the direction. For simplification of description, it is assumed that the reference pattern is binary information including “white” and “black” as shown in the figure, and the information value of each pixel is “white” and “black”.
Is set to 0.

【0016】参照パターンの情報値分布を、f(X,
Y)(実際には、各画素毎の情報値:f(Xi,Yj)の
集合である)とし、これをX方向に就いて積分すると、
積分結果:∫f(X,Y)dX(=Σf(Xi,Yj);
和は添字:iに就き取る)は、Yの関数:F(Y)(実
際には、X方向の画素列のY方向における序列:Yj
関する上記和の集合である)となり、図1(b)に示す
如きものとなる。横軸:F(Y)は「輝度レベル
(「白」の情報値の和)」を表す。この操作がX方向に
就いての積分操作である。
The information value distribution of the reference pattern is f (X,
Y) (actually, a set of information values f (X i , Y j ) for each pixel), and integrating this in the X direction,
Integration result: ∫f (X, Y) dX (= Σf (X i , Y j );
The sum is a subscript: i) is a function of Y: F (Y) (actually, it is a set of the above sums regarding the order of the pixel row in the X direction in the Y direction: Y j ). It will be as shown in b). Horizontal axis: F (Y) represents “luminance level (sum of information values of“ white ”)”. This operation is an integration operation in the X direction.

【0017】同様に、上記f(X,Y)をY方向に就い
て積分すると、積分結果:∫f(X,Y)dY(=Σf
(Xi,Yj);和は添字:jに就き取る)はXの関数:
G(X)で図1(c)に示す如きものとなる。縦軸:G
(X)は「輝度レベル」を表す。この操作はY方向に就
いての積分操作である。
Similarly, when the above f (X, Y) is integrated in the Y direction, the integration result: ∫f (X, Y) dY (= Σf
(X i , Y j ); sum takes index: j) is a function of X:
G (X) is as shown in FIG. 1 (c). Vertical axis: G
(X) represents a "brightness level". This operation is an integration operation in the Y direction.

【0018】次に、上記F(Y)を、F(Y)を得るた
めの積分方向であるX方向に直交するY方向に就いて微
分操作すると、微分結果:d{F(Y)}/dY(実際
には、差:F(Yj+1)−F(Yj)もしくは、この差に
定数を掛けたもの)の絶対値=fy(Y)は図1(d)
に示す如きものとなる。fy(Y)は「Y方向微分参照
データ」である。
Next, when the above F (Y) is differentiated with respect to the Y direction orthogonal to the X direction which is the integration direction for obtaining F (Y), the differential result: d {F (Y)} / The absolute value of dY (actually, the difference: F (Y j + 1 ) −F (Y j ) or this difference multiplied by a constant) = fy (Y) is shown in FIG.
As shown in. fy (Y) is “Y-direction differential reference data”.

【0019】同様にG(X)をX方向に就いて微分操作
すると、微分結果:d{G(X)}/dY(実際には、
差:G(Xi+1)−G(Xi)もしくは、この差に定数を
掛けたもの)の絶対値=fx(X)は図1(e)に示す
如きものとなる。fx(X)は「X方向微分参照デー
タ」である。
Similarly, when G (X) is differentiated in the X direction, the differential result: d {G (X)} / dY (actually,
The absolute value of the difference: G (X i + 1 ) −G (X i ) or the difference multiplied by a constant = fx (X) is as shown in FIG. fx (X) is “X-direction differential reference data”.

【0020】図2において、(a)は、識別対象として
取込まれた取込み画像から抽出された識別サーチ領域画
像を示している。参照パターン(図1(a))に対応し
て、互いに直交するX,Y方向を設定する。参照パター
ンと同様、識別サーチ領域画像も「白」と「黒」からな
る2値情報であり、各画素の情報値は、「白」に対して
1、「黒」に対して0である。
In FIG. 2, (a) shows an identification search area image extracted from the captured image captured as the identification target. Corresponding to the reference pattern (FIG. 1A), the X and Y directions orthogonal to each other are set. Similar to the reference pattern, the identification search area image is also binary information including “white” and “black”, and the information value of each pixel is 1 for “white” and 0 for “black”.

【0021】識別サーチ領域画像の情報値分布を、P
(X,Y)(実際には、各画素毎の情報値:P(Xm
n)の集合である)とし、これをX方向に就いて積分
操作すると、積分結果:∫P(X,Y)dX(=ΣP
(Xm,Yn):和は添字:mに就き取る)はYの関数:
Q(Y)(実際には、X方向の画素列のY方向における
序列:Ynに関する上記和の集合である)となり、図1
(b)に示す如きものとなる。横軸:Q(Y)は「輝度
レベル」を表す。
The information value distribution of the identification search area image is defined as P
(X, Y) (Actually, the information value for each pixel: P (X m ,
Y n )), and performing an integration operation in the X direction, the integration result: ∫P (X, Y) dX (= ΣP
(X m , Y n ): Sum is a subscript: m) is a function of Y:
Q (Y) (actually, the order of the pixel rows in the X direction in the Y direction: a set of the above sums with respect to Y n ).
As shown in (b). Horizontal axis: Q (Y) represents "luminance level".

【0022】同様に、上記P(X,Y)をY方向に就い
て積分操作すると、積分結果:∫P(X,Y)dY(=
ΣP(Xm,Yn):和は添字:nに就き取る)はXの関
数:R(X)で、図1(c)に示す如きものとなる。縦
軸:R(X)は「輝度レベル」を表す。
Similarly, when the above P (X, Y) is integrated in the Y direction, the integration result: ∫P (X, Y) dY (=
ΣP (X m , Y n ): Sum is a subscript: n) is a function of X: R (X), which is as shown in FIG. Vertical axis: R (X) represents "luminance level".

【0023】次に、Q(Y)をY方向に就いて微分操作
すると、微分結果:d{Q(Y)}/dY(実際には、
差:Q(Yn+1)−F(Yn)もしくは、この差に定数を
掛けたもの)の絶対値=Py(Y)は図2(d)に示す
如きものとなる。Py(Y)は「Y方向微分データ」で
ある。
Next, when Q (Y) is differentiated in the Y direction, the differential result: d {Q (Y)} / dY (actually,
The absolute value of the difference: Q (Y n + 1 ) −F (Y n ) or this difference multiplied by a constant = Py (Y) is as shown in FIG. 2 (d). Py (Y) is “Y direction differential data”.

【0024】同様にR(X)をX方向に就いて微分操作
すると、微分結果:d{R(X)}/dY(実際には、
差:G(Xm+1)−G(Xm)もしくは、この差に定数を
掛けたもの)の絶対値=Px(X)は図1(e)に示す
如きものとなる。Px(X)は「X方向微分データ」で
ある。
Similarly, when R (X) is differentiated in the X direction, the differential result: d {R (X)} / dY (actually,
The absolute value of the difference: G (X m + 1 ) −G (X m ) or this difference multiplied by a constant = Px (X) is as shown in FIG. Px (X) is “X direction differential data”.

【0025】かくして、4つの1次元データ、即ち、X
方向微分参照データ:fx(X)、Y方向微分参照デー
タ:fy(Y)、X方向微分データ:Px(X)、Y方
向微分データ:Py(Y)である。
Thus, four one-dimensional data, that is, X
Directional differential reference data: fx (X), Y-directional differential reference data: fy (Y), X-directional differential data: Px (X), Y-directional differential data: Py (Y).

【0026】図1(a)に示す参照パターンのサイズを
(I×J)画素、図2(a)に示す識別サーチ領域画像
のサイズを(M×N)画素とすると、fx(X)はI−
1個の要素:fx(Xi)からなり、fy(Y)はJ−
1個の要素:fy(Yj)からなる。また、Px(X)
はM−1個の要素:Px(Xm)からなり、Py(Y)
はN−1個の要素:Py(Yn)からなる。
When the size of the reference pattern shown in FIG. 1A is (I × J) pixels and the size of the identification search area image shown in FIG. 2A is (M × N) pixels, fx (X) is I-
One element: fx (X i ) and fy (Y) is J-
It consists of one element: fy (Y j ). In addition, Px (X)
Consists of M-1 elements: Px (X m ), Py (Y)
Consists of N-1 elements: Py (Y n ).

【0027】そこで、fx(X)をPx(X)に重ねて
1画素分ずつずらしながら、ずらすごとに、重なる画素
の情報値の積の和(もしくはその定数倍)を相関値とし
て算出するパターンマッチング操作を行う。これは、定
数値をK、演算パラメータをkとして、演算:K・Σi
fx(Xi)・Px(Xi+k)(i=1〜I−1)を、演
算パラメータ:kに就いて、k=1〜(M−I)の範囲
で繰り返すことを意味する。算出された相関値の最大値
(最大値を与えるX座標(fx(X)の中央座標に対応
する位置)をX0とする)を予め設定された閾値と比較
する。
Therefore, while fx (X) is superimposed on Px (X) and shifted by one pixel at a time, each time the shift is performed, the sum (or a constant multiple) of the products of the information values of the overlapping pixels is calculated as a correlation value. Perform a matching operation. This is an operation: K · Σ i , where K is a constant value and k is an operation parameter.
It means that fx (X i ) · Px (X i + k ) (i = 1 to I-1) is repeated in the range of k = 1 to (MI) for the calculation parameter: k. The maximum value of the calculated correlation values (the X coordinate giving the maximum value (the position corresponding to the center coordinate of fx (X) is X 0 ) is compared with a preset threshold value.

【0028】同様に、fy(Y)をPy(Y)に重ねて
1画素分ずつずらしながら、ずらすごとに、重なる画素
の情報値の積の和(もしくはその定数倍)を相関値とし
て算出する。これは、定数値をL、演算パラメータをl
として、演算:L・Σj,nfy(Yj)・Py(Yj+l
(j=1〜J−1)を、演算パラメータ:lに就いて、
l=1〜(N−I)の範囲で繰り返すことを意味する。
算出された相関値の最大値(最大値を与えるY座標(f
y(Y)の中央座標に対応する位置)をY0とする)を
予め設定された閾値と比較する。
Similarly, while fy (Y) is superimposed on Py (Y) and shifted by one pixel at a time, each time the shift is performed, the sum of the products of the information values of the overlapping pixels (or a constant multiple thereof) is calculated as a correlation value. . This is L for a constant value and l for a calculation parameter.
As: L · Σ j, n fy (Y j ) · Py (Y j + l )
(J = 1 to J-1) for the calculation parameter: l,
It means repeating in the range of l = 1 to (N−I).
Maximum value of the calculated correlation values (Y coordinate (f
The position (corresponding to the central coordinate of y (Y)) is set to Y 0 ) is compared with a preset threshold value.

【0029】上記2つの最大値が共に閾値以上である場
合には、取込み画像から抽出された識別サーチ領域画像
は、その内に参照パターンと同一のパターンを有し、そ
の位置は(X0,Y0)である。そしてこの場合、取込ま
れた画像は、基準画像と同一であることが識別される。
When both of the above two maximum values are equal to or more than the threshold value, the identification search area image extracted from the captured image has the same pattern as the reference pattern therein, and its position is (X 0 , Y 0 ). And in this case, the captured image is identified as being identical to the reference image.

【0030】なお、d{F(Y)}/dY=d{∫f
(X,Y)dX}/dy=∫[d{f(X,Y)}/d
y]dX 等であるから、積分操作と微分操作の順序を入れ替える
ことが可能であることを付記しておく。また、上に説明
した例では、微分操作において、演算結果の絶対値を取
ったが、微分演算の結果(正・負のデータを含む)をそ
のまま用いても良い。
Note that d {F (Y)} / dY = d {∫f
(X, Y) dX} / dy = ∫ [d {f (X, Y)} / d
Note that it is possible to switch the order of the integration operation and the differentiation operation because y] dX. Further, in the example described above, the absolute value of the calculation result is taken in the differential operation, but the result of the differential calculation (including positive / negative data) may be used as it is.

【0031】[0031]

【実施例】図3に、請求項2記載の画像識別装置の1実
施例を示す。この装置は、例えばIC等の電子部品の配
線パターン等を識別する装置であって、CCDカメラ1
0、A/Dコンバータ12、前処理部14、特徴抽出部
16、参照パターン抽出部20、識別部18および制御
部22を有する。
FIG. 3 shows an embodiment of the image identifying apparatus according to the present invention. This device is, for example, a device for identifying a wiring pattern or the like of an electronic component such as an IC,
0, the A / D converter 12, the preprocessing unit 14, the feature extraction unit 16, the reference pattern extraction unit 20, the identification unit 18, and the control unit 22.

【0032】先ず、被検体0として「基準画像」をもっ
たものがCCDカメラ10により読み取られ、画素ごと
に電気信号化される。この電気信号はA/Dコンバータ
12によりデジタル化され、前処理部14に送られる。
前処理部14はコンパレータであって、制御部22(具
体的はコンピュータ等である)に制御され、設定された
閾値と入力信号を比較することによりノイズの除去を行
う。
First, a subject 0 having a "reference image" is read by the CCD camera 10 and converted into an electric signal for each pixel. This electric signal is digitized by the A / D converter 12 and sent to the preprocessing unit 14.
The pre-processing unit 14 is a comparator, which is controlled by the control unit 22 (specifically, a computer or the like), and removes noise by comparing the set threshold value with the input signal.

【0033】ノイズを除去されたデータは特徴抽出部1
6に送られる。特徴抽出部はメモリを有し、入力された
データは2次元の情報としてメモリに展開される。制御
手段22は特徴抽出部16のメモリに展開された2次元
情報に所定のサーチ領域を設定し、その内部の情報をサ
ーチ領域画像として抽出する。従って、CCDカメラ1
0、A/Dコンバータ12、前処理分14、特徴抽出部
16および制御分22は「画像取込み手段」を構成す
る。
The data from which the noise is removed is the feature extraction unit 1
Sent to 6. The feature extraction unit has a memory, and the input data is developed in the memory as two-dimensional information. The control unit 22 sets a predetermined search area in the two-dimensional information developed in the memory of the feature extraction unit 16 and extracts the information inside the search area as a search area image. Therefore, the CCD camera 1
0, the A / D converter 12, the pre-processing portion 14, the feature extracting portion 16 and the control portion 22 constitute "image capturing means".

【0034】制御手段22はまた、抽出されたサーチ領
域画像中の所望の部分を参照パターンとして指定抽出
し、参照パターン抽出部20に格納する。従って、制御
部22と参照パターン抽出部16とは「参照パターン抽
出手段」を構成する。
The control means 22 also designates and extracts a desired portion in the extracted search area image as a reference pattern and stores it in the reference pattern extraction unit 20. Therefore, the control unit 22 and the reference pattern extraction unit 16 constitute "reference pattern extraction means".

【0035】次に、識別対象となる被検体を読み取っ
て、特徴抽出部16において「識別サーチ領域画像」を
抽出する。抽出方法は上記「サーチ領域画像」の抽出の
場合と同様である。
Next, the subject to be identified is read, and the feature identifying section 16 extracts the "identification search region image". The extraction method is the same as in the case of extracting the “search area image”.

【0036】制御部22は、参照パターン抽出部20を
制御して、同抽出部20に格納してある「参照パター
ン」を読み出し、識別部18に送る。それとともに、特
徴抽出部16を制御し、同抽出部16において抽出され
た識別サーチ領域画像も識別部18に送る。
The control unit 22 controls the reference pattern extraction unit 20 to read the “reference pattern” stored in the extraction unit 20 and send it to the identification unit 18. At the same time, the feature extraction unit 16 is controlled, and the identification search area image extracted by the extraction unit 16 is also sent to the identification unit 18.

【0037】識別部18は、制御部22の制御を受け、
参照パターンおよび識別サーチ領域画像の双方に対し上
述した積分操作・微分操作およびパターンマッチング操
作を行う。従って、識別部18と制御部22とは演算手
段を構成する。
The identification section 18 receives the control of the control section 22,
The above integration operation / differentiation operation and pattern matching operation are performed on both the reference pattern and the identification search area image. Therefore, the identification unit 18 and the control unit 22 form a calculation unit.

【0038】かくして、読み取られた被検体が基準画像
と同一のパターンを含むか否かが、識別部18の出力と
して得られる。
Thus, whether or not the read subject contains the same pattern as the reference image is obtained as the output of the identifying section 18.

【0039】[0039]

【発明の効果】以上説明したように、この発明によれば
新規な画像識別方法および装置を提供できる。この発明
は上述した構成となっているので、パターンマッチング
に必要な演算量が有効に減少され、高速の画像識別が可
能となる。
As described above, according to the present invention, a novel image identifying method and apparatus can be provided. Since the present invention has the configuration described above, the amount of calculation required for pattern matching is effectively reduced, and high-speed image identification is possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】参照パターンに対する積分操作と微分操作を説
明するための図である。
FIG. 1 is a diagram for explaining an integration operation and a differentiation operation for a reference pattern.

【図2】識別サーチ領域画像に対する積分操作と微分操
作を説明するための図である。
FIG. 2 is a diagram for explaining an integration operation and a differentiation operation on an identification search area image.

【図3】請求項2記載の画像識別装置の1実施例を説明
するためのブロック図である。
FIG. 3 is a block diagram for explaining an embodiment of the image identifying apparatus according to claim 2;

フロントページの続き (72)発明者 渡邊 洋和 長野県伊那市上の原6100番地・株式会社三 協精機製作所伊那工場内 (72)発明者 中村 幸喜 長野県伊那市上の原6100番地・株式会社三 協精機製作所伊那工場内Front page continued (72) Inventor Hirokazu Watanabe 6100 Uehara, Ina City, Nagano Prefecture, Sankyo Seiki Co., Ltd.Ina Factory (72) Inventor Koki Nakamura 6100 Uehara, Ina City, Nagano Prefecture, Sankyo Seiki Co., Ltd. Ina factory

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】画像読取りにより取込まれた2次元的な取
込み画像から抽出された識別サーチ領域画像と、予め用
意された2次元参照パターンとのパターンマッチングに
より、上記取込み画像中に参照パターンが含まれるか否
かを識別する方法において、 互いに直交する基準軸X,Yの各方向に付き、参照パタ
ーンの情報値を積分操作し、各積分結果を積分方向と直
交する方向に就き微分操作して、X方向微分参照データ
と、Y方向微分参照データとを用意し、 識別サーチ領域画像に就いて、上記基準軸X,Y方向に
就き情報値を積分操作し、各積分結果を、積分方向と直
交する方向に就き微分操作してX方向微分データとY方
向微分データを算出し、 上記X方向微分参照データとX方向微分データ、上記Y
方向微分参照データとY方向微分データを、それぞれパ
ターンマッチング操作することを特徴とする画像識別方
法。
1. A reference pattern in the captured image is obtained by pattern matching between an identification search area image extracted from a two-dimensional captured image captured by image reading and a two-dimensional reference pattern prepared in advance. In the method of identifying whether or not it is included, the information value of the reference pattern is integrated for each direction of the reference axes X and Y which are orthogonal to each other, and each integration result is operated for differentiation in the direction orthogonal to the integration direction. Then, X-direction differential reference data and Y-direction differential reference data are prepared, and an information value is integrated in the identification search area image and in the reference axis X and Y directions. The X-direction differential data and the Y-direction differential data are calculated by performing a differential operation in the direction orthogonal to
An image identification method characterized by performing pattern matching operation on each of the direction differential reference data and the Y direction differential data.
【請求項2】請求項1記載の画像識別方法を実施する装
置であって、 識別対象となる画像を読取り、特徴部分を抽出してサー
チ領域画像とする画像取込み手段と、 上記サーチ領域画像内から参照パターンを抽出する参照
パターン抽出手段と、 抽出されたサーチ領域画像の情報値および参照パターン
の情報値をそれぞれに就き、互いに直交するX,Y軸の
各方向につき積分操作し、各積分結果を、積分方向と直
交する方向につき微分操作して、X方向微分データ,Y
方向微分データと、X方向微分参照データ,Y方向微分
参照データを算出し、上記X方向微分参照データとX方
向微分データ、上記Y方向微分参照データとY方向微分
データを、それぞれパターンマッチング操作する演算手
段とを有する画像識別装置。
2. An apparatus for carrying out the image identifying method according to claim 1, wherein an image capturing means for reading an image to be identified and extracting a characteristic portion as a search area image, and inside the search area image. The reference pattern extracting means for extracting the reference pattern from the reference pattern and the extracted information value of the search area image and the reference pattern information value are respectively integrated and operated in respective directions of the X and Y axes which are orthogonal to each other. Is differentiated in the direction orthogonal to the integration direction to obtain X-direction differential data, Y
Directional differential data, X-direction differential reference data, and Y-direction differential reference data are calculated, and the X-direction differential reference data and X-direction differential data, and the Y-direction differential reference data and Y-direction differential data are subjected to pattern matching operation. An image identification device having a computing means.
JP12756793A 1993-05-28 1993-05-28 Method and device for identifying picture Pending JPH06337939A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP12756793A JPH06337939A (en) 1993-05-28 1993-05-28 Method and device for identifying picture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP12756793A JPH06337939A (en) 1993-05-28 1993-05-28 Method and device for identifying picture

Publications (1)

Publication Number Publication Date
JPH06337939A true JPH06337939A (en) 1994-12-06

Family

ID=14963241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP12756793A Pending JPH06337939A (en) 1993-05-28 1993-05-28 Method and device for identifying picture

Country Status (1)

Country Link
JP (1) JPH06337939A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7856146B2 (en) 2005-03-10 2010-12-21 Fuji Xerox Co., Ltd. Image processing device, image forming device, image processing method and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7856146B2 (en) 2005-03-10 2010-12-21 Fuji Xerox Co., Ltd. Image processing device, image forming device, image processing method and program

Similar Documents

Publication Publication Date Title
EP0785522A3 (en) Method and system for detecting a pattern in an image
US7400760B2 (en) Image processing apparatus
JP3774495B2 (en) Image information extracting apparatus and method
JPH11167455A (en) Hand form recognition device and monochromatic object form recognition device
JPH06337939A (en) Method and device for identifying picture
JPH0664614B2 (en) Hierarchical structured template matching method
JP3627249B2 (en) Image processing device
JPH0962838A (en) High speed pattern matching method
JPH0737893B2 (en) Pattern matching method
JPH0760462B2 (en) Image area dividing device
JPH0225989A (en) Moving object extracting method
JPH05189570A (en) Method and device for gradation image pattern matching, defect detector, character recognition device, and positioning device
JPH0935058A (en) Image recognizing method
Mustafa Quick Dissimilarity Detection for Center-Based Binary Images Via Smart Mapping
JPH0760459B2 (en) Corner detector
JP2841866B2 (en) Image processing apparatus and method and its application
JPH1069542A (en) Template matching method
JPS6342406A (en) Position detecting method by partial pattern matching
JP2001052167A (en) Image processing method
JP2000182056A (en) Picture processor
JPS595945B2 (en) Pattern recognition method
JPS62228103A (en) Apparatus for measuring substrate
KR100213346B1 (en) Apparatus and method for detecting adjusting groove of adjustable component
JPS63282889A (en) Image processing method
JPH06100448B2 (en) Image pattern matching method and apparatus