JPH06100448B2 - Image pattern matching method and apparatus - Google Patents

Image pattern matching method and apparatus

Info

Publication number
JPH06100448B2
JPH06100448B2 JP60018600A JP1860085A JPH06100448B2 JP H06100448 B2 JPH06100448 B2 JP H06100448B2 JP 60018600 A JP60018600 A JP 60018600A JP 1860085 A JP1860085 A JP 1860085A JP H06100448 B2 JPH06100448 B2 JP H06100448B2
Authority
JP
Japan
Prior art keywords
image
edge
feature
features
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60018600A
Other languages
Japanese (ja)
Other versions
JPS61178602A (en
Inventor
眞一 目黒
睦夫 佐野
明 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP60018600A priority Critical patent/JPH06100448B2/en
Publication of JPS61178602A publication Critical patent/JPS61178602A/en
Publication of JPH06100448B2 publication Critical patent/JPH06100448B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、工業製品の自動組立て装置や点検・保守作業
等の自動化ロボットにおいて、部品の判別等の視覚認識
を行うための画像パターンマッチング方法及び装置に関
するものである。
The present invention relates to an image pattern matching method for visual recognition such as discrimination of parts in an automatic robot for industrial product automatic assembly equipment and inspection / maintenance work. And the device.

(従来の技術) 従来、この種の画像パターンマッチング方法としては、
マスクパターンマッチング法があった。マスクパターン
マッチング法は、第9図に示すように、テレビカメラ等
で撮像した入力画像(a)の上にマスクパターン(b)を重ね
合せ、入力画像とマスクパターンの形状が一致する場合
には重なりの度合が高く、形状が異なる場合には重なり
の度合が低くなることを利用して、入力画像中の物体の
判別又は位置決めを行なう方法である。
(Prior Art) Conventionally, as this kind of image pattern matching method,
There was a mask pattern matching method. In the mask pattern matching method, as shown in FIG. 9, when the mask pattern (b) is overlaid on the input image (a) captured by a TV camera or the like, and the input image and the mask pattern have the same shape, This is a method for discriminating or positioning an object in an input image by utilizing the fact that the degree of overlap is high and the degree of overlap is low when the shapes are different.

(発明が解決しようとする問題点) しかしながらテレビカメラ等の光学的撮像手段によって
得られる入力画像では、照明などの撮影条件によって、
ノイズの混入や画像の変形を受けることが多く、入力画
像とマスクパターンとの重なりの度合は入力画像の変形
やノイズの量に応じて低下する。このため第10図に示す
ようにノイズや変形を含んだ入力画像に対し、形状の類
似したA,B2つのマスクパターンとの重ね合せ照合を行
い、どちらのマスクパターンと入力画像が一致するかを
判別する時、2つのマスクパターンに対する入力画像の
重なりの差が少なく、正しい判別が困難となる欠点があ
った。
(Problems to be Solved by the Invention) However, in an input image obtained by an optical image pickup means such as a television camera, depending on shooting conditions such as lighting,
Noise is often mixed and the image is deformed, and the degree of overlap between the input image and the mask pattern is reduced according to the deformation of the input image and the amount of noise. Therefore, as shown in Fig. 10, the input image containing noise and deformation is subjected to overlay matching with two mask patterns of similar shapes A and B, and which mask pattern and the input image match. When discriminating, there is a small difference in the overlap of the input images with respect to the two mask patterns, and there is a drawback that correct discrimination becomes difficult.

本発明はこの欠点を改善することを目的とする。The present invention aims to remedy this drawback.

(問題点を解決するための手段) 本発明は、これら問題点を解決するために、入力画像及
び入力画像から作成されたエッジ画像の上で画像を分割
する小領域を定め、分割された小領域ごとに平均明るさ
特徴、エッジ特徴、エッジ距離特徴を算出し、これら特
徴を組合せてマッチング処理を行う。
(Means for Solving Problems) In order to solve these problems, the present invention defines a small area for dividing an image on an input image and an edge image created from the input image, and divides the divided small area. An average brightness feature, an edge feature, and an edge distance feature are calculated for each area, and these features are combined to perform matching processing.

(作用) 上記のごとき処理を行なうことにより、各特徴の相補的
性質により正しいマッチングをとることが出来、入力画
像にノイズや変形がふくまれる場合や形状が類似する場
合にも物体の正しい判別が可能である。
(Operation) By performing the above-described processing, correct matching can be obtained by the complementary property of each feature, and the correct discrimination of the object can be performed even when the input image contains noise or deformation or the shape is similar. It is possible.

(実施例) 以下本発明を第1図〜第8図にもとずいて説明する。第
1図は本発明を実施するための装置の一例を示すブロッ
ク構成図であり、1はテレビカメラ、2はAD変換部、3
は入力画像記憶部、4はエッジ画像抽出部、5はエッジ
画像記憶部、6は入力画像分割アドレス発生部、7はエ
ッジ画像分割アドレス発生部、8は平均明るさ特徴抽出
部、9はエッジ特徴抽出部、10はエッジ距離特徴抽出
部、11は画像特徴記憶部、12はマスク画像特徴記憶部、
13はマッチング処理部、14は出力端子である。
(Example) The present invention will be described below with reference to Figs. 1 to 8. FIG. 1 is a block diagram showing an example of an apparatus for carrying out the present invention, where 1 is a television camera, 2 is an AD converter, and 3 is
Is an input image storage unit, 4 is an edge image extraction unit, 5 is an edge image storage unit, 6 is an input image division address generation unit, 7 is an edge image division address generation unit, 8 is an average brightness feature extraction unit, and 9 is an edge. A feature extraction unit, 10 an edge distance feature extraction unit, 11 an image feature storage unit, 12 a mask image feature storage unit,
13 is a matching processing unit, and 14 is an output terminal.

テレビカメラ1は物体像を撮影し、その明るさに応じた
値を持つ電気信号をラスタ走査信号として出力する。AD
変換部2はラスタ走査信号をデジタル信号に変換し、入
力画像記憶部3に画像データを書き込む。
The television camera 1 captures an object image and outputs an electric signal having a value corresponding to the brightness as a raster scanning signal. AD
The conversion unit 2 converts the raster scanning signal into a digital signal and writes the image data in the input image storage unit 3.

以下、第2図に示すような画像が画像記憶部3に記憶さ
れている場合について説明する。4はエッジ画像抽出部
であり、入力画像に対し画像処理技術の一つとして公知
のエッジ抽出処理によって、第3図に示すようなエッジ
画像を作成し、結果をエッジ画像記憶部5に出力する。
Hereinafter, a case where an image as shown in FIG. 2 is stored in the image storage unit 3 will be described. An edge image extraction unit 4 creates an edge image as shown in FIG. 3 on the input image by a known edge extraction process as one of image processing techniques, and outputs the result to the edge image storage unit 5. .

入力画像分割アドレス発生部6は、入力画像を複数個に
分割してできる小領域のアドレスを計算して入力画像記
憶部3にアドレス信号を供給し、各小領域内の画像デー
タを平均明るさ特徴抽出部8へ順次読み出す。小領域
は、隣接する小領域が相互に少しずつ重なり合うように
定めることが適当であるが、ここでは簡単のため、第4
図に示すように小領域が互いに重なり合わず、かつ4×
4の分割によってC11,C21,…C44の16個の小領域を定め
た場合について説明する。エッジ画像分割アドレス発生
部7は、入力画像分割アドレス発生部6と同様にしてエ
ッジ画像を分割する小領域のアドレスを計算して、エッ
ジ画像記憶部5にアドレス信号を供給し、小領域内のエ
ッジ画像をエッジ特徴抽出部9へ順次読み出す。ここで
は第5図に示すようなC′11,C′21,…,C′44の16個の
小領域が定められる。なお小領域の設定が入力画像とエ
ッジ画像について同一であれば、6,7の画像分割アドレ
ス発生部は共通にできる。8は平均明るさ特徴抽出部で
あり、入力画像を分割する小領域の各々について画像の
明るさの平均値を求め、結果を画像特徴記憶部11に出力
する。すなわち1つの小領域Cijの明るさ分布をIij(x,
y)で表わし小領域Cijの画素数がたてn画素、よこm画
素であるとすると、小領域Cijに対する画素の平均明る
さMijを により算出する。同様の処理をすべての小領域C11,C21,
…,C44について行なうことにより、M11,M21,…,M44から
成る平均明るさ特徴が計算される。
The input image division address generation unit 6 calculates an address of a small area formed by dividing the input image into a plurality of pieces, and supplies an address signal to the input image storage unit 3 to calculate the average brightness of the image data in each small area. The data is sequentially read out to the feature extraction unit 8. It is appropriate to define the small areas so that adjacent small areas overlap each other little by little, but for simplicity, here, the fourth area is used.
As shown in the figure, the small areas do not overlap each other, and 4 ×
A case will be described in which 16 small areas C 11 , C 21 , ..., C 44 are defined by division of 4. The edge image division address generation unit 7 calculates the address of the small area into which the edge image is divided in the same manner as the input image division address generation unit 6, supplies the address signal to the edge image storage unit 5, and The edge image is sequentially read to the edge feature extraction unit 9. Here are shown in FIG. 5 such C '11, C' 21, ..., 16 pieces of small areas C '44 is determined. If the setting of the small area is the same for the input image and the edge image, the image division address generators 6 and 7 can be shared. An average brightness feature extraction unit 8 obtains an average value of image brightness for each of the small areas into which the input image is divided, and outputs the result to the image feature storage unit 11. That is, the brightness distribution of one small area Cij is Iij (x,
y) and the number of pixels in the small area Cij is n pixels and is approximately m pixels, the average brightness Mij of the pixels for the small area Cij is Calculate by Similar processing is applied to all small areas C 11 , C 21 ,
By doing this for C 44 , an average brightness feature consisting of M 11 , M 21 , ..., M 44 is calculated.

9はエッジ特徴抽出部であり、分割されたエッジ画像の
小領域に含まれる定められた閾値T1以上のエッジ強度を
有する画素の総数又は小領域内の全画素に対する割合を
エッジ特徴として求め、結果を画像特徴記憶部11に出力
する。今、エッジ画像の1つの小領域C′ijのエッジ強
度分布をI′ij(x,y)で表わすと、画素数がたてn画
素、よこm画素の小領域C′ijに対するエッジ特徴Eij
又は により求める。同様の処理をすべての小領域C′11,C′
21,…,C′44について行うことにより、エッジ特徴E11,E
21,…,E44を算出する。エッジ特徴は物体の輪郭形状の
複雑さを表現した特徴量である。
Reference numeral 9 denotes an edge feature extraction unit that obtains, as an edge feature, the total number of pixels having an edge strength equal to or greater than a predetermined threshold T 1 included in a small region of a divided edge image, or a ratio to all pixels in the small region, The result is output to the image feature storage unit 11. Now, if the edge intensity distribution of one small area C′ij of the edge image is represented by I′ij (x, y), the edge feature Eij for the small area C′ij having vertical n pixels and horizontal m pixels is shown.
To Or Ask by. All small regions C the same process '11, C'
21, ..., C 'by performing the 44, edge characteristic E 11, E
21 , ..., E 44 is calculated. The edge feature is a feature amount that expresses the complexity of the contour shape of the object.

10はエッジ距離特徴抽出部で、画像特徴記憶部11より各
小領域のエッジ特徴を読み出し、各小領域について、そ
の周囲8方向に存在し、かつエッジ特徴が閾値T2以上で
ある小領域の中で最も近い小領域までの距離を算出し、
エッジ距離特徴として画像特徴記憶部11に出力する。た
とえば第6図において小領域C′22に着目し周囲8方向
においてE′ijT2となる小領域がC′21,C′31,
C′42,C′44であったとする。今2つの小領域C′ijと
C′klの間の距離lを により定めると、C′21,C′31,C′42,C′44中で最も近
い小領域C′21までの距離l(C′22,C′21)=1を
C′22におけるエッジ距離特徴L22として算出する。同
様の処理をすべてのC′ijに行なうことにより、エッジ
距離特徴L11,L21,…,L44が求まる。エッジ距離特徴は、
小領域の近傍にエッジが存在するか否かを表現した特徴
量である。
An edge distance feature extraction unit 10 reads the edge features of each small area from the image feature storage unit 11, and for each small region, exists in eight directions around the small region and has edge features of a threshold value T 2 or more. Calculate the distance to the closest small area,
It is output to the image feature storage unit 11 as an edge distance feature. For example 'E'ijT 2 become small areas C around 8 direction focusing on 22' 21 small regions C in FIG. 6, C '31,
C and was '42, C' 44. Now the distance l between the two small areas C'ij and C'kl Determining if, C '21, C' 31 , C '42, C'' distance l (C up to 21' 22, C closest small area C in 44 '21) = 1 C' edge distance in 22 by Calculate as feature L 22 . By performing the same process for all C'ij, the edge distance features L 11 , L 21 , ..., L 44 are obtained. The edge distance feature is
It is a feature quantity expressing whether or not an edge exists near the small area.

なお本実施例では、エッジ距離特徴を周囲8方向に存在
する小領域から求めているが、さらに一般的に、着目し
た小領域C′ijの周囲N方向に存在する小領域の中か
ら、エッジ特徴がT2以上であり、かつ最も近い小領域を
求めてもよい。また最も近い小領域までの距離をエッジ
距離特徴とする代りに、最も遠い小領域までの距離、又
はN方向についてエッジ特徴がT2以上である小領域まで
の距離の和又は平均をエッジ距離特徴として用いること
も可能である。
In this embodiment, the edge distance feature is obtained from the small areas existing in the eight surrounding directions, but more generally, the edge distance feature is selected from the small areas existing in the N direction around the small area C'ij of interest. It is also possible to obtain the closest small area having a feature of T 2 or more and the closest. Instead of using the distance to the closest small area as the edge distance feature, the distance to the farthest small area or the sum or average of the distances to the small areas whose edge features are T 2 or more in the N direction is used as the edge distance feature. It is also possible to use

11は画像特徴記憶部であり、平均明るさ特徴抽出部8に
より算出された平均明るさ特徴M11,M21,…,M44、エッジ
特徴抽出部9により算出されたエッジ特徴E11,E21,…,E
44及びエッジ距離特徴抽出部10により算出されたエッジ
距離特徴L11,L21,…L44を記憶する。以後平均明るさ特
徴、エッジ特徴、エッジ距離特徴を総称して画像特徴と
呼ぶ。
An image feature storage unit 11 includes average brightness features M 11 , M 21 , ..., M 44 calculated by the average brightness feature extraction unit 8 and edge features E 11 , E calculated by the edge feature extraction unit 9. 21 ,…, E
44 and the edge distance features L 11 , L 21 , ... L 44 calculated by the edge distance feature extraction unit 10 are stored. Hereinafter, the average brightness feature, the edge feature, and the edge distance feature are collectively referred to as an image feature.

12はマスク画像特徴記憶部であり、入力画像中の物体に
対応し、判別の基準として設定した物体のマスク画像
(従来の手法におけるマスクパターンに相当する)から
算出される画像特徴をマスク画像特徴として記憶する。
マスク画像特徴は入力画像中の物体を判別するための辞
書でありあらかじめ作成されてあるものとする。
Reference numeral 12 denotes a mask image feature storage unit, which corresponds to an object in an input image and which is an image feature calculated from a mask image (corresponding to a mask pattern in a conventional method) of an object set as a criterion for discrimination. Memorize as.
The mask image feature is a dictionary for discriminating an object in the input image and is created in advance.

13はマッチング処理部であり、入力画像から得られた画
像特徴とマスク画像特徴との間でマッチング処理を行な
い、入力画像特徴とマスク画像特徴とが一致するか否か
を判定する。マッチング処理の方法としてはいくつかの
手法が考えられるが、例えば入力画像特徴をMij,Eij,Li
j、マスク画像特徴をM′ij,E′ij,L′ijとして で表わされる差の絶対値和を計算する。あらかじめ定め
た閾値T,T,Tに対しd≦=T,d≦T,d
≦Tを同時に満足するとき入力画像特徴とマスク画像
特徴は一致していると判断し、それ以外では不一致であ
ると判断することが可能である。
A matching processing unit 13 performs matching processing between the image feature obtained from the input image and the mask image feature, and determines whether or not the input image feature and the mask image feature match. There are several possible methods for matching processing. For example, if the input image features are Mij, Eij, Li
j, the mask image features are M'ij, E'ij, L'ij Calculate the sum of the absolute values of the differences represented by. For predetermined thresholds T M , T E , T L , d M ≤ = T M , d E ≤T E , d L
It is possible to determine that the input image feature and the mask image feature match when ≦ TL is satisfied at the same time, and to determine that they do not match otherwise.

なお本実施例では、入力画像とマスク画像の大きさが等
しく、ともに4×4の小領域で画像特徴を算出する場合
について説明したが、入力画像が大きく、入力画像中の
判別すべき物体及び対応するマスク画像が小さい場合で
も本発明を適用できる。この場合第7図に示すように入
力画像の分割によって定まる小領域の大きさとマスク画
像の分割によって定まる小領域の大きさが等しくなるよ
うに小領域の分割数を定め、入力画像上でマスク画像の
位置を順次ずらせながら画像特徴のマッチング処理を行
なうことにより、入力画像とマスク画像の最もよく重な
る位置を判別すべき物体の位置として見つけることが可
能となる。
In the present embodiment, the case where the input image and the mask image have the same size and the image feature is calculated in both 4 × 4 small areas has been described, but the input image is large and the object to be discriminated in the input image The present invention can be applied even when the corresponding mask image is small. In this case, as shown in FIG. 7, the number of divisions of the small area is determined so that the size of the small area determined by the division of the input image is equal to the size of the small area determined by the division of the mask image, and the mask image is displayed on the input image. By performing the image feature matching process while sequentially shifting the positions of, it is possible to find the position where the input image and the mask image overlap each other as the position of the object to be discriminated.

また本実施例では、入力画像とマスク画像が一致するか
否かを判断するために、平均明るさ特徴、エッジ特徴、
エッジ距離特徴の全てを用いてマッチング処理を行って
いるが、判別すべき物体の形状によっては、平均明るさ
特徴、エッジ特徴、エッジ距離特徴の適当な2つの特徴
だけを用いてマッチング処理を行うことも可能である。
この場合、マッチング処理に伴なう計算量を軽減するこ
とができる。第8図に処理の流れ図の一例を示す。第8
図の表現では、入力画像の記憶とエッジ画像の抽出・記
憶、及び平均明るさ特徴の抽出とエッジ特徴の抽出が、
それぞれ順次に行なわれるように示されているが、並列
に行うことも可能である。
Further, in the present embodiment, in order to determine whether the input image and the mask image match, the average brightness feature, the edge feature,
The matching process is performed using all the edge distance features, but depending on the shape of the object to be discriminated, the matching process is performed using only two appropriate features of the average brightness feature, the edge feature, and the edge distance feature. It is also possible.
In this case, the amount of calculation involved in the matching process can be reduced. FIG. 8 shows an example of a processing flow chart. 8th
In the representation of the figure, the storage of the input image and the extraction / storage of the edge image, the extraction of the average brightness feature and the extraction of the edge feature are
Although shown as being performed sequentially, each can be performed in parallel.

(発明の効果) 以上説明したように、本発明では、入力画像を小領域に
分割し、各小領域ごとに物体の明るさを表現した平均明
るさ特徴、物体の輪郭形状の複雑さを表現したエッジ特
徴、及び小領域の近傍に存在するエッジ領域までの距離
によって、画像特徴の空間的な拡がりを表現したエッジ
距離特徴を画像特徴として算出し、あらかじめ記憶して
ある上記特徴から構成されるマスク画像特徴とマッチン
グ処理を行なう。平均明るさ特徴、エッジ特徴、距離特
徴はそれぞれ物体の形状を異った角度から表現している
ため、物体の明るさだけでは判別できない物体も、エッ
ジ特徴、エッジ距離特徴によって判別可能となり、逆に
エッジ特徴、エッジ距離特徴だけでは判別できない場合
でも平均明るさ特徴を併用することにより判別可能とな
るなど、各特徴の相補的性質によって高精度の画像パタ
ーンマッチング処理が可能である。
(Effects of the Invention) As described above, in the present invention, the input image is divided into small areas, and the average brightness feature expressing the brightness of the object for each small area and the complexity of the contour shape of the object are expressed. The edge distance feature expressing the spatial spread of the image feature is calculated as the image feature by the edge feature and the distance to the edge region existing in the vicinity of the small region, and the feature is stored in advance. Performs matching processing with mask image features. Since the average brightness feature, the edge feature, and the distance feature represent the shape of the object from different angles, an object that cannot be identified only by the brightness of the object can be identified by the edge feature and the edge distance feature. In addition, even if the edge feature and the edge distance feature cannot be used alone, the average brightness feature can be used together to make the distinction. For example, the complementary nature of each feature enables highly accurate image pattern matching processing.

物体の高精度の判別を実現するためには、入力画像にノ
イズや変形が含まれる場合でも、形状の類似した物体の
判別を正しく行なう能力が要求される。第10図の例は変
形を含んだ入力画像がA,B二つのマスク画像(マスクパ
ターン)のいずれと一致するかを判別する問題である。
マスク画像A,Bの相違は、画像中央部分の穴の有無であ
るが、穴の面積に比べ入力画像に含まれるノイズ及び変
形が大きいため、従来手法、特に平均明るさ特徴だけを
用いたマッチング処理では、正しい判別は困難である。
しかしながら本発明においては、マスク画像Aが小領域
C22(及びC′22)内に穴を持っていることにより、
C′22に対するエッジ特徴E22は大きな値となる。この
ことによりC′22の周囲の小領域C′21,C′12,C′23,
C′32においてエッジ距離特徴はすべて1となる。すな
わちエッジ距離特徴は近くにエッジを持つ小領域が有る
か否かによって、周囲の小領域の同特徴の値が大きく変
化するため、マスク画像A,Bのように全体的な形で同一
で、穴の有無によって一つの領域内の形状が異なる場合
でもマスク画像Aとマスク画像Bのエッジ距離特徴は大
きく違ったものとなり、入力画像にノイズや変形が含ま
れても正しい判別が可能となる。
In order to realize highly accurate discrimination of an object, the ability to correctly discriminate an object having a similar shape is required even when the input image contains noise or deformation. The example of FIG. 10 is a problem of determining which of the two mask images (mask patterns) A and B the input image including the deformation matches.
The difference between the mask images A and B is the presence or absence of a hole in the center part of the image, but since the noise and deformation included in the input image are large compared to the area of the hole, conventional methods, especially matching using only the average brightness feature In processing, correct discrimination is difficult.
However, in the present invention, the mask image A is a small area.
By has a hole in the C 22 (and C '22) within,
Edge characteristic E 22 for C '22 becomes a large value. 'Surrounding the small region C of 22' 21 C Thus, C '12, C' 23,
Are all edge distance characteristics 1 in C '32. That is, the edge distance feature has a large change in the value of the same feature in the surrounding small regions depending on whether or not there is a small region having an edge nearby, so that the mask images A and B have the same overall shape, Even if the shape in one area differs depending on the presence or absence of a hole, the edge distance characteristics of the mask image A and the mask image B are significantly different, and correct discrimination is possible even if the input image contains noise or deformation.

判別すべき物体の形状が複雑である場合においては、入
力画像及びマスク画像をより細かく分割する小領域を定
め、対象物体の形状に応じた画像特徴を算出することに
より、高精度の判別能力を実現することができる。
When the shape of the object to be discriminated is complicated, a small area that divides the input image and the mask image into smaller areas is defined, and by calculating the image characteristics according to the shape of the target object, high-precision discrimination ability can be obtained. Can be realized.

なお本発明によれば、画像特徴を画像の分割によって定
まる小領域に対して算出することにより、その容量は画
像をそのままのデータとして記憶する場合と比べ、極め
て少ない。このため入力画像特徴、マスク画像特徴を記
憶するためのメモリは小容量であり、またマッチング処
理に必要な演算量も少なくなるなどの利点もある。
It should be noted that according to the present invention, the image feature is calculated for a small area determined by the division of the image, so that the capacity thereof is extremely small compared to the case where the image is stored as the data as it is. Therefore, the memory for storing the input image feature and the mask image feature has a small capacity, and the calculation amount required for the matching process is reduced.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の装置ブロック構成図の例、第2図は本
発明を説明するための入力画像例、第3図はエッジ画像
例、第4図は入力画像に対する小領域の例、第5図はエ
ッジ画像に対する小領域の例、第6図はエッジ距離特徴
算出の説明図、第7図はマスク画像の走査によるマッチ
ング処理の例、第8図は処理の流れを示すフローチャー
ト図、第9図は従来のマスクパターンマッチング法を示
す図、第10図はノイズ・変形を含んだ入力画像とのマス
クパターンマッチング例である。 1……テレビカメラ、2……AD変換部、3……入力画像
記憶部、4……エッジ画像抽出部、5……エッジ画像記
憶部、6……入力画像分割アドレス発生部、7……エッ
ジ画像分割アドレス発生部、8……平均明るさ特徴抽出
部、9……エッジ特徴抽出部、10……エッジ距離特徴抽
出部、11……画像特徴記憶部、12……マスク画像特徴記
憶部、13……マッチング処理部、14……出力端子。
FIG. 1 is an example of a block diagram of a device of the present invention, FIG. 2 is an input image example for explaining the present invention, FIG. 3 is an edge image example, FIG. 4 is a small area example for the input image, FIG. 5 is an example of a small area for an edge image, FIG. 6 is an explanatory diagram of edge distance feature calculation, FIG. 7 is an example of matching processing by scanning a mask image, and FIG. 8 is a flowchart showing a flow of processing. FIG. 9 shows a conventional mask pattern matching method, and FIG. 10 shows an example of mask pattern matching with an input image containing noise and deformation. 1 ... TV camera, 2 ... AD conversion unit, 3 ... input image storage unit, 4 ... edge image extraction unit, 5 ... edge image storage unit, 6 ... input image division address generation unit, 7 ... Edge image division address generation unit, 8 ... Average brightness feature extraction unit, 9 ... Edge feature extraction unit, 10 ... Edge distance feature extraction unit, 11 ... Image feature storage unit, 12 ... Mask image feature storage unit , 13 …… Matching processing block, 14 …… Output terminal.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】撮像装置により得られる物体の画像データ
と標準パターンをマッチングさせる方法において、該画
像データと該画像データをエッジ抽出処理することによ
り得られるエッジ画像をそれぞれ分割することにより小
領域を定め、画像データを分割して定められた小領域か
らは各小領域に含まれる画像の明るさの平均値である平
均明るさ特徴を算出し、エッジ画像を分割して定められ
た小領域からは各小領域に含まれるエッジ画像の画素で
エッジ強度があらかじめ定めた閾値以上である画素の総
数又は割合であるエッジ特徴と、該小領域からエッジ特
徴が定められた閾値以上である他の小領域までの距離で
あるエッジ距離特徴を算出し、該平均明るさ特徴、エッ
ジ特徴及びエッジ距離特徴を組合せて、あらかじめ定め
た標準パターンとの間でマッチング処理を行うことを特
徴とする画像パターンマッチング方法。
1. A method for matching image data of an object obtained by an imaging device with a standard pattern, wherein a small area is formed by dividing the image data and an edge image obtained by subjecting the image data to edge extraction processing. From the small areas defined by dividing the image data, the average brightness feature that is the average value of the brightness of the images included in each small area is calculated. Is an edge feature that is the total number or the ratio of the pixels of the edge image that are included in each small area and whose edge strength is equal to or greater than a predetermined threshold, and other small features whose edge features are greater than or equal to the defined threshold. An edge distance feature, which is the distance to the area, is calculated, and the average brightness feature, the edge feature, and the edge distance feature are combined to form a predetermined standard pattern. Image pattern matching method and performing a matching process between.
【請求項2】物体像を入力するための撮像装置、該撮像
装置より出力される画像信号をデジタル信号の画像デー
タに変換するAD変換部、画像データを記憶する入力画像
記憶部、入力画像からエッジ画像を作成するためのエッ
ジ画像抽出部、エッジ画像を記憶するためのエッジ画像
記憶部、入力画像及びエッジ画像を分割する小領域のア
ドレスを発生する画像分割アドレス発生部、小領域ごと
の平均明るさ特徴を算出するための平均明るさ特徴抽出
部、エッジ画像から小領域ごとのエッジ特徴を算出する
エッジ特徴抽出部、エッジ特徴から小領域ごとのエッジ
距離特徴を算出するためのエッジ距離特徴抽出部、入力
画像に対する平均明るさ特徴、エッジ特徴、エッジ距離
特徴を記憶するための画像特徴記憶部、あらかじめ標準
パターンとして定めたマスク画像に対する特徴量を記憶
するためのマスク画像特徴記憶部、マスク画像特徴と入
力画像から算出された画像特徴とのマッチング処理を行
なうマッチング処理部を有することを特徴とする画像パ
ターンマッチング装置。
2. An image pickup apparatus for inputting an object image, an AD conversion section for converting an image signal output from the image pickup apparatus into image data of a digital signal, an input image storage section for storing the image data, and an input image An edge image extraction unit for creating an edge image, an edge image storage unit for storing the edge image, an image division address generation unit for generating the addresses of the input image and a small region for dividing the edge image, and an average for each small region Average brightness feature extraction unit for calculating brightness feature, edge feature extraction unit for calculating edge feature for each small region from edge image, edge distance feature for calculating edge distance feature for each small region from edge feature Extraction unit, image feature storage unit for storing average brightness features, edge features, and edge distance features for the input image, preset as a standard pattern Mask image feature storage unit for storing a feature quantity with respect to the mask image, an image pattern matching apparatus characterized by having a matching unit that performs matching processing with the image features calculated from the mask image features of the input image.
JP60018600A 1985-02-04 1985-02-04 Image pattern matching method and apparatus Expired - Lifetime JPH06100448B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60018600A JPH06100448B2 (en) 1985-02-04 1985-02-04 Image pattern matching method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60018600A JPH06100448B2 (en) 1985-02-04 1985-02-04 Image pattern matching method and apparatus

Publications (2)

Publication Number Publication Date
JPS61178602A JPS61178602A (en) 1986-08-11
JPH06100448B2 true JPH06100448B2 (en) 1994-12-12

Family

ID=11976133

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60018600A Expired - Lifetime JPH06100448B2 (en) 1985-02-04 1985-02-04 Image pattern matching method and apparatus

Country Status (1)

Country Link
JP (1) JPH06100448B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043235A (en) * 2003-07-23 2005-02-17 Fuji Xerox Co Ltd Device and program for inspecting printed matter

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5842441B2 (en) * 2011-07-29 2016-01-13 ブラザー工業株式会社 Image processing apparatus and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005043235A (en) * 2003-07-23 2005-02-17 Fuji Xerox Co Ltd Device and program for inspecting printed matter

Also Published As

Publication number Publication date
JPS61178602A (en) 1986-08-11

Similar Documents

Publication Publication Date Title
US9196043B2 (en) Image processing apparatus and method
JPH11110559A (en) Method for detecting object and removing background, and record medium recorded with program
WO2010131435A1 (en) Pattern recognition apparatus and method therefor configured to recognize object and another lower-order object
JPH0521180B2 (en)
JP2010140315A (en) Object detection device
JPH10269365A (en) Characteristic extracting method, and object recognition device using the method
JP3483912B2 (en) Color discriminating apparatus and color discriminating method
JPH06100448B2 (en) Image pattern matching method and apparatus
JP2981382B2 (en) Pattern matching method
JPH1151611A (en) Device and method for recognizing position and posture of object to be recognized
JPH08329110A (en) Method for processing picture
JP3627249B2 (en) Image processing device
JPH10283478A (en) Method for extracting feature and and device for recognizing object using the same method
CN111311696A (en) License plate authenticity detection method based on hyperspectral unmixing technology
JP2020035334A (en) Image processing apparatus
JP2000270343A (en) Virtual studio system provided with identification pattern panel for composing picture, and identifying method using the panel
JPH0534117A (en) Image processing method
JPH05225336A (en) Method for extracting boundary and device therefor
JPH05328188A (en) Picture processing unit
JPH11351835A (en) Method for extracting contour line of cutting edge by processing taken image of tool
JP2000137820A (en) Image processing device and method and providing medium
CN115830304A (en) Object detection system
JP3048718B2 (en) Vertex detector
JP3025365B2 (en) Image binarization processing device
JP2007287024A (en) Region detector

Legal Events

Date Code Title Description
EXPY Cancellation because of completion of term