JP3252574B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3252574B2
JP3252574B2 JP30119193A JP30119193A JP3252574B2 JP 3252574 B2 JP3252574 B2 JP 3252574B2 JP 30119193 A JP30119193 A JP 30119193A JP 30119193 A JP30119193 A JP 30119193A JP 3252574 B2 JP3252574 B2 JP 3252574B2
Authority
JP
Japan
Prior art keywords
image
visual field
model
coincidence
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30119193A
Other languages
Japanese (ja)
Other versions
JPH07129775A (en
Inventor
浩 中本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP30119193A priority Critical patent/JP3252574B2/en
Publication of JPH07129775A publication Critical patent/JPH07129775A/en
Application granted granted Critical
Publication of JP3252574B2 publication Critical patent/JP3252574B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、例えば物体検査シス
テムにおいて、検査の対象物を撮像して得られた画像を
処理することにより、対象物の良否などを判別するよう
にした画像処理装置に関連し、殊にこの発明は、対象物
の撮像位置が前後に位置ずれ変動しても、適正な判別処
理が可能な画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for determining the quality of an object by processing an image obtained by imaging the object to be inspected, for example, in an object inspection system. In particular, the present invention relates to an image processing apparatus capable of performing appropriate discrimination processing even if the imaging position of an object fluctuates back and forth.

【0002】[0002]

【従来の技術】例えば工場などの検査ラインでは、図1
0に示すように、検査の対象物1a,1bをべルトコン
ベヤ2で矢印方向へ搬送し、その搬送途中に設置された
テレビカメラ3により対象物1a,1bを順次撮像し、
各画像を画像処理装置4に取り込んで画像処理すること
により、各対象物1a,1bの良否を判別している。各
対象物1a,1bは、その側面に文字5が印刷されてお
り、画像処理装置4ではこの文字の画像部分の面積を計
測することにより、文字4のかすれ,にじみ,欠けなど
を検査している。
2. Description of the Related Art FIG.
As shown in FIG. 0, the objects 1a and 1b to be inspected are transported in the direction of the arrow by the belt conveyor 2, and the objects 1a and 1b are sequentially imaged by the television camera 3 installed in the middle of the transport.
The quality of each of the objects 1a and 1b is determined by taking each image into the image processing device 4 and performing image processing. Characters 5 are printed on the sides of each of the objects 1a and 1b, and the image processing device 4 measures the area of the image portion of the characters, thereby inspecting the characters 4 for blurring, blurring, chipping, and the like. I have.

【0003】図11は、他の物体検査システムを示して
おり、積層された複数の物体6を上から順次取り出して
次工程へ移行させる際に、最上位の物体6を真上からテ
レビカメラ3で撮像して、同様に文字7のかすれなどを
検査するものである。
FIG. 11 shows another object inspection system. When a plurality of stacked objects 6 are sequentially taken out from the top and moved to the next process, the top-most object 6 is taken from directly above the television camera 3. And similarly inspects the blurring of the character 7.

【0004】[0004]

【発明が解決しようとする課題】図10の検査システム
において、各対象物1a,1bがベルトコンベヤ2上の
幅方向の定位置に位置するとき、テレビカメラ3と各対
象物1a,1bとの間の距離が同一となる。いま先を行
く対象物1aが定位置に位置し、これに続く対象物1b
が定位置より後方に位置していると仮定すると、テレビ
カメラ3には後続の対象物1bは先を行く対象物1aよ
り小さく映ることになる。その結果、文字の画像部分の
面積は本来の値より小さくなり、画像処理装置4はこの
対象物1bが良品であるにもかかわらず、不良品である
と判断する。
In the inspection system shown in FIG. 10, when each of the objects 1a and 1b is located at a fixed position in the width direction on the belt conveyor 2, the television camera 3 and each of the objects 1a and 1b are connected to each other. The distance between them becomes the same. The object 1a going ahead is located at a fixed position, and the object 1b following this
Is located behind the home position, the subsequent object 1b appears smaller on the television camera 3 than the preceding object 1a. As a result, the area of the image portion of the character becomes smaller than the original value, and the image processing device 4 determines that the target object 1b is defective although it is good.

【0005】図11の検査システムでは、積層された複
数の物体6を上から順次取り出す毎に、テレビカメラ3
から最上位の物体6aまでの距離が常に変動するもの
で、これでは文字の画像部分の面積が距離の変動に応じ
て変動し、適正なこの種の検査は不可能である。
In the inspection system shown in FIG. 11, each time a plurality of stacked objects 6 are sequentially taken out from above, the television camera 3
In this case, the distance from the object to the uppermost object 6a always fluctuates. In this case, the area of the image portion of the character fluctuates in accordance with the fluctuation of the distance, so that this type of inspection cannot be performed properly.

【0006】この発明は、上記問題に着目してなされた
もので、対象物の撮像位置が前後に変動しても、対象物
の良否などを正しく判別できる画像処理装置を提供する
ことを目的とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and has as its object to provide an image processing apparatus capable of correctly determining the quality of an object even if the imaging position of the object fluctuates back and forth. I do.

【0007】[0007]

【課題を解決するための手段】この発明の画像処理装置
は、基準位置にある対象物のモデルを撮像して得られた
画像中の部分画像を抽出してその画像サイズを変更する
変更手段と、対象物を撮像して得られた入力画像と前記
部分画像および前記変更手段で得られた各画像との一致
度をそれぞれ計測する一致度計測手段と、前記一致度計
測手段で計測された各画像についての一致度からモデル
の撮像位置と対象物の撮像位置との位置関係を算出する
演算手段とを備えており、前記一致度計測手段は、入力
画像を前記部分画像および前記変更手段で得られた各画
像によりそれぞれ走査して各画素位置毎に正規化相関値
を計測した後、その正規化相関値の最大値を前記一致度
としてそれぞれ求めるようにしている。
An image processing apparatus according to the present invention comprises: a changing unit for extracting a partial image in an image obtained by capturing an image of a model of an object at a reference position and changing the image size; A coincidence measurement unit that measures the degree of coincidence between the input image obtained by imaging the object, the partial image, and each image obtained by the change unit, and each of the coincidences measured by the coincidence measurement unit. Calculating means for calculating the positional relationship between the imaging position of the model and the imaging position of the object from the degree of coincidence of the images, wherein the degree of coincidence measuring means obtains an input image with the partial image and the changing means. After scanning each of the obtained images and measuring a normalized correlation value for each pixel position, the maximum value of the normalized correlation values is obtained as the degree of coincidence.

【0008】請求項2の画像処理装置では、前記演算手
段は、モデルの撮像位置と対象物の撮像位置との位置関
係としてモデルのカメラ視野と対象物のカメラ視野との
視野比を算出している。
According to a second aspect of the present invention, the arithmetic means calculates a visual field ratio between a camera field of view of the model and a camera field of view of the object as a positional relationship between the image capturing position of the model and the image capturing position of the object. I have.

【0009】請求項3の画像処理装置では、前記演算手
段は、モデルの撮像位置と対象物の撮像位置との位置関
係としてモデルのカメラ視野と対象物のカメラ視野との
視野比を算出した後、その視野比を用いて対象物の撮像
位置までの距離を算出するようにしている。
In the image processing apparatus according to a third aspect of the present invention, the calculating means calculates a visual field ratio between the camera visual field of the model and the visual field of the object as a positional relationship between the image capturing position of the model and the image capturing position of the object. Then, the distance to the imaging position of the object is calculated using the visual field ratio.

【0010】請求項4の画像処理装置では、前記演算手
段は、モデルの撮像位置と対象物の撮像位置との位置関
係としてモデルのカメラ視野と対象物のカメラ視野との
視野比を算出した後、その視野比を用いて対象物の撮像
位置までの距離を算出して、その算出値を撮像装置の焦
点距離調整機構へフィードバックしている。
In the image processing apparatus according to a fourth aspect of the present invention, the calculating means calculates a visual field ratio between a camera visual field of the model and a camera visual field of the object as a positional relationship between the image capturing position of the model and the image capturing position of the object. Then, the distance to the imaging position of the object is calculated using the visual field ratio, and the calculated value is fed back to the focal length adjustment mechanism of the imaging device.

【0011】[0011]

【作用】対象物の入力画像とモデルの画像の部分画像お
よび画像サイズが変更された各画像との一致度を正規化
相関値を計測することによりそれぞれ計測し、各画像に
ついての一致度からモデルの撮像位置と対象物の撮像位
置との位置関係を例えば視野比として算出するので、対
象物の撮像位置が前後に変動しても、前記位置関係に基
づき対象物の良否などを正しく判別できる。
The degree of coincidence between the input image of the object, the partial image of the model image, and each image whose image size has been changed is measured by measuring the normalized correlation value, and the model is determined from the degree of coincidence for each image. Since the positional relationship between the imaging position of the object and the imaging position of the object is calculated, for example, as a visual field ratio, even if the imaging position of the object fluctuates back and forth, it is possible to correctly determine the quality of the object based on the positional relationship.

【0012】請求項3では、前記視野比を算出した後、
その視野比を用いて対象物の撮像位置までの距離を算出
するので、この画像処理装置を測距分野へ応用すること
が可能となる。
In the third aspect, after calculating the visual field ratio,
Since the distance to the imaging position of the object is calculated using the visual field ratio, this image processing device can be applied to the field of distance measurement.

【0013】請求項4では、前記視野比を用いて対象物
の撮像位置までの距離を算出して、その算出値を撮像装
置の焦点距離調整機構へフィードバックするので、撮像
装置に自動焦点調節機能を付与できる。
According to a fourth aspect of the present invention, the distance to the image pickup position of the object is calculated using the visual field ratio, and the calculated value is fed back to the focal length adjusting mechanism of the image pickup apparatus. Can be given.

【0014】[0014]

【実施例】図1は、この発明の一実施例である画像処理
装置9の構成例を示す。同図に示されるテレビカメラ8
は、検査の対象物17や対象物のモデル16を撮像して
濃淡画像を生成する。対象物のモデル16は、基準位
置、例えば対象物17のテレビカメラ8に対する位置が
変動する範囲Sの中間位置に位置決めした上でその撮像
が行われる。
FIG. 1 shows an example of the configuration of an image processing apparatus 9 according to an embodiment of the present invention. TV camera 8 shown in FIG.
Captures an object 17 to be inspected and a model 16 of the object to generate a grayscale image. The object model 16 is imaged after being positioned at a reference position, for example, an intermediate position of a range S in which the position of the object 17 with respect to the television camera 8 varies.

【0015】前記画像処理装置9は、フレームメモリ1
0,複数対の一致度演算部11およびモデルメモリ1
2,CPU13,ROM14,RAM15を構成として
含んでおり、前記フレームメモリ10にはテレビカメラ
8より与えられる1フレーム分の濃淡画像が格納され
る。このフレームメモリ10に格納されたモデル16の
濃淡画像はCPU13に取り込まれ、CPU13はその
濃淡画像中の部分画像を抽出すると共に、この部分画像
を相似形で拡大および縮小処理し、複数個の拡大画像と
縮小画像とを生成する。
The image processing device 9 includes a frame memory 1
0, a plurality of pairs of coincidence calculation units 11 and a model memory 1
2, a CPU 13, a ROM 14, and a RAM 15 as components, and the frame memory 10 stores a gray-scale image for one frame given from the television camera 8. The grayscale image of the model 16 stored in the frame memory 10 is taken into the CPU 13, and the CPU 13 extracts a partial image from the grayscale image, enlarges and reduces the partial image in a similar form, and performs a plurality of enlargement. Generate an image and a reduced image.

【0016】この実施例では、図10に示される対象物
1a,1bのモデルを撮像して得られた画像より文字M
の領域の画像を部分画像として抽出しており、図2に、
この文字Mの部分画像20から2個の拡大画像21,2
2と2個の縮小画像23,24とを生成する過程が示し
てある。この部分画像20は文字の画像部分(図中、斜
線で示す領域)の縦サイズがLであり、この部分画像2
0を拡大処理した得られた第1の拡大画像21は文字の
画像部分の縦サイズがL+ΔLである。第2の拡大画像
22は第1の拡大画像21を拡大処理して得られるもの
で、文字の画像部分の縦サイズはL+2ΔLである。前
記部分画像20を縮小処理した得られた第1の縮小画像
23は文字の画像部分の縦サイズはL−ΔLであり、こ
の第1の縮小画像23を縮小処理して得られた第2の縮
小画像24は文字の画像部分の縦サイズがL−2ΔLで
ある。
In this embodiment, a character M is obtained from an image obtained by imaging the model of the object 1a or 1b shown in FIG.
Is extracted as a partial image, and FIG.
From the partial image 20 of the character M, two enlarged images 21 and
The process of generating two and two reduced images 23 and 24 is shown. In this partial image 20, the vertical size of the image portion of the character (the area shown by hatching in the figure) is L, and this partial image 2
In the first enlarged image 21 obtained by enlarging 0, the vertical size of the character image portion is L + ΔL. The second enlarged image 22 is obtained by enlarging the first enlarged image 21, and the vertical size of the image portion of the character is L + 2ΔL. The first reduced image 23 obtained by reducing the partial image 20 has a vertical size of a character image portion of L-ΔL, and the second reduced image 23 obtained by reducing the first reduced image 23 is obtained. In the reduced image 24, the vertical size of the image portion of the character is L-2ΔL.

【0017】上記した部分画像20と第1,第2の各拡
大画像21,22と第1,第2の各縮小画像23,24
(以下、これらを「モデル画像」と総称する)はCPU
13により各モデルメモリ12に個別に格納される。各
一致度演算部11は、フレームメモリ10に格納された
検査の対象物17の濃淡画像(以下「入力画像」とい
う)と各モデルメモリ12に格納されたモデル画像との
一致度をそれぞれ計測する。
The above-described partial image 20, first and second enlarged images 21, 22 and first and second reduced images 23, 24
(Hereinafter, these are collectively referred to as “model images”).
13 is stored in each model memory 12 individually. Each of the coincidence calculation units 11 measures the degree of coincidence between a gray image (hereinafter referred to as an “input image”) of the inspection object 17 stored in the frame memory 10 and a model image stored in each model memory 12. .

【0018】図3は、一致度計測方法の具体例を示して
いる。同図中、25は入力画像、26はモデル画像であ
って、この入力画像25をモデル画像26によりラスタ
ー走査して各画素位置毎に正規化相関値を計測した後、
その正規化相関値の最大値を前記一致度としてそれぞれ
求める。いま入力画像25をf(i,j)で表し、モデ
ル画像26をg(i,j)で表すと、その正規化相関値
γは、領域内の画素数をNとすると、一般に次式で与え
られる。
FIG. 3 shows a specific example of the coincidence measuring method. In the figure, reference numeral 25 denotes an input image, and 26 denotes a model image. After the input image 25 is raster-scanned by the model image 26 and a normalized correlation value is measured for each pixel position,
The maximum value of the normalized correlation value is obtained as the degree of coincidence. Now, if the input image 25 is represented by f (i, j) and the model image 26 is represented by g (i, j), the normalized correlation value γ is generally expressed by the following equation, where N is the number of pixels in the area. Given.

【0019】[0019]

【数1】 (Equation 1)

【0020】かくしてモデル画像26の走査位置を
(I,J)とすると、この走査位置を入力画像26の座
標上で変化させながら、次式により正規化相関値γIJ
求め、その最大値を一致度として求めることになる。
Assuming that the scanning position of the model image 26 is (I, J), a normalized correlation value γ IJ is obtained by the following equation while changing the scanning position on the coordinates of the input image 26, and the maximum value is obtained. It will be obtained as the degree of coincidence.

【0021】[0021]

【数2】 (Equation 2)

【0022】各一致度演算部11で算出された一致度は
CPU13に取り込まれ、CPU13はこれら一致度か
ら対象物のモデル16の撮像位置と対象物17の撮像位
置との位置関係を表す値として、前記モデル16のカメ
ラ視野と対象物17のカメラ視野との視野比を算出す
る。
The coincidence calculated by each of the coincidence calculators 11 is taken into the CPU 13, and the CPU 13 uses the coincidence as a value representing the positional relationship between the imaging position of the object model 16 and the imaging position of the object 17. Then, the visual field ratio between the camera visual field of the model 16 and the camera visual field of the object 17 is calculated.

【0023】図4(1)は、モデル16についてのカメ
ラ視野(N1 ×N1 )を、図4(2)は、対象物17に
ついてのカメラ視野(N2 ×N2 )を、それぞれ示すも
ので、この場合、視野比はN2 /N1 となる。図示例の
場合、対象物17とテレビカメラ8との距離はモデル1
6とテレビカメラ8との距離より大きいため、カメラ視
野が広がり、対象物17に表示された文字は小さく観測
されることになる。
FIG. 4A shows the camera field of view (N 1 × N 1 ) for the model 16, and FIG. 4B shows the camera field of view (N 2 × N 2 ) for the object 17. In this case, the visual field ratio is N 2 / N 1 . In the illustrated example, the distance between the object 17 and the television camera 8 is the model 1
Since the distance between the camera 6 and the television camera 8 is larger, the field of view of the camera is widened, and the characters displayed on the object 17 are observed to be small.

【0024】図5は、前記視野比の算出方法を示す。同
図は、各モデル画像における文字の画像部分の縦サイズ
と一致度との関係を点P1 〜P5 でプロットしたもので
あり、各点をラグランジュの多項式により近似して補間
すると、同図の曲線30が得られる。この曲線30の場
合、文字の画像部分の縦サイズがL−2ΔLとL−ΔL
との中点、すなわちL−1.5ΔLのとき、一致度が最
大になるので、入力画像における文字の画像部分の縦サ
イズL−1.5ΔLを前記した部分画像20における文
字の画像部分の縦サイズLで割ることにより視野比が得
られる。
FIG. 5 shows a method of calculating the visual field ratio. The figure plots the relationship between the vertical size of the image portion of the character in each model image and the degree of coincidence at points P 1 to P 5. When each point is approximated by Lagrangian polynomial and interpolated, Is obtained. In the case of the curve 30, the vertical size of the image portion of the character is L-2ΔL and L-ΔL.
When L-1.5ΔL is the middle point, the coincidence is maximized. Therefore, the vertical size L-1.5ΔL of the character image portion in the input image is set to the vertical size of the character image portion in the partial image 20 described above. The field ratio can be obtained by dividing by the size L.

【0025】図6は、上記した画像処理装置9による処
理手順を示しており、同図のステップ1(図中「ST
1」で示す)で基準位置のモデル16を撮像して得られ
た1フレーム分の濃淡画像をフレームメモリ10に取り
込み、つぎのステップ2でCPU13はその濃淡画像中
の部分画像20を抽出すると共に、この部分画像20を
拡大処理して拡大画像21,22を、また縮小処理して
縮小画像23,24を、それぞれ生成し、これら部分画
像20,拡大画像21,22,縮小画像23,24をモ
デル画像として各モデルメモリ12に個別に格納する。
FIG. 6 shows a processing procedure by the image processing apparatus 9 described above, and corresponds to step 1 in FIG.
1)), the grayscale image of one frame obtained by imaging the model 16 at the reference position is taken into the frame memory 10, and in the next step 2, the CPU 13 extracts the partial image 20 in the grayscale image and The partial image 20 is enlarged to generate enlarged images 21 and 22, and the reduced image is generated to generate reduced images 23 and 24. These partial images 20, enlarged images 21 and 22, and reduced images 23 and 24 are generated. It is individually stored in each model memory 12 as a model image.

【0026】つぎのステップ3では、対象物17を撮像
した得られた1フレーム分の濃淡画像、すなわち入力画
像をフレームメモリ10に取り込み、つぎのステップ4
で各一致度演算部11において、前記フレームメモリ1
0に格納された入力画像と、各モデルメモリ12に格納
されたモデル画像との一致度を計測する。つぎのステッ
プ4では、CPU13は各一致度演算部11より一致度
の算出結果を取り込み、ステップ5でこれらからモデル
16のカメラ視野と対象物17のカメラ視野との視野比
を算出する。
In the next step 3, the obtained one-frame gray-scale image of the object 17, that is, the input image is fetched into the frame memory 10, and the next step 4
In each coincidence calculation unit 11, the frame memory 1
The degree of coincidence between the input image stored in 0 and the model image stored in each model memory 12 is measured. In the next step 4, the CPU 13 takes in the calculation results of the coincidence from the respective coincidence calculators 11, and in step 5, calculates the visual field ratio between the camera visual field of the model 16 and the camera visual field of the object 17 therefrom.

【0027】上記実施例の画像処理装置9では、入力画
像と各モデル画像との一致度の計測を並列して実施して
いるが、これに限らず、部分画像を拡大または縮小しつ
つ入力画像との一致度を計測するという直列的な処理を
行ってもよい。図7は、このような直列的な処理方法を
行うための画像処理装置9の構成を示すもので、フレー
ムメモリ10,CPU13,ROM14,RAM15で
構成されている。この実施例によれば、前記の実施例と
比較して処理時間は長くかかるが、回路構成は簡易とな
る。
In the image processing apparatus 9 of the above embodiment, the measurement of the degree of coincidence between the input image and each model image is performed in parallel. However, the present invention is not limited to this. May be performed in series. FIG. 7 shows a configuration of an image processing apparatus 9 for performing such a serial processing method, and is composed of a frame memory 10, a CPU 13, a ROM 14, and a RAM 15. According to this embodiment, the processing time is longer than that of the above embodiment, but the circuit configuration is simplified.

【0028】図8は、図7の画像処理装置9による処理
手順を示しており、同図のステップ1で基準位置のモデ
ル16を撮像して得られた1フレーム分の濃淡画像をフ
レームメモリ10に取り込み、つぎのステップ2でCP
U13はその濃淡画像中の部分画像20を抽出してその
画像データをRAM15に転送する。
FIG. 8 shows a processing procedure performed by the image processing apparatus 9 shown in FIG. 7, and a gray scale image for one frame obtained by imaging the model 16 at the reference position in step 1 of FIG. In the next step 2
U 13 extracts the partial image 20 in the gray image and transfers the image data to the RAM 15.

【0029】つぎのステップ3では、対象物17を撮像
した得られた1フレーム分の濃淡画像、すなわち入力画
像をフレームメモリ10に取り込む。つぎにステップ
4,5において、CPU13は前記RAM15内の部分
画像を拡大または縮小処理して拡大画像または縮小画像
を生成し、この拡大画像または縮小画像と前記フレーム
メモリ10に格納された入力画像との一致度を計測す
る。同様の手順をモデル画像数だけ繰り返し実行する
と、つぎのステップ6が「YES」となってステップ7
へ進み、CPU13は、全ての一致度の算出結果からモ
デル16のカメラ視野と対象物17のカメラ視野との視
野比を前記の図5の説明のように算出する。
In the next step 3, one frame of the obtained gray-scale image of the object 17, ie, the input image, is loaded into the frame memory 10. Next, in steps 4 and 5, the CPU 13 enlarges or reduces the partial image in the RAM 15 to generate an enlarged image or a reduced image, and compares the enlarged image or the reduced image with the input image stored in the frame memory 10. Is measured. When the same procedure is repeatedly executed for the number of model images, the next step 6 becomes “YES” and step 7
Then, the CPU 13 calculates the visual field ratio between the camera visual field of the model 16 and the camera visual field of the object 17 from the calculation results of all the degrees of coincidence as described with reference to FIG.

【0030】つぎに図9に示すように、いま対象物のモ
デル16についてのカメラ視野の一辺の長さをS1、対
象物17についてのカメラ視野の一辺の長さをS2とす
ると、テレビカメラ8とモデル16との間の距離D1お
よびテレビカメラ8と対象物17との間の距離D2は次
式で与えらる。なお(3) (4) 式中、α, βは定数であ
る。
Next, as shown in FIG. 9, assuming that the length of one side of the camera view of the object model 16 is S1 and the length of one side of the camera view of the object 17 is S2, the television camera 8 D1 between the camera and the model 16 and distance D2 between the television camera 8 and the object 17 are given by the following equations. In the equations (3) and (4), α and β are constants.

【0031】[0031]

【数3】 (Equation 3)

【0032】[0032]

【数4】 (Equation 4)

【0033】(4) 式において、モデル16のカメラ視野
S1が既知であるから、対象物17のカメラ視野S2
は、画像処理装置9で算出される視野比を用いて求まる
から、対象物17までの距離D2は(4) 式により容易に
算出でき、測距分野への応用が可能である。またこの対
象物17までの距離D2をテレビカメラ8へフィードバ
ックして、焦点距離調整機構を制御するようにすれば、
自動焦点調整機能を付与できる。
In equation (4), since the camera field of view S1 of the model 16 is known, the camera field of view S2 of the object 17 is known.
Is obtained by using the visual field ratio calculated by the image processing device 9, the distance D2 to the object 17 can be easily calculated by the equation (4), and can be applied to the field of distance measurement. If the distance D2 to the object 17 is fed back to the television camera 8 to control the focal length adjusting mechanism,
An automatic focus adjustment function can be provided.

【0034】[0034]

【発明の効果】この発明は上記の如く、対象物の入力画
像とモデルの画像の部分画像および画像サイズが変更さ
れた各画像との一致度をそれぞれ計測し、各画像につい
ての一致度からモデルの撮像位置と対象物の撮像位置と
の位置関係を算出するようにしたから、対象物の撮像位
置が前後に変動しても、前記位置関係に基づき対象物の
良否などを正しく判別できる。
As described above, the present invention measures the degree of coincidence between an input image of an object, a partial image of a model image, and each image whose image size has been changed, and determines the model based on the degree of coincidence for each image. Since the positional relationship between the imaging position of the object and the imaging position of the object is calculated, even if the imaging position of the object fluctuates back and forth, the quality of the object can be correctly determined based on the positional relationship.

【0035】また請求項4では、モデルの撮像位置と対
象物の撮像位置との位置関係としてモデルのカメラ視野
と対象物のカメラ視野との視野比を算出した後、その視
野比を用いて対象物の撮像位置までの距離を算出するよ
うにしたから、この画像処理装置を測距分野へ応用する
ことが可能である。さらに請求項5では、前記視野比を
用いて対象物の撮像位置までの距離を算出して、その算
出値を撮像装置の焦点距離調整機構へフィードバックす
るから、撮像装置に自動焦点調節機能を付与できるとい
う効果がある。
According to a fourth aspect of the present invention, the visual field ratio between the camera field of view of the model and the camera visual field of the object is calculated as the positional relationship between the image capturing position of the model and the image capturing position of the object. Since the distance to the imaging position of the object is calculated, this image processing device can be applied to the field of distance measurement. Further, in claim 5, the distance to the imaging position of the target object is calculated using the visual field ratio, and the calculated value is fed back to the focal length adjustment mechanism of the imaging device. There is an effect that can be.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例である画像処理装置の構成
例を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus according to an embodiment of the present invention.

【図2】部分画像から拡大画像および縮小画像を生成す
る過程を示す説明図である。
FIG. 2 is an explanatory diagram showing a process of generating an enlarged image and a reduced image from a partial image.

【図3】一致度計測方法の具体例を示す説明図である。FIG. 3 is an explanatory diagram showing a specific example of a matching degree measuring method.

【図4】モデルのカメラ視野と対象物のカメラ視野とを
示す説明図である。
FIG. 4 is an explanatory diagram showing a camera visual field of a model and a camera visual field of an object.

【図5】視野比の算出方法を示す説明図である。FIG. 5 is an explanatory diagram showing a method of calculating a visual field ratio.

【図6】画像処理装置の処理手順を示すフローチャート
である。
FIG. 6 is a flowchart illustrating a processing procedure of the image processing apparatus.

【図7】画像処理装置の他の実施例を示すブロック図で
ある。
FIG. 7 is a block diagram illustrating another embodiment of the image processing apparatus.

【図8】図7の実施例の処理手順を示すフローチャート
である。
FIG. 8 is a flowchart showing a processing procedure of the embodiment of FIG. 7;

【図9】距離測定方法を示す説明図である。FIG. 9 is an explanatory diagram showing a distance measuring method.

【図10】物体検査システムの概要を示す斜面図であ
る。
FIG. 10 is a perspective view showing an outline of the object inspection system.

【図11】他の物体検査システムの概要を示す斜面図で
ある。
FIG. 11 is a perspective view showing an outline of another object inspection system.

【符号の説明】[Explanation of symbols]

8 テレビカメラ 9 画像処理装置 11 一致度演算部 12 モデルメモリ 13 CPU Reference Signs List 8 TV camera 9 Image processing device 11 Matching degree calculation unit 12 Model memory 13 CPU

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 G01B 11/00 - 11/30 G06T 1/00 ──────────────────────────────────────────────────続 き Continued on the front page (58) Field surveyed (Int.Cl. 7 , DB name) G06T 7 /00-7/60 G01B 11/00-11/30 G06T 1/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 基準位置にある対象物のモデルを撮像し
て得られた画像中の部分画像を抽出してその画像サイズ
を変更する変更手段と、 対象物を撮像して得られた入力画像と前記部分画像およ
び前記変更手段で得られた各画像との一致度をそれぞれ
計測する一致度計測手段と、 前記一致度計測手段で計測された各画像についての一致
度からモデルの撮像位置と対象物の撮像位置との位置関
係を算出する演算手段とを備え、 前記一致度計測手段は、入力画像を前記部分画像および
前記変更手段で得られた各画像によりそれぞれ走査して
各画素位置毎に正規化相関値を計測した後、その正規化
相関値の最大値を前記一致度としてそれぞれ求めるよう
にした画像処理装置。
1. A changing means for extracting a partial image in an image obtained by imaging a model of an object at a reference position and changing the image size, and an input image obtained by imaging the object. Measuring means for measuring a degree of coincidence between each of the images obtained by the partial image and the changing means, and an image pickup position of a model and an object based on the degree of coincidence of each image measured by the degree of coincidence measuring means. Calculating means for calculating a positional relationship with an imaging position of an object, wherein the coincidence measuring means scans the input image with each of the images obtained by the partial image and the changing means, and scans the input image for each pixel position. An image processing apparatus which measures a normalized correlation value, and then calculates a maximum value of the normalized correlation value as the degree of coincidence.
【請求項2】 前記演算手段は、モデルの撮像位置と対
象物の撮像位置との位置関係としてモデルのカメラ視野
と対象物のカメラ視野との視野比を算出している請求項
1に記載された画像処理装置。
2. The apparatus according to claim 1, wherein the calculating means calculates a visual field ratio between a camera visual field of the model and a camera visual field of the object as a positional relationship between the image capturing position of the model and the image capturing position of the object. Image processing device.
【請求項3】 前記演算手段は、モデルの撮像位置と対
象物の撮像位置との位置関係としてモデルのカメラ視野
と対象物のカメラ視野との視野比を算出した後、その視
野比を用いて対象物の撮像位置までの距離を算出するよ
うにした請求項1に記載された画像処理装置。
3. The calculating means calculates a visual field ratio between a camera visual field of the model and a visual field of the object as a positional relationship between the image capturing position of the model and the image capturing position of the object, and then uses the visual field ratio. The image processing apparatus according to claim 1, wherein a distance to an imaging position of the object is calculated.
【請求項4】 前記演算手段は、モデルの撮像位置と対
象物の撮像位置との位置関係としてモデルのカメラ視野
と対象物のカメラ視野との視野比を算出した後、その視
野比を用いて対象物の撮像位置までの距離を算出して、
その算出値を撮像装置の焦点距離調整機構へフィードバ
ックするようにした請求項1に記載された画像処理装
置。
4. The calculating means calculates a visual field ratio between a camera visual field of the model and a camera visual field of the object as a positional relationship between the image capturing position of the model and the image capturing position of the object, and then uses the visual field ratio. Calculate the distance to the imaging position of the object,
2. The image processing apparatus according to claim 1, wherein the calculated value is fed back to a focal length adjusting mechanism of the imaging apparatus.
JP30119193A 1993-11-05 1993-11-05 Image processing device Expired - Fee Related JP3252574B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30119193A JP3252574B2 (en) 1993-11-05 1993-11-05 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30119193A JP3252574B2 (en) 1993-11-05 1993-11-05 Image processing device

Publications (2)

Publication Number Publication Date
JPH07129775A JPH07129775A (en) 1995-05-19
JP3252574B2 true JP3252574B2 (en) 2002-02-04

Family

ID=17893876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30119193A Expired - Fee Related JP3252574B2 (en) 1993-11-05 1993-11-05 Image processing device

Country Status (1)

Country Link
JP (1) JP3252574B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007141880A1 (en) * 2006-06-09 2007-12-13 Fujitsu Limited Fingerprint authentication system, fingerprint authentication method, and fingerprint authentication program

Also Published As

Publication number Publication date
JPH07129775A (en) 1995-05-19

Similar Documents

Publication Publication Date Title
US6968074B1 (en) Image processing device, image processing method, and storage medium
US20070053583A1 (en) Image correcting apparatus, pattern inspection apparatus, and image correcting method, and reticle
US6668070B2 (en) Image processing device, image processing method, and storage medium
JP3252574B2 (en) Image processing device
JP2021022028A (en) Image processing system, image processing method and image processing program
JPH0745504A (en) Focusing position detecting method
JP3127598B2 (en) Method for extracting density-varying constituent pixels in image and method for determining density-fluctuation block
JP4560969B2 (en) Defect inspection method
JP2961140B2 (en) Image processing method
JP2002267427A (en) Method and device for measuring outer shape of honeycomb structure
JP3015325B2 (en) Streak inspection method and device
JP2841961B2 (en) Visual recognition device
JPH08285550A (en) Instrument for measuring-steel plate displacement
JPH0735699A (en) Method and apparatus for detecting surface defect
JP3223385B2 (en) Pattern matching device for grayscale images
JPH01315884A (en) Pattern tracking method
JPH0310107A (en) Inspecting method utilizing gradation pattern matching
JP2880041B2 (en) Edge detection method
JPH0922466A (en) Method for preparing background image and image processor
JP3111434B2 (en) Image processing device
JP2879357B2 (en) Shape judgment method
JPH07220076A (en) Image processing device
JPH08334476A (en) Method and device for setting inspection area and inspection device using the same
JP3038176B2 (en) Inspection equipment by pattern matching
JPH0894352A (en) Distance measuring instrument

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees