JPH10153407A - Measuring and processing device - Google Patents

Measuring and processing device

Info

Publication number
JPH10153407A
JPH10153407A JP8330397A JP33039796A JPH10153407A JP H10153407 A JPH10153407 A JP H10153407A JP 8330397 A JP8330397 A JP 8330397A JP 33039796 A JP33039796 A JP 33039796A JP H10153407 A JPH10153407 A JP H10153407A
Authority
JP
Japan
Prior art keywords
image
model
matching
measuring
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8330397A
Other languages
Japanese (ja)
Inventor
Toshihiko Matsumoto
俊彦 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP8330397A priority Critical patent/JPH10153407A/en
Publication of JPH10153407A publication Critical patent/JPH10153407A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To greatly improve the precision in measuring the position of an object. SOLUTION: A plurality of model picture images M1 to M3 which indicate different features of respective models are set on picture images obtained by photographing models which are objects to be measured and are registered in a model memory. At the time of measurement and processing, a control part scans each model picture image M1 to M3 on an input picture image sequentially and specifies a scanning position at which the highest correlation value has been obtained as a matching position. Furthermore, the control part calculates a coordinate of a central point O of the object by using the matching result of the model picture image M3 by which the correlation value becomes the maximum value among the matching results of each model picture image M1 to M3 .

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は、対象物を撮像して得
られた画像を入力して、その入力画像上の対象物の位置
を計測する装置に関連する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus for inputting an image obtained by imaging an object and measuring the position of the object on the input image.

【0002】[0002]

【従来の技術】例えば文字や図形などの印刷物につい
て、画像処理により印刷状態の良否を検査する装置で
は、まず観測対象となる印刷物が画像上のどの位置にあ
るかを計測した後、この計測位置に検査用のウィンドウ
を設定するなどして詳細な観測を行うようにしている。
2. Description of the Related Art In a device for inspecting the quality of a printed matter such as characters and figures by image processing, the position of a printed matter to be observed is first measured on an image, and then the measured position is measured. Detailed observations are made by setting a window for the inspection.

【0003】上記の位置計測を行うためには、あらかじ
め対象物のモデルを撮像して得られた画像からそのモデ
ルの特徴を示す画像データを抽出し、モデル画像として
メモリ内に登録する必要がある。計測処理時には、入力
された画像上に前記モデル画像を走査して各走査位置毎
にモデル画像との相関値を求めることにより、入力画像
上でモデル画像に最も類似する画像領域がこのモデル画
像に対応する領域として抽出される。この後、抽出され
た画像領域の位置データや前記モデル画像の設定条件に
基づき、中心点など対象物の所定の基準点の座標が求め
られ、計測結果として出力される。
In order to perform the above-described position measurement, it is necessary to extract image data indicating the characteristics of the model of the object in advance from an image obtained by imaging the model of the object, and register the image data in the memory as a model image. . At the time of the measurement process, by scanning the model image on the input image and obtaining a correlation value with the model image for each scanning position, an image region most similar to the model image on the input image is included in this model image. It is extracted as the corresponding area. Thereafter, based on the extracted position data of the image area and the setting conditions of the model image, the coordinates of a predetermined reference point of the object such as the center point are obtained and output as a measurement result.

【0004】図6は、前記モデル画像の登録例を示す。
図示例は、対象物のモデルを観測領域内の所定位置に位
置決めして撮像することにより得られた画像であって、
オペレータは、モニタなどに表示された画像上で、対象
物の特徴を示す画像領域Rを指定する。
FIG. 6 shows an example of registration of the model image.
The illustrated example is an image obtained by positioning the model of the target object at a predetermined position in the observation area and capturing an image.
The operator specifies an image region R indicating the feature of the target object on an image displayed on a monitor or the like.

【0005】装置内部の制御部は、この指定された画像
領域R内の画像データを抽出し、これをモデル画像Mと
してメモリ内に登録する。また同時に制御部は、画像領
域Rの所定の点(図示例では領域Rの左上頂点MP)を
モデル画像の設定位置を示すための基準点として、また
モデルの中心点MOを対象物の基準位置として、それぞ
れ特定し、これら点MP,MOの座標(xMP,yMP),
(xMO,yMO)を前記メモリ内に格納する。
[0005] A control unit inside the apparatus extracts image data in the designated image area R and registers it as a model image M in a memory. At the same time, the control unit sets a predetermined point of the image area R (upper left vertex MP of the area R in the illustrated example) as a reference point for indicating the set position of the model image, and sets the center point MO of the model as the reference position of the object. And the coordinates of these points MP and MO (x MP , y MP ),
(X MO , y MO ) is stored in the memory.

【0006】図7は、観測対象物の画像上に前記モデル
画像Mを走査した結果、モデル画像との相関値が最も高
くなった位置(以下これを「マッチング位置」という)
を示す。制御部は、このマッチング位置において、モデ
ル画像Mの基準点MPに重なる点Pの位置の座標
(xP ,yP )を抽出し、この抽出結果および前記モデ
ル画像設定時の基準点MP,中心点MOの各登録データ
を用いてつぎの(1)(2)式を実行し、対象物の中心
点Oの座標(xo ,yo )を算出する。
FIG. 7 shows a position where the correlation value with the model image becomes highest as a result of scanning the model image M on the image of the observation object (hereinafter, this position is referred to as a “matching position”).
Is shown. The control unit extracts, at the matching position, the coordinates (x P , y P ) of the position of the point P overlapping with the reference point MP of the model image M, and extracts the extraction result and the reference point MP, center at the time of setting the model image. The following equations (1) and (2) are executed using the registered data of the point MO, and the coordinates (x o , y o ) of the center point O of the object are calculated.

【0007】[0007]

【数1】 (Equation 1)

【0008】[0008]

【数2】 (Equation 2)

【0009】なお円形など曲率を有する物体が計測対象
となる場合は、通常、図8(1)に示すように、対象物
の輪郭線の一部を含むモデル画像M´が設定される。こ
のモデル画像M´によりマッチングを実施する場合、図
8(2)に示すように、このモデル画像M´の走査位置
が本来のマッチング位置(図中鎖線で示す)から径方向
aにずれると、モデル画像とは明らかに異なる画像デー
タとの比較が行われるので、得られた相関値によりこの
走査位置がマッチング位置からはずれていることを明確
に判別できる。一方、モデル画像M´の走査位置が本来
のマッチング位置から周方向bに位置ずれした場合、こ
の走査位置における画像データは正しいマッチング位置
における画像データとさほど変わらないため、正しいマ
ッチング位置を特定しにくくなる。
When an object having a curvature such as a circle is to be measured, a model image M 'including a part of the contour of the object is usually set as shown in FIG. When matching is performed using the model image M ′, as shown in FIG. 8 (2), when the scanning position of the model image M ′ is shifted in the radial direction a from the original matching position (indicated by a chain line in the figure), Since comparison with image data which is clearly different from the model image is performed, it can be clearly determined from the obtained correlation value that the scanning position is deviated from the matching position. On the other hand, if the scanning position of the model image M ′ is displaced in the circumferential direction b from the original matching position, the image data at this scanning position is not so different from the image data at the correct matching position, so that it is difficult to specify the correct matching position. Become.

【0010】このように、径方向におけるマッチング精
度に比べて周方向におけるマッチング精度が低くなるこ
とから、この種の対象物については、モデルの輪郭線に
沿う複数の位置における画像データをそれぞれモデル画
像として設定し、これらモデル画像毎のマッチング結果
を統合して位置を計測するようにしている。
As described above, since the matching accuracy in the circumferential direction is lower than the matching accuracy in the radial direction, for this type of object, image data at a plurality of positions along the contour of the model are respectively And the position is measured by integrating the matching results for each model image.

【0011】[0011]

【発明が解決しようとする課題】前記図6,7に示した
計測処理は、前記モデル画像の走査位置が対象物の対応
部分に重なったときに、最も高い相関値が得られること
を前提としたものであるが、この対応する画像領域内の
画像データに変動が生じると、この画像領域とモデル画
像との相関値が低くなってマッチング位置としての抽出
が困難になり、対象物の位置を誤認識するという問題が
生じる。
The measurement processing shown in FIGS. 6 and 7 is based on the premise that the highest correlation value is obtained when the scanning position of the model image overlaps the corresponding portion of the object. However, if the image data in the corresponding image area fluctuates, the correlation value between this image area and the model image becomes low, making it difficult to extract as a matching position. The problem of erroneous recognition arises.

【0012】図9(1)〜(3)は、モデル画像との対
応位置における画像データの変動例を示すもので、図9
(1)は対象物の特徴部分20に欠けなどの変形が生じ
た例を、図9(2)は特徴部分20が他の物体の画像2
1により隠された例を、図9(3)は背景部分にゴミな
どの画像22が含まれた例を、それぞれ示す。いずれの
事例でも、モデル画像に対応する画像領域内にモデル画
像とは異なる画像データが含まれたことにより相関値が
低下し、特徴部分20の位置をマッチング位置として抽
出できなくなる虞がある。
FIGS. 9 (1) to 9 (3) show an example of a change in image data at a position corresponding to a model image.
(1) shows an example in which deformation such as chipping has occurred in the characteristic portion 20 of the target object, and FIG. 9 (2) shows that the characteristic portion 20 is an image 2 of another object.
9 (3) shows an example in which an image 22 such as dust is included in the background portion. In any case, since the image area different from the model image is included in the image area corresponding to the model image, the correlation value is reduced, and the position of the characteristic portion 20 may not be able to be extracted as the matching position.

【0013】上記問題は複数のモデル画像を用いて計測
を実施する場合においても同様であって、いずれかのモ
デル画像に対応する画像領域内の画像データに変動が生
じた場合、最終的な計測結果にもその変動の影響が及
び、計測結果が対象物の実際の位置を正確に反映しなく
なるという問題が生じる。
[0013] The above problem is the same when the measurement is performed using a plurality of model images. If the image data in the image area corresponding to any one of the model images fluctuates, the final measurement is performed. The result is also affected by the fluctuation, and a problem arises that the measurement result does not accurately reflect the actual position of the object.

【0014】この発明は上記問題点に着目してなされた
もので、計測対象物のモデルについて、それぞれ異なる
特徴を含む複数の画像データを登録しておき、入力画像
とこれら複数個の登録モデルとの照合結果のうち適正な
結果のみを用いて対象物の位置を計測することにより、
位置計測精度を大幅に向上させることを技術課題とす
る。
The present invention has been made in view of the above-mentioned problems. For a model of a measurement object, a plurality of image data including different features are registered in advance, and an input image and a plurality of registered models are registered. By measuring the position of the object using only the correct result of the collation results,
A technical task is to significantly improve the position measurement accuracy.

【0015】[0015]

【課題を解決するための手段】請求項1の計測処理装置
は、計測対象物のモデルについて、それぞれ異なる特徴
を含む複数の画像データを前記対象物のモデル画像とし
て記憶する記憶手段と、前記入力画像上で各モデル画像
に対応する画像領域およびその領域とモデル画像との類
似度をそれぞれ抽出する抽出手段と、前記抽出手段によ
る各抽出結果のうち、所定の値以上の類似度が得られた
画像領域の位置情報を用いて前記入力画像上の対象物の
位置を計測する位置計測手段とを備えて成るものであ
る。
According to a first aspect of the present invention, there is provided a measurement processing apparatus, comprising: a storage unit for storing, as a model image of an object, a plurality of image data each including a different characteristic for a model of the object to be measured; Extraction means for extracting an image area corresponding to each model image on the image and the similarity between the area and the model image, and among the extraction results by the extraction means, a similarity of a predetermined value or more was obtained. And position measuring means for measuring the position of the object on the input image using the position information of the image area.

【0016】請求項2の計測処理装置は、上記と同様の
記憶手段および抽出手段を具備するほか、前記抽出手段
による各抽出結果のうち、類似度が最大となる画像領域
の位置情報を用いて前記入力画像上の対象物の位置を計
測する位置計測手段を備えている。
According to a second aspect of the present invention, there is provided a measurement processing apparatus including the same storage means and extraction means as described above, and using the position information of the image area having the maximum similarity among the extraction results by the extraction means. There is provided a position measuring means for measuring the position of the object on the input image.

【0017】[0017]

【作用】計測対象物のモデルについて、それぞれ異なる
特徴を含む複数のモデル画像を登録しておき、これらモ
デル画像を入力画像上に走査して各モデル画像に対応す
る画像領域およびその領域とモデル画像との類似度を抽
出する。この後、請求項1の発明では、所定の値以上の
類似度が得られた画像領域の位置情報を用いて、請求項
2の発明では、類似度が最大となる画像領域の位置情報
を用いて、それぞれ入力画像上の対象物の位置を検出す
るので、いずれかのモデル画像に正しく対応する画像領
域の位置情報を用いて、対象物の位置を正確に計測する
ことができる。
A plurality of model images each having different characteristics are registered for a model of a measurement object, and these model images are scanned on an input image, and an image region corresponding to each model image and the region and the model image Is extracted. Thereafter, in the invention of claim 1, the position information of the image region having the similarity equal to or more than the predetermined value is used, and in the invention of claim 2, the position information of the image region having the maximum similarity is used. Thus, since the position of the target on the input image is detected, the position of the target can be accurately measured by using the position information of the image area corresponding to any one of the model images.

【0018】[0018]

【実施例】図1は、この発明の一実施例にかかる計測処
理装置の構成を示す。この計測処理装置は、所定の観測
領域を撮像して得られた画像を処理して対象物がこの観
測領域内のどの位置にあるかを認識するためのもので、
テレビカメラ1(以下単に「カメラ1」という),A/
D変換部2,画像メモリ3,D/A変換部4,モニタ
5,入力部6,制御部7,モデルメモリ8,マッチング
処理部9,位置計測部10などにより構成される。
FIG. 1 shows the configuration of a measurement processing apparatus according to an embodiment of the present invention. This measurement processing device is for processing an image obtained by imaging a predetermined observation region and recognizing where in the observation region the object is located,
TV camera 1 (hereinafter simply referred to as “camera 1”), A /
It comprises a D conversion unit 2, an image memory 3, a D / A conversion unit 4, a monitor 5, an input unit 6, a control unit 7, a model memory 8, a matching processing unit 9, a position measurement unit 10, and the like.

【0019】前記カメラ1は、その撮像方向が前記観測
領域に向かうように位置決め固定されており、このカメ
ラ1からのアナログ量の画像データはA/D変換部2に
よりディジタル量に変換された後、画像メモリ3へと格
納される。このディジタル量の画像データは、制御部7
およびマッチング処理部9により読み出されるほか、D
/A変換部4によりアナログ量に復号されてモニタ5へ
と出力される。
The camera 1 is positioned and fixed so that its imaging direction is directed to the observation area. The analog image data from the camera 1 is converted into a digital amount by the A / D converter 2. , Are stored in the image memory 3. The digital amount of image data is supplied to the control unit 7.
And read by the matching processing unit 9 and D
The signal is decoded into an analog amount by the / A converter 4 and output to the monitor 5.

【0020】この計測処理装置は、カメラ1により複数
の対象物を順次撮像して、その入力画像を所定のモデル
画像と比較することにより、画像上の対象物の位置を認
識するもので、位置計測値が入力画像上での特徴部分の
欠落や背景部分の画像の変化による影響を受けないよう
に、モデルについて、それぞれ異なる特徴を含む複数の
モデル画像を設定するとともに、計測処理時には、各モ
デル画像についてのマッチング結果のうち、最も高い相
関値の得られた結果を用いて、中心点の座標を算出する
ようにしている。
This measurement processing device recognizes the position of an object on an image by sequentially capturing a plurality of objects by the camera 1 and comparing the input image with a predetermined model image. In order to prevent measurement values from being affected by missing feature parts on the input image or changes in the background part image, a plurality of model images containing different features are set for the model. The coordinates of the center point are calculated using the result of obtaining the highest correlation value among the matching results for the images.

【0021】モデルメモリ8内には、計測処理に先立ち
前記設定された各モデル画像データ,その設定時の基準
点の位置、および対象物の基準位置を示すモデルの中心
点の座標などが登録される。マッチング処理部9は、画
像メモリ3に格納された入力画像上に、前記モデルメモ
リ8に登録された各モデル画像を順次走査して、公知の
正規化相互相関演算を用いたマッチング処理を実行し、
それぞれ各モデル画像との相関値が最大となる画像領域
をそのモデル画像に対応する特徴を含む領域として抽出
する。位置計測部10は、この抽出結果,および前記モ
デルメモリ8に登録された位置データを用いて入力画像
上の対象物の中心点を算出し、その算出結果を対象物の
位置計測結果として出力する。
Prior to the measurement processing, the set model image data, the position of the reference point at the time of the setting, and the coordinates of the center point of the model indicating the reference position of the object are registered in the model memory 8. You. The matching processing unit 9 sequentially scans the model images registered in the model memory 8 on the input image stored in the image memory 3 and executes a matching process using a known normalized cross-correlation operation. ,
An image region having a maximum correlation value with each model image is extracted as a region including a feature corresponding to the model image. The position measurement unit 10 calculates the center point of the object on the input image using the extraction result and the position data registered in the model memory 8, and outputs the calculation result as the position measurement result of the object. .

【0022】図2は、モデル画像の設定例を示す。図示
例は、対象物のモデルを撮像して得られた画像の表示画
面を示すもので、オペレータがこの表示画面上でモデル
の複数の特徴部分が含まれるような画像領域R1 〜R3
を設定すると、前記制御部7は、設定された画像領域R
1 〜R3 内の画像データを個別に抽出し、それぞれモデ
ル画像M1 〜M3 としてモデルメモリ8内に格納する。
FIG. 2 shows an example of setting a model image. The illustrated example shows a display screen of an image obtained by capturing an image of a model of a target object. An image region R 1 to R 3 in which an operator includes a plurality of characteristic portions of the model on this display screen.
Is set, the control section 7 sets the set image area R
The image data in the 1 to R 3 and extracted separately, stored in the model memory 8 as a model image M 1 ~M 3 respectively.

【0023】またこのとき制御部7は、各モデル画像M
1 〜M3 の設定位置を示す基準点として画像領域R1
3 の各左上頂点MP1 〜MP3 を特定しており、これ
ら点MP1 〜MP3 の座標(xMP1 ,yMP1 ),(x
MP2 ,yMP2 ),(xMP3 ,yMP3 )をそれぞれモデル
画像M1 〜M3 に対応づけられてモデルメモリ8内に登
録する。さらに制御部7は、モデルの位置決めにかかる
入力データなどによりモデルの中心点MOの座標
(xMO,yMO)を割り出し、同様にモデルメモリ8内に
登録する。
At this time, the control unit 7 sets each model image M
1 image region R 1 ~ as a reference point indicating the set position of ~M 3
And identifies each upper left corner MP 1 to MP 3 of R 3, these points MP 1 to MP 3 coordinates (x MP1, y MP1), (x
MP2, y MP2), and registers the (x MP3, y MP3) in correspondence to the model image M 1 ~M 3 respectively in the model memory 8. Further, the control unit 7 determines the coordinates (x MO , y MO ) of the center point MO of the model based on input data relating to the positioning of the model, and similarly registers the coordinates in the model memory 8.

【0024】図3は、観測処理時の入力画像の一例を示
すもので、観測対象物の画像11のうち前記モデルM1
に対応する特徴部分11aが他の物体の画像12に隠れ
て識別できなくなっているほか、モデルM2 に対応する
特徴部分近傍の背景にゴミの画像13が含まれている。
[0024] FIG. 3 shows an example of an input image during the observation process, the model of the image 11 of the observed object M 1
Characteristic portion 11a corresponding is included other well that is no longer able to identify hidden image 12 of the object, an image 13 of background dust characterizing part near corresponding to the model M 2 in.

【0025】図4は、前記図3の入力画像を各モデル画
像M1 〜M3 とマッチング処理した結果を示す。なおこ
こでは説明を簡単にするために、各モデル画像M1 〜M
3 をそれぞれのマッチング位置に重ね合わせて配備する
とともに、そのマッチング位置の近傍に、算出された相
関値rl1〜rl3の具体的な算出値を表してある。
FIG. 4 shows the result of matching processing of the input image of FIG. 3 with each of the model images M 1 to M 3 . Note that, here, for simplicity of description, each model image M 1 to M
3 as well as deployment superimposed on each matching point in the vicinity of the matching position, is represented a specific calculation value of the calculated correlation value r l1 ~r l3.

【0026】図中P1 〜P3 は、それぞれ各モデル画像
1 〜M3 のマッチング位置において、そのモデル画像
の基準点MP1 〜MP3 に重なった点であって、これら
点P1 〜P3 の座標(xP1,yP1),(xP2,yP2),
(xP3,yP3)と各相関値rL1〜rL3とはマッチング結
果として対応づけられ、位置計測部10に出力される。
[0026] figure P 1 to P 3 are at each matching position of each model image M 1 ~M 3, be a point overlapping the reference point MP 1 to MP 3 of the model image, these points P 1 ~ P 3 coordinates (x P1, y P1), (x P2, y P2),
(X P3 , y P3 ) and each of the correlation values r L1 to r L3 are associated as a matching result and output to the position measurement unit 10.

【0027】図示例の場合、第1,第2のモデル画像M
1 ,M2 に正しく対応する画像領域内にはモデル画像と
は異なる画像データが含まれるため、これらのモデル画
像とのマッチング位置は本来の対応位置から位置ずれし
ており、しかも得られた相関値rL1,rL2はきわめて低
い値となる。
In the case of the illustrated example, the first and second model images M
1, because it contains different image data to the model image in an image region corresponding to correctly M 2, matching the position of these model images are misaligned from the original position corresponding, yet the resulting correlation The values r L1 and r L2 are extremely low.

【0028】これに対し、第3のモデル画像M3 に対応
する画像領域では、特徴部分,背景部分ともにモデル画
像と同様の画像データが保持されているので、この画像
領域の位置でマッチングが得られ、しかもその相関値r
L3は100%に近似する値となる。したがってこの場
合、第3のモデル画像M3の基準点MP3 の登録された
座標(xMP3 ,yMP3 )およびその対応点P3 の座標
(xP3,yP3),ならびに前記モデルの中心点MOの登
録された座標データ(xMO,yMO)を前記(1)(2)
式にあてはめることにより、対象物の中心点Oの位置を
最も正確に反映した座標データを得ることができる。
On the other hand, in the image area corresponding to the third model image M 3 , the image data similar to the model image is held in both the characteristic part and the background part, so that matching is obtained at the position of this image area. And the correlation value r
L3 is a value close to 100%. Therefore, in this case, the registered coordinates (x MP3 , y MP3 ) of the reference point MP 3 of the third model image M3 and the coordinates (x P3 , y P3 ) of the corresponding point P 3 and the center point MO of the model The registered coordinate data (x MO , y MO ) of (1) and (2)
By applying the equation, it is possible to obtain coordinate data that most accurately reflects the position of the center point O of the object.

【0029】このように、モデルメモリ8内にそれぞれ
異なる特徴を含む複数のモデル画像を登録しておき、各
モデル画像毎のマッチング結果のうち、最大の相関値が
得られたマッチング結果を採用することにより、最もモ
デル画像に近い画像データが保持される画像領域の位置
データを用いて高精度の計測値を得ることができる。な
お採用するマッチング結果は1つに限らず、例えば、所
定のしきい値以上の相関値が得られたマッチング結果に
ついてそれぞれ前記(1)(2)式を実行して、各算出
結果の平均値などを最終の計測結果として出力するよう
にしてもよい。また特に曲率を有する対象物の位置を計
測する際には、その径方向に複数のモデル画像を設定し
てマッチング処理を実行し、各マッチング結果のうち信
頼性の高いもののみを用いて計測処理を実施すればよ
い。
As described above, a plurality of model images each including a different feature are registered in the model memory 8, and among the matching results for each model image, the matching result with the largest correlation value is adopted. Thus, a highly accurate measurement value can be obtained using the position data of the image area in which the image data closest to the model image is held. The number of matching results to be employed is not limited to one. For example, the above-described equations (1) and (2) are executed for matching results having correlation values equal to or greater than a predetermined threshold value, and the average value of each calculation result is obtained. May be output as the final measurement result. In particular, when measuring the position of an object having a curvature, a plurality of model images are set in the radial direction, a matching process is executed, and a measurement process is performed using only a highly reliable one of the matching results. May be implemented.

【0030】図5は、円形状の物体を計測処理する際の
モデル画像の設定例を示すもので、モデルの中心点mo
を挟んでx軸方向に2個の画像領域R´1 ,R´3 が、
y軸方向にも2個の画像領域R´2 ,R´4 がそれぞれ
設定されている。これらいずれの画像領域R´1 〜R´
4 もモデルの輪郭線を含み、かつ中心点moからそれぞ
れ等しい距離だけ離れた位置に設定されるもので、これ
ら領域R´1 〜R´4内の画像データはそれぞれモデル
画像m1 〜m4 としてモデルメモリ8内に登録される。
FIG. 5 shows an example of setting a model image when a circular object is measured, and the center point mo of the model is shown.
, Two image regions R ′ 1 , R ′ 3 in the x-axis direction
Two image regions R ′ 2 and R ′ 4 are also set in the y-axis direction. Any of these image regions R ′ 1 to R ′
Reference numeral 4 also includes the contour of the model and is set at a position separated by an equal distance from the center point mo. The image data in these regions R ′ 1 to R ′ 4 are model images m 1 to m 4, respectively. Is registered in the model memory 8.

【0031】上記各モデル画像m1 〜m4 により順次マ
ッチング処理を実行した場合、いずれかのモデル画像に
対応する画像領域内の画像データに変動が生じている
と、このモデル画像のマッチング位置は、前記図4の実
施例と同様、本来の対応位置から位置ずれし、しかも得
られた相関値はきわめて低い値となる。
When the matching process is sequentially performed on each of the model images m 1 to m 4 , if the image data in the image area corresponding to any one of the model images fluctuates, the matching position of the model image becomes As in the embodiment of FIG. 4, the position is shifted from the original corresponding position, and the obtained correlation value is extremely low.

【0032】したがって位置計測部10は、各マッチン
グ処理により得られた相関値を所定のしきい値と比較
し、このしきい値以上の相関値の得られたマッチング結
果のみを用いて対象物の中心点を求めるように構成され
る。なお、前記図8により説明したように、このような
形状の対象物においては、対象物の輪郭方向におけるマ
ッチング位置よりも径方向におけるマッチング位置の方
が精度良く検出されるので、中心点moのx座標は前記
モデルm1 およびモデルm3 のマッチング結果を用い
て、y座標はモデルm2 およびモデルm4 のマッチング
結果を用いて、それぞれ算出するよう設定される。
Therefore, the position measurement unit 10 compares the correlation value obtained by each matching process with a predetermined threshold value, and uses only the matching result having a correlation value equal to or larger than the threshold value to determine the position of the target object. It is configured to determine a center point. As described with reference to FIG. 8, in a target having such a shape, the matching position in the radial direction is more accurately detected than the matching position in the contour direction of the target. The x coordinate is set to be calculated by using the matching result of the model m 1 and the model m 3 , and the y coordinate is set to be calculated by using the matching result of the model m 2 and the model m 4 .

【0033】いまモデル登録時の各画像領域R´i (i
=1,2,3,4)の基準点mpiの座標を(xmpi
mpi ),モデルの中心点moの座標を(xmo,ymo
とし、計測処理時の各マッチング位置における基準点m
i への対応点pi の座標を(xpi,ypi)とすると、
入力画像上の中心点oのx座標xo は(3)〜(5)式
のいずれかにより、y座標yo は、つぎの(6)〜
(8)式のいずれかにより、それぞれ算出される。なお
各式の前段の条件において、r1 〜r4 は、それぞれ各
モデル画像m1 〜m4 へのマッチング位置で得られた相
関値を、thは前記しきい値を、それぞれ示す。
Now, each image region R ′ i (i
= 1, 2, 3, 4), the coordinates of the reference point mp i are (x mpi ,
y mpi ) and the coordinates of the center point mo of the model are (x mo , y mo )
And the reference point m at each matching position during the measurement process
The coordinates of the corresponding points p i to p i (x pi, y pi ) When,
The x coordinate x o of the center point o on the input image is given by one of the equations (3) to (5), and the y coordinate y o is given by the following (6) to
Each is calculated by one of the equations (8). In the preceding conditions of each equation, r 1 to r 4 indicate the correlation values obtained at the matching positions to the model images m 1 to m 4 , respectively, and th indicates the threshold value.

【0034】[0034]

【数3】 (Equation 3)

【0035】[0035]

【数4】 (Equation 4)

【0036】[0036]

【数5】 (Equation 5)

【0037】[0037]

【数6】 (Equation 6)

【0038】[0038]

【数7】 (Equation 7)

【0039】[0039]

【数8】 (Equation 8)

【0040】このように信頼性の高いマッチング結果の
みを採用することにより、計測精度が大幅に向上され、
以後、この対象物の詳細な観測時にも、観測用のウィン
ドウを正確に設定して高精度の観測処理を実施すること
ができる。しかも従来の装置構成を大幅に変更する必要
がないので、装置導入にかかるコストはわずかなものと
なる。
By adopting only the highly reliable matching result, the measurement accuracy is greatly improved.
Thereafter, even at the time of detailed observation of the object, it is possible to accurately set an observation window and perform a highly accurate observation process. Moreover, since there is no need to significantly change the configuration of the conventional apparatus, the cost for introducing the apparatus is small.

【0041】[0041]

【発明の効果】この発明は上記の如く、計測対象物のモ
デルについて、それぞれ異なる特徴を含む複数の画像デ
ータを対象物のモデル画像として記憶しておき、計測処
理時に各モデル画像について対応づけて抽出された画像
領域のうち、そのモデル画像との類似度が所定の値以
上、または最大値をとる画像領域の位置情報を用いて、
入力画像上の対象物の位置を計測するようにした。これ
により入力画像データの一部に変動が生じていても対象
物の位置を正確に計測することができ、装置構成の大幅
な変更を行わずに計測精度を大幅に向上させることがで
きる。
As described above, according to the present invention, a plurality of image data including different features are stored as model images of a target object model, and the model images are associated with each other at the time of measurement processing. Among the extracted image regions, the similarity with the model image is equal to or more than a predetermined value, or using the position information of the image region having the maximum value,
The position of the object on the input image is measured. As a result, the position of the target object can be accurately measured even if a part of the input image data fluctuates, and the measurement accuracy can be greatly improved without making a significant change in the device configuration.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例にかかる計測処理装置の構
成を示すブロック図である。
FIG. 1 is a block diagram showing a configuration of a measurement processing device according to an embodiment of the present invention.

【図2】モデル画像の設定例を示す説明図である。FIG. 2 is an explanatory diagram showing a setting example of a model image.

【図3】入力画像の具体例を示す説明図である。FIG. 3 is an explanatory diagram showing a specific example of an input image.

【図4】図3の入力画像におけるマッチング処理の結果
を示す説明図である。
FIG. 4 is an explanatory diagram showing a result of a matching process on the input image of FIG. 3;

【図5】モデル画像の他の設定例を示す説明図である。FIG. 5 is an explanatory diagram showing another example of setting a model image.

【図6】従来のモデル画像の設定例を示す説明図であ
る。
FIG. 6 is an explanatory diagram showing a setting example of a conventional model image.

【図7】図6のモデル画像によるマッチング処理を示す
説明図である。
FIG. 7 is an explanatory diagram showing a matching process using the model image of FIG. 6;

【図8】曲率のある対象物に対するマッチング処理を示
す説明図である。
FIG. 8 is an explanatory diagram showing a matching process for an object having a curvature.

【図9】モデル画像への対応位置における画像データの
変動例を示す説明図である。
FIG. 9 is an explanatory diagram illustrating an example of a change in image data at a position corresponding to a model image.

【符号の説明】[Explanation of symbols]

7 制御部 8 モデルメモリ 9 マッチング処理部 10 位置計測部 M1 〜M3 ,m1 〜m4 モデル画像7 control unit 8 model memory 9 matching unit 10 position measuring unit M 1 ~M 3, m 1 ~m 4 model image

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 対象物を撮像して得られた画像を入力し
て、その入力画像上の対象物の位置を計測する装置にお
いて、 前記計測対象物のモデルについて、それぞれ異なる特徴
を含む複数の画像データを前記対象物のモデル画像とし
て記憶する記憶手段と、 前記入力画像上で各モデル画像に対応する画像領域およ
びその領域とモデル画像との類似度をそれぞれ抽出する
抽出手段と、 前記抽出手段による各抽出結果のうち、所定の値以上の
類似度が得られた画像領域の位置情報を用いて前記入力
画像上の対象物の位置を計測する位置計測手段とを備え
て成る計測処理装置。
1. An apparatus for inputting an image obtained by capturing an image of an object and measuring the position of the object on the input image, wherein a plurality of models including different characteristics are provided for the model of the object to be measured. Storage means for storing image data as a model image of the object; extraction means for extracting an image area corresponding to each model image on the input image and a similarity between the area and the model image; and the extraction means And a position measuring means for measuring the position of the object on the input image using the position information of the image area in which a similarity equal to or more than a predetermined value is obtained from the extraction results of the above.
【請求項2】 対象物を撮像して得られた画像を入力し
て、その入力画像上の対象物の位置を計測する装置にお
いて、 前記計測対象物のモデルについて、それぞれ異なる特徴
を含む複数の画像データを前記対象物のモデル画像とし
て記憶する記憶手段と、 前記入力画像上で各モデル画像に対応する画像領域およ
びその領域とモデル画像との類似度を抽出する抽出手段
と、 前記抽出手段による各抽出結果のうち、類似度が最大と
なる画像領域の位置情報を用いて前記入力画像上の対象
物の位置を計測する位置計測手段とを備えて成る計測処
理装置。
2. An apparatus for inputting an image obtained by capturing an image of an object and measuring a position of the object on the input image, wherein a plurality of models each including different features are provided for the model of the object to be measured. A storage unit that stores image data as a model image of the object; an extraction unit that extracts an image region corresponding to each model image on the input image and a similarity between the region and the model image; A measurement processing apparatus comprising: a position measurement unit that measures a position of an object on the input image using position information of an image region having a maximum similarity among the extraction results.
JP8330397A 1996-11-25 1996-11-25 Measuring and processing device Pending JPH10153407A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8330397A JPH10153407A (en) 1996-11-25 1996-11-25 Measuring and processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8330397A JPH10153407A (en) 1996-11-25 1996-11-25 Measuring and processing device

Publications (1)

Publication Number Publication Date
JPH10153407A true JPH10153407A (en) 1998-06-09

Family

ID=18232153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8330397A Pending JPH10153407A (en) 1996-11-25 1996-11-25 Measuring and processing device

Country Status (1)

Country Link
JP (1) JPH10153407A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003156311A (en) * 2001-11-20 2003-05-30 Sumitomo Heavy Ind Ltd Method and apparatus for detection and registration of alignment mark
JP2004326489A (en) * 2003-04-25 2004-11-18 Shibuya Kogyo Co Ltd Image processing method and its device
JP2009093412A (en) * 2007-10-09 2009-04-30 Fujitsu Ltd Image measurement method and image measurement device
JP2018071314A (en) * 2016-11-04 2018-05-10 株式会社奥村組 Accuracy management method of drilling hole

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003156311A (en) * 2001-11-20 2003-05-30 Sumitomo Heavy Ind Ltd Method and apparatus for detection and registration of alignment mark
JP2004326489A (en) * 2003-04-25 2004-11-18 Shibuya Kogyo Co Ltd Image processing method and its device
JP2009093412A (en) * 2007-10-09 2009-04-30 Fujitsu Ltd Image measurement method and image measurement device
JP2018071314A (en) * 2016-11-04 2018-05-10 株式会社奥村組 Accuracy management method of drilling hole

Similar Documents

Publication Publication Date Title
JP4687518B2 (en) Image processing method, three-dimensional measurement method using the method, and image processing apparatus
JP5273196B2 (en) Image processing device
JP4792824B2 (en) Motion analysis device
JP4380838B2 (en) Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program
JP4042780B2 (en) Object recognition method, object recognition program and storage medium thereof, and object recognition apparatus
JP4003465B2 (en) Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus
JP6197340B2 (en) Image processing apparatus, image processing method, and program
US9946918B2 (en) Symbol detection for desired image reconstruction
JP3372111B2 (en) Watt hour meter character recognition device
JPH10153407A (en) Measuring and processing device
JP2002140713A (en) Image processing method and image processor
JPH1196372A (en) Method and device for processing image and recording medium of control program for image processing
JP3520758B2 (en) Image recognition method
JPH01271883A (en) Detecting system for center of fingerprint
JPH07168941A (en) Picture processor
JPH01271884A (en) Detecting system for center of fingerprint
JPH11328404A (en) Image recognizing device and method therefor
JP4258340B2 (en) Pantograph detection device
JP3074691B2 (en) Character recognition device
JP2009043184A (en) Image processing method and image processor
JPH09245166A (en) Pattern matching device
JP2000193435A (en) Image processing method for object
JPH10143673A (en) Picture processor
JPH09128543A (en) Method and device for registering model image and object appearance inspecting device utilizing the same
JPH01263773A (en) Checking method for cylindrical body

Legal Events

Date Code Title Description
A621 Written request for application examination

Effective date: 20040316

Free format text: JAPANESE INTERMEDIATE CODE: A621

A977 Report on retrieval

Effective date: 20060713

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060721

A02 Decision of refusal

Effective date: 20061110

Free format text: JAPANESE INTERMEDIATE CODE: A02