JPH07200828A - Reference position deciding method for model image of position measuring device applying image processing - Google Patents

Reference position deciding method for model image of position measuring device applying image processing

Info

Publication number
JPH07200828A
JPH07200828A JP5351573A JP35157393A JPH07200828A JP H07200828 A JPH07200828 A JP H07200828A JP 5351573 A JP5351573 A JP 5351573A JP 35157393 A JP35157393 A JP 35157393A JP H07200828 A JPH07200828 A JP H07200828A
Authority
JP
Japan
Prior art keywords
image data
model
model image
reference position
window
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5351573A
Other languages
Japanese (ja)
Other versions
JP3328667B2 (en
Inventor
Shiro Fujieda
紫朗 藤枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP35157393A priority Critical patent/JP3328667B2/en
Publication of JPH07200828A publication Critical patent/JPH07200828A/en
Application granted granted Critical
Publication of JP3328667B2 publication Critical patent/JP3328667B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To measure accurate position of a subject of measurement. CONSTITUTION:The gray level image data obtained by photographing a model are stored in an image memory 13, and a model image shown by the gray level image data is displayed on a monitor 16. The gray level image data included in a window designated by an operator are registered as the model image data. The reference position of the registered model image data is calculated in a unit lower than the rank of a pixel. The gray level image data acquired by photographing a subject of measurement are stored in the memory 13, the measuring subject image data are scanned by a window including the model image data, and the normalized correlation value is calculated. Based on this correlation value, a window position of the largest degree of coincidence is calculated in a unit lower than the rank of a pixel. Then, the position of the subject of measurement is calculated based on the reference position of the window, the reference position of the model image and the window position, respectively.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【技術分野】この発明は,画像処理による位置計測装置
におけるモデル画像の基準位置決定方法に関する。
TECHNICAL FIELD The present invention relates to a method for determining a reference position of a model image in a position measuring device by image processing.

【0002】[0002]

【背景技術】画像処理による位置計測装置として以下の
ようなものが知られている。
BACKGROUND ART The following is known as a position measuring device by image processing.

【0003】モデルを撮像して得られるモデル画像デー
タと,モデルを表す画像の基準位置をあらかじめ登録し
ておく。計測対象を撮像することにより得られる対象画
像データを,モデル画像データを含むウインドウにより
走査し,ウインドウの各位置でモデル画像データと対象
画像データとの合致度に関する演算を行う。最も合致度
の高い対象画像データ上におけるウインドウ位置を見つ
ける。モデル画像の基準位置と,モデル画像データを含
むウインドウの基準位置と,見つけた対象画像データ上
におけるウインドウ位置とに基づいて,モデル画像デー
タの基準位置に対応する計測対象の計測位置を算出す
る。
Model image data obtained by picking up an image of a model and a reference position of an image representing the model are registered in advance. The target image data obtained by picking up the image of the measurement target is scanned by the window containing the model image data, and the calculation regarding the degree of coincidence between the model image data and the target image data is performed at each position of the window. The window position on the target image data with the highest degree of matching is found. A measurement position of the measurement target corresponding to the reference position of the model image data is calculated based on the reference position of the model image, the reference position of the window including the model image data, and the window position on the found target image data.

【0004】しかしながら,このような従来の位置計測
装置では,モデル画像データの基準位置を画素単位で算
出していたので,対象物体の位置を画素の大きさよりも
細かい精度で算出することができない。
However, in such a conventional position measuring apparatus, since the reference position of the model image data is calculated in pixel units, the position of the target object cannot be calculated with a precision smaller than the pixel size.

【0005】[0005]

【発明の開示】この発明は,画像処理による位置計測装
置において,モデル画像データの基準位置を正確に算出
することにより計測対象の位置を正確に計測できるよう
にすることを目的としている。
DISCLOSURE OF THE INVENTION An object of the present invention is to enable a position measuring device by image processing to accurately measure the position of a measuring object by accurately calculating a reference position of model image data.

【0006】第1の発明による画像処理による位置計測
装置におけるモデル画像の基準位置決定方法は,モデル
画像データとその基準位置をあらかじめ登録しておき,
計測対象を撮像することにより得られる対象画像データ
を,上記モデル画像データを含むウインドウにより走査
し,ウインドウの各位置でモデル画像データと対象画像
データとの合致度に関する演算を行い,最も合致度の高
い対象画像データ上におけるウインドウ位置を見つけ,
モデル画像データの基準位置と,モデル画像データを含
むウインドウの基準位置と,対象画像データ上における
見つけたウインドウ位置とに基づいて,モデル画像デー
タの基準位置に対応する計測対象の計測位置を算出する
位置計測装置において,モデルを撮像することにより得
られるモデル画像データの重心位置を画素単位より下位
の単位で算出し,この重心位置をモデル画像データの基
準位置とすることを特徴とする。
A method for determining a reference position of a model image in a position measuring device by image processing according to the first aspect of the present invention registers model image data and its reference position in advance,
The target image data obtained by picking up the image of the measurement target is scanned by the window containing the model image data, and the calculation of the degree of matching between the model image data and the target image data is performed at each position of the window to obtain the best matching degree. Find the window position on the high target image data,
The measurement position of the measurement target corresponding to the reference position of the model image data is calculated based on the reference position of the model image data, the reference position of the window including the model image data, and the found window position on the target image data. The position measuring device is characterized in that the barycentric position of the model image data obtained by imaging the model is calculated in units lower than the pixel unit, and this barycentric position is used as the reference position of the model image data.

【0007】第1の発明によると,モデル画像データの
重心位置が画素単位よりも下位の単位で算出され,この
重心位置がモデル画像データの基準位置となる。画素よ
りも下位の単位で算出されたモデル画像の基準位置に基
づいて計測対象の位置計測が行われるので,画素単位で
算出した場合よりも正確な位置計測ができる。
According to the first invention, the barycentric position of the model image data is calculated in units lower than the pixel unit, and this barycentric position becomes the reference position of the model image data. Since the position of the measurement target is measured based on the reference position of the model image calculated in units lower than the pixels, the position can be measured more accurately than in the case of calculating in units of pixels.

【0008】第1の発明の好ましい実施態様において
は,モデルを撮像することにより得られるモデル画像デ
ータを2値化し,2値モデル画像データの重心位置を画
素単位より下位の単位で算出し,この重心位置をモデル
画像データの基準位置とすることを特徴とする。
In a preferred embodiment of the first aspect of the invention, the model image data obtained by imaging the model is binarized, and the position of the center of gravity of the binary model image data is calculated in units lower than the pixel unit. It is characterized in that the position of the center of gravity is used as the reference position of the model image data.

【0009】したがって,モデル画像データが2値化さ
れ,その2値モデル画像データについて重心位置が画素
よりも下位の単位で算出されてモデル画像データの基準
位置とされるので,モデル画像データについて安定した
2値モデル画像データが得られる場合にモデル画像デー
タの正確な基準位置を算出することができる。
Therefore, the model image data is binarized, and the center of gravity position of the binary model image data is calculated in a unit lower than the pixel and used as the reference position of the model image data. When the binary model image data described above is obtained, the accurate reference position of the model image data can be calculated.

【0010】第1の発明の他の好ましい実施態様におい
ては,モデル画像データにおいてモデルを表す画像の輪
郭線を抽出し,この輪郭線の重心位置を画素単位より下
位の単位で算出し,この重心位置をモデル画像データの
基準位置とすることを特徴とする。
In another preferred embodiment of the first aspect of the invention, the contour line of the image representing the model is extracted from the model image data, the center of gravity position of the contour line is calculated in units lower than the pixel unit, and the center of gravity is calculated. The position is set as a reference position of the model image data.

【0011】したがって,モデル画像データにおいてモ
デルを表す画像の輪郭線が抽出され,このモデル画像の
輪郭線の重心位置が画素よりも下位の単位で算出されて
モデル画像データの基準位置とされるので,モデルの内
部について安定した2値画像データが得られない場合,
たとえばモデルが文字の場合にモデル画像データの正確
な基準位置を算出することができる。
Therefore, the contour line of the image representing the model is extracted from the model image data, and the position of the center of gravity of the contour line of the model image is calculated in units lower than the pixels and used as the reference position of the model image data. , When stable binary image data cannot be obtained inside the model,
For example, when the model is a character, the accurate reference position of the model image data can be calculated.

【0012】第1の発明のさらに好ましい実施態様にお
いては,モデルを撮像することにより得られるグレイ・
レベルで表されたモデル画像データの重心位置を画素単
位より下位の単位で算出し,この重心位置をモデル画像
データの基準位置とすることを特徴とする。
In a further preferred embodiment of the first invention, the gray
It is characterized in that the barycentric position of the model image data expressed by level is calculated in units lower than the pixel unit, and this barycentric position is used as the reference position of the model image data.

【0013】したがって,グレイ・レベルで表されるモ
デル画像データの重心位置が画素よりも下位の単位で算
出されてモデル画像データの基準位置とされるので,モ
デル画像データを2値化する場合よりもさらに正確なモ
デル画像データの基準位置を算出することができる。
Therefore, the barycentric position of the model image data represented by the gray level is calculated in a unit lower than the pixel and used as the reference position of the model image data, so that the model image data is binarized. Even more accurately, the reference position of the model image data can be calculated.

【0014】第2の発明による画像処理による位置計測
装置におけるモデル画像の基準位置決定方法は,モデル
画像データとその基準位置をあらかじめ登録しておき,
計測対象を撮像することにより得られる対象画像データ
を,上記モデル画像データを含むウインドウにより走査
し,ウインドウの各位置でモデル画像データと対象画像
データとの合致度に関する演算を行い,最も合致度の高
い対象画像データ上におけるウインドウ位置を見つけ,
モデル画像データの基準位置と,モデル画像データを含
むウインドウの基準位置と,対象画像データ上における
見つけたウインドウ位置とに基づいて,モデル画像デー
タの基準位置に対応する計測対象の計測位置を算出する
位置計測装置において,モデルを撮像することにより得
られるモデル画像データを表示装置上に表示し,この表
示画面上で指定された互いに直行する2つの切断線にそ
うモデル画像データのグレイ・レベル分布をそれぞれ作
成し,各グレイ・レベル分布上で指定された両端の2つ
のエッジの中間の点の座標を画素単位より下位の単位で
それぞれ算出し,算出された座標をモデル画像データの
基準位置とすることを特徴とする。
In the reference position determining method of the model image in the position measuring device by the image processing according to the second invention, the model image data and its reference position are registered in advance,
The target image data obtained by picking up the image of the measurement target is scanned by the window containing the model image data, and the calculation of the degree of matching between the model image data and the target image data is performed at each position of the window to obtain the best matching degree. Find the window position on the high target image data,
The measurement position of the measurement target corresponding to the reference position of the model image data is calculated based on the reference position of the model image data, the reference position of the window including the model image data, and the found window position on the target image data. In the position measurement device, the model image data obtained by imaging the model is displayed on the display device, and the gray level distribution of the model image data is displayed on the two cutting lines specified on this display screen which are orthogonal to each other. Create each of them, calculate the coordinates of the middle point of the two edges at both ends specified on each gray level distribution in units lower than the pixel unit, and use the calculated coordinates as the reference position of the model image data. It is characterized by

【0015】第2の発明によると,モデル画像データが
表示された表示画面上で指定された切断線にそうグレイ
・レベル分布が作成され,さらにこのグレイ・レベル分
布上で指定された2つのエッジの中間点の座標が画素よ
りも下位の単位で算出され,この中間点の座標が基準位
置とされる。したがって,オペレータによって指定され
た切断線の両端の2つのエッジに基づく正確な基準位置
を算出することができる。
According to the second aspect of the invention, the gray level distribution is created on the specified cutting line on the display screen on which the model image data is displayed, and the two edges specified on the gray level distribution are created. The coordinates of the intermediate point are calculated in units lower than the pixel, and the coordinates of this intermediate point are used as the reference position. Therefore, it is possible to calculate an accurate reference position based on the two edges at both ends of the cutting line designated by the operator.

【0016】第3の発明による画像処理による位置計測
装置におけるモデル画像の基準位置決定方法は,モデル
画像データとその基準位置をあらかじめ登録しておき,
計測対象を撮像することにより得られる対象画像データ
を,上記モデル画像データを含むウインドウにより走査
し,ウインドウの各位置でモデル画像データと対象画像
データとの合致度に関する演算を行い,最も合致度の高
い対象画像データ上におけるウインドウ位置を見つけ,
モデル画像データの基準位置と,モデル画像データを含
むウインドウの基準位置と,対象画像データ上における
見つけたウインドウ位置とに基づいて,モデル画像デー
タの基準位置に対応する計測対象の計測位置を算出する
位置計測装置において,モデルを撮像することにより得
られるモデル画像データを2値化し,モデルを表す画像
の輪郭線を表す2本の直線を算出し,この2本の直線の
交点の座標を画素単位より下位の単位で算出し,算出し
た座標をモデル画像データの基準位置とすることを特徴
とする。
A reference position determining method of a model image in a position measuring device by image processing according to a third aspect of the present invention registers model image data and its reference position in advance,
The target image data obtained by picking up the image of the measurement target is scanned by the window containing the model image data, and the calculation of the degree of matching between the model image data and the target image data is performed at each position of the window to obtain the best matching degree. Find the window position on the high target image data,
The measurement position of the measurement target corresponding to the reference position of the model image data is calculated based on the reference position of the model image data, the reference position of the window including the model image data, and the found window position on the target image data. In the position measuring device, the model image data obtained by capturing the image of the model is binarized, two straight lines representing the contour lines of the image representing the model are calculated, and the coordinates of the intersection of these two straight lines are calculated in pixel units. It is characterized in that it is calculated in a lower unit and the calculated coordinates are used as the reference position of the model image data.

【0017】第3の発明によると,モデル画像データが
2値化され,その2値モデル画像データについてモデル
を表す画像の輪郭線を表す2本の直線が算出され,さら
に2本の直線の交点の座標が画素よりも下位の単位で算
出され,この交点の座標が基準位置とされる。したがっ
て,モデルがたとえば,三角形のような形状をしている
場合に正確な基準位置を決定することができる。
According to the third invention, the model image data is binarized, two straight lines representing the contour line of the image representing the model are calculated for the binary model image data, and the intersection of the two straight lines is further calculated. Are calculated in units lower than the pixel, and the coordinates of this intersection are used as the reference position. Therefore, an accurate reference position can be determined when the model has, for example, a triangular shape.

【0018】[0018]

【実施例の説明】[Explanation of Examples]

目次 1 ハードウェア構成 2 対象物体の位置計測 3 モデル画像とその基準位置の登録 3.1 モデル画像の登録 3.2 モデル画像のグレイ・レベル画像データの重心位置
を基準位置とする方法 3.3 モデル画像の2値画像データの重心位置を基準位置
とする方法 3.4 モデル画像の輪郭線の重心位置を基準位置とする方
法 3.5 モデル画像の2つのエッジの中間点を基準位置とす
る方法 3.6 モデル画像の輪郭線を表す2本の直線の交点を基準
位置とする方法
Table of contents 1 Hardware configuration 2 Position measurement of target object 3 Registration of model image and its reference position 3.1 Registration of model image 3.2 Method of using center of gravity of gray level image data of model image as reference position 3.3 Binary image of model image Method of setting the center of gravity of the data as the reference position 3.4 Method of setting the center of gravity of the contour line of the model image as the reference position 3.5 Method of setting the midpoint between the two edges of the model image as the reference position 3.6 Representing the contour line of the model image 2 How to use the intersection of straight lines in a book as the reference position

【0019】1 ハードウェア構成1 hardware configuration

【0020】図1は画像処理による位置計測装置の電気
的構成を示すブロック図である。
FIG. 1 is a block diagram showing the electrical construction of a position measuring device using image processing.

【0021】モデルまたは対象物体がカメラ11によって
撮像され,撮像により得られたモデル画像のアナログ・
ビデオ信号がA/D変換器(アナログ/ディジタル変換
器)12に与えられる。A/D変換器12は,カメラ11から
与えられるビデオ信号をグレイ・レベル・ディジタル画
像データに変換する。グレイ・レベル画像データは,た
とえば 256階調(8ビット/画素)で表される。グレイ
・レベル画像データは,画像メモリ13に一時的に記憶さ
れる。
A model or a target object is imaged by the camera 11, and an analog image of the model image obtained by the imaging
The video signal is applied to the A / D converter (analog / digital converter) 12. The A / D converter 12 converts the video signal supplied from the camera 11 into gray level digital image data. The gray level image data is represented by, for example, 256 gradations (8 bits / pixel). The gray level image data is temporarily stored in the image memory 13.

【0022】D/A変換器14は,画像メモリ13に記憶さ
れたグレイ・レベル・ディジタル画像データをアナログ
・ビデオ信号に変換する。D/A変換されたビデオ信号
はビデオ・モニタ16に与えられ,アナログ・ビデオ信号
によって表わされる画像が表示される。文字メモリ15に
は,文字等を表示するためのフォント・データが記憶さ
れている。フォント・データは適宜D/A変換器14によ
ってD/A変換されてビデオ・モニタ16に表示される。
The D / A converter 14 converts the gray level digital image data stored in the image memory 13 into an analog video signal. The D / A converted video signal is applied to the video monitor 16 and the image represented by the analog video signal is displayed. The character memory 15 stores font data for displaying characters and the like. The font data is appropriately D / A converted by the D / A converter 14 and displayed on the video monitor 16.

【0023】タイミング制御回路10は,CPU21から与
えられるタイミング制御信号に応答して,A/D変換器
12,画像メモリ13,D/A変換器14および文字メモリ15
のそれぞれにタイミング信号を出力して,これらの回路
における動作,これらの間のデータの送,受信等の同期
とる。
The timing control circuit 10 is responsive to the timing control signal given from the CPU 21 to respond to the A / D converter.
12, image memory 13, D / A converter 14 and character memory 15
, A timing signal is output to each of them to synchronize operations in these circuits, transmission and reception of data between them, and the like.

【0024】ROM22には後述する処理を実現するプロ
グラムが記憶されている。RAM22には処理の中間デー
タが適宜記憶される。CPU21はROM22に記憶された
プログラムにしたがって後述する処理を実行する。CP
U21はまた,タイミング制御信号をタイミング制御回路
10に出力して,この画像処理による位置計測装置全体の
データの送,受信を同期をとっている。キーボード25か
ら文字の入力,位置の指定等が行われる。
The ROM 22 stores a program for realizing the processing described later. The RAM 22 stores intermediate data of processing as appropriate. The CPU 21 executes the processing described later according to the program stored in the ROM 22. CP
U21 also sends the timing control signal to the timing control circuit.
The data is output to 10 and the data transmission and reception of the entire position measuring device by this image processing are synchronized. Characters are input from the keyboard 25 and positions are specified.

【0025】I/Oインターフェース24は他の装置との
間でデータの送,受信を行う。
The I / O interface 24 sends and receives data to and from other devices.

【0026】CPU21,ROM22,RAM23およびI/
Oインターフェース24は,一般にマイクロコンピュー
タ,いわゆるパーソナル・コンピュータ等によって実現
される。
CPU 21, ROM 22, RAM 23 and I /
The O interface 24 is generally realized by a microcomputer, a so-called personal computer or the like.

【0027】2 対象物体の位置計測2 Position measurement of target object

【0028】以下,画像処理による位置計測装置の計測
対象の位置計測処理について簡単に説明する。
The position measuring process of the measuring object by the position measuring device by image processing will be briefly described below.

【0029】CPU21は,計測対象の位置計測を行う前
に計測対象のモデルを表すモデル画像データあらかじめ
登録しておく。図2は,登録されたモデル画像データを
含むウインドウと,モデル画像データによって表される
モデル画像の一例を示す。図2に示すウインドウの座標
P0(x0,y0)はウインドウの基準となる位置(ウ
インドウ基準位置)である。モデル画像データ登録につ
いては,次の「3 モデル画像の登録とその基準位置の
登録」で詳細に説明する。
The CPU 21 pre-registers model image data representing the model of the measurement target before measuring the position of the measurement target. FIG. 2 shows an example of a window containing registered model image data and a model image represented by the model image data. The coordinate P0 (x0, y0) of the window shown in FIG. 2 is the position (window reference position) which is the reference of the window. The model image data registration will be described in detail in the following “3 Model Image Registration and Its Reference Position Registration”.

【0030】また,CPU21は,登録したモデル画像デ
ータの基準位置をサブ画素で決定して登録する。図2で
は点MG(MGx,MGy)がモデル画像データの基準
位置である。この基準位置の決定方法には5つの態様が
あり,これらについては「3モデル画像の登録とその基
準位置の登録」で詳細に説明する。
Further, the CPU 21 determines the reference position of the registered model image data by the sub pixel and registers it. In FIG. 2, the point MG (MGx, MGy) is the reference position of the model image data. There are five modes for determining the reference position, which will be described in detail in "Registration of 3 model images and registration of the reference position".

【0031】次に,計測対象をカメラ11によって撮像
し,そのビデオ信号をA/D変換器12によってグレイ・
レベル画像データに変換する。変換したグレイ・レベル
画像データが画像メモリ13に記憶される。グレイ・レベ
ル画像データをD/A変換器12によってビデオ信号に変
換し,そのビデオ信号によって表される計測対象画像が
ビデオ・モニタ16に表示される。図3は,ビデオ・モニ
タ16に表示された計測対象画像の一例を示す。
Next, an image of the object to be measured is picked up by the camera 11, and its video signal is grayed out by the A / D converter 12.
Convert to level image data. The converted gray level image data is stored in the image memory 13. The gray level image data is converted into a video signal by the D / A converter 12, and the measurement target image represented by the video signal is displayed on the video monitor 16. FIG. 3 shows an example of the measurement target image displayed on the video monitor 16.

【0032】CPU21は,対象画像のサーチ領域内にお
いて対象画像データを,先に登録したモデル画像データ
を含むウインドウにより走査して,モデル画像データと
そのウインドウ内に存在する対象画像データとの正規化
相関演算を行う。CPU21は式(1) にしたがって正規化
相関演算を行い,各位置(xi ,yi )における正規化
相関値F(xi ,yi )を算出する。
The CPU 21 scans the target image data in the search region of the target image with the window containing the model image data registered previously, and normalizes the model image data and the target image data existing in the window. Perform correlation calculation. The CPU 21 performs the normalized correlation calculation according to the equation (1) to calculate the normalized correlation value F (xi, yi) at each position (xi, yi).

【0033】[0033]

【数1】 [Equation 1]

【0034】CPU21は,得られた正規化相関値に基づ
いて対象画像データとモデル画像データとの合致度が最
も高いウインドウ位置を求める。ウインドウ位置はたと
えば,正規化相関値の重心位置,正規化相関値の最大値
近傍の放物線近似による最大値位置,等である。ウイン
ドウ位置は画素よりも下位の単位で算出される。
The CPU 21 obtains the window position where the degree of matching between the target image data and the model image data is the highest, based on the obtained normalized correlation value. The window position is, for example, the barycentric position of the normalized correlation value, the maximum value position by parabolic approximation in the vicinity of the maximum normalized correlation value, or the like. The window position is calculated in units lower than the pixel.

【0035】(1) 正規化相関重心位置をウインドウ位置
にする場合
(1) When the normalized correlation centroid position is set to the window position

【0036】CPU21は,正規化相関値を用いて式(2)
,(3) にしたがって正規化相関値F(xi ,yi )の
重心位置FG(FGx,FGy)を算出する。
The CPU 21 uses equation (2) using the normalized correlation value.
, (3), the barycentric position FG (FGx, FGy) of the normalized correlation value F (xi, yi) is calculated.

【0037】[0037]

【数2】 [Equation 2]

【0038】このようにして算出した正規化相関値の重
心位置FG(FGx,FGy)をウインドウ位置U(U
x,Uy)とする。
The barycentric position FG (FGx, FGy) of the normalized correlation value calculated in this way is set to the window position U (U
x, Uy).

【0039】(2) 正規化相関値の最大値近傍の放物線近
似による最大値位置をウインドウ基準位置にする場合
(2) When the maximum value position by parabolic approximation near the maximum value of the normalized correlation value is the window reference position

【0040】CPU21は,算出した正規化相関値の最大
値近傍の3点のX座標X0,X1およびX2と,それぞ
れの正規化相関値F0,F1およびF2とを用いて,式
(4),(5) および(6) の3つの方程式を解いて係数ax
,bx およびcx を算出する。図4は,正規化相関値
の最大値近傍のグラフの一例を示す。
The CPU 21 uses the X-coordinates X0, X1 and X2 of the three points in the vicinity of the calculated maximum value of the normalized correlation value and the respective normalized correlation values F0, F1 and F2 to calculate the expression.
Solving the three equations (4), (5) and (6), the coefficient ax
, Bx and cx are calculated. FIG. 4 shows an example of a graph near the maximum normalized correlation value.

【0041】[0041]

【数3】 [Equation 3]

【0042】CPU21は係数ax ,bx およびcx を算
出すると,Ux=−(bx /2ax)によりウインドウ
位置のX座標を算出する。CPU21はY座標についても
同様にしてして行い,ウインドウ位置のY座標Uyを算
出する。
When the CPU 21 calculates the coefficients ax, bx and cx, the X coordinate of the window position is calculated by Ux =-(bx / 2ax). The CPU 21 similarly performs the Y coordinate, and calculates the Y coordinate Uy of the window position.

【0043】このようにして,正規化相関値に基づいて
計測対象画像とモデル画像との合致度が最も高いウイン
ドウ位置U(Ux,Uy)を求める。
In this way, the window position U (Ux, Uy) having the highest degree of matching between the measurement target image and the model image is obtained based on the normalized correlation value.

【0044】CPU21は,モデル画像のウインドウ基準
位置P0(x0,y0)と,モデル画像の基準位置MG
(MGx,MGy))と,正規化相関演算によって求め
たウインドウ位置U(Ux,Uy)とに基づいて,計測
位置S(Sx,Sy)を算出する。CPU21は,計測位
置S(Sx,Sy)を式(7) ,(8) にしたがって算出す
る。
The CPU 21 controls the model image window reference position P0 (x0, y0) and the model image reference position MG.
The measurement position S (Sx, Sy) is calculated based on (MGx, MGy)) and the window position U (Ux, Uy) obtained by the normalized correlation calculation. The CPU 21 calculates the measurement position S (Sx, Sy) according to the equations (7) and (8).

【0045】[0045]

【数4】 [Equation 4]

【0046】以上のようにして,対象物体の計測位置S
が算出される。モデル画像の基準位置および正規化相関
演算によるウインドウ位置を,画素よりも下位の単位で
算出することによって計測対象の位置計測を正確に行え
る。
As described above, the measurement position S of the target object
Is calculated. The position of the measurement target can be accurately measured by calculating the reference position of the model image and the window position by the normalized correlation calculation in units lower than the pixel.

【0047】3 モデル画像とその基準位置の登録 3.1 モデル画像の登録3 Registration of model image and its reference position 3.1 Registration of model image

【0048】モデルをカメラ11によって撮像し,そのビ
デオ信号をA/D変換器12によってグレイ・レベル画像
データに変換する。変換したグレイ・レベル画像データ
が画像メモリ13に記憶される。グレイ・レベル画像デー
タをD/A変換器12によってビデオ信号に変換し,その
ビデオ信号によって表されるモデル画像がビデオ・モニ
タ16に表示される。図5はビデオ・モニタ16に表示され
たモデル画像の一例を示す。
The model is imaged by the camera 11, and its video signal is converted into gray level image data by the A / D converter 12. The converted gray level image data is stored in the image memory 13. The gray level image data is converted into a video signal by the D / A converter 12, and the model image represented by the video signal is displayed on the video monitor 16. FIG. 5 shows an example of the model image displayed on the video monitor 16.

【0049】オペレータはビデオ・モニタ16に表示され
たモデル画像(図5)を見てキーボード25のカーソルを
操作し,モデル画像データとして登録するウインドウを
指定する。ウインドウは,2つの対角点,P0(x0,
y0)およびP1(x1,y1)を指定し,その2つの
対角点によって表される矩形領域である。
The operator looks at the model image (FIG. 5) displayed on the video monitor 16 and operates the cursor on the keyboard 25 to specify a window to be registered as model image data. The window has two diagonal points, P0 (x0,
y0) and P1 (x1, y1) are specified, and this is a rectangular area represented by the two diagonal points.

【0050】CPU21は,オペレータによって指定され
たウインドウ内のグレイ・レベル画像データをモデル画
像データとして画像メモリ13に登録する。登録したモデ
ル画像データを含むウインドウのウインドウ基準位置は
オペレータによって指定された点P0(x0,y0)で
ある。モデル画像データは装置が自動的に登録するよう
にしてもよい。
The CPU 21 registers the gray level image data in the window designated by the operator in the image memory 13 as model image data. The window reference position of the window including the registered model image data is the point P0 (x0, y0) designated by the operator. The model image data may be automatically registered by the device.

【0051】CPU21は,モデル画像データを登録する
と,登録したモデル画像について,モデル画像の基準位
置を画素よりも下位の単位で算出する。基準位置の決定
方法は,以下説明する5つの態様がある。
When the model image data is registered, the CPU 21 calculates the reference position of the model image for the registered model image in units lower than the pixels. The reference position determination method has the following five modes.

【0052】3.2 モデル画像の2値画像データの重心位
置を基準位置とする方法
3.2 Method of Using Center of Gravity of Binary Image Data of Model Image as Reference Position

【0053】CPU21は,登録したモデル画像のグレイ
・レベル画像データを2値画像データに変換する。図6
は,図5に示すモデル画像の2値画像データによって表
される2値モデル画像の一例を示す。CPU21は,この
2値画像データの2値重心位置を算出する。2値重心位
置MG(MGx,MGy)を,式(9) ,(10)にしたがっ
て算出する。
The CPU 21 converts the gray level image data of the registered model image into binary image data. Figure 6
Shows an example of a binary model image represented by the binary image data of the model image shown in FIG. The CPU 21 calculates the binary barycentric position of this binary image data. The binary center of gravity position MG (MGx, MGy) is calculated according to equations (9) and (10).

【0054】[0054]

【数5】 [Equation 5]

【0055】2値重心位置は画素よりも下位の単位で算
出される。この2値重心位置をモデル画像の基準位置と
する。図6において,座標MG(MGx,MGy)が基
準位置である。CPU21は,算出したモデル画像の基準
位置を登録する。
The binary centroid position is calculated in units lower than the pixel. This binary centroid position is used as the reference position of the model image. In FIG. 6, the coordinate MG (MGx, MGy) is the reference position. The CPU 21 registers the calculated reference position of the model image.

【0056】この方法では,モデル画像について安定し
た2値画像データが得られるときに正確な基準位置を算
出することができる。
With this method, an accurate reference position can be calculated when stable binary image data is obtained for the model image.

【0057】3.3 モデル画像の輪郭線の重心位置を基準
位置とする方法
3.3 Method Using Center Position of Contour of Model Image as Reference Position

【0058】この方法は,モデル画像の2値画像データ
のすべてを用いて2値重心位置を算出するのではなく,
モデル画像の輪郭に位置する2値画像データを用いてモ
デル画像の輪郭重心位置を算出するものである。
This method does not calculate the binary center of gravity position by using all the binary image data of the model image, but
The position of the center of gravity of the contour of the model image is calculated using the binary image data located on the contour of the model image.

【0059】輪郭重心位置は,式(9) ,(10)においてM
(xi ,yi )を2値画像データではなく,モデル画像
の輪郭に位置する画素の2値画像データとすることによ
って算出できる。輪郭重心位置は画素よりも下位の単位
で算出される。
The position of the center of gravity of the contour is M in equations (9) and (10).
It can be calculated by using (xi, yi) as binary image data of pixels located on the contour of the model image instead of the binary image data. The position of the center of gravity of the contour is calculated in units lower than the pixel.

【0060】このようにして算出した輪郭重心位置を基
準位置とする。この方法は,モデル内部について安定し
た2値画像データが得られないとき,たとえばモデルが
文字のときに正確な基準位置を算出することができる。
The position of the center of gravity of the contour thus calculated is used as the reference position. This method can calculate an accurate reference position when stable binary image data cannot be obtained inside the model, for example, when the model is a character.

【0061】3.4 モデル画像のグレイ・レベル画像デー
タの重心位置を基準位置とする方法
3.4 Method of Using Center of Gravity of Gray Level Image Data of Model Image as Reference Position

【0062】CPU21は,登録したモデル画像のグレイ
・レベル画像データの重心位置を算出する。重心位置
は,式(9) ,(10)において,M(xi ,yi )を2値画
像データとするのではなく,グレイ・レベル画像データ
にすることによって算出できる。2値重心位置は画素よ
りも下位の単位で算出される。
The CPU 21 calculates the barycentric position of the gray level image data of the registered model image. The position of the center of gravity can be calculated by using M (xi, yi) as gray level image data instead of binary image data in the equations (9) and (10). The binary centroid position is calculated in units lower than the pixel.

【0063】このようにして算出した重心位置をモデル
画像の基準位置とする。この方法は,2値画像データに
基づく基準位置よりもさらに正確な基準位置を算出する
ことができる。
The center-of-gravity position thus calculated is used as the reference position of the model image. This method can calculate a more accurate reference position than the reference position based on the binary image data.

【0064】3.5 指定されたモデル画像の輪郭位置の中
間位置を基準位置とする方法
3.5 Method Using Intermediate Position of Contour Position of Specified Model Image as Reference Position

【0065】CPU21は,登録したモデル画像データを
ビデオ信号にD/A変換させてモデル画像データによっ
て表されるモデル画像をビデオ・モニタ16に表示させ
る。図7(A) はビデオ・モニタ16の表示画面の一例を示
す。
The CPU 21 D / A converts the registered model image data into a video signal and displays the model image represented by the model image data on the video monitor 16. FIG. 7A shows an example of the display screen of the video monitor 16.

【0066】オペレータはビデオ・モニタ16に表示され
たモデル画像(図7(A) )を見ながらキーボード25のカ
ーソルを操作して,モデル画像のX軸に平行なライン
(Xライン)を指定する。CPU21は,オペレータによ
って指定されたXライン上にあるモデル画像データのグ
レイ・レベル分布を作成してビデオ・モニタ16に表示さ
せる。図7(B) は,グレイ・レベル分布の一例を示す。
このように指定されたXライン上の画像データのグレイ
・レベル分布をビデオ・モニタ16に表示させることをラ
インブライト表示という。
The operator operates the cursor on the keyboard 25 while looking at the model image (FIG. 7 (A)) displayed on the video monitor 16 to specify a line (X line) parallel to the X axis of the model image. . The CPU 21 creates a gray level distribution of the model image data on the X line designated by the operator and displays it on the video monitor 16. FIG. 7B shows an example of the gray level distribution.
Displaying the gray level distribution of the image data on the specified X line on the video monitor 16 is called line bright display.

【0067】オペレータは,ラインブライト表示された
グレイ・レベル分布(図7(B) )を見てキーボード25の
カーソルを操作してモデルの両端のエッジを2箇所(X
0およびX1)指定する。オペレータはY方向について
も同様にして2つのエッジY0およびY1を指定する。
The operator looks at the gray level distribution displayed in line bright (FIG. 7 (B)) and operates the cursor on the keyboard 25 to set two edges (X) at both ends of the model.
0 and X1) Specify. The operator similarly designates two edges Y0 and Y1 in the Y direction.

【0068】CPU21は,オペレータがモデル画像のX
方向およびY方向のそれぞれについて2つのエッジを指
定すると,それぞれ指定されたエッジの中間位置を算出
する。CPU21は,式(11),(12)にしてがって中間位置
を算出する。中間位置は画素よりも下位の単位で算出さ
れる。
In the CPU 21, the operator inputs X of the model image.
When two edges are designated for each of the direction and the Y direction, the intermediate position of each designated edge is calculated. The CPU 21 calculates the intermediate position according to the equations (11) and (12). The intermediate position is calculated in units lower than the pixel.

【0069】[0069]

【数6】 [Equation 6]

【0070】このようにして算出した中間位置をモデル
画像の基準位置とする。ラインブラインド表示すること
によってオペレータが指定するモデル画像のエッジに基
づく基準位置を算出することができる。
The intermediate position thus calculated is used as the reference position of the model image. By displaying the line blind, the reference position based on the edge of the model image designated by the operator can be calculated.

【0071】3.6 モデル画像の輪郭線を表す2本の直線
の交点を基準位置とする方法
3.6 Method of Using Reference Point at Intersection Point of Two Straight Lines Representing Contour Line of Model Image

【0072】この方法は,モデル画像が多角形,たとえ
ば三角形のような形状(図8(A) 参照)をした場合に正
確な基準位置を算出することができる。
This method can calculate an accurate reference position when the model image has a polygonal shape, for example, a triangular shape (see FIG. 8A).

【0073】CPU21は,登録したモデル画像データを
2値画像データに変換する。図8(A) は2値画像データ
によって表されるモデル画像の一例を示す。図8(B) は
図8(A) に示す2値モデル画像の輪郭線の拡大図であ
る。図8(B) においてモデル画像の輪郭線の画素が2重
ハッチングで示されている。
The CPU 21 converts the registered model image data into binary image data. FIG. 8A shows an example of a model image represented by binary image data. FIG. 8B is an enlarged view of the contour line of the binary model image shown in FIG. In FIG. 8 (B), the pixels of the contour line of the model image are shown by double hatching.

【0074】CPU21は,2値画像データについてモデ
ル画像の輪郭線の2辺を表す直線方程式を算出する。直
線方程式はモデル画像の輪郭線の画素(図8(B) の2重
ハッチングで示す画素)の座標データを用いて最小2乗
法により算出する。直線の方程式をY=AX+Bとし
て,モデル画像の輪郭線の画素の座標を(xi ,yi )
すると,式(13),(14)によって算出できる。
The CPU 21 calculates a linear equation representing two sides of the contour line of the model image for the binary image data. The linear equation is calculated by the least squares method using the coordinate data of the pixels of the contour line of the model image (pixels indicated by double hatching in FIG. 8B). If the equation of the straight line is Y = AX + B, the coordinates of the pixel of the contour line of the model image are (xi, yi)
Then, it can be calculated by equations (13) and (14).

【0075】[0075]

【数7】 [Equation 7]

【0076】CPU21は,2本の直線方程式を算出する
と,この2本の直線の交点MGの座標をを算出する。交
点の座標は画素よりも下位の単位で算出される。その交
点を基準位置とする。2本の直線の交点は画素よりも下
位の単位で算出される。直線の方程式はモデル画像の輪
郭線の任意の2つの画素の座標に基づいて算出するよう
にしてもよい。
After calculating the two linear equations, the CPU 21 calculates the coordinates of the intersection MG of these two straight lines. The coordinates of the intersection are calculated in units lower than the pixel. The intersection is used as the reference position. The intersection of two straight lines is calculated in units lower than the pixel. The straight line equation may be calculated based on the coordinates of any two pixels of the contour line of the model image.

【0077】この方法では,上述のようにモデルがたと
えば多角形,とくに三角形の形状をした場合に正確な基
準位置を算出することができる。
With this method, an accurate reference position can be calculated when the model has, for example, a polygonal shape, especially a triangular shape, as described above.

【図面の簡単な説明】[Brief description of drawings]

【図1】画像処理による位置計測装置の電気的構成を示
すブロック図である。
FIG. 1 is a block diagram showing an electrical configuration of a position measuring device by image processing.

【図2】登録されたモデル画像データによって表される
モデル画像の一例を示す。
FIG. 2 shows an example of a model image represented by registered model image data.

【図3】計測対象を撮像すことにより得られた対象画像
データによって表される対象画像の一例を示す。
FIG. 3 shows an example of a target image represented by target image data obtained by capturing an image of a measurement target.

【図4】正規化相関値の最大値近傍を示すグラフであ
る。
FIG. 4 is a graph showing the vicinity of the maximum normalized correlation value.

【図5】モデルを撮像することにより得られたモデル画
像データによって表されるモデル画像の一例を示す。
FIG. 5 shows an example of a model image represented by model image data obtained by capturing an image of a model.

【図6】登録されたモデル画像データを2値化した2値
画像データによって表されるモデル画像の一例を示す。
FIG. 6 shows an example of a model image represented by binary image data obtained by binarizing registered model image data.

【図7】ラインブライト表示の一例を示す。FIG. 7 shows an example of a line bright display.

【図8】登録されたモデル画像を2値化した2値画像デ
ータによって表される2値画像の一例を示し,(B) は
(A) に示す2値画像の輪郭部分の拡大図である。
FIG. 8 shows an example of a binary image represented by binary image data obtained by binarizing a registered model image.
It is an enlarged view of the outline portion of the binary image shown in (A).

【符号の説明】[Explanation of symbols]

10 タイミング制御回路 11 カメラ 12 A/D変換器 13 画像メモリ 14 D/A変換器 15 文字メモリ 16 ビデオ・モニタ 21 CPU 22 ROM 23 RAM 24 I/Oインターフェース 25 キーボード 10 Timing control circuit 11 Camera 12 A / D converter 13 Image memory 14 D / A converter 15 Character memory 16 Video monitor 21 CPU 22 ROM 23 RAM 24 I / O interface 25 Keyboard

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 モデル画像データとその基準位置をあら
かじめ登録しておき,計測対象を撮像することにより得
られる対象画像データを,上記モデル画像データを含む
ウインドウにより走査し,ウインドウの各位置でモデル
画像データと対象画像データとの合致度に関する演算を
行い,最も合致度の高い対象画像データ上におけるウイ
ンドウ位置を見つけ,モデル画像データの基準位置と,
モデル画像データを含むウインドウの基準位置と,対象
画像データ上における見つけたウインドウ位置とに基づ
いて,モデル画像データの基準位置に対応する計測対象
の計測位置を算出する位置計測装置において,モデルを
撮像することにより得られるモデル画像データの重心位
置を画素単位より下位の単位で算出し,この重心位置を
モデル画像データの基準位置とすることを特徴とする,
画像処理による位置計測装置におけるモデル画像の基準
位置決定方法。
1. Model image data and its reference position are registered in advance, and target image data obtained by imaging a measurement target is scanned in a window containing the model image data, and a model is created at each position of the window. The calculation of the matching degree between the image data and the target image data is performed, the window position on the target image data with the highest matching degree is found, and the reference position of the model image data,
An image of a model is captured by a position measuring device that calculates the measurement position of the measurement target corresponding to the reference position of the model image data based on the reference position of the window containing the model image data and the window position found on the target image data. The center of gravity position of the model image data obtained by performing the calculation is calculated in units lower than the pixel unit, and this center of gravity position is used as the reference position of the model image data.
A method for determining a reference position of a model image in a position measuring device by image processing.
【請求項2】 モデルを撮像することにより得られるモ
デル画像データを2値化し,2値モデル画像データの重
心位置を画素単位より下位の単位で算出し,この重心位
置をモデル画像データの基準位置とすることを特徴とす
る,請求項1に記載の画像処理による位置計測装置にお
けるモデル画像の基準位置決定方法。
2. Model image data obtained by capturing an image of a model is binarized, and a barycentric position of the binary model image data is calculated in a unit lower than a pixel unit, and the barycentric position is a reference position of the model image data. The method for determining a reference position of a model image in a position measuring device by image processing according to claim 1, wherein:
【請求項3】 モデルを撮像することにより得られるモ
デル画像データにおいて,モデルを表す画像の輪郭線を
抽出し,この輪郭線の重心位置を画素単位より下位の単
位で算出し,この重心位置をモデル画像データの基準位
置とすることを特徴とする,請求項1に記載の画像処理
による位置計測装置におけるモデル画像の基準位置決定
方法。
3. In the model image data obtained by capturing an image of a model, a contour line of an image representing the model is extracted, the center of gravity position of this contour line is calculated in units lower than the pixel unit, and the center of gravity position is calculated. The method for determining a reference position of a model image in a position measuring device by image processing according to claim 1, characterized in that the reference position of the model image data is used.
【請求項4】 モデルを撮像することにより得られるグ
レイ・レベルで表されたモデル画像データの重心位置を
画素単位より下位の単位で算出し,この重心位置をモデ
ル画像データの基準位置とすることを特徴とする,請求
項1に記載の画像処理による位置計測装置におけるモデ
ル画像の基準位置決定方法。
4. A center of gravity position of model image data represented by a gray level obtained by capturing an image of a model is calculated in a unit lower than a pixel unit, and this center of gravity position is used as a reference position of the model image data. A method for determining a reference position of a model image in a position measuring device by image processing according to claim 1, characterized in that.
【請求項5】 モデル画像データとその基準位置をあら
かじめ登録しておき,計測対象を撮像することにより得
られる対象画像データを,上記モデル画像データを含む
ウインドウにより走査し,ウインドウの各位置でモデル
画像データと対象画像データとの合致度に関する演算を
行い,最も合致度の高い対象画像データ上におけるウイ
ンドウ位置を見つけ,モデル画像データの基準位置と,
モデル画像データを含むウインドウの基準位置と,対象
画像データ上における見つけたウインドウ位置とに基づ
いて,モデル画像データの基準位置に対応する計測対象
の計測位置を算出する位置計測装置において,モデルを
撮像することにより得られるモデル画像データを表示装
置上に表示し,この表示画面上で指定された互いに直行
する2つの切断線にそうモデル画像データのグレイ・レ
ベル分布をそれぞれ作成し,各グレイ・レベル分布上で
指定された両端の2つのエッジの中間の点の座標を画素
単位より下位の単位でそれぞれ算出し,算出された座標
をモデル画像データの基準位置とすることを特徴とす
る,画像処理による位置計測装置におけるモデル画像の
基準位置決定方法。
5. Model image data and its reference position are registered in advance, and target image data obtained by imaging a measurement target is scanned in a window containing the model image data, and a model is created at each position of the window. The calculation of the matching degree between the image data and the target image data is performed, the window position on the target image data with the highest matching degree is found, and the reference position of the model image data,
An image of a model is captured by a position measuring device that calculates the measurement position of the measurement target corresponding to the reference position of the model image data based on the reference position of the window containing the model image data and the window position found on the target image data. The model image data obtained by doing so are displayed on the display device, and the gray level distributions of the model image data are respectively created on the two cutting lines that are orthogonal to each other and are specified on this display screen. Image processing characterized in that coordinates of an intermediate point between two edges at both ends specified on the distribution are respectively calculated in units lower than the pixel unit, and the calculated coordinates are used as reference positions of model image data. Method for determining a reference position of a model image in a position measuring device according to.
【請求項6】 モデル画像データとその基準位置をあら
かじめ登録しておき,計測対象を撮像することにより得
られる対象画像データを,上記モデル画像データを含む
ウインドウにより走査し,ウインドウの各位置でモデル
画像データと対象画像データとの合致度に関する演算を
行い,最も合致度の高い対象画像データ上におけるウイ
ンドウ位置を見つけ,モデル画像データの基準位置と,
モデル画像データを含むウインドウの基準位置と,対象
画像データ上における見つけたウインドウ位置とに基づ
いて,モデル画像データの基準位置に対応する計測対象
の計測位置を算出する位置計測装置において,モデルを
撮像することにより得られるモデル画像データを2値化
し,モデルを表す画像の輪郭線を表す2本の直線を算出
し,この2本の直線の交点の座標を画素単位より下位の
単位で算出し,算出した座標をモデル画像データの基準
位置とすることを特徴とする,画像処理による位置計測
装置におけるモデル画像の基準位置決定方法。
6. Model image data and its reference position are registered in advance, and target image data obtained by imaging a measurement target is scanned in a window containing the model image data, and a model is created at each position of the window. The calculation of the matching degree between the image data and the target image data is performed, the window position on the target image data with the highest matching degree is found, and the reference position of the model image data,
An image of a model is captured by a position measuring device that calculates the measurement position of the measurement target corresponding to the reference position of the model image data based on the reference position of the window containing the model image data and the window position found on the target image data. By binarizing the model image data obtained by doing the above, two straight lines representing the outline of the image representing the model are calculated, and the coordinates of the intersection of these two straight lines are calculated in units lower than the pixel unit, A method for determining a reference position of a model image in a position measuring device by image processing, characterized in that the calculated coordinates are used as a reference position of model image data.
JP35157393A 1993-12-29 1993-12-29 Position measurement method and apparatus by image processing Expired - Lifetime JP3328667B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35157393A JP3328667B2 (en) 1993-12-29 1993-12-29 Position measurement method and apparatus by image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35157393A JP3328667B2 (en) 1993-12-29 1993-12-29 Position measurement method and apparatus by image processing

Publications (2)

Publication Number Publication Date
JPH07200828A true JPH07200828A (en) 1995-08-04
JP3328667B2 JP3328667B2 (en) 2002-09-30

Family

ID=18418195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35157393A Expired - Lifetime JP3328667B2 (en) 1993-12-29 1993-12-29 Position measurement method and apparatus by image processing

Country Status (1)

Country Link
JP (1) JP3328667B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289614A (en) * 2000-01-31 2001-10-19 Omron Corp Displacement sensor
EP1878997A2 (en) * 2006-07-12 2008-01-16 Omron Corporation Displacement sensor
JPWO2006093254A1 (en) * 2005-03-03 2008-08-07 パイオニア株式会社 Template matching processing apparatus and method, hologram reproducing apparatus and method, and computer program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001289614A (en) * 2000-01-31 2001-10-19 Omron Corp Displacement sensor
US6959103B2 (en) 2000-01-31 2005-10-25 Omron Corporation Displacement sensor having a display data output
US8107685B2 (en) 2000-01-31 2012-01-31 Omron Corporation Displacement sensor having a display data output
JPWO2006093254A1 (en) * 2005-03-03 2008-08-07 パイオニア株式会社 Template matching processing apparatus and method, hologram reproducing apparatus and method, and computer program
JP4550110B2 (en) * 2005-03-03 2010-09-22 パイオニア株式会社 Template matching processing apparatus and method, hologram reproducing apparatus and method, and computer program
US8041123B2 (en) 2005-03-03 2011-10-18 Pioneer Corporation Template matching processing apparatus and method, hologram reproducing apparatus and method, and computer program
EP1878997A2 (en) * 2006-07-12 2008-01-16 Omron Corporation Displacement sensor
EP1878997A3 (en) * 2006-07-12 2013-03-13 Omron Corporation Displacement sensor

Also Published As

Publication number Publication date
JP3328667B2 (en) 2002-09-30

Similar Documents

Publication Publication Date Title
US5995649A (en) Dual-input image processor for recognizing, isolating, and displaying specific objects from the input images
JPH0528273A (en) Method and device for processing picture
JPH06124344A (en) Device and method for grading extraction of profile of salient pole part for recognizing marker
JPH0835818A (en) Image processing apparatus and method
JP2000097676A (en) Method and apparatus for detecting direction of face
JP3711599B2 (en) Mounting component inspection equipment
JP2004062393A (en) Method and device for determining attention
JP3328667B2 (en) Position measurement method and apparatus by image processing
JP2009302731A (en) Image processing apparatus, image processing program, image processing method, and electronic device
JP3223384B2 (en) Pattern matching device for grayscale images
JPH1196372A (en) Method and device for processing image and recording medium of control program for image processing
JP2000194861A (en) Method and device for recognizing image
US20230040615A1 (en) Three-dimensional image-capturing device and image-capturing condition adjusting method
JPH03158710A (en) Image data generating device
JPH0310107A (en) Inspecting method utilizing gradation pattern matching
JPH0896132A (en) Image processor and processing method
JPS61120002A (en) Method and device for detecting corner point of image
JPH0949714A (en) Apparatus for extracting three-dimensional shape
JP3371915B2 (en) Appearance inspection method
JPH07286814A (en) Method and device for processing picture
JP3180430B2 (en) 3D shape restoration method
JPS61156485A (en) Slice level determining method of visual device
Dong et al. Digital recognition based on sewing method
KR960001753B1 (en) Directionally characteristic recognition system by binary image
JPH02199582A (en) Image processor

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080719

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090719

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090719

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100719

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110719

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120719

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130719

Year of fee payment: 11

EXPY Cancellation because of completion of term