JP3365443B2 - 3D position measurement method - Google Patents

3D position measurement method

Info

Publication number
JP3365443B2
JP3365443B2 JP02194594A JP2194594A JP3365443B2 JP 3365443 B2 JP3365443 B2 JP 3365443B2 JP 02194594 A JP02194594 A JP 02194594A JP 2194594 A JP2194594 A JP 2194594A JP 3365443 B2 JP3365443 B2 JP 3365443B2
Authority
JP
Japan
Prior art keywords
image
input image
point
camera
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP02194594A
Other languages
Japanese (ja)
Other versions
JPH07208928A (en
Inventor
満徳 川辺
俊充 入江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=12069201&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP3365443(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP02194594A priority Critical patent/JP3365443B2/en
Publication of JPH07208928A publication Critical patent/JPH07208928A/en
Application granted granted Critical
Publication of JP3365443B2 publication Critical patent/JP3365443B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、カメラによって対象物
の3次元位置を計測する非接触の計測方法に関する。 【0002】 【従来の技術】カメラからの画像を使って対象物の距離
や3次元的位置、形状を計測する場合、まず、二つの異
なる視点から撮像した二つの入力画像を微分してエッジ
を抽出し、2値化して線画像を得る。そして、一つの線
画像のエッジ上の点を選び、もう一つの線画像上の対応
点を検出して、三角測量の原理によって3次元座標を計
算する。 【0003】 【発明が解決しようとする課題】ところが、対応点を求
める際に対応可能な点が複数存在するため、正しい対応
点を検出することが難しいという問題点があった。ま
た、エッジ抽出処理においてノイズ等により他方エッジ
に対応するエッジが抽出できない場合もあり、対応点が
見つからないことも多い。そこで、本発明は二つの画像
の対応点を容易に見い出し、対象物特徴点の3次元位置
の計測を安定に行ない得る3次元位置計測方法を提供す
ることを目的とする。 【0004】 【課題を解決するための手段】本発明は、カメラと多値
画像のテンプレートマッチング機能を持った画像処理装
置を用いた3次元位置計測方法において、第1地点のカ
メラから入力した第1の入力画像から測定すべき対象物
の特徴点を抽出して特徴点近傍の入力画像をテンプレー
ト画像として格納し、第1地点のカメラ撮像面の水平軸
又は垂直軸が平行になるような位置にある第2地点のカ
メラから入力した画像を第2の入力画像とし、前記テン
プレート画像と第2の入力画像とのテンプレートマッチ
ングを、第1の地点のカメラのレンズ中心と抽出した前
記特徴点とを結ぶ3次元空間上の直線が前記第2の入力
画像上に撮像される直線領域の近傍のみにおいて行って
前記第2の入力画像上での対応する前記特徴点の位置を
求め、前記特徴点の第1の入力画像上の位置と第2の入
力画像上の位置から三角測量の原理によって前記特徴点
の3次元位置を計測することを特徴とするものである。 【0005】 【作用】本発明は、第1の入力画像中の特徴点の3次元
位置は、レンズ中心と実際の対象物上の特徴点とを結ぶ
直線上にあるとの知見によるものである。つまり、この
直線は第2の入力画像上に直線として射影され、この射
影された直線の方程式は、特徴点の第1の入力画像上で
の位置と両カメラの相互位置から容易に計算することが
できる。したがって、上記手段により、特徴点の3次元
位置を容易かつ精度良く求めることができる。 【0006】 【実施例】以下、本発明を実施例に基づいて具体的に説
明する。本実施例は図1に示すように光軸が並行に設置
された2台のカメラとテンプレートマッチング機能を持
った画像処理装置から構成される。画像処理装置の内部
では、まず、画像入力部によって2台のカメラからの画
像が第1入力画像メモリと第2入力画像メモリにそれぞ
れ格納される。次に、特徴点抽出部によって第1入力画
像から対象物の特徴点が抽出される。この処理では従来
のエッジ抽出の技法によって、線画像の頂点等が選ばれ
る。また、予め与えられている特徴点のテンプレート画
像によって特徴点を検出しても良い。この特徴点の位置
を使って、テンプレート切り出し部により、特徴点近傍
の第1入力画像がテンプレート画像として予め与えられ
た大きさに切りとられテンプレートメモリへ格納され
る。次に、テンプレートマッチング部によりテンプレー
ト画像と第2入力画像とのテンプレートマッチングが実
行され、テンプレート画像の特徴とほぼ一致した特徴の
位置が第2入力画像から検出される。最後に、3次元位
置計算部によって、第1入力画像の特徴位置と対応する
第2入力画像の特徴位置から、特徴点の3次元位置が三
角測量の原理によって計算される。 【0007】以上の処理をブロックの計測に応用した例
を図2に示す。第1入力画像から、ブロックの一つの頂
点Aが特徴点として抽出され、その近傍がテンプレート
として切り出される。このテンプレート画像が第2入力
画像でテンプレートマッチングされ、対応する頂点の特
徴点が得られる。テンプレートの画像と対応する第2入
力画像の特徴は視差のために形状が異なっているが、近
似的にほぼ等しくテンプレートマッチングによって十分
検出可能である。さらに、テンプレートマッチングでは
特徴点近傍の多値画像情報が使われるので、安定した対
応点の検出が可能になる。 【0008】本実施例のテンプレートマッチングは第2
入力画像の全領域でテンプレートとのマッチングを調べ
ることによって可能であるが、第1入力画像の特徴点と
対応可能な領域は第2入力画像上の直線領域となるので
全領域を探索するのは無駄である。図3に示すように、
第1入力画像中の特徴点Aの3次元位置はレンズ中心と
実際の対象物上の特徴点Aとを結ぶ直線上にあることは
明らかである。この直線は第2入力画像上に直線として
射影される。この射影された直線の方程式は特徴点の第
1入力画像上での位置と両カメラの相互位置から容易に
計算することができる。この直線領域の近傍のみをテン
プレートマッチングの探索領域とすればマッチングに要
する探索時間が大幅に削減される。 【0009】第2の実施例として、一つのカメラをロボ
ットの先端に取付け、カメラを移動することによって3
次元座標の計測を行なう例を図4に示す。移動前のカメ
ラ画像を第1入力画像メモリに格納し、移動後のカメラ
画像を第2入力画像メモリに格納することを除いては、
先に示した3次元座標計測方法と全く同一である。本例
ではカメラ移動に時間を要するが、カメラが1台になる
ことによってカメラ部分を小さくまとめることができる
という利点が生じる。 【0010】 【発明の効果】以上述べたように本発明によれば、従来
安定に検出することが困難であった対応点の検出を、特
徴点近傍の多値入力のテンプレート画像と他方の入力画
像との間でテンプレートマッチングを行なうことによ
り、容易かつ正確に行なうことができるという効果があ
る。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a non-contact measurement method for measuring a three-dimensional position of an object using a camera. 2. Description of the Related Art When measuring a distance, a three-dimensional position, and a shape of an object using an image from a camera, first, an edge is obtained by differentiating two input images taken from two different viewpoints. Extract and binarize to obtain a line image. Then, a point on the edge of one line image is selected, a corresponding point on another line image is detected, and three-dimensional coordinates are calculated based on the principle of triangulation. [0003] However, there is a problem that it is difficult to detect a correct corresponding point because there are a plurality of points that can be handled when obtaining a corresponding point. In the edge extraction processing, an edge corresponding to the other edge may not be extracted due to noise or the like, and a corresponding point may not be found in many cases. Therefore, an object of the present invention is to provide a three-dimensional position measurement method capable of easily finding a corresponding point between two images and stably measuring a three-dimensional position of an object feature point. According to the present invention, there is provided a three-dimensional position measuring method using an image processing apparatus having a template matching function between a camera and a multi-valued image. A feature point of an object to be measured is extracted from one input image, an input image in the vicinity of the feature point is stored as a template image, and a position where the horizontal axis or the vertical axis of the camera imaging plane at the first point is parallel. The image input from the camera at the second point in the first position is defined as a second input image, and the template matching between the template image and the second input image is performed by extracting the lens center of the camera at the first point and the extracted feature points. Is performed only in the vicinity of a straight line area captured on the second input image, in which a straight line in the three-dimensional space connecting the above is obtained to find the position of the corresponding feature point on the second input image The three-dimensional position of the feature point is measured from the position of the feature point on the first input image and the position on the second input image according to the principle of triangulation. The present invention is based on the finding that the three-dimensional position of a feature point in the first input image is on a straight line connecting the lens center and the feature point on the actual object. . That is, this straight line is projected as a straight line on the second input image, and the equation of the projected straight line can be easily calculated from the position of the feature point on the first input image and the mutual position of both cameras. Can be. Therefore, the three-dimensional position of the feature point can be easily and accurately obtained by the above means. Hereinafter, the present invention will be described in detail with reference to examples. As shown in FIG. 1, the present embodiment includes two cameras having optical axes installed in parallel and an image processing apparatus having a template matching function. In the image processing apparatus, first, the images from the two cameras are stored in the first input image memory and the second input image memory by the image input unit. Next, the feature points of the target object are extracted from the first input image by the feature point extraction unit. In this processing, the vertices of the line image are selected by a conventional edge extraction technique. Further, the feature points may be detected based on a template image of the feature points given in advance. Using the positions of the feature points, the first input image in the vicinity of the feature points is cut into a size given in advance as a template image by the template cutout unit and stored in the template memory. Next, template matching between the template image and the second input image is performed by the template matching unit, and the position of a feature that substantially matches the feature of the template image is detected from the second input image. Finally, the three-dimensional position calculation unit calculates the three-dimensional position of the feature point from the feature position of the second input image corresponding to the feature position of the first input image according to the principle of triangulation. FIG. 2 shows an example in which the above processing is applied to block measurement. One vertex A of the block is extracted as a feature point from the first input image, and the vicinity thereof is cut out as a template. This template image is subjected to template matching with the second input image, and a feature point of a corresponding vertex is obtained. Although the features of the second input image corresponding to the template image have different shapes due to parallax, they are approximately equal and can be sufficiently detected by template matching. Further, in the template matching, since the multi-valued image information near the feature point is used, it is possible to stably detect the corresponding point. [0008] The template matching of this embodiment is the second
Although it is possible by checking the matching with the template in the entire area of the input image, the area that can correspond to the feature points of the first input image is a straight line area on the second input image. It is useless. As shown in FIG.
It is clear that the three-dimensional position of the feature point A in the first input image is on a straight line connecting the lens center and the actual feature point A on the object. This straight line is projected as a straight line on the second input image. The equation of the projected straight line can be easily calculated from the position of the feature point on the first input image and the mutual position of both cameras. If only the vicinity of this linear region is used as the search region for template matching, the search time required for matching is greatly reduced. As a second embodiment, one camera is attached to the tip of a robot, and the camera is moved.
FIG. 4 shows an example in which dimensional coordinates are measured. Except that the camera image before movement is stored in the first input image memory and the camera image after movement is stored in the second input image memory,
This is exactly the same as the three-dimensional coordinate measurement method described above. In this example, it takes time to move the camera, but there is an advantage in that the number of cameras can be reduced to one to reduce the camera portion. As described above, according to the present invention, the detection of a corresponding point, which has conventionally been difficult to detect stably, is performed by using a multivalued input template image near a characteristic point and the other input. By performing template matching with an image, there is an effect that the matching can be easily and accurately performed.

【図面の簡単な説明】 【図1】本発明の具体的実施例を示す構成図 【図2】テンプレートマッチングによる対応点検出の説
明図 【図3】テンプレートマッチングの探索領域を示す説明
図 【図4】カメラ移動機構を備えた実施例の構成図 【符号の説明】 1 第1カメラ 2 第2カメラ 3 画像処理装置 4 画像入力部 5 第1入力画像メモリ 6 第2入力画像メモリ 7 テンプレート切り出し部 8 テンプレートメモリ 9 特徴点抽出部 10 テンプレートマッチング部 11 3次元位置計算部 12 第1入力画像 13 第2入力画像 14 対象物 15 特徴点A 16 特徴点近傍テンプレート 17 特徴点Aの対応点 18 ロボット 19 ロボット制御装置
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a configuration diagram showing a specific embodiment of the present invention; FIG. 2 is an explanatory diagram of corresponding point detection by template matching; FIG. 3 is an explanatory diagram showing a search region of template matching; 4 Configuration diagram of an embodiment having a camera moving mechanism [Description of References] 1 First camera 2 Second camera 3 Image processing device 4 Image input unit 5 First input image memory 6 Second input image memory 7 Template cutout unit 8 Template memory 9 Feature point extraction unit 10 Template matching unit 11 3D position calculation unit 12 First input image 13 Second input image 14 Object 15 Feature point A 16 Feature point neighborhood template 17 Corresponding point of feature point A Robot 19 Robot controller

フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 G06T 1/00 315 G06T 1/00 400 Continuation of front page (58) Field surveyed (Int.Cl. 7 , DB name) G01B 11/00 G06T 1/00 315 G06T 1/00 400

Claims (1)

(57)【特許請求の範囲】 【請求項1】 カメラと多値画像のテンプレートマッチ
ング機能を持った画像処理装置を用いた3次元位置計測
方法において、 第1地点のカメラから入力した第1の入力画像から測定
すべき対象物の特徴点を抽出して特徴点近傍の入力画像
をテンプレート画像として格納し、 第1地点のカメラ撮像面の水平軸又は垂直軸が平行にな
るような位置にある第2地点のカメラから入力した画像
を第2の入力画像とし、 前記テンプレート画像と第2の入力画像とのテンプレー
トマッチングを、第1の地点のカメラのレンズ中心と抽
出した前記特徴点とを結ぶ3次元空間上の直線が前記第
2の入力画像上に撮像される直線領域の近傍のみにおい
て行って前記第2の入力画像上での対応する前記特徴点
の位置を求め、 前記特徴点の第1の入力画像上の位置と第2の入力画像
上の位置から三角測量の原理によって前記特徴点の3次
元位置を計測することを特徴とする3次元位置計測方
法。
(57) [Claim 1] In a three-dimensional position measurement method using an image processing apparatus having a template matching function between a camera and a multi-valued image, a first position input from a camera at a first point is provided. A feature point of the object to be measured is extracted from the input image, and the input image in the vicinity of the feature point is stored as a template image, and is located at a position where the horizontal or vertical axis of the camera imaging surface at the first point is parallel. An image input from the camera at the second point is used as a second input image, and template matching between the template image and the second input image is performed by connecting the lens center of the camera at the first point to the extracted feature points. The position of the corresponding feature point on the second input image is obtained by performing only in the vicinity of a straight line region where a straight line in a three-dimensional space is captured on the second input image, A three-dimensional position measuring method, comprising: measuring a three-dimensional position of the feature point from a position on the first input image and a position on the second input image according to the principle of triangulation.
JP02194594A 1994-01-21 1994-01-21 3D position measurement method Ceased JP3365443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02194594A JP3365443B2 (en) 1994-01-21 1994-01-21 3D position measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02194594A JP3365443B2 (en) 1994-01-21 1994-01-21 3D position measurement method

Publications (2)

Publication Number Publication Date
JPH07208928A JPH07208928A (en) 1995-08-11
JP3365443B2 true JP3365443B2 (en) 2003-01-14

Family

ID=12069201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02194594A Ceased JP3365443B2 (en) 1994-01-21 1994-01-21 3D position measurement method

Country Status (1)

Country Link
JP (1) JP3365443B2 (en)

Also Published As

Publication number Publication date
JPH07208928A (en) 1995-08-11

Similar Documents

Publication Publication Date Title
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
US7822267B2 (en) Enhanced object reconstruction
CN108932475A (en) A kind of Three-dimensional target recognition system and method based on laser radar and monocular vision
CN112161619B (en) Pose detection method, three-dimensional scanning path planning method and detection system
JP5430138B2 (en) Shape measuring apparatus and program
JP4836086B2 (en) 3D shape detector
JP2010181919A (en) Three-dimensional shape specifying device, three-dimensional shape specifying method, three-dimensional shape specifying program
CN110926330A (en) Image processing apparatus, image processing method, and program
CN107850425B (en) Method for measuring an article
Itami et al. A simple calibration procedure for a 2D LiDAR with respect to a camera
JPH0991436A (en) Image processing method and device therefor
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
Wang et al. Measurement of mirror surfaces using specular reflection and analytical computation
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
Kochi et al. 3D modeling of architecture by edge-matching and integrating the point clouds of laser scanner and those of digital camera
JP3365443B2 (en) 3D position measurement method
JP3253328B2 (en) Distance video input processing method
JPH0778252A (en) Object recognition method
JPH0875454A (en) Range finding device
JPH03186706A (en) Three-dimensional shape dimension measuring instrument
Ping et al. Verification of turning insert specifications through three-dimensional vision system
Pham et al. A Mobile Vision-based System for Gap and Flush Measuring between Planar Surfaces using ArUco Markers
Pedersini et al. Multi-camera parameter tracking
Jeon et al. A robust stereo-matching algorithm using multiple-baseline cameras
Yoshida et al. Three-dimensional measurement using multiple slits with a random dot pattern—multiple slits and camera calibration

Legal Events

Date Code Title Description
RVOP Cancellation by post-grant opposition