JPH07136959A - Robot positioning method - Google Patents

Robot positioning method

Info

Publication number
JPH07136959A
JPH07136959A JP28281893A JP28281893A JPH07136959A JP H07136959 A JPH07136959 A JP H07136959A JP 28281893 A JP28281893 A JP 28281893A JP 28281893 A JP28281893 A JP 28281893A JP H07136959 A JPH07136959 A JP H07136959A
Authority
JP
Japan
Prior art keywords
robot
image
feature
attitude
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28281893A
Other languages
Japanese (ja)
Inventor
Takeshi Shiyakunaga
健 尺長
Takashi Okada
尚 岡田
Masashi Okudaira
雅士 奥平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP28281893A priority Critical patent/JPH07136959A/en
Publication of JPH07136959A publication Critical patent/JPH07136959A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To correct the position and attitude of a robot after the movement of the robot based on the attitude estimation of an object so as to enable the high accuracy positioning of the robot. CONSTITUTION:An input image feature extracting part 20 receives the two-dimensional image of an object photographed by a fixed camera 10 and extracts a feature segment and a feature point. An image-object coordinating part 40 coordinates the extracted feature segment and feature point respectively with the features of segment description and point description of an object model previously prepared in an object model description storage part 30, and an object attitude estimating part 50 estimates the attitude of the object from this coordination. A robot primary induction part 60 induces a robot according to the estimated attitude, and a robot secondary induction part 80 corrects the position of the robot according to the position information from a range sensor 70 on a robot hand obtained at the time of inducing the robot and position information from the camera 10.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボット作業のための
ロボット位置決め方法に係り、詳しくは、固定カメラか
ら2次元画像として入力される3次元物体について、そ
れの3次元空間内での位置姿勢を推定してロボットを誘
導し、その位置をロボットに取り付けたレンジセンサに
より補正する方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot positioning method for robot work, and more specifically, to a position and orientation of a three-dimensional object input as a two-dimensional image from a fixed camera in a three-dimensional space. The method relates to a method of estimating a position, guiding a robot, and correcting the position by a range sensor attached to the robot.

【0002】[0002]

【従来の技術】従来、ロボット作業においては、ロボッ
ト座標系での位置・姿勢が予め与えられた物体を対象と
して、数値制御により、予め記述された動作手順の作業
を忠実に行なう方法が多く採られてきた。また、ロボッ
ト座標系と物体座標系のおおよその関係が既知である場
合、ロボットに取り付けられたレンジセンサなどを用い
て物体位置を観測し、ロボット座標系と物体座標系を整
合させる方法が用いられている。
2. Description of the Related Art Conventionally, in robot work, many methods have been adopted in which the work of a previously described operation procedure is faithfully performed by numerical control for an object whose position / orientation in a robot coordinate system is given in advance. Has been. In addition, when the approximate relationship between the robot coordinate system and the object coordinate system is known, a method of observing the object position using a range sensor attached to the robot and matching the robot coordinate system and the object coordinate system is used. ing.

【0003】一方、特開平1−232484号公報及び
特開平2−51008号公報に記載のように、固定カメ
ラを用いて物体の位置・姿勢を推定してロボットを誘導
する方法がある。
On the other hand, as described in JP-A-1-232484 and JP-A-2-51008, there is a method of estimating the position / orientation of an object using a fixed camera and guiding a robot.

【0004】[0004]

【発明が解決しようとする課題】上記従来技術のうち、
数値制御による方法は、多様な環境下でのロボット作業
には対応できないという問題があった。また、レンジセ
ンサによる座標整合は、微小な位置ずれの補正には有効
であるものの、やはり多様な環境下での作業の実現には
ほど遠いものであった。一方、固定カメラを用いた物体
の位置・姿勢推定だけでは、ある程度の姿勢推定精度し
か得ることができず、これをこのまま用いてできるロボ
ット作業は特殊な用途に限定されていた。
Of the above-mentioned conventional techniques,
The numerical control method has a problem that it cannot be applied to robot work in various environments. Further, although the coordinate matching by the range sensor is effective for the correction of the minute positional deviation, it is still far from the realization of the work in various environments. On the other hand, only by estimating the position and orientation of an object using a fixed camera, it is possible to obtain only a certain degree of orientation estimation accuracy, and robot work that can be used as it is is limited to special applications.

【0005】本発明の目的は、上記従来技術の問題点を
除去し、カメラ入力画像に対応する既知形状の物体の3
次元空間内での姿勢を推定すると共に、レンジセンサに
よる位置・姿勢補正により、高速かつ高精度にロボット
の位置決めを実現する方法を提供することにある。
An object of the present invention is to eliminate the above-mentioned problems of the prior art, and to eliminate the problems of the known shape object corresponding to the camera input image.
It is an object of the present invention to provide a method for positioning a robot at high speed and with high accuracy by estimating a posture in a dimensional space and correcting the position and posture by a range sensor.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明によるロボット位置決め方法は、作業環境に
固定した撮像手段で対象物体を撮像し、該撮像した2次
元画像から特徴を抽出するステップと、前記抽出した特
徴泊予め用意してある当該対象物体の物体モデルとの対
応付けを行うステップと、前記対応付けから姿勢候補を
求め、対象物体の姿勢を推定するステップと、前記推定
した姿勢に従ってロボットを目的位置の近傍に誘導する
ステップと、前記誘導後、ロボットに取り付けたレンジ
センサと前記作業環境に固定した撮像手段とで対象物体
を観測してそれぞれ物体位置を求め、該物体位置を比較
してロボット位置を補正するステップとからなることを
特徴とする。
In order to achieve the above object, a robot positioning method according to the present invention picks up an image of a target object by an image pickup means fixed in a work environment and extracts features from the picked up two-dimensional image. The step, the step of associating the extracted feature night with the object model of the target object prepared in advance, the step of obtaining a pose candidate from the association, and estimating the pose of the target object, the estimation The step of guiding the robot to the vicinity of the target position according to the posture, and after the guiding, the target object is observed by the range sensor attached to the robot and the image pickup means fixed to the working environment, and the object position is obtained, and the object position And a step of correcting the robot position.

【0007】[0007]

【作用】本発明では、撮像手段で撮像した対象物体の2
次元画像の特徴線分および特徴点と予め用意してある該
対象物体の物体モデル線分記述および物体モデル点記述
の特徴との各対応付けを行って、物体姿勢を推定し、ロ
ボットを誘導した後、レンジセンサにより観測される物
体位置と撮像手段の2次元画像から得られる物体とを比
較してロボット位置を補正することにより、目的とする
精度の位置決めを実現できる。
In the present invention, two of the target objects imaged by the imaging means are
By associating the characteristic line segments and characteristic points of the three-dimensional image with the features of the object model line segment description and object model point description of the target object that have been prepared in advance, the object posture is estimated, and the robot is guided. After that, by comparing the object position observed by the range sensor with the object obtained from the two-dimensional image of the image pickup means to correct the robot position, it is possible to realize the positioning with the desired accuracy.

【0008】[0008]

【実施例】以下、図面を用いて本発明の一実施例を説明
する。
An embodiment of the present invention will be described below with reference to the drawings.

【0009】図1は本発明の一実施例のブロック図であ
り、10はカメラ、20は入力画像特徴抽出部、30は
物体モデル記述格納部、40は画像・物体対応付け部、
50は物体姿勢推定部、60はロボット一次誘導部、7
0はレーザレンジセンサ、80はロボット二次誘導部を
示す。
FIG. 1 is a block diagram of an embodiment of the present invention. 10 is a camera, 20 is an input image feature extraction unit, 30 is an object model description storage unit, 40 is an image / object associating unit,
Reference numeral 50 is an object posture estimation unit, 60 is a robot primary guidance unit, 7
Reference numeral 0 represents a laser range sensor, and 80 represents a robot secondary guiding unit.

【0010】カメラ10は、ロボット(図示せず)の作
業環境内に固定して設置されている。入力画像特徴抽出
部20は、この焦点距離やレンズ中心が既知であるカメ
ラ10が撮像した作業対象の3次元物体(以下、対象物
体という)の2次元画像を入力し、3本以上の特徴線分
と少なくとも2点以上の特徴点を抽出する。図2はこれ
を示したもので、100が対象物体、矢印が特徴線分、
丸印が特徴点を示す。なお、対象物体100の幾何的形
状は既知である。
The camera 10 is fixedly installed in the work environment of a robot (not shown). The input image feature extraction unit 20 inputs a two-dimensional image of a three-dimensional object (hereinafter referred to as a target object) which is a work target captured by the camera 10 whose focal length and lens center are known, and three or more feature lines are input. Minutes and at least two or more feature points are extracted. FIG. 2 shows this, in which 100 is a target object, arrows are characteristic line segments,
Circles indicate feature points. The geometric shape of the target object 100 is known.

【0011】物体モデル記述格納部30には、あらかじ
め対象物体100中の3個以上の有効線分について、物
体内で定義される任意の座標系で得られた3次元方向表
示とその線分の特徴(例えば光学的特徴)および、線分
と共線位置にある一点の3次元座標値とを記述した物体
モデル線分記述と、少なくとも2点以上の点の、物体内
で定義された座標系で得られた3次元座標値とその点の
特徴(例えば光学的特徴)を記述した物体モデル点記述
が格納されている。
In the object model description storage unit 30, for three or more effective line segments in the target object 100 in advance, a three-dimensional direction display obtained in an arbitrary coordinate system defined in the object and the line segments thereof are displayed. An object model line segment description that describes a feature (for example, an optical feature) and a line segment and a three-dimensional coordinate value of one point at a collinear position, and a coordinate system defined in the object of at least two or more points The object model point description in which the three-dimensional coordinate values obtained in (3) and the feature (for example, optical feature) of the point are described is stored.

【0012】画像・物体対応付け部40は、入力画像特
徴抽出部20で抽出されたカメラ入力画像(2次元画
像)の特徴線分および特徴点の特徴と物体モデル記述格
納部30に格納されている物体モデル線分記述および物
体モデル点記述中の特徴記述との対応付けを行い、対応
付けの取れたものの中から3線分および2点を選択し、
線分および点について、3次元座標と2次元画像座標の
対応付け表を生成する。
The image / object associating unit 40 stores the feature line segments and feature points of the camera input image (two-dimensional image) extracted by the input image feature extracting unit 20 and the object model description storage unit 30. The object model line segment description and the feature description in the object model point description are associated with each other, and three line segments and two points are selected from the associated items,
A correspondence table of three-dimensional coordinates and two-dimensional image coordinates is generated for line segments and points.

【0013】物体姿勢推定部50は、画像・物体対応付
け部40により選択された線分集合および指定点対につ
いて、それの3次元空間内で考えうるすべての姿勢候補
を推定する。次に、各姿勢候補から物体モデル記述格納
部30に含まれる線分集合および点集合の像を推定し、
これと2次元画像との照合をとることにより、姿勢候補
の中から妥当な姿勢を選択する。即ち、対象物体の姿勢
を推定する。
The object pose estimation unit 50 estimates all possible pose candidates in the three-dimensional space of the line segment set and the designated point pair selected by the image / object association unit 40. Next, the image of the line segment set and the point set included in the object model description storage unit 30 is estimated from each pose candidate,
By comparing this with a two-dimensional image, an appropriate posture is selected from the posture candidates. That is, the posture of the target object is estimated.

【0014】なお、ここまでの処理については、例えば
特開平2−51008号公報に詳述されているので、詳
しい説明は省略する。
Since the processing up to this point is described in detail in, for example, Japanese Patent Laid-Open No. 2-51008, detailed description will be omitted.

【0015】ロボット一次誘導部60は、物体姿勢推定
部50により選択(推定)された姿勢に従って、対象物
体の予め決められた所定の位置(目的位置)の近傍にロ
ボットを誘導する。この際、必要に応じて障害物回避な
どの処置を講じてもよい。
The robot primary guiding unit 60 guides the robot in the vicinity of a predetermined position (target position) of the target object according to the posture selected (estimated) by the object posture estimating unit 50. At this time, measures such as obstacle avoidance may be taken as necessary.

【0016】ロボット二次誘導部80は、ロボット一次
誘導部60により誘導された位置・姿勢において、ロボ
ットのロボットハンドに具備されたレーザレンジセンサ
70により観測される物体位置に従って、ロボットの位
置・姿勢を補正する。具体的には、図3に示すように、
ロボットハンド200の先端部に取り付けられたレーザ
レンジセンサ70により観測される対象物体100の特
徴点の位置(図3の丸印)と、固定カメラ10で同時に
撮像されるレーザ・スリット像の物体モデル上での特徴
点の位置により、物体の位置および姿勢推定を補正す
る。
The robot secondary guiding unit 80, in the position / posture guided by the robot primary guiding unit 60, follows the position / posture of the robot according to the object position observed by the laser range sensor 70 provided on the robot hand of the robot. To correct. Specifically, as shown in FIG.
The position of the characteristic point of the target object 100 (circled in FIG. 3) observed by the laser range sensor 70 attached to the tip of the robot hand 200, and the object model of the laser slit image simultaneously captured by the fixed camera 10. The position and orientation estimation of the object is corrected by the position of the feature point above.

【0017】図4に、ロボット二次誘導部80での処理
手順の一例を示す。ロボットハンド200の先端に取り
付られたレーザレンジセンサ(レーザレンジファインダ
ともいう)70により、平面状のレーザ光を対象物体1
00に照射し(410)、そのレーザ像をレーザレンジ
センサ70により読み取って特徴点を検出し(42
0)、該特徴点のロボットハンド200から見た3次元
的位置を算出する(430)。具体的には、図3に示し
たように、レーザレンジセンサ70により対象物体10
0の稜線を含む部分のレーザ像(スリット像)を観測
し、該レーザ像から稜線の交点部分を抽出し、その位置
を特徴点(丸印)として、その3次元座標を計算する。
同時に、固定カメラ10で物体像とともにレーザ像(ス
リット像)を撮像し(440)、レーザ像と稜線との交
点(特徴点)の物体上(モデル上)での位置を算出する
(450)。
FIG. 4 shows an example of a processing procedure in the robot secondary guiding unit 80. A laser range sensor (also referred to as a laser range finder) 70 attached to the tip of the robot hand 200 converts a planar laser beam into a target object 1
00 (410), and the laser image is read by the laser range sensor 70 to detect the characteristic points (42
0), the three-dimensional position of the feature point viewed from the robot hand 200 is calculated (430). Specifically, as shown in FIG. 3, the target object 10 is detected by the laser range sensor 70.
A laser image (slit image) of a portion including a ridgeline of 0 is observed, an intersection portion of the ridgeline is extracted from the laser image, and its position is used as a feature point (circle mark) to calculate its three-dimensional coordinates.
At the same time, a laser image (slit image) is captured together with the object image by the fixed camera 10 (440), and the position of the intersection (feature point) of the laser image and the ridgeline on the object (on the model) is calculated (450).

【0018】以上の操作を例えば最低3回繰り返して、
レーザレンジセンサ70により観測される物体位置と固
定カメラ10の画像から得られる物体位置の整合をと
り、ロボットを正確に誘導する(460)。
The above operation is repeated at least three times,
The object position observed by the laser range sensor 70 and the object position obtained from the image of the fixed camera 10 are matched to accurately guide the robot (460).

【0019】[0019]

【発明の効果】以上説明したように、本発明によれば、
撮像手段で撮像した対象物体の2次元画像の特徴と予め
用意してある対象物体の物体モデルとの対応付けを行っ
て、対象物体の姿勢を推定し、こうして得られた推定姿
勢に従ってロボットを移動させた後、レンジセンサによ
り観測される物体位置とカメラ情報から得られる物体位
置を統合することにより、物体の正確な位置を高速に推
定できるため、工業用視覚センサあるいはロボットの視
覚系を実現するのに広く適用できる。また、本発明によ
れば、正確な形状モデルが予め与えられていない場合に
ついても、物体の位置決めを実現できる。
As described above, according to the present invention,
The posture of the target object is estimated by associating the features of the two-dimensional image of the target object captured by the image capturing means with the object model of the target object prepared in advance, and the robot is moved according to the estimated posture thus obtained. After that, by integrating the object position observed by the range sensor and the object position obtained from the camera information, the accurate position of the object can be estimated at high speed, thus realizing the industrial visual sensor or the visual system of the robot. Widely applicable to. Further, according to the present invention, the positioning of the object can be realized even when the accurate shape model is not given in advance.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the present invention.

【図2】カメラと対象物体の関係を示す図である。FIG. 2 is a diagram showing a relationship between a camera and a target object.

【図3】対象物体の姿勢推定によるロボット移動後のカ
メラ、レーザレンジセンサ、対象物体の関係を示す図で
ある。
FIG. 3 is a diagram showing a relationship between a camera, a laser range sensor, and a target object after the robot is moved by estimating the posture of the target object.

【図4】ロボット二次誘導部の処理手順の一例を示す図
である。
FIG. 4 is a diagram showing an example of a processing procedure of a robot secondary guiding unit.

【符号の説明】[Explanation of symbols]

10 カメラ 20 入力画像特徴抽出部 30 物体モデル記述格納部 40 画像・物体対応付け部 50 物体姿勢推定部 60 ロボット一次誘導部 70 レーザレンジセンサ 80 ロボット二次誘導部 100 対象物体 10 camera 20 input image feature extraction unit 30 object model description storage unit 40 image / object association unit 50 object orientation estimation unit 60 robot primary guidance unit 70 laser range sensor 80 robot secondary guidance unit 100 target object

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 T 9179−3H ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI technical display location G05D 3/12 T 9179-3H

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 形状既知物体の姿勢推定に基づくロボッ
トの位置決め方法であって、 作業環境に固定した撮像手段で対象物体を撮像し、該撮
像した2次元画像から特徴を抽出するステップと、 前記抽出した特徴と予め用意してある当該対象物体の物
体モデルとの対応付けを行うステップと、 前記対応付けから姿勢候補を求め、対象物体の姿勢を推
定するステップと、 前記推定した姿勢に従ってロボットを目的位置の近傍に
誘導するステップと、 前記誘導後、ロボットに取り付けたレンジセンサと前記
作業環境に固定した撮像手段とで対象物体を観測してそ
れぞれ物体位置を求め、該物体位置を比較してロボット
位置を補正するステップと、 を有することを特徴とするロボット位置決め方法。
1. A robot positioning method based on posture estimation of a shape-known object, the method comprising the steps of capturing an image of a target object with an image capturing means fixed in a work environment and extracting features from the captured two-dimensional image. A step of associating the extracted feature with an object model of the target object prepared in advance; a step of obtaining a pose candidate from the association and estimating the pose of the target object; a robot according to the estimated pose. Step of guiding to the vicinity of the target position, after the guidance, the target object is observed by the range sensor attached to the robot and the imaging means fixed to the working environment to obtain the respective object positions, and the object positions are compared. A robot positioning method comprising: a step of correcting a robot position.
JP28281893A 1993-11-11 1993-11-11 Robot positioning method Pending JPH07136959A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28281893A JPH07136959A (en) 1993-11-11 1993-11-11 Robot positioning method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28281893A JPH07136959A (en) 1993-11-11 1993-11-11 Robot positioning method

Publications (1)

Publication Number Publication Date
JPH07136959A true JPH07136959A (en) 1995-05-30

Family

ID=17657488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28281893A Pending JPH07136959A (en) 1993-11-11 1993-11-11 Robot positioning method

Country Status (1)

Country Link
JP (1) JPH07136959A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100608651B1 (en) * 2004-12-22 2006-08-08 엘지전자 주식회사 Objective trace method for robot
KR100608650B1 (en) * 2004-12-15 2006-08-08 엘지전자 주식회사 Objective trace method for robot
CN103056884A (en) * 2011-10-20 2013-04-24 株式会社安川电机 Robot system and processed object manufacturing method
JP2013086229A (en) * 2011-10-20 2013-05-13 Yaskawa Electric Corp Robot system
CN108931252A (en) * 2017-05-22 2018-12-04 本田技研工业株式会社 It is positioned in urban environment using the monocular of pavement marker

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100608650B1 (en) * 2004-12-15 2006-08-08 엘지전자 주식회사 Objective trace method for robot
KR100608651B1 (en) * 2004-12-22 2006-08-08 엘지전자 주식회사 Objective trace method for robot
CN103056884A (en) * 2011-10-20 2013-04-24 株式会社安川电机 Robot system and processed object manufacturing method
JP2013086229A (en) * 2011-10-20 2013-05-13 Yaskawa Electric Corp Robot system
US8930009B2 (en) 2011-10-20 2015-01-06 Kabushiki Kaisha Yaskawa Denki Robot system and processed object manufacturing method
CN108931252A (en) * 2017-05-22 2018-12-04 本田技研工业株式会社 It is positioned in urban environment using the monocular of pavement marker

Similar Documents

Publication Publication Date Title
CN108109174B (en) Robot monocular guidance method and system for randomly sorting scattered parts
US8095237B2 (en) Method and apparatus for single image 3D vision guided robotics
KR100693262B1 (en) Image processing apparatus
CN108965690B (en) Image processing system, image processing apparatus, and computer-readable storage medium
KR20200041355A (en) Simultaneous positioning and mapping navigation method, device and system combining markers
US20060088203A1 (en) Method and apparatus for machine-vision
JP2004508954A (en) Positioning device and system
Nair et al. Moving obstacle detection from a navigating robot
US9591228B2 (en) Method for the localization of a tool in a workplace, corresponding system and computer program product
JPH10253322A (en) Method and apparatus for designating position of object in space
KR900002509B1 (en) Apparatus for recognizing three demensional object
JP2903964B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
Wan et al. High-precision six-degree-of-freedom pose measurement and grasping system for large-size object based on binocular vision
US20220011750A1 (en) Information projection system, controller, and information projection method
JP2559939B2 (en) Three-dimensional information input device
JPS62206684A (en) Position and shape measuring method by pattern projection
JP2003136465A (en) Three-dimensional position and posture decision method of detection target object and visual sensor of robot
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
Malis et al. 212d visual servoing with respect to planar contours having complex and unknown shapes
JPH07136959A (en) Robot positioning method
KR100773271B1 (en) Method for localization of mobile robot with a single camera
US20230079899A1 (en) Determination of an absolute initial position of a vehicle
CN113504385B (en) Speed measuring method and device for plural cameras
JP2004354320A (en) Recognition verification system for imaging object
JPH09329440A (en) Coordinating method for measuring points on plural images