JPS6052703A - 3次元位置・姿勢検出方式 - Google Patents
3次元位置・姿勢検出方式Info
- Publication number
- JPS6052703A JPS6052703A JP16003683A JP16003683A JPS6052703A JP S6052703 A JPS6052703 A JP S6052703A JP 16003683 A JP16003683 A JP 16003683A JP 16003683 A JP16003683 A JP 16003683A JP S6052703 A JPS6052703 A JP S6052703A
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- television camera
- light emitting
- emitting elements
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
本発明は、ロボットが高度な作業を遂行する場合tこ必
要不可欠な作業対象物または2作業環境および作業治具
などの3次元位置や距離および姿勢などの3次元情報を
得る方式に関するものである従来、aポンティクスにお
いて重要な役割を果す作業対象物または2作業環境およ
び作業冶具などの3次元位置や距離および姿勢などをめ
る手法としては、ヨ角測量法に基づいてスポット光やス
リット光を作業対象物または9作業環境および作業治具
などに照射し、テレビカメラでその反射光を検出する能
動的な方法や2台のテレビカメラを用いた両型立体層、
による受動的な方法などがある。 17かし、これらは
、装置が大かかりにtす、その処理にかなりの時間を要
する。 特に、11ノ者の方法は9作業対象物または1
作業環境おまぴ作業冶具なとの状態によっては信頼性よ
く反射光を検出できない欠点がある。
要不可欠な作業対象物または2作業環境および作業治具
などの3次元位置や距離および姿勢などの3次元情報を
得る方式に関するものである従来、aポンティクスにお
いて重要な役割を果す作業対象物または2作業環境およ
び作業冶具などの3次元位置や距離および姿勢などをめ
る手法としては、ヨ角測量法に基づいてスポット光やス
リット光を作業対象物または9作業環境および作業治具
などに照射し、テレビカメラでその反射光を検出する能
動的な方法や2台のテレビカメラを用いた両型立体層、
による受動的な方法などがある。 17かし、これらは
、装置が大かかりにtす、その処理にかなりの時間を要
する。 特に、11ノ者の方法は9作業対象物または1
作業環境おまぴ作業冶具なとの状態によっては信頼性よ
く反射光を検出できない欠点がある。
本発明は1発光グイオートのような発光素子を、作業対
象物または1作業環境および作業lh具などに複a4&
l備え、そのスポット光をテレビカメラで検出し、各発
光素子の3次元位置を91算することにより、前記作業
対象物または1作業環境および作業治具などの3次元位
置や距離および姿勢をめる方式であり、これらの3次元
情報を必要とするロポッティクスの様々な分野への応用
が考えられる。 以下1本発明について説明子る。
象物または1作業環境および作業lh具などに複a4&
l備え、そのスポット光をテレビカメラで検出し、各発
光素子の3次元位置を91算することにより、前記作業
対象物または1作業環境および作業治具などの3次元位
置や距離および姿勢をめる方式であり、これらの3次元
情報を必要とするロポッティクスの様々な分野への応用
が考えられる。 以下1本発明について説明子る。
本発明の構成の概念図を第1図に示し、その概略につい
て述べる。 まず、計算機1からの命令により、複数個
の発光素子2を発光さゼ、これらのスポ・・ノド光をテ
レビカメラ3で受け、その2次ユ、出力値を、計算機1
にフィードパンクし、3次兄イ☆を導出アルゴリズムに
より、3次元情報を得るという閉ループを構成する。
第2図に、未方式におけ63次元情報111する座標系
を示す6四づ、′個の発光素子2を備えた 0「を原点
とするロボット座標系を (Xr、 Yr、 Zr )
、テレビカメラ3の早標系を(Xs、 Ys 、 Zs
)と−J−る。 ロボ・・)座標系におけるテレビカ
メラ3の原点を0L−(Xos 、 Yos 、 Zo
s ) 、テし・ヒカメラ3の座標系の各軸まわりの回
転角を α、β、γとすると。
て述べる。 まず、計算機1からの命令により、複数個
の発光素子2を発光さゼ、これらのスポ・・ノド光をテ
レビカメラ3で受け、その2次ユ、出力値を、計算機1
にフィードパンクし、3次兄イ☆を導出アルゴリズムに
より、3次元情報を得るという閉ループを構成する。
第2図に、未方式におけ63次元情報111する座標系
を示す6四づ、′個の発光素子2を備えた 0「を原点
とするロボット座標系を (Xr、 Yr、 Zr )
、テレビカメラ3の早標系を(Xs、 Ys 、 Zs
)と−J−る。 ロボ・・)座標系におけるテレビカ
メラ3の原点を0L−(Xos 、 Yos 、 Zo
s ) 、テし・ヒカメラ3の座標系の各軸まわりの回
転角を α、β、γとすると。
2つの座標系の関係は1次のようになる。
ここで1回転マトリックスRは7
1・ 。 。
JOcosα5illα
0 − 5Ina cosct。
である。
テレビカメラ3のIIW系において、スボ・ントXの2
次元出力値を(Xi、Yi )とL 、光軸中心の位置
を(Sz 、Sy ) 、レンズの焦点距離をFとする
と1次の2式が得られる。
次元出力値を(Xi、Yi )とL 、光軸中心の位置
を(Sz 、Sy ) 、レンズの焦点距離をFとする
と1次の2式が得られる。
X1=−F会Xs/Zs+5x(2)
Yi = −F −Ys/ Zs + Sy (3)ロ
ボット座標系において、9個の未知パラメータ (Xo
s、 Yos、 Zos 、 α 、 β 、γ 、
F 、 SR,Sy)が存在する。 未方式では、 (
1)、(2)、(3)式に基づいて、5個以上の発光素
子の3次元位置データとそれに対応したテレビカメラ画
面上の2次元出力値を得て、Newton法を用いて未
知パラメータをめ、座標系のキヤリプレーンヨン’c行
う。
ボット座標系において、9個の未知パラメータ (Xo
s、 Yos、 Zos 、 α 、 β 、γ 、
F 、 SR,Sy)が存在する。 未方式では、 (
1)、(2)、(3)式に基づいて、5個以上の発光素
子の3次元位置データとそれに対応したテレビカメラ画
面上の2次元出力値を得て、Newton法を用いて未
知パラメータをめ、座標系のキヤリプレーンヨン’c行
う。
次に、テレビカメラ3の座標系において、複数個の発光
素子2の3次元位置を決定する方法について述へる。
3次元空間において、たとえば。
素子2の3次元位置を決定する方法について述へる。
3次元空間において、たとえば。
同一 平面上にある4点の幾何学的な位置関係が既知の
とき、対応したテレビカメラ3の2次元出力値か得られ
れば、投影の逆変換から、4点の3次−元位置かへ一意
に定まる。 以下、複数個の発光素、・) =t2の内から、たとえば、長方形になる4点を選′/
Σだ場合についての3次元導出アルゴリズムにつ、2j いて述へる。 テレビカメラ3の座標系において、原点
Os (Xos 、Yos 、Zas’) カラ44
14の発光素子3の各点までのベクトルをq 1(i=
1、會・・4)、テレビカメラ3の画面トの対応点まで
のベクトルをpi(i=1.Φ拳・4)とすると。
とき、対応したテレビカメラ3の2次元出力値か得られ
れば、投影の逆変換から、4点の3次−元位置かへ一意
に定まる。 以下、複数個の発光素、・) =t2の内から、たとえば、長方形になる4点を選′/
Σだ場合についての3次元導出アルゴリズムにつ、2j いて述へる。 テレビカメラ3の座標系において、原点
Os (Xos 、Yos 、Zas’) カラ44
14の発光素子3の各点までのベクトルをq 1(i=
1、會・・4)、テレビカメラ3の画面トの対応点まで
のベクトルをpi(i=1.Φ拳・4)とすると。
透視変換から。
q+=s i@pi 、 5i)0
(’i = 1.・・・4) (4)
である。 4点は、同−W面F−にある長方形の頂占L
゛あるとすれば。
゛あるとすれば。
q 1 ÷ q3=q2 + q4 (5)1d−、、
閑電−首l=o (e) 1薯−□1=11=宜1・d(7) 1言−書1,1宜−宜1 = fy77− (e) ここで、1 ・ 1は、ベクトル間の距離を示し。
閑電−首l=o (e) 1薯−□1=11=宜1・d(7) 1言−書1,1宜−宜1 = fy77− (e) ここで、1 ・ 1は、ベクトル間の距離を示し。
D、dは、二辺の長さである。 以ヒの (4)。
・・・ (8)式より、5i(i=1.・・・4) が
計算され、テレビカメラ3の座標系における4点の発光
素子2の3次元座標q i (XS、Y3. ZS )
(−”i=1.・ゆ@4)がまる。 これらの座標値
をロボット座標系へ変換するために、(1)式を逆変換
して1次式が得られる。
計算され、テレビカメラ3の座標系における4点の発光
素子2の3次元座標q i (XS、Y3. ZS )
(−”i=1.・ゆ@4)がまる。 これらの座標値
をロボット座標系へ変換するために、(1)式を逆変換
して1次式が得られる。
この式に4点の発光素子2の3次元座標qi(Xs、Y
s、Zs ) (i= 1.* a −4)を代入する
ことにより、ロボット座標系における4点の発光素子2
の3次元座標がまる。
s、Zs ) (i= 1.* a −4)を代入する
ことにより、ロボット座標系における4点の発光素子2
の3次元座標がまる。
このようにして9作業対象物または9作業環境および作
業治具などの3次元位置や距離および姿勢などの3吹元
情報が得られる。
業治具などの3次元位置や距離および姿勢などの3吹元
情報が得られる。
次に、木センサの応用としては。
(A)ロボットハンドの手前部に木センサを備え、ハン
トの位置と姿勢を直接計算する方式。
トの位置と姿勢を直接計算する方式。
CB)(A)の方式の拡張として、ロボットの安全な作
業教示に利用。
業教示に利用。
(C)マスタースレイブ・マニピュレータにおいて、h
、センサを、単純な構成のマスターマニビュL/−夕と
して利用6 (D)作業冶具などに木センサを備え9組み立て作業に
利用。
、センサを、単純な構成のマスターマニビュL/−夕と
して利用6 (D)作業冶具などに木センサを備え9組み立て作業に
利用。
CB)移動ロボットのトラッキングや位置決めに利用。
なとロポー7ティクスの様々な分野への応用が考えられ
る。
る。
以上説明したように、 本方式は、複数個の発光素子と
テレビカメラおよび、入出力装置を持つ計算機という簡
単な構成で1作業対象物または。
テレビカメラおよび、入出力装置を持つ計算機という簡
単な構成で1作業対象物または。
′作業環境および作業治具なとの3次元情報を、高速、
高精度、高信頼性で得ることができる特徴を持っている
。
高精度、高信頼性で得ることができる特徴を持っている
。
第1図は本発明による方式を説明するための図、第2図
はロボット座!:#糸とテレビカメラ座標系の幾何学的
関係を説明するための図である。 図中、lは計算機、2は複数個の発光素子。 3はテレビカメラである。 第1図 7′2図 丘
はロボット座!:#糸とテレビカメラ座標系の幾何学的
関係を説明するための図である。 図中、lは計算機、2は複数個の発光素子。 3はテレビカメラである。 第1図 7′2図 丘
Claims (1)
- 【特許請求の範囲】 作業対象物または2作業環境および作業治具などの3吹
元位置や距離および姿勢などの3次元情報をめる方式に
おいて。 前記作業対象物または2作業環境および作業治具などに
複数個の発光素子を備え、該発光素子のスポット光をテ
レビカメラで検出し、前記複数個の発光素子の夫々の3
次元位置を計算することを特徴とする3次元位置・姿勢
検出方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16003683A JPS6052703A (ja) | 1983-08-31 | 1983-08-31 | 3次元位置・姿勢検出方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP16003683A JPS6052703A (ja) | 1983-08-31 | 1983-08-31 | 3次元位置・姿勢検出方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS6052703A true JPS6052703A (ja) | 1985-03-26 |
Family
ID=15706550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP16003683A Pending JPS6052703A (ja) | 1983-08-31 | 1983-08-31 | 3次元位置・姿勢検出方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6052703A (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62503121A (ja) * | 1985-06-14 | 1987-12-10 | ザ ブロ−クン ヒル プロプライエタリ− カンパニ− リミテツド | 物体の表面の少なくとも一部分の横断面形状又は輪郭に関する情報を得る方法及び装置 |
JPH01299267A (ja) * | 1988-05-27 | 1989-12-04 | Otsuka Chem Co Ltd | 光学活性β−ラクタム誘導体の製造法 |
EP0779969A1 (en) * | 1994-09-06 | 1997-06-25 | Montech Pty. Ltd. | Calibration frame |
US6603865B1 (en) | 2000-01-27 | 2003-08-05 | President Of Nagoya University | System for optically performing position detection and data communication |
FR2870594A1 (fr) * | 2004-05-24 | 2005-11-25 | Sagem | Systeme et procede de mise en relation geometrique d'objets |
FR2870593A1 (fr) * | 2004-05-24 | 2005-11-25 | Sagem | Systeme et procede de mise en relation geometrique d'objets |
CN106885531A (zh) * | 2017-04-20 | 2017-06-23 | 河北科技大学 | 基于二维激光雷达的车斗形容器三维扫描系统标定方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS52116012A (en) * | 1976-03-26 | 1977-09-29 | Takei Kiki Kogyo Kk | Cooordinate analyzer |
JPS54116258A (en) * | 1978-03-01 | 1979-09-10 | Nippon Aviotronics Kk | Apparatus for measuring multiidimensional moving position |
JPS5518906A (en) * | 1978-07-26 | 1980-02-09 | Agency Of Ind Science & Technol | Photoelectric position locator |
-
1983
- 1983-08-31 JP JP16003683A patent/JPS6052703A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS52116012A (en) * | 1976-03-26 | 1977-09-29 | Takei Kiki Kogyo Kk | Cooordinate analyzer |
JPS54116258A (en) * | 1978-03-01 | 1979-09-10 | Nippon Aviotronics Kk | Apparatus for measuring multiidimensional moving position |
JPS5518906A (en) * | 1978-07-26 | 1980-02-09 | Agency Of Ind Science & Technol | Photoelectric position locator |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62503121A (ja) * | 1985-06-14 | 1987-12-10 | ザ ブロ−クン ヒル プロプライエタリ− カンパニ− リミテツド | 物体の表面の少なくとも一部分の横断面形状又は輪郭に関する情報を得る方法及び装置 |
JPH01299267A (ja) * | 1988-05-27 | 1989-12-04 | Otsuka Chem Co Ltd | 光学活性β−ラクタム誘導体の製造法 |
EP0779969A1 (en) * | 1994-09-06 | 1997-06-25 | Montech Pty. Ltd. | Calibration frame |
EP0779969A4 (en) * | 1994-09-06 | 1999-04-14 | Montech Pty Ltd | CALIBRATION FRAME |
US6603865B1 (en) | 2000-01-27 | 2003-08-05 | President Of Nagoya University | System for optically performing position detection and data communication |
FR2870594A1 (fr) * | 2004-05-24 | 2005-11-25 | Sagem | Systeme et procede de mise en relation geometrique d'objets |
FR2870593A1 (fr) * | 2004-05-24 | 2005-11-25 | Sagem | Systeme et procede de mise en relation geometrique d'objets |
CN106885531A (zh) * | 2017-04-20 | 2017-06-23 | 河北科技大学 | 基于二维激光雷达的车斗形容器三维扫描系统标定方法 |
CN106885531B (zh) * | 2017-04-20 | 2018-12-18 | 河北科技大学 | 基于二维激光雷达的车斗形容器三维扫描系统标定方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sharma et al. | Motion perceptibility and its application to active vision-based servo control | |
Hu et al. | Automatic calibration of hand–eye–workspace and camera using hand-mounted line laser | |
Szabó et al. | Controlling a robotic arm in the 3D space with stereo vision | |
Wang | A simple and analytical procedure for calibrating extrinsic camera parameters | |
Al-Shanoon et al. | Robotic manipulation based on 3-D visual servoing and deep neural networks | |
JPH03213251A (ja) | ワーク位置検知装置 | |
JPS6052703A (ja) | 3次元位置・姿勢検出方式 | |
Ding et al. | An efficient solution to the relative pose estimation with a common direction | |
Sharma et al. | Optimizing hand/eye configuration for visual-servo systems | |
Ahluwalia et al. | A modular approach to visual servoing | |
JPS60136806A (ja) | ロボツト作業教示装置 | |
JP2778430B2 (ja) | 視覚に基く三次元位置および姿勢の認識方法ならびに視覚に基く三次元位置および姿勢の認識装置 | |
Tongloy et al. | An image-based visual servo control system based on an eye-in-hand monocular camera for autonomous robotic grasping | |
Han et al. | Image-based visual servoing control of a scara type dual-arm robot | |
JPS62214403A (ja) | 視覚センサ付ロボツトシステムにおけるキヤリブレ−シヨン方法 | |
He et al. | Solving the orientation-duality problem for a circular feature in motion | |
JPS62165213A (ja) | 作業環境教示装置 | |
JPH07129231A (ja) | 非接触点教示装置 | |
Weber et al. | Visual servoing using triangulation with an omnidirectional multi-camera system | |
Zhao et al. | Multiple cameras visual servoing used for large scale 3D positioning | |
Sultan et al. | Hand-eye 3D pose estimation for a drawing robot | |
Han et al. | Image-based visual servoing control of a SCARA robot | |
Cao et al. | Omnivision-based autonomous mobile robotic platform | |
JPH048191B2 (ja) | ||
Liu et al. | Trajectory Planning for Hyper-Redundant Manipulators Based on Lie Theory |