JPS62157791A - ロボツトのグリツパ中心割り出し方式 - Google Patents
ロボツトのグリツパ中心割り出し方式Info
- Publication number
- JPS62157791A JPS62157791A JP29892785A JP29892785A JPS62157791A JP S62157791 A JPS62157791 A JP S62157791A JP 29892785 A JP29892785 A JP 29892785A JP 29892785 A JP29892785 A JP 29892785A JP S62157791 A JPS62157791 A JP S62157791A
- Authority
- JP
- Japan
- Prior art keywords
- gripper
- center
- robot
- disc
- disk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、部品の組立やハンドリングに用いられるハン
ドアイシステム(Hand−Eye System)の
ロボットのグリッパの中心を正確に割り出すアルゴリズ
ムに関する。
ドアイシステム(Hand−Eye System)の
ロボットのグリッパの中心を正確に割り出すアルゴリズ
ムに関する。
ハンドアイシステムは、外界に作用を及ぼす操作機能(
ハンド)と、触覚、視覚など外界からの情報を収集分析
する感覚機能(アイ)を組み合わせたシステムで、マニ
ピユレータだけでは行い得ない高度で複雑な作業を遂行
させることのできるシステムである。この視覚の機能を
有するのがビジョンシステムであり、ビジョンで見えた
物体の重心位置や物体の方向を即座に計算して、ロボッ
ト座標系に変換する。つまり、あらかじめロボットとビ
ジョンの座標系を関連づける計算敷は求められていて、
その計算敷に基づいて物体の重心位置や方向を計算する
ものである。
ハンド)と、触覚、視覚など外界からの情報を収集分析
する感覚機能(アイ)を組み合わせたシステムで、マニ
ピユレータだけでは行い得ない高度で複雑な作業を遂行
させることのできるシステムである。この視覚の機能を
有するのがビジョンシステムであり、ビジョンで見えた
物体の重心位置や物体の方向を即座に計算して、ロボッ
ト座標系に変換する。つまり、あらかじめロボットとビ
ジョンの座標系を関連づける計算敷は求められていて、
その計算敷に基づいて物体の重心位置や方向を計算する
ものである。
ビジョンシステムとロボットを組み合わせるとき、ロボ
ットの手首の中心位置、すなわちグリ、7バの中心位置
を正確に割り出すことが必要になる。
ットの手首の中心位置、すなわちグリ、7バの中心位置
を正確に割り出すことが必要になる。
しかしながら、従来においては、ロボットのグリッパの
中心を正確に割り出す技術はなかった。
中心を正確に割り出す技術はなかった。
従来の方法によると、必ず人間の熟練度を必要とし、再
現性に乏しい方法しかなかった。
現性に乏しい方法しかなかった。
例えば、円板をグリッパの中心につかませるためには、
人の視覚と手作業によって中心にっがむようにしていた
。
人の視覚と手作業によって中心にっがむようにしていた
。
またジグとなる円板に種々の工作を施し、人の視力を補
う方法もあったが、いずれの場合も!!!練度や再現性
の点で根本的な問題解決とはなっていなかった。
う方法もあったが、いずれの場合も!!!練度や再現性
の点で根本的な問題解決とはなっていなかった。
本発明は、人の介在を無くし、ロボットだけでグリッパ
の中心に物をつかもうとする方法を提供することを目的
とする。
の中心に物をつかもうとする方法を提供することを目的
とする。
この目的の達成のため、本発明は、次に説明する手段を
採る。
採る。
グリッパの中心を見つけるためには、ロボットに視覚セ
ンサ取り付けた、いわゆるハンドアイシステムにおいて
行われる。
ンサ取り付けた、いわゆるハンドアイシステムにおいて
行われる。
アイ (Eye)に当たるビジョンには、ccDカメラ
からの情報を処理する能力があり、物体の重心と重心座
標を計算できることが必要である。ロボットのグリッパ
に持たせるジグとして、円板を用意する。この円板は、
グリッパで確実につかむことができるようにする。ロボ
ットとビジョンの位置関係は、ビジョン視野が、ロボッ
トの動作範囲内にあるようにする。
からの情報を処理する能力があり、物体の重心と重心座
標を計算できることが必要である。ロボットのグリッパ
に持たせるジグとして、円板を用意する。この円板は、
グリッパで確実につかむことができるようにする。ロボ
ットとビジョンの位置関係は、ビジョン視野が、ロボッ
トの動作範囲内にあるようにする。
以上の準備のもとに、
fil ロボットのグリッパに円板の中心付近を確実
につかませる。
につかませる。
(2) ビジョンの視野内にあらかじめ教えられてい
る点があり、そこへ円板をティーチングで移動させ、グ
リッパを開いておく。
る点があり、そこへ円板をティーチングで移動させ、グ
リッパを開いておく。
(3) ビジョンに計測させ、円板の重心位置座標を
計測する。
計測する。
(4) 再び(2)と逆のモーションで円板をつかみ
上げ(5) 手首を1806回転させる。
上げ(5) 手首を1806回転させる。
(61121の方法で円板を再び同一場所に置く。
+71 +31の方法で計測する。
+81 (31と(7)で計測した円板の重心位置座
標の中点をグリッパの中心座標であるとする。
標の中点をグリッパの中心座標であるとする。
次に、本発明を図面に示す説明図を参照して具体的に説
明する。第1図はロボットによって2回置かれた円板の
状態を重ねて描いたものである。
明する。第1図はロボットによって2回置かれた円板の
状態を重ねて描いたものである。
同図において、円板を1回目に置いた状態をAlとし、
手首を180”回転させて2回目に置いた状態をA2と
する。そして、それぞれの状態での円板の重心位置P1
及びP2の座標をそれぞれ(x+、?+)、 (x2
+ yz)とすると、グリッパの中心位置Cの座標は、
それぞれ次のように表される。
手首を180”回転させて2回目に置いた状態をA2と
する。そして、それぞれの状態での円板の重心位置P1
及びP2の座標をそれぞれ(x+、?+)、 (x2
+ yz)とすると、グリッパの中心位置Cの座標は、
それぞれ次のように表される。
C” (x+ +xg)/2. (y+ +yz)
/2このようにしてグリッパの中心位置を正確に計算す
ることができる。
/2このようにしてグリッパの中心位置を正確に計算す
ることができる。
また、診断手法として長時間ロボットを動かしているこ
とによって起きる微小な位置ずれを自己診断するように
一定時間間隔で手首中心の補正を行ってやることも可能
である。
とによって起きる微小な位置ずれを自己診断するように
一定時間間隔で手首中心の補正を行ってやることも可能
である。
この場合、人の介在がなく、正確に行われることが重要
である。
である。
精度については、本発明を適用した場合、151四方の
視野による計測で、数十μmの誤差しかないことが、確
かめられている。
視野による計測で、数十μmの誤差しかないことが、確
かめられている。
もしこれが、人の手による別の方法で行うとすれば、1
00μm以下に精度を上げるために多くの労力を必要と
するであろう。
00μm以下に精度を上げるために多くの労力を必要と
するであろう。
しかも、繰り返し精度を保つことのできるような再現性
はない。
はない。
本発明によれば、人の労力を一切必要とせず、即座にグ
リッパの中心を正確に見つけ出すことができる。
リッパの中心を正確に見つけ出すことができる。
上述したように本発明によれば、下記の効果を奏する。
(1) ビジョンシステムによる計算と、グリッパの
反転動作とにより、ロボットのグリッパ中心を正確に知
ることができ、これによりロボットによる組立、ハンド
リングを人為的誤差を含まずに行える。
反転動作とにより、ロボットのグリッパ中心を正確に知
ることができ、これによりロボットによる組立、ハンド
リングを人為的誤差を含まずに行える。
(2)人の介在を必要としなくなったので、自動スター
ト、自動運転が可能となる。
ト、自動運転が可能となる。
(3)すべてのロボットに対して適応が可能である。
第1図はロボットによって2回置かれた円板の状態を重
ねて表した説明図である。
ねて表した説明図である。
Claims (1)
- 【特許請求の範囲】 1、次のステップよりなるロボットのグリッパ中心割り
出し方式。 (1)ロボットのグリッパに、円板の中心付近を確実に
つかませる。 (2)ビジョンの視野内のあらかじめ教えられている点
に、上記円板をティーチングで移動させ、グリッパを開
いて円板を置く。 (3)ビジョンシステムに、円板の重心位置座標を計測
させる。 (4)グリッパによって円板をつかみ上げる。 (5)グリッパの手首を180°回転させる。 (6)上記(2)と同様の方法で円板を再び同一場所に
置く。 (7)上記(3)と同様の方法で計測する。 (8)上記(3)と(7)で計測した円板の重心位置座
標の中点をグリッパの中心座標とする。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29892785A JPS62157791A (ja) | 1985-12-27 | 1985-12-27 | ロボツトのグリツパ中心割り出し方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29892785A JPS62157791A (ja) | 1985-12-27 | 1985-12-27 | ロボツトのグリツパ中心割り出し方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS62157791A true JPS62157791A (ja) | 1987-07-13 |
Family
ID=17865983
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29892785A Pending JPS62157791A (ja) | 1985-12-27 | 1985-12-27 | ロボツトのグリツパ中心割り出し方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS62157791A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102016328A (zh) * | 2008-04-28 | 2011-04-13 | 国立大学法人东京大学 | 位移变换装置 |
-
1985
- 1985-12-27 JP JP29892785A patent/JPS62157791A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102016328A (zh) * | 2008-04-28 | 2011-04-13 | 国立大学法人东京大学 | 位移变换装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Okamura et al. | An overview of dexterous manipulation | |
Suárez-Ruiz et al. | A framework for fine robotic assembly | |
JPH0312709A (ja) | マニピュレータの制御方法及び制御装置並びにマニピュレータ装置 | |
US11633852B2 (en) | Computing device, machine learning method, and storage medium | |
JPS60263681A (ja) | ロボツトの教示方法 | |
Aoki et al. | Segmentation of human upper body movement using multiple IMU sensors | |
Yu et al. | A hybrid visual–haptic framework for motion synchronization in human–robot cotransporting: A human motion prediction method | |
JPS62157791A (ja) | ロボツトのグリツパ中心割り出し方式 | |
JPH01205204A (ja) | 視覚付きロボットの座標系較正方法 | |
Wei et al. | Multisensory visual servoing by a neural network | |
CN111002295A (zh) | 一种二指抓取机器人的示教手套及示教系统 | |
Piacenza et al. | Pouring by feel: An analysis of tactile and proprioceptive sensing for accurate pouring | |
JPS61226289A (ja) | ロボツト・マニピユレ−タの診断装置 | |
JPH02276725A (ja) | ロボットの教示方法 | |
JPS61224012A (ja) | マニピユレ−タの駆動方式 | |
Fuentes et al. | Experiments on dextrous manipulation without prior object models | |
JPH02145277A (ja) | ロボットの制御装置 | |
Padhy | On the dynamics of SCARA robot | |
Hristu-Varsakelis et al. | Experimenting with hybrid control | |
Birbach et al. | Calibrating a pair of inertial sensors at opposite ends of an imperfect kinematic chain | |
US11712797B2 (en) | Dual hand detection in teaching from demonstration | |
Nowak et al. | Manipulator teleoperation by using the position of the hand registered by vision system | |
JPS63105893A (ja) | ロボットへの動作自動教示方法 | |
Al-Ammri et al. | Design of robotic arm control system mimics human arm motion | |
Tao et al. | A Method Based on Wearable Devices for Controlling Teaching of Robots for Human-robot Collaboration |