JPS62241011A - 視覚センサ座標系の定義方式 - Google Patents
視覚センサ座標系の定義方式Info
- Publication number
- JPS62241011A JPS62241011A JP8386286A JP8386286A JPS62241011A JP S62241011 A JPS62241011 A JP S62241011A JP 8386286 A JP8386286 A JP 8386286A JP 8386286 A JP8386286 A JP 8386286A JP S62241011 A JPS62241011 A JP S62241011A
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- visual sensor
- points
- point
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 42
- 238000003384 imaging method Methods 0.000 claims description 33
- 238000000034 method Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 5
- 230000008929 regeneration Effects 0.000 description 3
- 238000011069 regeneration method Methods 0.000 description 3
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 101100328887 Caenorhabditis elegans col-34 gene Proteins 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(産業上の利用分野〕
本発明はロボット基準座標系と視覚センサ座標系との関
係を定義する視覚センサ座標系の定義方式に関するもの
である。
係を定義する視覚センサ座標系の定義方式に関するもの
である。
近年、被対象物体を逼像してその位置、角度を示す姿勢
情報を得る視覚センサと、視覚センサからの姿勢情報に
基づいて被対象物体に対して把持等の作業を行なうロボ
ットとを組合わせたシステムを用い、ワークの組立作業
等を自動化することが多く行なわれるようになってきて
いる。
情報を得る視覚センサと、視覚センサからの姿勢情報に
基づいて被対象物体に対して把持等の作業を行なうロボ
ットとを組合わせたシステムを用い、ワークの組立作業
等を自動化することが多く行なわれるようになってきて
いる。
然し乍ら、従来の視覚センサば撮像装置を1台のみしか
使用していないため、被対象物体が大きい場合、精度の
高い姿勢情報を得ることができず、従って精度の高い作
業をロボットに行なわせることができない問題があった
。
使用していないため、被対象物体が大きい場合、精度の
高い姿勢情報を得ることができず、従って精度の高い作
業をロボットに行なわせることができない問題があった
。
本発明は前述の如き問題点を解決したものであり、その
目的は被対象物体が大きい場合に於いても、ロボッ1−
が精度の高い作業を行なえるようにすることにある。
目的は被対象物体が大きい場合に於いても、ロボッ1−
が精度の高い作業を行なえるようにすることにある。
本発明は前述の如き問題点を解決するため、ロボット基
準座標系と視覚センナ座標系との関係を定義する視覚セ
ンサ座標系の定義方式に於いて、 前記視覚センサは第1.第2.第3の撮像装置を有し、 教示時、被対象物体上の第1.第2の点が前記第1の撮
像装置の視野内に入り、前記被対象物体上の前記第1の
点と第2の点とを結ぶ線分の延長線上の第3.第4の点
が前記第2の撮像装置の視野内に入り、前記被対象物体
上の前記線分と平行な線分上の第5.第6の点が前記f
53の撮像装置の視野内に入るように前記被対象物体を
位置決めし、 前記第1の点を視覚センサ座標系の原点とし、前記第1
の点と第3の点とを結ぶ線分を視覚センサ座標系のX軸
とした時の視覚センサ座標系と前記第1.第2.第3の
撮像装置それぞれの座標系とのオフセット量及び回転角
度を教示すると共に、前記第1.第3.第5の点のロボ
ット基準座標系に於ける座標値を教示するようにしたも
のである。
準座標系と視覚センナ座標系との関係を定義する視覚セ
ンサ座標系の定義方式に於いて、 前記視覚センサは第1.第2.第3の撮像装置を有し、 教示時、被対象物体上の第1.第2の点が前記第1の撮
像装置の視野内に入り、前記被対象物体上の前記第1の
点と第2の点とを結ぶ線分の延長線上の第3.第4の点
が前記第2の撮像装置の視野内に入り、前記被対象物体
上の前記線分と平行な線分上の第5.第6の点が前記f
53の撮像装置の視野内に入るように前記被対象物体を
位置決めし、 前記第1の点を視覚センサ座標系の原点とし、前記第1
の点と第3の点とを結ぶ線分を視覚センサ座標系のX軸
とした時の視覚センサ座標系と前記第1.第2.第3の
撮像装置それぞれの座標系とのオフセット量及び回転角
度を教示すると共に、前記第1.第3.第5の点のロボ
ット基準座標系に於ける座標値を教示するようにしたも
のである。
各撮像装置の座標系と視覚センサ座標系との関係は前記
オフセット量及び回転角度により定義され、視覚センサ
座標系とロボット基準座標系との関係は教示時に教示さ
れた第1.第3.第5の点のロボット基準座標系に於け
る座標値により定義される。従って、再生時、再生時に
得られた被対象物体上の第1.第3.第5の点の前記第
1.第2、第3の撮像装置それぞれの座標系に於ける座
標値と前記オフセット量9回転角度と教示時に教示され
た前記第1.第3.第5の点のロボット基準座標系に於
ける座標値とに基づいてロボット可動部の動作を制御す
る数値情報を補正することができるので、被対象物体が
大きな場合に於いても、ロボットの精度の高い作業を行
なわせることが可能となる。
オフセット量及び回転角度により定義され、視覚センサ
座標系とロボット基準座標系との関係は教示時に教示さ
れた第1.第3.第5の点のロボット基準座標系に於け
る座標値により定義される。従って、再生時、再生時に
得られた被対象物体上の第1.第3.第5の点の前記第
1.第2、第3の撮像装置それぞれの座標系に於ける座
標値と前記オフセット量9回転角度と教示時に教示され
た前記第1.第3.第5の点のロボット基準座標系に於
ける座標値とに基づいてロボット可動部の動作を制御す
る数値情報を補正することができるので、被対象物体が
大きな場合に於いても、ロボットの精度の高い作業を行
なわせることが可能となる。
第1図は本発明方式を実施する際に使用する装置の一例
を示すブロック線図であり、1は視覚センサ、2はロボ
ット制御部、11はマイクロプロセッサ、12〜1〜1
2−3はテレビカメラ等の撮像装置、13−1〜13−
3はAD変換器、14−1〜14−3はフレームメモリ
、15はキーボード、16はマイクロプロセッサ11に
所定の動作を行なわせるための制御プログラム等が記憶
されているROM、17はRAM、18はインターフェ
ース、21はマイクロプロセッサ、22は操作盤、23
はインターフェース、24はマイクロプロセッサ21に
所定の動作を行なわせるための制御プログラムが記憶さ
れているROM%怒はRAM、26はロボット本体の動
作を制御するためのプログラムが記憶される磁気バブル
メモリ等の不揮発性メモリ、27.2B、29.30.
31はそれぞれα軸、θ軸、R軸、α軸、β軸の軸制御
部、32〜36は各軸対応のモータ、37〜41は各軸
制御部27〜31に各モータ32〜36の回転位置情報
をフィードバックする位置検出器である。また、第2図
はロボット制御部2によってその動作が制御されるロボ
ット本体50の斜視図であり、台座51上に2軸方向に
伸縮自在で且つθ軸方向に回転可能に設けられたアーム
52と、アーム52の先端に設けられたハンド詔とから
構成されている。尚、アーム52はR軸方向にも伸縮自
在になっており、また、ハンド詔はα、β軸方向に回転
自在になっているものである。
を示すブロック線図であり、1は視覚センサ、2はロボ
ット制御部、11はマイクロプロセッサ、12〜1〜1
2−3はテレビカメラ等の撮像装置、13−1〜13−
3はAD変換器、14−1〜14−3はフレームメモリ
、15はキーボード、16はマイクロプロセッサ11に
所定の動作を行なわせるための制御プログラム等が記憶
されているROM、17はRAM、18はインターフェ
ース、21はマイクロプロセッサ、22は操作盤、23
はインターフェース、24はマイクロプロセッサ21に
所定の動作を行なわせるための制御プログラムが記憶さ
れているROM%怒はRAM、26はロボット本体の動
作を制御するためのプログラムが記憶される磁気バブル
メモリ等の不揮発性メモリ、27.2B、29.30.
31はそれぞれα軸、θ軸、R軸、α軸、β軸の軸制御
部、32〜36は各軸対応のモータ、37〜41は各軸
制御部27〜31に各モータ32〜36の回転位置情報
をフィードバックする位置検出器である。また、第2図
はロボット制御部2によってその動作が制御されるロボ
ット本体50の斜視図であり、台座51上に2軸方向に
伸縮自在で且つθ軸方向に回転可能に設けられたアーム
52と、アーム52の先端に設けられたハンド詔とから
構成されている。尚、アーム52はR軸方向にも伸縮自
在になっており、また、ハンド詔はα、β軸方向に回転
自在になっているものである。
また、第3図は教示時に於ける視覚センサ1側のマイク
ロプロセッサ11の処理内容を示すフロ−チャーI・、
第4図は教示時に於けるロボット制御部2側のマイクロ
プロセッサ21の処理内容を示すフローチャート、第5
図は再生時に於ける視覚センサ1例のマイクロプロセッ
サ11の処理内容を示すフローチャート、第6図は再生
時に於けるロボット制御部2側のマイクロプロセッサ2
1の処理内容を示すフローチャートであり、以下第3図
〜第レークは先ずパレット74に開けられている基準孔
A、Bが撮像装置12−1の視野71内に入り、基準孔
C,Dが撮像装置12−2の視野72内に入り、基準孔
り、Eが撮像装置12−3の視野73内に入るようにパ
レット74を位置決めする。尚、基準孔A、B、C。
ロプロセッサ11の処理内容を示すフロ−チャーI・、
第4図は教示時に於けるロボット制御部2側のマイクロ
プロセッサ21の処理内容を示すフローチャート、第5
図は再生時に於ける視覚センサ1例のマイクロプロセッ
サ11の処理内容を示すフローチャート、第6図は再生
時に於けるロボット制御部2側のマイクロプロセッサ2
1の処理内容を示すフローチャートであり、以下第3図
〜第レークは先ずパレット74に開けられている基準孔
A、Bが撮像装置12−1の視野71内に入り、基準孔
C,Dが撮像装置12−2の視野72内に入り、基準孔
り、Eが撮像装置12−3の視野73内に入るようにパ
レット74を位置決めする。尚、基準孔A、B、C。
Dは同一直線上に配置され、また基準孔E、Fは線分A
Cと平行な直線上に配置されているものである。尚、同
図に於いて、75はワーク、76はハンド53の移動経
路を示している。
Cと平行な直線上に配置されているものである。尚、同
図に於いて、75はワーク、76はハンド53の移動経
路を示している。
次いで、オペレータは操作盤22を操作して手動送り等
によりロボットのハンド53を基準孔A上に配置し、次
いで基準孔Aのロボット基準座標系に於ける座標値A
(Xa、Ya)をマイクロプロセッサ21に算出させ、
これをRAM25に記憶させる。
によりロボットのハンド53を基準孔A上に配置し、次
いで基準孔Aのロボット基準座標系に於ける座標値A
(Xa、Ya)をマイクロプロセッサ21に算出させ、
これをRAM25に記憶させる。
次いで、オペレータは基準孔C,Eについても基準孔A
と同様の操作を行ない、基準孔C,Eのロボット基準座
標系に於ける座標値C(Xc、Yc) 、E (Xe
+ Ye )をRAM25に記憶させる。
と同様の操作を行ない、基準孔C,Eのロボット基準座
標系に於ける座標値C(Xc、Yc) 、E (Xe
+ Ye )をRAM25に記憶させる。
次いで、オペレータはキーボード15より教示指令を入
力する。教示指令が入力されると、視覚センサ1側のマ
イクロプロセッサ11は第3図のフローチャートに示す
処理を開始し、先ずAn変換器13−1〜13−3から
出力されるディジタル画像をそれぞれフレームメモリ1
4−1〜14−3に記憶させ(ステップS1)、次いで
フレームメモリ14−1に記憶されているディジタル画
像に基づいて基準孔A、Bの第1のカメラ座標系に於け
る座標値A(xla。
力する。教示指令が入力されると、視覚センサ1側のマ
イクロプロセッサ11は第3図のフローチャートに示す
処理を開始し、先ずAn変換器13−1〜13−3から
出力されるディジタル画像をそれぞれフレームメモリ1
4−1〜14−3に記憶させ(ステップS1)、次いで
フレームメモリ14−1に記憶されているディジタル画
像に基づいて基準孔A、Bの第1のカメラ座標系に於け
る座標値A(xla。
y+a)、B (xIb、ylb)を求め(ステップS
2)、次いでフレームメモリ14−2に記憶されている
ディジタル画像に基づいて基準孔C,Dの第2のカメラ
座標系に於ける座標値C(x2c。
2)、次いでフレームメモリ14−2に記憶されている
ディジタル画像に基づいて基準孔C,Dの第2のカメラ
座標系に於ける座標値C(x2c。
y2c)、D (X2d、)F1a)を求め(ステップ
S3)、次いでフレームメモリ14−3に記憶されてい
るディジタル画像に基づいて基準孔B、 Fの第3の
カメラ座標系に於ける座標値IE (x313 *V3
e)、F (X3f+ )’3f)を求め(ステップS
4)、次いでステップ82〜4で求めた座標値をインタ
ーフェース18を介してロボット制御部2側に転送する
(ステップS5)。尚、第1〜第3のカメラ座標系はそ
れぞれ撮像装置12−1〜12−3の視野71〜73の
左下の部分を原点とし、横軸をXII X2.X3軸
とし、縦軸を)’II )121 3F3軸としたも
のである。
S3)、次いでフレームメモリ14−3に記憶されてい
るディジタル画像に基づいて基準孔B、 Fの第3の
カメラ座標系に於ける座標値IE (x313 *V3
e)、F (X3f+ )’3f)を求め(ステップS
4)、次いでステップ82〜4で求めた座標値をインタ
ーフェース18を介してロボット制御部2側に転送する
(ステップS5)。尚、第1〜第3のカメラ座標系はそ
れぞれ撮像装置12−1〜12−3の視野71〜73の
左下の部分を原点とし、横軸をXII X2.X3軸
とし、縦軸を)’II )121 3F3軸としたも
のである。
また、ロボット制御部2側のマイクロプロセッサ21は
教示指令が入力されると第4図のフローチャートに示す
処理を開始し、視覚センサ1側から基準孔A−Fの座標
値A (X I8+ ’J ta) 〜F(x3f、
y3F)が座標値が送られてくると(ステップS6)、
各基準孔A−F点の座標値A(xla、3F+a)〜F
(x−3f 、73f)をRAM25に記憶させ(ス
テップS7)、次いで線分ABとXi軸との成す角度θ
l、線分CD (!: X 2軸との成す角度θ2及び
線分EFとX3軸との成す角度θ3とを求め(ステップ
S8)、これらをRAM25に記憶させ(ステップS9
)、次いで基準孔A、C,Eの視覚センサ座標系に於け
る座標値をそれぞれA <0. 0)、 C(0,ll
)、 E (12x、J2y)としてRAM25に記憶
する(ステップ510)。即ち、ステップSlOでは基
準孔Aの位置を視覚センサ座標系の原点とし、線分AC
を視覚センサ座標系のXS軸とする処理が行なわれるこ
とになる。従って、ステップS8で求めたθl〜θ3は
それぞれ第1〜第3のカメラ座標系の!1.X2.X3
軸と視覚センサ座標系のXS軸との成す角度を示し、第
1のカメラ座標系に於けるA点の座標値A (X1a+
y ta)は視覚センサ座標系の原点とカメラ座標
系の原点との軸方向のオフセット量を表していることに
なる。
教示指令が入力されると第4図のフローチャートに示す
処理を開始し、視覚センサ1側から基準孔A−Fの座標
値A (X I8+ ’J ta) 〜F(x3f、
y3F)が座標値が送られてくると(ステップS6)、
各基準孔A−F点の座標値A(xla、3F+a)〜F
(x−3f 、73f)をRAM25に記憶させ(ス
テップS7)、次いで線分ABとXi軸との成す角度θ
l、線分CD (!: X 2軸との成す角度θ2及び
線分EFとX3軸との成す角度θ3とを求め(ステップ
S8)、これらをRAM25に記憶させ(ステップS9
)、次いで基準孔A、C,Eの視覚センサ座標系に於け
る座標値をそれぞれA <0. 0)、 C(0,ll
)、 E (12x、J2y)としてRAM25に記憶
する(ステップ510)。即ち、ステップSlOでは基
準孔Aの位置を視覚センサ座標系の原点とし、線分AC
を視覚センサ座標系のXS軸とする処理が行なわれるこ
とになる。従って、ステップS8で求めたθl〜θ3は
それぞれ第1〜第3のカメラ座標系の!1.X2.X3
軸と視覚センサ座標系のXS軸との成す角度を示し、第
1のカメラ座標系に於けるA点の座標値A (X1a+
y ta)は視覚センサ座標系の原点とカメラ座標
系の原点との軸方向のオフセット量を表していることに
なる。
次に再生時の動作を説明する。再生°時、オペレータは
先ず第8図に示すように、パレット74″に開けられて
いる基準孔A′が撮像装置12−1の視野71内に入り
、基準孔C”が撮像装置12−2の視野72内に入り、
基準孔D°が撮像装置12−3の視野73内に入るよう
にバレン]・74″を位置決めする。尚、第8図に示し
たバレンl−74’ は基準孔B、C,Dが設けられて
いない以外は第7図に示したパレット74と全く同一の
形状を有するものである。また、ワーク75”のパレy
ドア4’ に対する取付は位置とワーク75のパレット
74に対する取付は位置とは全(同一になっているもの
である。次いで、オペレータはキーボード15より再生
指令を入力する。再生tit令が入力されることにより
、視覚センサ1例のマイクロプロセッサ11は第5図の
フローチャートに示す処理を開始し、先ずAD変換器1
3−1〜13−3から出力されるディジタル画像をそれ
ぞれフレームメモリ14−1−14−3に記、憶させ(
ステップ511) 、次いでフレームメモリ14−1〜
14−3に記憶されているディジタル画像に基づいて基
準孔A″、C”。
先ず第8図に示すように、パレット74″に開けられて
いる基準孔A′が撮像装置12−1の視野71内に入り
、基準孔C”が撮像装置12−2の視野72内に入り、
基準孔D°が撮像装置12−3の視野73内に入るよう
にバレン]・74″を位置決めする。尚、第8図に示し
たバレンl−74’ は基準孔B、C,Dが設けられて
いない以外は第7図に示したパレット74と全く同一の
形状を有するものである。また、ワーク75”のパレy
ドア4’ に対する取付は位置とワーク75のパレット
74に対する取付は位置とは全(同一になっているもの
である。次いで、オペレータはキーボード15より再生
指令を入力する。再生tit令が入力されることにより
、視覚センサ1例のマイクロプロセッサ11は第5図の
フローチャートに示す処理を開始し、先ずAD変換器1
3−1〜13−3から出力されるディジタル画像をそれ
ぞれフレームメモリ14−1−14−3に記、憶させ(
ステップ511) 、次いでフレームメモリ14−1〜
14−3に記憶されているディジタル画像に基づいて基
準孔A″、C”。
Eoの第1.第2.第3のカメラ座標系に於ける座標値
A’ (X+a’ 、)’+a’ )、C’ (x
2c、yzc)、E’ (x3e、y3e)を求め(
ステップ512)、これらをロボット制御部2に転送す
る(ステップ513)。
A’ (X+a’ 、)’+a’ )、C’ (x
2c、yzc)、E’ (x3e、y3e)を求め(
ステップ512)、これらをロボット制御部2に転送す
る(ステップ513)。
また、ロボット制御部2側のマイクロプロセッサ11は
再生指令が入力されると第6図のフローチャー1−に示
す処理を開始し、基準孔A’ 、C’ 。
再生指令が入力されると第6図のフローチャー1−に示
す処理を開始し、基準孔A’ 、C’ 。
Eoの第1.第2.第3のカメラ座標系に於ける座標値
A’ (xla’ + 3’+a’ )、C’
(x2C,yzc)、E’ (x3e、)’313)
が転送されてくると(ステップ514)、これらをRA
M25に記憶させる(ステップ315)。次いで、マイ
クロプロセッサ21は基準孔A’ 、 B’ 、 C’
の視覚センサ座標系に於ける座標値A’ (Xsa’
、Ysa’ )、C’ (X5c、Y5c)、E’
(Xse、Y5e)を求め(ステップ316)、次
いでステップ516で求めた座標値A’ (X5 a
’ 、 Y5a’ )+ C’ (Xs CI
Ys c)+ E’ (Xs 81YGe)とステ
ップSIOでRAM25に記憶させた座標値p、(0,
0)、c (0,11)、E (12x、 7!2y
)とに基づいて、教示時のワーク75の姿勢に対する再
生時のワーク75°の姿勢(各軸方向の移動量1回転角
度)がどのように変化したかを示す変化情報を求め(ス
テップ517)、次いでステップ317で求めた変化情
報と教示時にRAM四に記憶させた基準孔A、C,Eの
ロボット基準座標系に於ける座標値A (Xa、Ya)
、C(Xc r Yc ) + E (X e + Y
e )とに基づいて不揮発性メモリ四に記憶されている
ロボットハンド53の動作を制御する数値情報を補正し
くステップ818)、この後補正した数値情報に従って
ハンド詔の動作を制御する(ステップ519)。
A’ (xla’ + 3’+a’ )、C’
(x2C,yzc)、E’ (x3e、)’313)
が転送されてくると(ステップ514)、これらをRA
M25に記憶させる(ステップ315)。次いで、マイ
クロプロセッサ21は基準孔A’ 、 B’ 、 C’
の視覚センサ座標系に於ける座標値A’ (Xsa’
、Ysa’ )、C’ (X5c、Y5c)、E’
(Xse、Y5e)を求め(ステップ316)、次
いでステップ516で求めた座標値A’ (X5 a
’ 、 Y5a’ )+ C’ (Xs CI
Ys c)+ E’ (Xs 81YGe)とステ
ップSIOでRAM25に記憶させた座標値p、(0,
0)、c (0,11)、E (12x、 7!2y
)とに基づいて、教示時のワーク75の姿勢に対する再
生時のワーク75°の姿勢(各軸方向の移動量1回転角
度)がどのように変化したかを示す変化情報を求め(ス
テップ517)、次いでステップ317で求めた変化情
報と教示時にRAM四に記憶させた基準孔A、C,Eの
ロボット基準座標系に於ける座標値A (Xa、Ya)
、C(Xc r Yc ) + E (X e + Y
e )とに基づいて不揮発性メモリ四に記憶されている
ロボットハンド53の動作を制御する数値情報を補正し
くステップ818)、この後補正した数値情報に従って
ハンド詔の動作を制御する(ステップ519)。
以上説明したように、未発明は、ロボット基準座標系と
視覚センサ座標系との関係を定義する視覚センサ座標系
の定義方式に於いて、前記視覚センサは描像装置12−
1−12−3等の第1.第2.第3の撮像装置を有し、
教示時、被対象物体上の第1゜第2の点(実施例に於い
ては基準孔A、B)が前記第1の撮像装置の視野内に入
り、前記被対象物体上の前記第1の点と第2の点とを結
ぶ線分の延長線上の第3.第4の点(実施例に於いては
基準孔C,D)が前記第2の撮像装置の視野内に入り、
前記被対象物体上の前記線分と平行な線分上の第5、第
6の点(実施例に於いては基準孔E、F)が前記第3の
撮像装置の視野内に入るように前記被対象物体を位置決
めし、前記第1の点を視覚センサ座標系の原点とし、前
記第1の点と第2の点とを結ぶ線分を視覚センサ座標系
のX軸とした時の視覚センサ座標系と前記第1.第2.
第3の撮像装置それぞれの座標系とのオフセット量及び
回転角度を教示すると共に、前記第1.第3.第5の点
のロボット基準座標系に於ける座標値を教示するように
したものであり、再生時、再生時に得られた被対象物体
上の第1.第3.第5の点の前記第1.第2.第3の撮
像装置それぞれの座標系に於ける座標値と前記オフセン
ト量2回転角度と教示時に教示された前記第1.第3.
第5の点のロボット基準座標系に於ける座標値とに基づ
いてロボット可動部の動作を制御する数値情報を補正す
ることが′できるので、被対象物体が大きい場合に於い
てもロボットに精度の高い作業を行なわせることができ
る利点がある。
視覚センサ座標系との関係を定義する視覚センサ座標系
の定義方式に於いて、前記視覚センサは描像装置12−
1−12−3等の第1.第2.第3の撮像装置を有し、
教示時、被対象物体上の第1゜第2の点(実施例に於い
ては基準孔A、B)が前記第1の撮像装置の視野内に入
り、前記被対象物体上の前記第1の点と第2の点とを結
ぶ線分の延長線上の第3.第4の点(実施例に於いては
基準孔C,D)が前記第2の撮像装置の視野内に入り、
前記被対象物体上の前記線分と平行な線分上の第5、第
6の点(実施例に於いては基準孔E、F)が前記第3の
撮像装置の視野内に入るように前記被対象物体を位置決
めし、前記第1の点を視覚センサ座標系の原点とし、前
記第1の点と第2の点とを結ぶ線分を視覚センサ座標系
のX軸とした時の視覚センサ座標系と前記第1.第2.
第3の撮像装置それぞれの座標系とのオフセット量及び
回転角度を教示すると共に、前記第1.第3.第5の点
のロボット基準座標系に於ける座標値を教示するように
したものであり、再生時、再生時に得られた被対象物体
上の第1.第3.第5の点の前記第1.第2.第3の撮
像装置それぞれの座標系に於ける座標値と前記オフセン
ト量2回転角度と教示時に教示された前記第1.第3.
第5の点のロボット基準座標系に於ける座標値とに基づ
いてロボット可動部の動作を制御する数値情報を補正す
ることが′できるので、被対象物体が大きい場合に於い
てもロボットに精度の高い作業を行なわせることができ
る利点がある。
第1図は本発明方式を実施≠する装置の一例を示すブロ
ック線図、第2図はロボット本体の斜視図、第3図、第
5図はマイクロプロセッサ11の処理内容を示すフロー
チャート、第4図、第6図はマイクロプロセッサnの処
理内容を示すフローチャート、第7図は教示時の説明図
、第8図は再生時の説明図である。 ■は視覚センサ、2はロボット制御部、11はマイクロ
プロセッサ、12−1〜12−3はテレビカメラ等の撮
像装置、13−1〜13−3はAD変換器、14−1〜
14−3はフレームメモリ、15はキーボード、16は
ROM。 17はRAM、18はインターフェース、21はマイク
ロプロセッサ、22は操作盤、23はインターフェース
、24はROM525はRAM、妬は不揮発性メモリ、
27.28,29.30.31はそれぞれα軸、θ軸、
R軸。 α軸、β軸の軸制御部、32〜36はモータ、37〜4
1は位置検出器、50はロボット本体、51は台座、5
2はアーム、詔はハンド、71〜73は視野、74.7
4“はパレット、75.75’ はワーク、?6.76
° はハンド53の移動経路、A〜F、A’ 、C’
、E”は基準孔である。 特許出願人 ファナック株式会社 代理人弁理士玉蟲久五部(外2名) 「□”□゛ □ニ ロボット本体の斜視図 第 2 図 処理内容を示すフローチャート 第 6 図 処理内容を示す70−チで一ト 第 4 図 処理内容を示すフローチャート 第 5 図 処理内容を示すフローチャート 第 6 図 教示時の説明図 再生時の説明図
ック線図、第2図はロボット本体の斜視図、第3図、第
5図はマイクロプロセッサ11の処理内容を示すフロー
チャート、第4図、第6図はマイクロプロセッサnの処
理内容を示すフローチャート、第7図は教示時の説明図
、第8図は再生時の説明図である。 ■は視覚センサ、2はロボット制御部、11はマイクロ
プロセッサ、12−1〜12−3はテレビカメラ等の撮
像装置、13−1〜13−3はAD変換器、14−1〜
14−3はフレームメモリ、15はキーボード、16は
ROM。 17はRAM、18はインターフェース、21はマイク
ロプロセッサ、22は操作盤、23はインターフェース
、24はROM525はRAM、妬は不揮発性メモリ、
27.28,29.30.31はそれぞれα軸、θ軸、
R軸。 α軸、β軸の軸制御部、32〜36はモータ、37〜4
1は位置検出器、50はロボット本体、51は台座、5
2はアーム、詔はハンド、71〜73は視野、74.7
4“はパレット、75.75’ はワーク、?6.76
° はハンド53の移動経路、A〜F、A’ 、C’
、E”は基準孔である。 特許出願人 ファナック株式会社 代理人弁理士玉蟲久五部(外2名) 「□”□゛ □ニ ロボット本体の斜視図 第 2 図 処理内容を示すフローチャート 第 6 図 処理内容を示す70−チで一ト 第 4 図 処理内容を示すフローチャート 第 5 図 処理内容を示すフローチャート 第 6 図 教示時の説明図 再生時の説明図
Claims (1)
- 【特許請求の範囲】 ロボット基準座標系と視覚センサ座標系との関係を定義
する視覚センサ座標系の定義方式に於いて、 前記視覚センサは第1、第2、第3の撮像装置を有し、 教示時、被対象物体上の第1、第2の点が前記第1の撮
像装置の視野内に入り、前記被対象物体上の前記第1の
点と第2の点とを結ぶ線分の延長線上の第3、第4の点
が前記第2の撮像装置の視野内に入り、前記被対象物体
上の前記線分と平行な線分上の第5、第6の点が前記第
3の撮像装置の視野内に入るように前記被対象物体を位
置決めし、 前記第1の点を視覚センサ座標系の原点とし、前記第1
の点と第3の点とを結ぶ線分を視覚センサ座標系のX軸
とした時の視覚センサ座標系と前記第1、第2、第3の
撮像装置それぞれの座標系とのオフセット量及び回転角
度を教示すると共に、前記第1、第3、第5の点のロボ
ット基準座標系に於ける座標値を教示することを特徴と
する視覚センサ座標系の定義方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8386286A JPS62241011A (ja) | 1986-04-11 | 1986-04-11 | 視覚センサ座標系の定義方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8386286A JPS62241011A (ja) | 1986-04-11 | 1986-04-11 | 視覚センサ座標系の定義方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS62241011A true JPS62241011A (ja) | 1987-10-21 |
Family
ID=13814487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP8386286A Pending JPS62241011A (ja) | 1986-04-11 | 1986-04-11 | 視覚センサ座標系の定義方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS62241011A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006284890A (ja) * | 2005-03-31 | 2006-10-19 | Fuji Photo Film Co Ltd | アライメントセンサの位置校正方法、基準パターン校正方法、露光位置補正方法、校正用パターン及びアライメント装置 |
-
1986
- 1986-04-11 JP JP8386286A patent/JPS62241011A/ja active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006284890A (ja) * | 2005-03-31 | 2006-10-19 | Fuji Photo Film Co Ltd | アライメントセンサの位置校正方法、基準パターン校正方法、露光位置補正方法、校正用パターン及びアライメント装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3946711B2 (ja) | ロボットシステム | |
JP4167954B2 (ja) | ロボット及びロボット移動方法 | |
US7532949B2 (en) | Measuring system | |
EP1676679A2 (en) | Robot controller for correcting a target position of a robot hand by means of a visual sensor | |
US20110029131A1 (en) | Apparatus and method for measuring tool center point position of robot | |
JP5815761B2 (ja) | 視覚センサのデータ作成システム及び検出シミュレーションシステム | |
EP0796704A1 (en) | Apparatus and method for correcting a travelling route for a robot | |
JP3711105B2 (ja) | 3次元計測装置 | |
JP2005300230A (ja) | 計測装置 | |
JP2684359B2 (ja) | ロボットのワーク直交座標系設定装置 | |
KR101658417B1 (ko) | 로봇, 로봇의 제어 방법, 및 로봇의 제어 프로그램 | |
US10029371B2 (en) | Robot | |
JP3207409B2 (ja) | ロボットのツール姿勢制御方法 | |
JP2013049102A (ja) | ロボットの制御装置及びロボットの姿勢決定方法 | |
JPS62241011A (ja) | 視覚センサ座標系の定義方式 | |
JP2011083883A (ja) | ロボット装置 | |
JP2016203282A (ja) | エンドエフェクタの姿勢変更機構を備えたロボット | |
JPH0299802A (ja) | ハンドアイを用いた視覚センサにおける座標系設定方法 | |
JPH08293026A (ja) | 画像認識装置 | |
JP3175623B2 (ja) | ロボットの制御装置 | |
WO2024062535A1 (ja) | ロボット制御装置 | |
JP6273783B2 (ja) | ツール先端点情報補正プログラム、ツール先端点情報補正装置、及び、ツール先端点情報補正方法 | |
JPH05301195A (ja) | 視覚センサにおけるカメラ位置ずれ検出方法 | |
JPS61131887A (ja) | 視覚付ロボツトのキヤリブレ−シヨン方式 | |
JPS6257892A (ja) | 視覚付ロボツトのカメラ座標較正方法 |