JPH01205204A - 視覚付きロボットの座標系較正方法 - Google Patents
視覚付きロボットの座標系較正方法Info
- Publication number
- JPH01205204A JPH01205204A JP2776388A JP2776388A JPH01205204A JP H01205204 A JPH01205204 A JP H01205204A JP 2776388 A JP2776388 A JP 2776388A JP 2776388 A JP2776388 A JP 2776388A JP H01205204 A JPH01205204 A JP H01205204A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- coordinate system
- recognition
- coordinate
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000000007 visual effect Effects 0.000 title claims abstract description 36
- 230000033001 locomotion Effects 0.000 claims description 21
- 238000000034 method Methods 0.000 claims description 16
- 230000009466 transformation Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 101100298222 Caenorhabditis elegans pot-1 gene Proteins 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000245 forearm Anatomy 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、視覚付きロボットにおける視覚座標系とロボ
ット座標系との間の座標系較正方式に関するものである
。
ット座標系との間の座標系較正方式に関するものである
。
従来、視覚付きロボットにおける視覚座標系とロボット
座標系といった具合に、異なる座標系間での座標系較正
方法としては、特開昭61−131887号公報に記載
のように、基準となる認識対象を準備しておき、ロボッ
トを手動で、あるいは遠隔操縦で操作することによって
ロボットの手先基準点をその認識対象と一致させ、その
時の手先の位置を読み取る一方、視覚装置によって同一
認識対象を認識しその位置を算出するようにし、これら
の結果から視覚座標系とロボット座標系とが関連付けさ
れるようになっている。
座標系といった具合に、異なる座標系間での座標系較正
方法としては、特開昭61−131887号公報に記載
のように、基準となる認識対象を準備しておき、ロボッ
トを手動で、あるいは遠隔操縦で操作することによって
ロボットの手先基準点をその認識対象と一致させ、その
時の手先の位置を読み取る一方、視覚装置によって同一
認識対象を認識しその位置を算出するようにし、これら
の結果から視覚座標系とロボット座標系とが関連付けさ
れるようになっている。
しかしながら、従来技術にあっては、ロボ・ノドの手先
基準点、即ち、対象物に実際に作用するハンドや工具な
どの特定位置を基準認識対象に導いて一致させる際に誤
差を生じ易く、また、個人差を生じることから、較正作
業の度に座標変換係数の精度が変動することになり、高
精度に、しかも安定に座標変換係数を求め得ないものと
なっている。これに加え較正作業に多くの時間を要して
おり、手先に画像入力手段が備えられている手先視覚付
きロボットに対する座標系較正方式としては不適当なも
のとなっている。
基準点、即ち、対象物に実際に作用するハンドや工具な
どの特定位置を基準認識対象に導いて一致させる際に誤
差を生じ易く、また、個人差を生じることから、較正作
業の度に座標変換係数の精度が変動することになり、高
精度に、しかも安定に座標変換係数を求め得ないものと
なっている。これに加え較正作業に多くの時間を要して
おり、手先に画像入力手段が備えられている手先視覚付
きロボットに対する座標系較正方式としては不適当なも
のとなっている。
本発明の目的は、高精度に、しかも安定にして座標変換
係数を速やかに求め得る視覚付きロボットの座標系較正
方式を供するにある。
係数を速やかに求め得る視覚付きロボットの座標系較正
方式を供するにある。
上記目的は、較正に用いる基準認識対象を、動作データ
にもとづきロボットを所定方向に所定量移動させること
で作成し、この作成された基準認識対象の視覚による認
識結果と、ロボットの所定方向への所定移動量との関係
から、異なる座標系間を関連付けることで達成される。
にもとづきロボットを所定方向に所定量移動させること
で作成し、この作成された基準認識対象の視覚による認
識結果と、ロボットの所定方向への所定移動量との関係
から、異なる座標系間を関連付けることで達成される。
ロボットを所定方向に所定量移動させて基準認識対象を
形成せしめる場合、その基準認識対象の位置や寸法、方
向は実際のロボット座標系にもとづいたものとなる。よ
って、ロボット構成部材自体の加工誤差や組立誤差等に
起因するロボ・ノド座標系の誤差も含まれており、視覚
認識結果にもとづいてロボットを移動させる際にもその
座標系に沿って移動することから、結果的に座標系の誤
差が相殺されることになるものである。また、ロボット
に動作データを与えロボット自体の動作により較正に必
要とされる動きが実現されるから、作業者による個人差
が排除され、ロボット手先の位置合せ誤差も発生しない
ことになる。更に動作データにもとづきロボットは所定
の動作を自動的に実行することから、頻繁に較正が必要
な場合でも、多くの時間を要することなく容易に較正を
行ない得ることになる。
形成せしめる場合、その基準認識対象の位置や寸法、方
向は実際のロボット座標系にもとづいたものとなる。よ
って、ロボット構成部材自体の加工誤差や組立誤差等に
起因するロボ・ノド座標系の誤差も含まれており、視覚
認識結果にもとづいてロボットを移動させる際にもその
座標系に沿って移動することから、結果的に座標系の誤
差が相殺されることになるものである。また、ロボット
に動作データを与えロボット自体の動作により較正に必
要とされる動きが実現されるから、作業者による個人差
が排除され、ロボット手先の位置合せ誤差も発生しない
ことになる。更に動作データにもとづきロボットは所定
の動作を自動的に実行することから、頻繁に較正が必要
な場合でも、多くの時間を要することなく容易に較正を
行ない得ることになる。
以下、本発明を第1図から第6図により説明する。
先ず本発明に係る視覚付きロボットについて説明すれば
、第2図は一例でのその視覚付きロボットの構成とその
周辺を示したものである。図示の如くロボット1自体の
他に、その周辺にはロボット1の手先部に備えられたツ
ール2や視覚人力装置としてのカメラ3、カメラ3を所
定位置に固定するためのスタンド4、作業対象物5を搬
送するためのコンベア6などが配されたものとなってい
る。更にロボット1自体の動作を制御するロボット制御
装置21や、カメラ3によって撮像された画像データを
処理する画像認識装置22が具備されるようになってい
る。因みにロボットl自体はベース部7や旋回部8、上
腕部9、前腕部10、曲げ・ひねりの2自由度を有する
手首部11などからなる多関節形のものとされているが
、一定収上の自由度をもつものであれば、異なった構成
のものでもロボット1として使用可となっている。
、第2図は一例でのその視覚付きロボットの構成とその
周辺を示したものである。図示の如くロボット1自体の
他に、その周辺にはロボット1の手先部に備えられたツ
ール2や視覚人力装置としてのカメラ3、カメラ3を所
定位置に固定するためのスタンド4、作業対象物5を搬
送するためのコンベア6などが配されたものとなってい
る。更にロボット1自体の動作を制御するロボット制御
装置21や、カメラ3によって撮像された画像データを
処理する画像認識装置22が具備されるようになってい
る。因みにロボットl自体はベース部7や旋回部8、上
腕部9、前腕部10、曲げ・ひねりの2自由度を有する
手首部11などからなる多関節形のものとされているが
、一定収上の自由度をもつものであれば、異なった構成
のものでもロボット1として使用可となっている。
さて、第1図は座標系較正処理が行なわれる際での全体
的な概要フローを示すが、これによる場合先ず基準認識
対象が形成、あるいは作成されるようになっている。基
準認識対象の形成、あるいは作成に際しては、ロボット
lはシール(本例では把持機構)2によってコンベア6
傍らのストッカ13より認識マーク12a〜12cを順
次取り出したうえ、停止状態にあるコンベア6上に所定
に置くようになっている。認識マーク12a〜12cは
円板形状とされているが、これに限ることなくコンペア
ロ上面とコントラストを有する色彩ものであれば任意の
形状、組合せのものでよ(、その高さはカメラ3による
撮影像の拡大率が作業対象物5のそれと同じになるべく
作業対象物5の作業面と同一になっている。
的な概要フローを示すが、これによる場合先ず基準認識
対象が形成、あるいは作成されるようになっている。基
準認識対象の形成、あるいは作成に際しては、ロボット
lはシール(本例では把持機構)2によってコンベア6
傍らのストッカ13より認識マーク12a〜12cを順
次取り出したうえ、停止状態にあるコンベア6上に所定
に置くようになっている。認識マーク12a〜12cは
円板形状とされているが、これに限ることなくコンペア
ロ上面とコントラストを有する色彩ものであれば任意の
形状、組合せのものでよ(、その高さはカメラ3による
撮影像の拡大率が作業対象物5のそれと同じになるべく
作業対象物5の作業面と同一になっている。
以上のようにして認識マーク12a〜12cはコンベア
6上に載置されるが、その位置はロボットlに与えられ
た基準データによるようになっている。
6上に載置されるが、その位置はロボットlに与えられ
た基準データによるようになっている。
本例では認識マーク12aは任意基準位置に、また、他
の認識マーク12b、12cはそれぞれその任意基準位
置からロボット座標系14のx、y軸方向にΔX、ΔY
だけ離れた所定位置に置かれるようになっている。この
ような動作をロボット1に実行させるための動作制御プ
ログラムの例を第3図に示すが、図中“MOVE”は手
先の移動命令を、また、それに続く“POI”や“PO
2”などは手先の移動先の点の記号を示している。更に
“PO1+ (0゜0、ΔZ、)sなどは移動先の点か
らの、ロボット座標系14でのx、y、z軸方向への手
先の移動する点を示しており、“PO1+ (0,O,
ΔZυ”に例を採った場合、手先は点POIからZ軸方
向に671分だけ移動されることを示すものとなってい
る。更にCLO3E″、“0PEN”はそれぞれ手先ハ
ンドの閉(把持)、開(解放)命令を示している。
の認識マーク12b、12cはそれぞれその任意基準位
置からロボット座標系14のx、y軸方向にΔX、ΔY
だけ離れた所定位置に置かれるようになっている。この
ような動作をロボット1に実行させるための動作制御プ
ログラムの例を第3図に示すが、図中“MOVE”は手
先の移動命令を、また、それに続く“POI”や“PO
2”などは手先の移動先の点の記号を示している。更に
“PO1+ (0゜0、ΔZ、)sなどは移動先の点か
らの、ロボット座標系14でのx、y、z軸方向への手
先の移動する点を示しており、“PO1+ (0,O,
ΔZυ”に例を採った場合、手先は点POIからZ軸方
向に671分だけ移動されることを示すものとなってい
る。更にCLO3E″、“0PEN”はそれぞれ手先ハ
ンドの閉(把持)、開(解放)命令を示している。
したがって、本例では“Pol”は認識マーク12a〜
12c取出位置(ストッカ13の位置)を示しており、
この位置で先ず把持された認識マーク12aは“PO2
+ (0,0,−Δzz)”でその把持が解かれ、この
後は再び“POI”で把持された認識マーク12bは“
PO2+ (ΔX、0.−Δ22)”でその把持が解か
れるようになっている。認識マーク12Cも同様にして
“PO2+(0,ΔY、−Δzz)”でその把持が解か
れるようになっているものである。
12c取出位置(ストッカ13の位置)を示しており、
この位置で先ず把持された認識マーク12aは“PO2
+ (0,0,−Δzz)”でその把持が解かれ、この
後は再び“POI”で把持された認識マーク12bは“
PO2+ (ΔX、0.−Δ22)”でその把持が解か
れるようになっている。認識マーク12Cも同様にして
“PO2+(0,ΔY、−Δzz)”でその把持が解か
れるようになっているものである。
さて、以上のようにしてコンヘア6上に載置された認識
マーク12a〜12Cは、ロボット1の手先が適当な位
置に移動された状態では何れもカメラ3視野内にあって
、カメラ3に定義された視覚座標系15でそれら位置が
認識可能となっている。第4図は認識マーク12a〜1
2cのロボット座標系14、視覚座標系15各々での位
置関係を平面的に示したものである。図示のように視覚
座標系15はロボット座標系I4の中に位置付けられて
いるが、視覚座標系15での認識マーク12a〜12c
の位置を求めることによって、視覚座標系15とロボッ
ト座標系14との間の相対的位置関係を規定する座標変
換係数が求められるものである。
マーク12a〜12Cは、ロボット1の手先が適当な位
置に移動された状態では何れもカメラ3視野内にあって
、カメラ3に定義された視覚座標系15でそれら位置が
認識可能となっている。第4図は認識マーク12a〜1
2cのロボット座標系14、視覚座標系15各々での位
置関係を平面的に示したものである。図示のように視覚
座標系15はロボット座標系I4の中に位置付けられて
いるが、視覚座標系15での認識マーク12a〜12c
の位置を求めることによって、視覚座標系15とロボッ
ト座標系14との間の相対的位置関係を規定する座標変
換係数が求められるものである。
先ず視覚座標系15での認識マーク12a〜12cの位
置は、カメラ3によって撮像された一画面としての認識
マーク12a−12Gの画像を2値化したうえ、画像認
識装置22で画像処理することによって求められるもの
となっている。2値化画像中に含まれている認識マーク
12a−12C各々の輪郭を明部、暗部の境界線として
抽出したうえ、それら輪郭内部について重心位置を求め
ることで、認識マーク12a〜12Cの位置が求められ
るものである。
置は、カメラ3によって撮像された一画面としての認識
マーク12a−12Gの画像を2値化したうえ、画像認
識装置22で画像処理することによって求められるもの
となっている。2値化画像中に含まれている認識マーク
12a−12C各々の輪郭を明部、暗部の境界線として
抽出したうえ、それら輪郭内部について重心位置を求め
ることで、認識マーク12a〜12Cの位置が求められ
るものである。
重心は具体的には輪郭を構成する画素各々についての視
覚座標系15での座標値を、加算平均することで求めら
れるようになっている。このようにして求められた認識
マーク12a〜12cの視覚座標系15での位置よりは
認識マーク12a、12bX12a。
覚座標系15での座標値を、加算平均することで求めら
れるようになっている。このようにして求められた認識
マーク12a〜12cの視覚座標系15での位置よりは
認識マーク12a、12bX12a。
12c間の距離と方向とが知れるが、これらがロボット
1の所定方向への所定移動量に対応するところとなるも
のである。即ち、第4図に示すように、矢印で表示され
た線分の長さΔX、ΔYはロボット座標系14ではロボ
ット1に与えられた所定方向への所定移動量であるが、
認識マーク12a、 12bの中心位置間を結ぶ直線p
vはΔXを視覚で認識した線分であり、同様に認識マー
ク12a、12cの中心位置間を結ぶ直線P¥もΔYを
視覚で認識したものとなる。視覚座標系15ではP’、
P¥はそれぞれX、Y軸成分として抽出され、これらと
ΔX、ΔYとの関係より座標系間の関係が求められるも
のである。具体的には、視覚座標系15での認識マーク
12a〜12cの座標値がロボット制御装置21に転送
され、ロボット制御装置21ではロボット移動型ΔX、
ΔYとそれら座標値とを対応させることで、座標変換係
数が求められるものである。
1の所定方向への所定移動量に対応するところとなるも
のである。即ち、第4図に示すように、矢印で表示され
た線分の長さΔX、ΔYはロボット座標系14ではロボ
ット1に与えられた所定方向への所定移動量であるが、
認識マーク12a、 12bの中心位置間を結ぶ直線p
vはΔXを視覚で認識した線分であり、同様に認識マー
ク12a、12cの中心位置間を結ぶ直線P¥もΔYを
視覚で認識したものとなる。視覚座標系15ではP’、
P¥はそれぞれX、Y軸成分として抽出され、これらと
ΔX、ΔYとの関係より座標系間の関係が求められるも
のである。具体的には、視覚座標系15での認識マーク
12a〜12cの座標値がロボット制御装置21に転送
され、ロボット制御装置21ではロボット移動型ΔX、
ΔYとそれら座標値とを対応させることで、座標変換係
数が求められるものである。
この座標変換係数の求め方について具体的に説明すれば
、P¥の視覚座標系15のX軸成分をX P e %Y
軸成分をVPYとして、XP×のロボット座標系14の
X1Y軸への写像はそれぞれXP’R’CO5α・AX
X% xP : sinα・Axy、同様に pvにつ
いていてはyP ’: −5inα・Ayx、vP e
・Cosα・Ayyとして求められる。したがって
、ΔXのロボット座標系14でのX、Y軸方向への成分
がそれぞれΔX、0であることから、以下の関係が成立
する。
、P¥の視覚座標系15のX軸成分をX P e %Y
軸成分をVPYとして、XP×のロボット座標系14の
X1Y軸への写像はそれぞれXP’R’CO5α・AX
X% xP : sinα・Axy、同様に pvにつ
いていてはyP ’: −5inα・Ayx、vP e
・Cosα・Ayyとして求められる。したがって
、ΔXのロボット座標系14でのX、Y軸方向への成分
がそれぞれΔX、0であることから、以下の関係が成立
する。
ΔX=xP’; −coscr ・Axx−yPx ・
5inQ’ ・AYX・・・・・・・・・ (1) 0 ”’xP: −5inα+ Axv +Yp、 ’
C05lr l Ayy・・・・・・・・・ (2) ここでαは視覚座標系15がロボット座標系14に対し
てなす角度(但し、反時計回りを正とする)を、A X
X+ A XV+ A YX+ A vvはロボ
ット座標系14と視覚座標系15との間のX、Y軸の尺
度比を示す係数であり、添字の第1字が視覚座標系15
の軸を、第2字がロボット座標系14の軸を示す。
5inQ’ ・AYX・・・・・・・・・ (1) 0 ”’xP: −5inα+ Axv +Yp、 ’
C05lr l Ayy・・・・・・・・・ (2) ここでαは視覚座標系15がロボット座標系14に対し
てなす角度(但し、反時計回りを正とする)を、A X
X+ A XV+ A YX+ A vvはロボ
ット座標系14と視覚座標系15との間のX、Y軸の尺
度比を示す係数であり、添字の第1字が視覚座標系15
の軸を、第2字がロボット座標系14の軸を示す。
また、上記と同様にしてΔYの認識結果P¥についても
以下の関係が成立する。
以下の関係が成立する。
0 =Xp、 ・(Q3α’ AX+l vP”3
’Sinα・Avx・・・・・・・・・ (3) ΔY=、P3 ・sinα・AXv+vP9 ・c
oscz ・Avv・・・・・・・・・ (4) よって、式(1)〜(4)より式(5)〜(8)が求め
られる。
’Sinα・Avx・・・・・・・・・ (3) ΔY=、P3 ・sinα・AXv+vP9 ・c
oscz ・Avv・・・・・・・・・ (4) よって、式(1)〜(4)より式(5)〜(8)が求め
られる。
更に、視覚座標系15においてX成分とY成分との比が
一定であるところから次式(9)が成立する。
一定であるところから次式(9)が成立する。
A xx/ A vx = A xv/ A vv
・・・・・・・・・・・・ (9)よって、弐(5)〜
(8)を式(9)に代入することで式a[有]が得られ
る。
・・・・・・・・・・・・ (9)よって、弐(5)〜
(8)を式(9)に代入することで式a[有]が得られ
る。
以上のようにして座標軸間の尺度比となす角度が求めら
れるものである。このような座標変換係数の算出は、ロ
ボット制御装置21からのロボット移動量にもとづいて
画像認識装置22にて算出されるようにしてもよい。
れるものである。このような座標変換係数の算出は、ロ
ボット制御装置21からのロボット移動量にもとづいて
画像認識装置22にて算出されるようにしてもよい。
次に第5図により他の例について説明する。本例でのも
のはカメラ3′がロボット1′の手先部分に取付されて
おり、ロボット1′の動作に伴いカメラ3′が移動する
ことで視野が変化するようにされた手先視覚付きロボッ
トについてのものである。この場合での座標系間の較正
処理手順は先の場合に同様である。即ち、ロボット1′
に所定の動作を実行させてコンベア6上に認識マーク1
2a〜12cを置く手順は先の例に同一であり、そのた
めのロボット1′の制御プログラムとしては第3図に例
示したものを用い得るものとなっている。
のはカメラ3′がロボット1′の手先部分に取付されて
おり、ロボット1′の動作に伴いカメラ3′が移動する
ことで視野が変化するようにされた手先視覚付きロボッ
トについてのものである。この場合での座標系間の較正
処理手順は先の場合に同様である。即ち、ロボット1′
に所定の動作を実行させてコンベア6上に認識マーク1
2a〜12cを置く手順は先の例に同一であり、そのた
めのロボット1′の制御プログラムとしては第3図に例
示したものを用い得るものとなっている。
以上のようにして認識マーク12a〜12cが所定の位
置に配置された後は、ロボット1′の動作により手先に
取付されたカメラ3′が移動され、カメラ3′は認識マ
ーク12a−12cが視野内にあって認識可能となる位
置に停止されるようになっている。その際、認識マーク
12a−12cの位置は第4図に示すようにカメラ3′
に定義された視覚座標系I5において表わされることに
なる。本例での場合視覚座標系15はロボット1′の動
作によってロボット座標系14の中を移動することにな
るが、ロボ・ノドI′へのカメラ3′の取付位置関係は
不変であるので、ロボット手先の現在位置を知ることに
よって、ロボット座標系14における視覚座標系15の
原点Ovの座標値は知れることになる。これは、ロボッ
ト1′の動作制御はロボット位置情報を帰還する位置サ
ーボ制御によっているため、その位置帰還情報よりロボ
ット手先の現在位置は容易に知れることになるからであ
る。以下、視覚座標系I5における認識マーク12a〜
12cの中心位置間距離とその方向、ロボ・ント座標系
14における口ポット1′の所定移動量から、座標系間
の関係を導くが、この手順は既述の式(1)〜(10)
によって行なわれるものとなっている。
置に配置された後は、ロボット1′の動作により手先に
取付されたカメラ3′が移動され、カメラ3′は認識マ
ーク12a−12cが視野内にあって認識可能となる位
置に停止されるようになっている。その際、認識マーク
12a−12cの位置は第4図に示すようにカメラ3′
に定義された視覚座標系I5において表わされることに
なる。本例での場合視覚座標系15はロボット1′の動
作によってロボット座標系14の中を移動することにな
るが、ロボ・ノドI′へのカメラ3′の取付位置関係は
不変であるので、ロボット手先の現在位置を知ることに
よって、ロボット座標系14における視覚座標系15の
原点Ovの座標値は知れることになる。これは、ロボッ
ト1′の動作制御はロボット位置情報を帰還する位置サ
ーボ制御によっているため、その位置帰還情報よりロボ
ット手先の現在位置は容易に知れることになるからであ
る。以下、視覚座標系I5における認識マーク12a〜
12cの中心位置間距離とその方向、ロボ・ント座標系
14における口ポット1′の所定移動量から、座標系間
の関係を導くが、この手順は既述の式(1)〜(10)
によって行なわれるものとなっている。
最後に更に他の例について第6図(a)、 (b)によ
り説明すれば、本例においては基準データとしての認識
対象は既述の認識マークとはされず、図示のようにロボ
ット1の手先に備えられた筆記具17を用い作業対象物
載置面としての基準面18上に線分16、あるいは点列
19,19’を描くことで形成されるようになっている
。これらの線分16や点列19゜19′を描く動作はロ
ボットlをプログラムすることにより自動的に実行され
るが、基準面18上にこれらのパターンを描いた後、カ
メラ3により線分16の長さと方向、あるいは点列19
.19’の間隔とその方向が認識されることによって、
第4図に示すΔX、ΔYを求め得るものとなっている。
り説明すれば、本例においては基準データとしての認識
対象は既述の認識マークとはされず、図示のようにロボ
ット1の手先に備えられた筆記具17を用い作業対象物
載置面としての基準面18上に線分16、あるいは点列
19,19’を描くことで形成されるようになっている
。これらの線分16や点列19゜19′を描く動作はロ
ボットlをプログラムすることにより自動的に実行され
るが、基準面18上にこれらのパターンを描いた後、カ
メラ3により線分16の長さと方向、あるいは点列19
.19’の間隔とその方向が認識されることによって、
第4図に示すΔX、ΔYを求め得るものとなっている。
本例ではカメラ3はスタンド4に固定されているが、第
5図に示す如くカメラ3をロボット1の手先に取付は先
の例に示すように、基準認識対象を描画後にカメラ3を
適当な位置に移動、停止せしめた後に、カメラ3によっ
て撮像された基準認識対象を認識処理することも可能と
なっている。
5図に示す如くカメラ3をロボット1の手先に取付は先
の例に示すように、基準認識対象を描画後にカメラ3を
適当な位置に移動、停止せしめた後に、カメラ3によっ
て撮像された基準認識対象を認識処理することも可能と
なっている。
以上述べたように本発明によれば、視覚座標系とロボッ
ト座標系との較正に用いる基準認識対象はロボット自体
がロボット座標系に沿って移動することで形成されるた
め、基準にロボット座標系の誤差が含まれており、ロボ
ット座標系に沿ってロボットの位置補正を行なった際に
その誤差が相殺されることになる。また、基準認識対象
にロボヅトの手先基準を一致させる操作が不要とされる
ことから、位置合せ誤差や個人差を排除しつつ座標変換
係数が高精度に、しかも安定にして速やかに求められる
ことになる。更に、基準認識対象の形成はロボットの動
作プログラムの記述によって実行されるため、較正に必
要な動作を自動的に行ない得、手先視覚付きロボットの
ように視野が常に変化し較正を頻繁に行なう必要がある
場合でも有効なものとなっている。
ト座標系との較正に用いる基準認識対象はロボット自体
がロボット座標系に沿って移動することで形成されるた
め、基準にロボット座標系の誤差が含まれており、ロボ
ット座標系に沿ってロボットの位置補正を行なった際に
その誤差が相殺されることになる。また、基準認識対象
にロボヅトの手先基準を一致させる操作が不要とされる
ことから、位置合せ誤差や個人差を排除しつつ座標変換
係数が高精度に、しかも安定にして速やかに求められる
ことになる。更に、基準認識対象の形成はロボットの動
作プログラムの記述によって実行されるため、較正に必
要な動作を自動的に行ない得、手先視覚付きロボットの
ように視野が常に変化し較正を頻繁に行なう必要がある
場合でも有効なものとなっている。
第1図は、本発明に係る座標系較正処理の全体的な概要
フローを示す図、第2図は、本発明に係る視覚付きロボ
ットとその周辺を示す図、第3図は、基準認識対象とし
ての複数の認識マークを所定の方向の位置におくための
ロボット動作制御プログラムの例を示す図、第4図は、
それら認識マークのロボット座標系、視覚座標系各々で
の位置関係を平面的に示す図、第5図は、本発明に係る
他の例での視覚付きロボットとその周辺を示す図、第6
図(a)、 (b)は、基準認識対象として、描画され
た線分や点列を用いる場合での視覚付きロボットとその
周辺を示す図である。 1.1′・・・ロボット、3,3′・・・カメラ、12
a〜12c・・・認識マーク(基準認識対象)、14・
・・ロボット座標系、15・・・視覚座標系、16・・
・線分(基準認識対象)、17・・・筆記具、19.1
9’・・・点列(基準認識対象)、21・・・ロボット
制御装置、22・・・画像認識装置。 代理人 弁理士 秋 本 正 実第1図 第 2 図 第3図 イテ1番号 命+a8 オ多会刃先tイ
装置○1 MOVE PO1 02CLO8E 03 MOVE R○1+(○、○、△Z+)04
M○VE PO2 05MOV E RO2+(Q、01 △Z2)0
60PEN 07 MOVE PO2 08MOVE R○1+(○、O,△Z+)09
MOVE ROl 10 CLO3E 11 MOVE PO1+(0,0,△Z1)12
MOEP○2+(△X、○、0) 15 MOVE PO2+(△X、o、−△z2)
14 0PEN = 第4図 12:駁識マーク 14:ロボ゛・・、)嵐標ホ
15:視プ梵座憬示第5図
フローを示す図、第2図は、本発明に係る視覚付きロボ
ットとその周辺を示す図、第3図は、基準認識対象とし
ての複数の認識マークを所定の方向の位置におくための
ロボット動作制御プログラムの例を示す図、第4図は、
それら認識マークのロボット座標系、視覚座標系各々で
の位置関係を平面的に示す図、第5図は、本発明に係る
他の例での視覚付きロボットとその周辺を示す図、第6
図(a)、 (b)は、基準認識対象として、描画され
た線分や点列を用いる場合での視覚付きロボットとその
周辺を示す図である。 1.1′・・・ロボット、3,3′・・・カメラ、12
a〜12c・・・認識マーク(基準認識対象)、14・
・・ロボット座標系、15・・・視覚座標系、16・・
・線分(基準認識対象)、17・・・筆記具、19.1
9’・・・点列(基準認識対象)、21・・・ロボット
制御装置、22・・・画像認識装置。 代理人 弁理士 秋 本 正 実第1図 第 2 図 第3図 イテ1番号 命+a8 オ多会刃先tイ
装置○1 MOVE PO1 02CLO8E 03 MOVE R○1+(○、○、△Z+)04
M○VE PO2 05MOV E RO2+(Q、01 △Z2)0
60PEN 07 MOVE PO2 08MOVE R○1+(○、O,△Z+)09
MOVE ROl 10 CLO3E 11 MOVE PO1+(0,0,△Z1)12
MOEP○2+(△X、○、0) 15 MOVE PO2+(△X、o、−△z2)
14 0PEN = 第4図 12:駁識マーク 14:ロボ゛・・、)嵐標ホ
15:視プ梵座憬示第5図
Claims (1)
- 【特許請求の範囲】 1、対象物を撮像したうえ該対象物の位置と姿勢を認識
する視覚装置における座標系と、上記対象物に作用を施
すロボットにおける座標系との間の相対的位置関係を較
正するための座標系較正方式であって、基準データにも
とづきロボットを所定の方向に所定量移動せしめ基準認
識対象を形成させた後、該認識対象を視覚装置によって
認識し、該認識対象についての認識結果とロボットの所
定方向への所定移動量との関係より視覚装置、ロボット
各々における座標系を関連付けることを特徴とする視覚
付きロボットの座標系較正方式。 2、請求項1において、ロボットの所定方向への移動は
、該ロボットにおける座標系の座標軸に平行とされる視
覚付きロボットの座標系較正方式。 3、請求項1、2の何れかにおいて、視覚装置における
座標系は該装置がロボットに取付けされた状態で移動さ
れることによって、ロボットにおける座標系との相対的
位置関係が可変とされる視覚付きロボットの座標系較正
方式。 4、請求項1、2、3の何れかにおいて、基準認識対象
は所定位置に散在配置された認識マーク部品によって形
成される視覚付きロボットの座標系較正方式。 5、請求項1、2、3の何れかにおいて、基準認識対象
は所定方向に所定長さ描画された線分、あるいは所定位
置各々に描画された点によって形成される視覚付きロボ
ットの座標系較正方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63027763A JP2678002B2 (ja) | 1988-02-10 | 1988-02-10 | 視覚付きロボットの座標系較正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP63027763A JP2678002B2 (ja) | 1988-02-10 | 1988-02-10 | 視覚付きロボットの座標系較正方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH01205204A true JPH01205204A (ja) | 1989-08-17 |
JP2678002B2 JP2678002B2 (ja) | 1997-11-17 |
Family
ID=12230047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63027763A Expired - Lifetime JP2678002B2 (ja) | 1988-02-10 | 1988-02-10 | 視覚付きロボットの座標系較正方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2678002B2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04310103A (ja) * | 1991-04-08 | 1992-11-02 | Fanuc Ltd | ロボットの補正量制限方法 |
JP2006301991A (ja) * | 2005-04-21 | 2006-11-02 | Pulstec Industrial Co Ltd | 座標変換関数の補正方法 |
JP2007263899A (ja) * | 2006-03-30 | 2007-10-11 | Toppan Printing Co Ltd | パターン形状計測装置及びパターン形状計測方法 |
JP2010082189A (ja) * | 2008-09-30 | 2010-04-15 | Olympus Corp | 手術マニピュレータシステムにおけるマニピュレータのキャリブレーション方法 |
JP2018024096A (ja) * | 2017-11-20 | 2018-02-15 | ファナック株式会社 | ワーク搬送システム |
JP2018034272A (ja) * | 2016-09-01 | 2018-03-08 | アイシン精機株式会社 | パレタイジング装置 |
CN110281238A (zh) * | 2019-06-17 | 2019-09-27 | 深圳视觉龙智能传感器有限公司 | 流水线多机械手标定方法、装置、计算机设备及存储介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003014662A1 (fr) * | 2001-08-08 | 2003-02-20 | Technowave, Ltd. | Dispositif permettant de mesurer la forme d'un article |
CN105965495B (zh) * | 2016-05-12 | 2018-07-10 | 英华达(上海)科技有限公司 | 一种机械臂定位方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6171184A (ja) * | 1984-09-14 | 1986-04-12 | Toyota Motor Corp | 自動ア−ク溶接方法 |
JPS62191904A (ja) * | 1986-02-19 | 1987-08-22 | Shinko Electric Co Ltd | 無人搬送車搭載ロボツトの位置補正方法 |
-
1988
- 1988-02-10 JP JP63027763A patent/JP2678002B2/ja not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6171184A (ja) * | 1984-09-14 | 1986-04-12 | Toyota Motor Corp | 自動ア−ク溶接方法 |
JPS62191904A (ja) * | 1986-02-19 | 1987-08-22 | Shinko Electric Co Ltd | 無人搬送車搭載ロボツトの位置補正方法 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04310103A (ja) * | 1991-04-08 | 1992-11-02 | Fanuc Ltd | ロボットの補正量制限方法 |
JP2006301991A (ja) * | 2005-04-21 | 2006-11-02 | Pulstec Industrial Co Ltd | 座標変換関数の補正方法 |
JP2007263899A (ja) * | 2006-03-30 | 2007-10-11 | Toppan Printing Co Ltd | パターン形状計測装置及びパターン形状計測方法 |
JP2010082189A (ja) * | 2008-09-30 | 2010-04-15 | Olympus Corp | 手術マニピュレータシステムにおけるマニピュレータのキャリブレーション方法 |
JP2018034272A (ja) * | 2016-09-01 | 2018-03-08 | アイシン精機株式会社 | パレタイジング装置 |
JP2018024096A (ja) * | 2017-11-20 | 2018-02-15 | ファナック株式会社 | ワーク搬送システム |
CN110281238A (zh) * | 2019-06-17 | 2019-09-27 | 深圳视觉龙智能传感器有限公司 | 流水线多机械手标定方法、装置、计算机设备及存储介质 |
CN110281238B (zh) * | 2019-06-17 | 2022-05-17 | 深圳视觉龙智能传感器有限公司 | 流水线多机械手标定方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2678002B2 (ja) | 1997-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0228471B1 (en) | Robot control system | |
Kofman et al. | Teleoperation of a robot manipulator using a vision-based human-robot interface | |
US10456917B2 (en) | Robot system including a plurality of robots, robot controller and robot control method | |
JP3946711B2 (ja) | ロボットシステム | |
JP4265088B2 (ja) | ロボット装置及びその制御方法 | |
US9517563B2 (en) | Robot system using visual feedback | |
EP2783814A2 (en) | Robot system and calibration method | |
EP3542969B1 (en) | Working-position correcting method and working robot | |
Zhang et al. | On-line path generation for robotic deburring of cast aluminum wheels | |
JP4289619B2 (ja) | 多関節ロボットのツール位置補正方法 | |
JPH01205204A (ja) | 視覚付きロボットの座標系較正方法 | |
Lee et al. | High precision hand-eye self-calibration for industrial robots | |
JP2006082170A (ja) | キャリブレーション方法 | |
CN116423526B (zh) | 一种机械臂工具坐标的自动标定方法及系统、存储介质 | |
JPH06190755A (ja) | ロボットの位置決定制御方法 | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
Luo et al. | Robotic conveyor tracking with dynamic object fetching for industrial automation | |
Qingda et al. | Workpiece posture measurement and intelligent robot grasping based on monocular vision | |
JPH04269194A (ja) | 平面計測方法 | |
US20220111530A1 (en) | Work coordinate generation device | |
Tonko et al. | Visually servoed gripping of a used car battery | |
Nishat | Contour Following by Human-Safe Cobots using Real-Time Vision and Force Feedback with Workpiece Location Uncertainty | |
EP3871842A1 (en) | System and method for member articulation | |
EP4286107A1 (en) | Calibration method and robot system | |
CN113524147B (zh) | 一种基于3d相机的工业机器人示教系统及方法 |