JP3104448B2 - 視覚センサ付きロボットの座標系の設定方法 - Google Patents
視覚センサ付きロボットの座標系の設定方法Info
- Publication number
- JP3104448B2 JP3104448B2 JP04357945A JP35794592A JP3104448B2 JP 3104448 B2 JP3104448 B2 JP 3104448B2 JP 04357945 A JP04357945 A JP 04357945A JP 35794592 A JP35794592 A JP 35794592A JP 3104448 B2 JP3104448 B2 JP 3104448B2
- Authority
- JP
- Japan
- Prior art keywords
- visual sensor
- robot
- coordinates
- recognition
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Manipulator (AREA)
Description
【0001】
【産業上の利用分野】この発明は、視覚センサにより物
体の位置を認識するロボットの座標系の設定方法に関す
るものである。
体の位置を認識するロボットの座標系の設定方法に関す
るものである。
【0002】
【従来の技術】図17〜図23は、従来の視覚センサ付
きロボットの座標系の設定方法を示す図で、図17(A)
はハンドにカメラが装着された場合、(B)はロボット以
外の場所にカメラが固定された場合の構成図、図18は
座標系と位置関係を示す図で、図18(A)(B)はそれぞ
れ図17(A)(B)に対応する。図19はベクトル図で、
図19(A)(B)はそれぞれ図18(A)(B)に対応する。
図20は座標系の設定動作フローチャートで、図20
(A)(B)はそれぞれ図19(A)(B)に対応する。図21
はロボットの座標系を示す図、図22はベクトルの相対
変換図、図23はベクトルの逆変換説明図で、図23
(A)は変換前、(B)は変換後である。
きロボットの座標系の設定方法を示す図で、図17(A)
はハンドにカメラが装着された場合、(B)はロボット以
外の場所にカメラが固定された場合の構成図、図18は
座標系と位置関係を示す図で、図18(A)(B)はそれぞ
れ図17(A)(B)に対応する。図19はベクトル図で、
図19(A)(B)はそれぞれ図18(A)(B)に対応する。
図20は座標系の設定動作フローチャートで、図20
(A)(B)はそれぞれ図19(A)(B)に対応する。図21
はロボットの座標系を示す図、図22はベクトルの相対
変換図、図23はベクトルの逆変換説明図で、図23
(A)は変換前、(B)は変換後である。
【0003】図17において、(1)はロボット、(2)はロ
ボット(1)を制御する制御装置、(3)は視覚センサの演算
装置、(4)はロボット(1)に取り付けられたハンド、(5)
は視覚センサのカメラで、視覚センサの演算装置(3)に
接続されている。(6)は認識対象物(ワークなど)、(7)
は認識対象物(6)上にあり視覚センサで認識する認識点
である。
ボット(1)を制御する制御装置、(3)は視覚センサの演算
装置、(4)はロボット(1)に取り付けられたハンド、(5)
は視覚センサのカメラで、視覚センサの演算装置(3)に
接続されている。(6)は認識対象物(ワークなど)、(7)
は認識対象物(6)上にあり視覚センサで認識する認識点
である。
【0004】図17において、座標系と、位置関係を示
すベクトルを書き込むと、図18となる。これらの図に
おいて、(8)はロボットの座標系、(9)は視覚センサの座
標系、(10)〜(13)はそれぞれベクトルで、それぞれ位置
を表すものとし、(10)はロボットの座標(8)上での認識
点(7)の位置、(11)は視覚センサの座標(9)上での認識点
(7)の位置、(12)は認識するときの座標(8)上でのロボッ
ト先端の位置(以下、ロボットの位置と呼ぶ)、(13)は
ロボットの位置に対する視覚センサの座標原点の相対位
置(以下、センサフレームと呼ぶ)、(14)はロボットの
座標(8)上での視覚センサの座標原点の位置(ロボット
座標に対する視覚センサの座標の相対位置、以下、セン
サフレームと呼ぶ)である。
すベクトルを書き込むと、図18となる。これらの図に
おいて、(8)はロボットの座標系、(9)は視覚センサの座
標系、(10)〜(13)はそれぞれベクトルで、それぞれ位置
を表すものとし、(10)はロボットの座標(8)上での認識
点(7)の位置、(11)は視覚センサの座標(9)上での認識点
(7)の位置、(12)は認識するときの座標(8)上でのロボッ
ト先端の位置(以下、ロボットの位置と呼ぶ)、(13)は
ロボットの位置に対する視覚センサの座標原点の相対位
置(以下、センサフレームと呼ぶ)、(14)はロボットの
座標(8)上での視覚センサの座標原点の位置(ロボット
座標に対する視覚センサの座標の相対位置、以下、セン
サフレームと呼ぶ)である。
【0005】図19は、図18からベクトルだけを抜き
出したものである。次に、設定方法を図20を参照して
説明する。まず、カメラ(5)がロボットのハンド(4)に取
り付けられたシステムでは、図20(A)に示すように、
出したものである。次に、設定方法を図20を参照して
説明する。まず、カメラ(5)がロボットのハンド(4)に取
り付けられたシステムでは、図20(A)に示すように、
【0006】(イ)ステップ(100)でロボットの座標(8)
上での認識点(7)の位置(10)を実測、又はロボット(1)に
よる教示により求める。 (ロ)ステップ(101)で認識点(7)が視覚センサの視野に
入るようにロボット(1)を移動させ、認識するときのロ
ボット(1)の位置(12)として教示する。 (ハ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ニ)ステップ(103)でロボットの座標(8)上での認識点
(7)の位置(10)、認識するときのロボットの位置(12)、
視覚センサの座標(9)上での認識点の位置(11)から、セ
ンサフレーム(13)を求める。
上での認識点(7)の位置(10)を実測、又はロボット(1)に
よる教示により求める。 (ロ)ステップ(101)で認識点(7)が視覚センサの視野に
入るようにロボット(1)を移動させ、認識するときのロ
ボット(1)の位置(12)として教示する。 (ハ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ニ)ステップ(103)でロボットの座標(8)上での認識点
(7)の位置(10)、認識するときのロボットの位置(12)、
視覚センサの座標(9)上での認識点の位置(11)から、セ
ンサフレーム(13)を求める。
【0007】これらの手順で座標系を設定する。この手
順の(ニ)でのセンサフレーム(13)は、 S=F~1:W:V~1 により求められる。ここで、:は相対変換、~1は逆変
換、S,F,W,Vはそれぞれベクトル(13)(12)(10)(1
1)を示す。
順の(ニ)でのセンサフレーム(13)は、 S=F~1:W:V~1 により求められる。ここで、:は相対変換、~1は逆変
換、S,F,W,Vはそれぞれベクトル(13)(12)(10)(1
1)を示す。
【0008】次に、カメラ(5)がロボット(1)以外の場所
に取り付けられたシステムの場合には、図20(B)に示
すように、 (イ)ステップ(100)でロボットの座標(8)上での認識点
(7)の位置(10)を実測又はロボット(1)による教示により
求める。 (ロ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ハ)ステップ(104)でロボットの座標(8)上での認識点
(7)の位置(10)、視覚センサの座標(9)上での認識点の位
置(11)から、センサフレーム(14)を求める。
に取り付けられたシステムの場合には、図20(B)に示
すように、 (イ)ステップ(100)でロボットの座標(8)上での認識点
(7)の位置(10)を実測又はロボット(1)による教示により
求める。 (ロ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ハ)ステップ(104)でロボットの座標(8)上での認識点
(7)の位置(10)、視覚センサの座標(9)上での認識点の位
置(11)から、センサフレーム(14)を求める。
【0009】これらの手順で座標系を設定する。この手
順の(ハ)でのセンサフレーム(14)は、 S=W:V-1 により求められる。
順の(ハ)でのセンサフレーム(14)は、 S=W:V-1 により求められる。
【0010】次に、ロボットの座標(8)について説明す
る。図21において、X,Y,Zはそれぞれベクトルの
X成分、Y成分、Z成分を表し、Z成分周りの回転をO
成分、Y成分周りの回転をA成分、X成分周りの回転を
T成分と呼ぶ。ロボットの座標(8)は、これらの6つの
成分から構成され、位置を表すベクトルもこの6つの成
分からなる。視覚センサの座標(9)は、これらの成分の
うちX,Y,O成分だけであるが、この座標系上のベク
トルはZ,A,T成分を含みそれぞれ零の値を持つこと
とする。
る。図21において、X,Y,Zはそれぞれベクトルの
X成分、Y成分、Z成分を表し、Z成分周りの回転をO
成分、Y成分周りの回転をA成分、X成分周りの回転を
T成分と呼ぶ。ロボットの座標(8)は、これらの6つの
成分から構成され、位置を表すベクトルもこの6つの成
分からなる。視覚センサの座標(9)は、これらの成分の
うちX,Y,O成分だけであるが、この座標系上のベク
トルはZ,A,T成分を含みそれぞれ零の値を持つこと
とする。
【0011】次に、相対変換について説明する。図22
(A)において、(15a)(16)(17a)は相対位置を表すベクト
ルである。ここで、相対位置(15a)と相対位置(16)の相
対変換を行なうと相対位置(17a)となる。これを式に表
すと、 C=A:B となる。ここで、Cはベクトル(17a)を示す。
(A)において、(15a)(16)(17a)は相対位置を表すベクト
ルである。ここで、相対位置(15a)と相対位置(16)の相
対変換を行なうと相対位置(17a)となる。これを式に表
すと、 C=A:B となる。ここで、Cはベクトル(17a)を示す。
【0012】図22(B)は図22(A)から相対位置(15
a)のO成分を90°回転させた図である。(15b)(17b)は
相対位置(15a)を90°回転させたときの相対位置を表
すベクトルである。相対位置(15a)と相対位置(15b)をベ
クトルで表わすと図の上では同じになる。また、相対位
置(16)は図22(A)と図22(B)で同じものである。相
対位置(15a)を90°回転させて相対位置(15b)とする
と、相対位置(16)は図22(B)のようになり、それらを
相対変換させると相対位置(17b)となる。
a)のO成分を90°回転させた図である。(15b)(17b)は
相対位置(15a)を90°回転させたときの相対位置を表
すベクトルである。相対位置(15a)と相対位置(15b)をベ
クトルで表わすと図の上では同じになる。また、相対位
置(16)は図22(A)と図22(B)で同じものである。相
対位置(15a)を90°回転させて相対位置(15b)とする
と、相対位置(16)は図22(B)のようになり、それらを
相対変換させると相対位置(17b)となる。
【0013】次に、逆変換について説明する。図23
(A)において、(18)は点(19)から点(20)への相対位置
を、図23(B)において、(21)は点(20)から点(19)への
相対位置を表すベクトルである。図23(A)の相対位置
(18)の逆変換は、図23(B)の相対位置(21)となる。こ
れを式に表すと、 E=D~1 となる。ここで、D,Eはそれぞれベクトル(18)(21)を
示す。
(A)において、(18)は点(19)から点(20)への相対位置
を、図23(B)において、(21)は点(20)から点(19)への
相対位置を表すベクトルである。図23(A)の相対位置
(18)の逆変換は、図23(B)の相対位置(21)となる。こ
れを式に表すと、 E=D~1 となる。ここで、D,Eはそれぞれベクトル(18)(21)を
示す。
【0014】
【発明が解決しようとする課題】上記のような従来の視
覚センサ付きロボットの座標系の設定方法では、上記の
ような手順で実施していたため、ロボットの座標系(8)
上での認識点の位置(10)を求める必要があり、これをロ
ボット(1)による教示で求めると誤差がかなり大きくな
る。また、その他の方法で求めるとしても誤差が大きい
か、又は非常に手間がかかるという問題点がある。ま
た、センサフレーム(13)(14)が求まっても、認識点(7)
の位置と実際の把持位置にずれがあり、その差を実測し
ても誤差が含まれる。そして、座標系の設定で求めたセ
ンサフレーム(13)(14)が正しいかどうかは、最終的なシ
ステム試験までわからないという問題点がある。
覚センサ付きロボットの座標系の設定方法では、上記の
ような手順で実施していたため、ロボットの座標系(8)
上での認識点の位置(10)を求める必要があり、これをロ
ボット(1)による教示で求めると誤差がかなり大きくな
る。また、その他の方法で求めるとしても誤差が大きい
か、又は非常に手間がかかるという問題点がある。ま
た、センサフレーム(13)(14)が求まっても、認識点(7)
の位置と実際の把持位置にずれがあり、その差を実測し
ても誤差が含まれる。そして、座標系の設定で求めたセ
ンサフレーム(13)(14)が正しいかどうかは、最終的なシ
ステム試験までわからないという問題点がある。
【0015】この発明は上記のような問題点を解消する
めになされたもので、精度が良く、かつ、手間がかから
ず、簡単に座標系の設定ができるようにした視覚センサ
付きロボットの座標系の設定方法を提供することを目的
とする。
めになされたもので、精度が良く、かつ、手間がかから
ず、簡単に座標系の設定ができるようにした視覚センサ
付きロボットの座標系の設定方法を提供することを目的
とする。
【0016】
【課題を解決するための手段】この発明の第1の発明に
係る視覚センサ付きロボットの座標系の設定方法は、ロ
ボットに装着されたカメラにより認識する視覚センサ付
きロボットにおいて、以下の手順により座標系を設定す
るようにしたものである。 (イ)認識点が視覚センサの視野に入るようにロボット
を移動させ、認識点を認識する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を認識す
る。 (ニ)(イ)〜(ハ)の認識結果を基にしてセンサフレ
ームを求める。
係る視覚センサ付きロボットの座標系の設定方法は、ロ
ボットに装着されたカメラにより認識する視覚センサ付
きロボットにおいて、以下の手順により座標系を設定す
るようにしたものである。 (イ)認識点が視覚センサの視野に入るようにロボット
を移動させ、認識点を認識する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を認識す
る。 (ニ)(イ)〜(ハ)の認識結果を基にしてセンサフレ
ームを求める。
【0017】この発明の第2の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第1の発明の方法に
おいて、ハンドを少し回動させてセンサフレームの概算
値を求めておき、その値によりロボットを平行移動させ
る移動量を計算により求めるようにしたものである。
きロボットの座標系の設定方法は、第1の発明の方法に
おいて、ハンドを少し回動させてセンサフレームの概算
値を求めておき、その値によりロボットを平行移動させ
る移動量を計算により求めるようにしたものである。
【0018】この発明の第3の発明に係る視覚センサ付
きロボットの座標系の設定方法は、ロボット以外の場所
に装着されたカメラにより認識する視覚センサ付きロボ
ットにおいて、以下の手順により座標系の設定を行な
う。 (イ)認識対象物を把持したまま、認識点が視覚センサ
の視野に入るようにロボットを移動させ、認識点を認識
する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を認識す
る。 (ニ)(イ)〜(ハ)の認識結果を元にしてセンサフレ
ームを求める。
きロボットの座標系の設定方法は、ロボット以外の場所
に装着されたカメラにより認識する視覚センサ付きロボ
ットにおいて、以下の手順により座標系の設定を行な
う。 (イ)認識対象物を把持したまま、認識点が視覚センサ
の視野に入るようにロボットを移動させ、認識点を認識
する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を認識す
る。 (ニ)(イ)〜(ハ)の認識結果を元にしてセンサフレ
ームを求める。
【0019】この発明の第4の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3の発明の方法に
おいて、認識対象物を把持せずに、ハンドに認識用のマ
ークを固着して認識するようにしたものである。
きロボットの座標系の設定方法は、第3の発明の方法に
おいて、認識対象物を把持せずに、ハンドに認識用のマ
ークを固着して認識するようにしたものである。
【0020】この発明の第5の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3の発明の方法に
おいて、認識点を認識するときに、いったん認識対象物
を放し、ロボットを退避させてから認識するようにした
ものである。
きロボットの座標系の設定方法は、第3の発明の方法に
おいて、認識点を認識するときに、いったん認識対象物
を放し、ロボットを退避させてから認識するようにした
ものである。
【0021】この発明の第6の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3、第4及び第5
の発明の方法において、位置に対する認識点の相対位置
の概算値を求めておき、その値によりロボットを平行移
動させる移動量を計算により求めるようにしたものであ
る。
きロボットの座標系の設定方法は、第3、第4及び第5
の発明の方法において、位置に対する認識点の相対位置
の概算値を求めておき、その値によりロボットを平行移
動させる移動量を計算により求めるようにしたものであ
る。
【0022】
【0023】この発明の第7の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第1〜第6の発明の
方法によって、センサフレームを求めた後、再度ロボッ
トを移動させ認識してセンサフレームを求めて比較して
その差を求めるようにしたものである。
きロボットの座標系の設定方法は、第1〜第6の発明の
方法によって、センサフレームを求めた後、再度ロボッ
トを移動させ認識してセンサフレームを求めて比較して
その差を求めるようにしたものである。
【0024】
【作用】この発明の第1の発明においては、ロボットに
装着されたカメラにより認識する視覚センサ付きロボッ
トを平行移動及び回動して認識点を認識させ、この認識
結果を基にしてセンサフレームを求めるようにしたた
め、ロボットの座標上での認識点の位置(10)を入力せず
に座標系の設定ができる
装着されたカメラにより認識する視覚センサ付きロボッ
トを平行移動及び回動して認識点を認識させ、この認識
結果を基にしてセンサフレームを求めるようにしたた
め、ロボットの座標上での認識点の位置(10)を入力せず
に座標系の設定ができる
【0025】また、第2の発明においては、センサフレ
ームの概算値を求め、ロボットの平行移動量を計算する
ようにしたため、ロボットの移動は自動的に行なわる。
ームの概算値を求め、ロボットの平行移動量を計算する
ようにしたため、ロボットの移動は自動的に行なわる。
【0026】また、第3の発明においては、ロボット以
外の場所に装着されたカメラにより認識する視覚センサ
付きロボットを平行移動及び回動して認識点を認識さ
せ、この認識結果を基にしてセンサフレームを求めるよ
うにしたため、ロボットの座標上での認識点の位置(10)
を入力せずに座標系の設定ができる。
外の場所に装着されたカメラにより認識する視覚センサ
付きロボットを平行移動及び回動して認識点を認識さ
せ、この認識結果を基にしてセンサフレームを求めるよ
うにしたため、ロボットの座標上での認識点の位置(10)
を入力せずに座標系の設定ができる。
【0027】また、第4の発明においては、ハンドに認
識用のマークを固着して認識するようにしたため、認識
対象物を把持したときにカメラに認識点が写らない場合
でも座標系の設定が行なえる。
識用のマークを固着して認識するようにしたため、認識
対象物を把持したときにカメラに認識点が写らない場合
でも座標系の設定が行なえる。
【0028】また、第5の発明においては、認識時に認
識対象物を放し、ロボットを退避させてから認識させる
ようにしたため、認識対象物を把持したときにカメラに
認識点が写らない場合、かつハンドにマークが固着でき
ない場合でも座標系の設定が行なえる。
識対象物を放し、ロボットを退避させてから認識させる
ようにしたため、認識対象物を把持したときにカメラに
認識点が写らない場合、かつハンドにマークが固着でき
ない場合でも座標系の設定が行なえる。
【0029】また、第6の発明においては、第3、第4
及び第5の発明の方法で、ロボットの平行移動量を計算
により求めるようにしたため、ロボットの移動は自動的
に行なわれる。
及び第5の発明の方法で、ロボットの平行移動量を計算
により求めるようにしたため、ロボットの移動は自動的
に行なわれる。
【0030】
【0031】また、第7の発明においては、座標系を設
定した後、再度認識を実行するようにしたため、座標系
の設定が正しく行なえたかを自動的に確認できる。
定した後、再度認識を実行するようにしたため、座標系
の設定が正しく行なえたかを自動的に確認できる。
【0032】
【実施例】実施例1. 図1〜図4はこの発明の第1の発明の一実施例を示す図
で、図1はハンドにカメラが装着された視覚センサ付き
ロボットの座標系と位置関係を示す図、図2はベクトル
図、図3は3回の認識説明用ベクトル図、図4は座標系
の設定動作フローチャートであり、従来方法と同様の部
分は同一符号で示す(他の実施例も同じ)。なお、図1
7(A)はこの実施例にも共用する。
で、図1はハンドにカメラが装着された視覚センサ付き
ロボットの座標系と位置関係を示す図、図2はベクトル
図、図3は3回の認識説明用ベクトル図、図4は座標系
の設定動作フローチャートであり、従来方法と同様の部
分は同一符号で示す(他の実施例も同じ)。なお、図1
7(A)はこの実施例にも共用する。
【0033】図1及び図2において、(22)は認識対象物
(6)を把持するときのロボットの位置(以下、把持位置
と呼ぶ)である。図3において、(9a)は1回目の認識時
のカメラ(5)の視野内の一点を原点とする2次元座標
系(以下、視覚センサの座標系という)(9b)は2回目の
認識時の視覚センサの座標系、(9c)は3回目の認識時の
視覚センサの座標系、(11a)は1回目の認識時の視覚セ
ンサの座標(9a)上での認識点(7)の位置、(11b)は2回目
の認識時の視覚センサの座標(9b)上での認識点(7)の位
置、(11c)は3回目の認識時の視覚センサの座標(9c)上
での認識点(7)の位置、(12a)は1回目の認識時のロボッ
トの位置、(12b)は2回目の認識時のロボットの位置、
(12c)は3回目の認識時のロボットの位置を示すベクト
ルである。なお、ロボット(1)の向きとカメラ(5)の向き
は一致しているものとする。
(6)を把持するときのロボットの位置(以下、把持位置
と呼ぶ)である。図3において、(9a)は1回目の認識時
のカメラ(5)の視野内の一点を原点とする2次元座標
系(以下、視覚センサの座標系という)(9b)は2回目の
認識時の視覚センサの座標系、(9c)は3回目の認識時の
視覚センサの座標系、(11a)は1回目の認識時の視覚セ
ンサの座標(9a)上での認識点(7)の位置、(11b)は2回目
の認識時の視覚センサの座標(9b)上での認識点(7)の位
置、(11c)は3回目の認識時の視覚センサの座標(9c)上
での認識点(7)の位置、(12a)は1回目の認識時のロボッ
トの位置、(12b)は2回目の認識時のロボットの位置、
(12c)は3回目の認識時のロボットの位置を示すベクト
ルである。なお、ロボット(1)の向きとカメラ(5)の向き
は一致しているものとする。
【0034】次に、実施例1の動作を図4を参照して説
明する。 (イ)ステップ(105)で認識対象物(6)の把持位置(22)を
教示する。 (ロ)ステップ(101)で認識点(7)が視覚センサの視野に
入るようにロボット(1)を移動させ、その位置を1回目
に認識する位置(12a)として教示する。 (ハ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9a)上での認識点の位置(11a)を求める。 (ニ)ステップ(106)でロボットをX(+)方向に平行
移動させ(ハンド(4)の向きが変わらないように)、そ
の位置を2回目の認識時のロボットの位置(12b)として
教示する。このとき、認識点(7)が視覚センサの視野か
ら出ない範囲で移動させる。
明する。 (イ)ステップ(105)で認識対象物(6)の把持位置(22)を
教示する。 (ロ)ステップ(101)で認識点(7)が視覚センサの視野に
入るようにロボット(1)を移動させ、その位置を1回目
に認識する位置(12a)として教示する。 (ハ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9a)上での認識点の位置(11a)を求める。 (ニ)ステップ(106)でロボットをX(+)方向に平行
移動させ(ハンド(4)の向きが変わらないように)、そ
の位置を2回目の認識時のロボットの位置(12b)として
教示する。このとき、認識点(7)が視覚センサの視野か
ら出ない範囲で移動させる。
【0035】(ホ)ステップ(107)で認識点(7)を認識し
て、視覚センサの座標(9b)上での認識点の位置(11b)を
求める。 (ヘ)ステップ(108)でロボットのO成分を60°ぐら
い回動させてから、そのままの角度で認識点(7)が視覚
センサの視野に入るようにロボット(1)を平行移動さ
せ、その位置を、3回目の認識時のロボットの位置(12
c)として教示する。 (ト)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9c)上での認識点の位置(11c)を求める。 (チ)ステップ(110)では上記で得られた値を基にし
て、センサフレーム(13)を計算する。
て、視覚センサの座標(9b)上での認識点の位置(11b)を
求める。 (ヘ)ステップ(108)でロボットのO成分を60°ぐら
い回動させてから、そのままの角度で認識点(7)が視覚
センサの視野に入るようにロボット(1)を平行移動さ
せ、その位置を、3回目の認識時のロボットの位置(12
c)として教示する。 (ト)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9c)上での認識点の位置(11c)を求める。 (チ)ステップ(110)では上記で得られた値を基にし
て、センサフレーム(13)を計算する。
【0036】上記(チ)におけるセンサフレーム(13)の
計算について説明する。まず、センサフレーム(13)のZ
成分を求める。このとき、正確なZ成分を求めるより
も、認識するときのロボットの位置(12)から把持位置(2
2)までの高さをセンサフレームのZ成分としたほうがい
いので、 SZ=PZ−F1Z とする。ここで、SZはベクトルSのZ成分、PZはベク
トルPのZ成分、F1ZはベクトルF1のZ成分(以下、
他のデータも同様に記す)。次に、センサフレームのO
成分を下式により求める。
計算について説明する。まず、センサフレーム(13)のZ
成分を求める。このとき、正確なZ成分を求めるより
も、認識するときのロボットの位置(12)から把持位置(2
2)までの高さをセンサフレームのZ成分としたほうがい
いので、 SZ=PZ−F1Z とする。ここで、SZはベクトルSのZ成分、PZはベク
トルPのZ成分、F1ZはベクトルF1のZ成分(以下、
他のデータも同様に記す)。次に、センサフレームのO
成分を下式により求める。
【0037】△V=V1−V2
【数1】 この式において、SO,F1Oの「O」はアルファベット
の「オー」でO成分を示す。また、arctanは分子・分母
の符号により360°の範囲で計算する(以下同様)。
最後に、下式によりセンサフレーム(13)のX,Y成分を
求める。
の「オー」でO成分を示す。また、arctanは分子・分母
の符号により360°の範囲で計算する(以下同様)。
最後に、下式によりセンサフレーム(13)のX,Y成分を
求める。
【0038】 F5O=F3O ・・・(1) F5(O以外)=F2(O以外) ・・・(2) V5=SO -1:F5 -1:F3:SO:V3 υ2=SO:V2 △FO=F3O−F2O ・・・(3) υ5=△FO:SO:V5 △SX=υ2X−υ5X ・・・(4) △SY=υ2Y−υ5Y ・・・(5)
【数2】 SX=χcosθ ・・・(8) SY=χsinθ ・・・(9)
【0039】ここで、SOはベクトルSのO成分以外の
X,Y,Z,A成分(すべて零)を含んだ位置を表す。
また、(2)式のF5(O以外)=F2(O以外)は、 F5X=F2X F5Y=F2Y F5Z=F2Z F5A=F2A F5T=F2T と同じ意味である。なお、(1)式〜(9)式はすべて
スカラ量を表す。ここで、ロボット(1)先端の向きと、
カメラ(5)の向きは一致しているので、センサフレーム
(13)のA,T成分は零となる。
X,Y,Z,A成分(すべて零)を含んだ位置を表す。
また、(2)式のF5(O以外)=F2(O以外)は、 F5X=F2X F5Y=F2Y F5Z=F2Z F5A=F2A F5T=F2T と同じ意味である。なお、(1)式〜(9)式はすべて
スカラ量を表す。ここで、ロボット(1)先端の向きと、
カメラ(5)の向きは一致しているので、センサフレーム
(13)のA,T成分は零となる。
【0040】実施例2.図5及び図6はこの発明の第2
の発明の一実施例を示す図で、図5は認識説明用ベクト
ル図、図6は座標系の設定動作フローチャートである。
の発明の一実施例を示す図で、図5は認識説明用ベクト
ル図、図6は座標系の設定動作フローチャートである。
【0041】図5において、(9d)は仮の認識時の視覚セ
ンサの座標系、(11d)は仮の認識時の視覚センサの座標
(9d)上での認識点(7)の位置、(12d)は仮の認識時のロボ
ットの位置(位置(12b)とは傾きが違う)である。
ンサの座標系、(11d)は仮の認識時の視覚センサの座標
(9d)上での認識点(7)の位置、(12d)は仮の認識時のロボ
ットの位置(位置(12b)とは傾きが違う)である。
【0042】次に、実施例2の動作を図6を参照して説
明する。 (イ)〜(ホ)実施例1の(イ)〜(ホ)と同じ。 (ヘ)ステップ(111)でロボット(1)のO成分だけ5°ぐ
らい回転させて(このとき、認識点(7)が視覚センサの
視野から出ないようにする、その位置を仮の認識時のロ
ボットの位置(12d)として教示する。 (ト)ステップ(112)で認識点(7)を認識して、視覚セン
サの座標(9d)上での認識点の位置(11d)を求める。
明する。 (イ)〜(ホ)実施例1の(イ)〜(ホ)と同じ。 (ヘ)ステップ(111)でロボット(1)のO成分だけ5°ぐ
らい回転させて(このとき、認識点(7)が視覚センサの
視野から出ないようにする、その位置を仮の認識時のロ
ボットの位置(12d)として教示する。 (ト)ステップ(112)で認識点(7)を認識して、視覚セン
サの座標(9d)上での認識点の位置(11d)を求める。
【0043】(チ)ステップ(113)では上記で求めた値
を基にして、センサフレーム(13)の概算値を計算する。 (リ)ステップ(114)でロボット(1)のO成分が60°回
転しかつ認識点(7)が視覚センサの視野に入るようなロ
ボットの位置(12c)を計算する。 (ヌ)ステップ(115)でロボットを(リ)で求めた位置
(12c)に移動させる。 (ル)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9c)上での認識点の位置(11c)を求める。 (オ)ステップ(110)では上記で得られた値を基にし
て、センサフレーム(13)を計算する。
を基にして、センサフレーム(13)の概算値を計算する。 (リ)ステップ(114)でロボット(1)のO成分が60°回
転しかつ認識点(7)が視覚センサの視野に入るようなロ
ボットの位置(12c)を計算する。 (ヌ)ステップ(115)でロボットを(リ)で求めた位置
(12c)に移動させる。 (ル)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9c)上での認識点の位置(11c)を求める。 (オ)ステップ(110)では上記で得られた値を基にし
て、センサフレーム(13)を計算する。
【0044】上記(チ)及び(オ)におけるセンサフレ
ーム(13)の求め方は、実施例1と同様である(上記
(チ)では回転する角度が5°程度であるため、誤差が
大きくなり概算値しか求められない)。上記(リ)にお
けるロボットの位置は、次式により求められる。
ーム(13)の求め方は、実施例1と同様である(上記
(チ)では回転する角度が5°程度であるため、誤差が
大きくなり概算値しか求められない)。上記(リ)にお
けるロボットの位置は、次式により求められる。
【0045】 F3O=F2O+△FO F3X=F2X+SGX'−SGX'cos△FO+SGY'sin△FO F3Y=F2Y+SGY'−SGY'cos△FO−SGX'sin△FO F3Z=F2Z F3A=F2A F3T=F2T ここで、SG 'はセンサフレーム(13)の概算値、ΔFOは
回転させる量(この例では60°)である。
回転させる量(この例では60°)である。
【0046】実施例3.図7〜図10はこの発明の第3
の発明の一実施例を示す図で、図7は、認識対象物を把
持したロボットの座標系と位置関係を示す図、図8はベ
クトル図、図9は、3回の認識説明用のベクトル図、図
10は座標系の設定動作フローチャートである。
の発明の一実施例を示す図で、図7は、認識対象物を把
持したロボットの座標系と位置関係を示す図、図8はベ
クトル図、図9は、3回の認識説明用のベクトル図、図
10は座標系の設定動作フローチャートである。
【0047】図7及び図8において、(23)は把持位置(2
2)に対する認識点(7)の相対位置である。図9におい
て、(22a)は1回目の認識時の把持位置、(22b)は2回目
の認識時の把持位置、(22c)は3回目の認識時の把持位
置である。なお、カメラ(5)はロボット(1)以外の場所に
装着され、真下を向いているものとする。
2)に対する認識点(7)の相対位置である。図9におい
て、(22a)は1回目の認識時の把持位置、(22b)は2回目
の認識時の把持位置、(22c)は3回目の認識時の把持位
置である。なお、カメラ(5)はロボット(1)以外の場所に
装着され、真下を向いているものとする。
【0048】次に、実施例3の動作を図10を参照して
説明する。 (イ)ステップ(105)で認識対象物(6)を把持したまま、
認識点(7)が視覚センサの視野に入るようにロボット(1)
を移動させ、その位置を位置(22a)として教示する。 (ロ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11a)を求める。 (ハ)ステップ(116)でロボット(1)をX(+)方向に平
行移動させ(ハンド(4)の向きが変わらないように)、
その位置を2回目の認識時の把持位置(22b)として教示
する。このとき、認識点(7)が視覚センサの視野から出
ない範囲で移動させる。
説明する。 (イ)ステップ(105)で認識対象物(6)を把持したまま、
認識点(7)が視覚センサの視野に入るようにロボット(1)
を移動させ、その位置を位置(22a)として教示する。 (ロ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11a)を求める。 (ハ)ステップ(116)でロボット(1)をX(+)方向に平
行移動させ(ハンド(4)の向きが変わらないように)、
その位置を2回目の認識時の把持位置(22b)として教示
する。このとき、認識点(7)が視覚センサの視野から出
ない範囲で移動させる。
【0049】(ニ)ステップ(107)で認識点(7)を認識し
て、視覚センサの座標(9)上での認識点の位置(11b)を求
める。 (ホ)ステップ(117)でロボットのO成分を60°ぐら
い回転させてから、そのままの角度で認識点(7)が視覚
センサの視野に入るようにロボット(1)を平行移動さ
せ、その位置を、3回目の認識時の位置(22c)として教
示する。 (ヘ)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11c)を求める。 (ト)ステップ(118)では上記で得られた結果を基にし
て、センサフレーム(14)を計算する。
て、視覚センサの座標(9)上での認識点の位置(11b)を求
める。 (ホ)ステップ(117)でロボットのO成分を60°ぐら
い回転させてから、そのままの角度で認識点(7)が視覚
センサの視野に入るようにロボット(1)を平行移動さ
せ、その位置を、3回目の認識時の位置(22c)として教
示する。 (ヘ)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11c)を求める。 (ト)ステップ(118)では上記で得られた結果を基にし
て、センサフレーム(14)を計算する。
【0050】上記(ト)におけるセンサフレーム(14)の
計算について説明する。まず、センサフレーム(14)のZ
成分を求める。このとき、正確なZ成分を求めるより
も、把持位置(22)のZ成分としたほうがよいので、 SZ=PZ とする。次に、センサフレーム(14)のO成分を下式によ
り求める。
計算について説明する。まず、センサフレーム(14)のZ
成分を求める。このとき、正確なZ成分を求めるより
も、把持位置(22)のZ成分としたほうがよいので、 SZ=PZ とする。次に、センサフレーム(14)のO成分を下式によ
り求める。
【0051】△V=V2−V1
【数3】 ここで、V2−V1は各成分同士の引き算である。そし
て、最後に、下式によりセンサフレームのX,Y成分を
求める。
て、最後に、下式によりセンサフレームのX,Y成分を
求める。
【0052】P5O=P3O P5(O以外)=P2(O以外) υ2=SO:V2 υ5=SO:V3:NO -1:P3 -1:P5:NO △PO=P3O−P2O △nO=△PO △n(O以外)=υ5(O以外)−υ2(O以外) △N=P2O -1:△n
【0053】
【数4】 NX=χcosθ NY=χsinθ NO=−P1O+SO+V1O SX,Y=(P2:N:V2 -1)X,Y
【0054】ここで、υ5(O以外)−υ2(O以外)は各成分
の引き算、SX,YはベクトルSのX成分及びY成分を示
す。そして、カメラは真下を向いているので、センサフ
レーム(14)のA,T成分は零である。
の引き算、SX,YはベクトルSのX成分及びY成分を示
す。そして、カメラは真下を向いているので、センサフ
レーム(14)のA,T成分は零である。
【0055】実施例4. 図11及び図12はこの発明の第4の発明の一実施例を
示す図で、図11はハンド部分の斜視図、図12は座標
系の設定動作フローチャートである。図11において、
(24)はハンド(4)に貼着された座標系設定用マークであ
る。なお、カメラ(5)はロボット(1)以外の場所に装着さ
れ、真下を向いているものとする。
示す図で、図11はハンド部分の斜視図、図12は座標
系の設定動作フローチャートである。図11において、
(24)はハンド(4)に貼着された座標系設定用マークであ
る。なお、カメラ(5)はロボット(1)以外の場所に装着さ
れ、真下を向いているものとする。
【0056】次に、実施例4の動作を図12を参照して
説明する。 (イ)ステップ(119)で図11のように、ハンド(4)の上
部(カメラ(5)に写る位置)に座標系の設定用マーク(2
4)を貼り付ける。 (ロ)ステップ(120)で座標系の設定用マーク(24)が視
覚センサの視野に入るように移動させ、その位置を位置
(22a)として教示する。 (ハ)〜(チ)実施例3の(ロ)〜(ト)と同様であ
る。ただし、認識点は認識対象物(6)上ではなく座標系
の設定用マーク(24)とする。
説明する。 (イ)ステップ(119)で図11のように、ハンド(4)の上
部(カメラ(5)に写る位置)に座標系の設定用マーク(2
4)を貼り付ける。 (ロ)ステップ(120)で座標系の設定用マーク(24)が視
覚センサの視野に入るように移動させ、その位置を位置
(22a)として教示する。 (ハ)〜(チ)実施例3の(ロ)〜(ト)と同様であ
る。ただし、認識点は認識対象物(6)上ではなく座標系
の設定用マーク(24)とする。
【0057】実施例5. 図13はこの発明の第5の発明の一実施例を示す座標系
の設定動作フローチャートである。なお、カメラ(5)は
ロボット(1)以外の場所に装着され、真下を向いている
ものとする。
の設定動作フローチャートである。なお、カメラ(5)は
ロボット(1)以外の場所に装着され、真下を向いている
ものとする。
【0058】次に、実施例5の動作を説明する。この実
施例の全体的な流れは、実施例3と同様である。しか
し、各(3回の)認識時に以下のような処理を行なう。 (イ)ステップ(121)でロボット(1)により認識対象物
(6)を台に置く(このとき、ロボットが無い状態で認識
点(7)が視覚センサの視野に入るようにする)。この時
の把持位置(22)を教示する。 (ロ)ステップ(122)で認識対象物(6)を放し、認識点
(7)が視覚センサに写るようにロボット(1)を退避させ
る。 (ハ)ステップ(123)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ニ)ステップ(124)で認識対象物(6)を把持する。
施例の全体的な流れは、実施例3と同様である。しか
し、各(3回の)認識時に以下のような処理を行なう。 (イ)ステップ(121)でロボット(1)により認識対象物
(6)を台に置く(このとき、ロボットが無い状態で認識
点(7)が視覚センサの視野に入るようにする)。この時
の把持位置(22)を教示する。 (ロ)ステップ(122)で認識対象物(6)を放し、認識点
(7)が視覚センサに写るようにロボット(1)を退避させ
る。 (ハ)ステップ(123)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ニ)ステップ(124)で認識対象物(6)を把持する。
【0059】実施例6. 図14及び図15はこの発明の第6の発明の一実施例を
示す図で、図14は認識説明用のベクトル図、図15
は、座標系の設定動作フローチャートである。図14に
おいて、(22d)は仮の認識時の把持位置(位置(22b)とは
傾きが違う)である。なお、カメラ(5)はロボット(1)以
外の場所に装着され、真下を向いているものとする。
示す図で、図14は認識説明用のベクトル図、図15
は、座標系の設定動作フローチャートである。図14に
おいて、(22d)は仮の認識時の把持位置(位置(22b)とは
傾きが違う)である。なお、カメラ(5)はロボット(1)以
外の場所に装着され、真下を向いているものとする。
【0060】次に、実施例6の動作を図15を参照して
説明する。この方法の座標系の設定方法は以下のようで
ある。 (イ)〜(ニ)実施例3の(イ)〜(ニ)と同じであ
る。 (ホ)ステップ(125)でロボット(1)をO成分だけ5°ぐ
らい回転させて(このとき、認識点(7)が視覚センサか
ら出ないようにする)、その位置を仮の認識時の把持位
置(22d)として教示する。 (ヘ)ステップ(112)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11d)を求める。 (ト)ステップ(126)では、上記で求めた値を基にし
て、把持位置(22)に対する認識点(7)の相対位置(23)の
概算値を計算する。
説明する。この方法の座標系の設定方法は以下のようで
ある。 (イ)〜(ニ)実施例3の(イ)〜(ニ)と同じであ
る。 (ホ)ステップ(125)でロボット(1)をO成分だけ5°ぐ
らい回転させて(このとき、認識点(7)が視覚センサか
ら出ないようにする)、その位置を仮の認識時の把持位
置(22d)として教示する。 (ヘ)ステップ(112)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11d)を求める。 (ト)ステップ(126)では、上記で求めた値を基にし
て、把持位置(22)に対する認識点(7)の相対位置(23)の
概算値を計算する。
【0061】(チ)ステップ(127)でロボット(1)のO成
分が60°回転しかつ認識点(7)が視覚センサの視野に
入るような把持位置(22c)を計算する。 (リ)ステップ(128)でロボット(1)を(チ)で求めた位
置(22c)に移動させる。 (ヌ)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11c)を求める。 (ル)ステップ(118)では上記で得られた結果を基にし
て、センサフレーム(14)を計算する。
分が60°回転しかつ認識点(7)が視覚センサの視野に
入るような把持位置(22c)を計算する。 (リ)ステップ(128)でロボット(1)を(チ)で求めた位
置(22c)に移動させる。 (ヌ)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11c)を求める。 (ル)ステップ(118)では上記で得られた結果を基にし
て、センサフレーム(14)を計算する。
【0062】上記(ト)における把持位置に対する認識
点の相対位置(23)、及び(ル)におけるセンサフレーム
(14)の求め方は、実施例3と同様である(上記(ト)で
は回転する角度が5°程度であるため誤差が大きくなり
概算値しか求められない)。上記(チ)における把持位
置は、次式により求められる。
点の相対位置(23)、及び(ル)におけるセンサフレーム
(14)の求め方は、実施例3と同様である(上記(ト)で
は回転する角度が5°程度であるため誤差が大きくなり
概算値しか求められない)。上記(チ)における把持位
置は、次式により求められる。
【0063】P3O=P2O+△PO P3X=P2X+NGX'−NGX'cos△PO+NGY'sin△PO P3Y=P2Y+NGY'−NGY'cos△PO−NGX'sin△PO P3Z=P2Z P3A=P2A P3T=P2T ここで、NG'はベクトルNの概算値、ΔPOは回転させ
る量(この例では60°)を示す。
る量(この例では60°)を示す。
【0064】実施例7.図16はこの発明の第7の発明
の一実施例を示す図で、認識対象物(6)を把持したロボ
ットの座標系と位置関係を示す図である。図において、
(25)は認識点(7)に対する把持位置(22)の相対位置であ
る。
の一実施例を示す図で、認識対象物(6)を把持したロボ
ットの座標系と位置関係を示す図である。図において、
(25)は認識点(7)に対する把持位置(22)の相対位置であ
る。
【0065】次に、実施例7の動作を説明する。実施例
1〜実施例6によりセンサフレームを求めたら、再度認
識して認識点(7)の位置(10)を求める。認識点の位置(1
0)は、ロボット(1)にカメラ(5)が取り付けられた視覚セ
ンサ付きロボットでは、 W=F:S:V により、ロボット(1)以外の場所にカメラ(5)が取り付け
られた視覚センサ付きロボットでは、 W=S:V により求められる。
1〜実施例6によりセンサフレームを求めたら、再度認
識して認識点(7)の位置(10)を求める。認識点の位置(1
0)は、ロボット(1)にカメラ(5)が取り付けられた視覚セ
ンサ付きロボットでは、 W=F:S:V により、ロボット(1)以外の場所にカメラ(5)が取り付け
られた視覚センサ付きロボットでは、 W=S:V により求められる。
【0066】
【0067】実施例7. 図16はこの発明の第7の発明の一実施例を示す座標系
の設定動作フローチャートである。次に、実施例7の動
作を説明する。 (イ)ステップ(129)で実施例1〜実施例6によりセン
サフレームを求める。 (ロ)ステップ(130)でロボット(1)のO成分を数度回転
る。 (ハ)ステップ(131)で認識点(7)を認識して視覚センサ
の座標上での認識点の位置を求める。
の設定動作フローチャートである。次に、実施例7の動
作を説明する。 (イ)ステップ(129)で実施例1〜実施例6によりセン
サフレームを求める。 (ロ)ステップ(130)でロボット(1)のO成分を数度回転
る。 (ハ)ステップ(131)で認識点(7)を認識して視覚センサ
の座標上での認識点の位置を求める。
【0068】(ニ)ステップ(132)で3回目の認識的の
データの代わりに上記(ロ)(ハ)の結果を使って再度
センサフレームを求める。このときのセンサフレームの
求め方は、実施例1又は実施例3と同様である。 (ホ)ステップ(133)では、(イ)で求めたセンサフレ
ームと、(ニ)で求めたセンサフレームを比較する。大
きく違う場合はセンサフレームが正しく求められていな
いことがわかる。
データの代わりに上記(ロ)(ハ)の結果を使って再度
センサフレームを求める。このときのセンサフレームの
求め方は、実施例1又は実施例3と同様である。 (ホ)ステップ(133)では、(イ)で求めたセンサフレ
ームと、(ニ)で求めたセンサフレームを比較する。大
きく違う場合はセンサフレームが正しく求められていな
いことがわかる。
【0069】
【発明の効果】以上説明したとおり、この発明の第1の
発明では、ロボットに装着されたカメラにより認識する
視覚センサ付きロボットを平行移動及び回動して認識点
を認識させ、この認識結果を基にしてセンサフレームを
求めるようにしたので、ロボットの座標上での認識点の
位置を入力しなくても座標系の設定ができ、認識点の位
置の誤差や、それを計測するための手間を省くことがで
き、全体として座標系の設定精度を向上し、かつ座標系
の設定の手間を少なくすることができる効果がある。
発明では、ロボットに装着されたカメラにより認識する
視覚センサ付きロボットを平行移動及び回動して認識点
を認識させ、この認識結果を基にしてセンサフレームを
求めるようにしたので、ロボットの座標上での認識点の
位置を入力しなくても座標系の設定ができ、認識点の位
置の誤差や、それを計測するための手間を省くことがで
き、全体として座標系の設定精度を向上し、かつ座標系
の設定の手間を少なくすることができる効果がある。
【0070】また、第2の発明では、センサフレームの
概算値を求め、ロボットの平行移動量を計算するように
したので、ロボットの移動は自動的に行なわれ、座標系
の設定に要する時間及び手間をいっそう少なくできる効
果がある。
概算値を求め、ロボットの平行移動量を計算するように
したので、ロボットの移動は自動的に行なわれ、座標系
の設定に要する時間及び手間をいっそう少なくできる効
果がある。
【0071】また、第3の発明では、ロボット以外の場
所に装着されたカメラにより認識する視覚センサ付きロ
ボットを平行移動及び回動して認識点を認識させ、この
認識結果を基にしてセンサフレームを求めるようにした
ので、ロボットの座標上での認識点の位置を入力しなく
ても座標系の設定ができ、認識点の位置の誤差や、それ
を計測するための手間を省くことができ、全体として座
標系の設定精度を向上し、かつ座標系の設定の手間を少
なくすることができる効果がある。
所に装着されたカメラにより認識する視覚センサ付きロ
ボットを平行移動及び回動して認識点を認識させ、この
認識結果を基にしてセンサフレームを求めるようにした
ので、ロボットの座標上での認識点の位置を入力しなく
ても座標系の設定ができ、認識点の位置の誤差や、それ
を計測するための手間を省くことができ、全体として座
標系の設定精度を向上し、かつ座標系の設定の手間を少
なくすることができる効果がある。
【0072】また、第4の発明では、ハンドに認識用の
マークを固着して認識するようにしたので、認識対象物
を把持したときにカメラに認識点が写らない場合でも座
標系の設定が行なえ、認識対象物を新たに作成しなくて
も、精度高く座標系の設定ができる効果がある。
マークを固着して認識するようにしたので、認識対象物
を把持したときにカメラに認識点が写らない場合でも座
標系の設定が行なえ、認識対象物を新たに作成しなくて
も、精度高く座標系の設定ができる効果がある。
【0073】また、第5の発明では、認識時に認識対象
物を放し、ロボットを退避させてから認識させるように
したので、認識対象物を把持したときにカメラに認識点
が写らない場合、かつハンドにマークが固着できない場
合でも座標系の設定ができ、座標系の設定精度を向上
し、かつ座標系の設定の手間を少なくすることができる
効果がある。
物を放し、ロボットを退避させてから認識させるように
したので、認識対象物を把持したときにカメラに認識点
が写らない場合、かつハンドにマークが固着できない場
合でも座標系の設定ができ、座標系の設定精度を向上
し、かつ座標系の設定の手間を少なくすることができる
効果がある。
【0074】また、第6の発明では、ロボットの平行移
動量を計算により求めるようにしたので、ロボットの移
動は自動的に行なわれ、第3、第4及び第5の発明より
も更に座標系の設定の手間を少なくすることができる効
果がある。
動量を計算により求めるようにしたので、ロボットの移
動は自動的に行なわれ、第3、第4及び第5の発明より
も更に座標系の設定の手間を少なくすることができる効
果がある。
【0075】
【0076】また、第7の発明では、座標系を設定した
後、再度認識を実行するようにしたので、座標系の設定
が正しく行なえたかを自動的に確認でき、座標系の設定
の確認の手間を少なくでき、不正があってもすぐに知る
ことができる効果がある。
後、再度認識を実行するようにしたので、座標系の設定
が正しく行なえたかを自動的に確認でき、座標系の設定
の確認の手間を少なくでき、不正があってもすぐに知る
ことができる効果がある。
【図1】この発明の実施例1を示す図で、ハンドにカメ
ラが装着された視覚センサ付きロボットの座標系と位置
関係を示す図。
ラが装着された視覚センサ付きロボットの座標系と位置
関係を示す図。
【図2】図1のベクトル図。
【図3】図1による認識説明用ベクトル図。
【図4】図1の座標系の設定動作フローチャート。
【図5】この発明の実施例2を示す認識説明用ベクトル
図。
図。
【図6】図5の座標系の設定動作フローチャート。
【図7】この発明の実施例3を示す図で、認識対象物を
把持したロボットの座標系と位置関係を示す図。
把持したロボットの座標系と位置関係を示す図。
【図8】図7のベクトル図。
【図9】図7による認識説明用ベクトル図。
【図10】図7の座標系の設定動作フローチャート。
【図11】この発明の実施例4を示す図で、ハンド部分
の斜視図。
の斜視図。
【図12】図11の座標系の設定動作フローチャート。
【図13】この発明の実施例5を示す図で、座標系の設
定動作フローチャート。
定動作フローチャート。
【図14】この発明の実施例6を示す図で、認識説明用
ベクトル図。
ベクトル図。
【図15】図14の座標系の設定動作フローチャート。
【図16】この発明の実施例7を示す図で、座標系の設
定動作フローチャート。
定動作フローチャート。
【図17】この発明及び従来の視覚センサ付きロボット
の座標系の設定方法を示す構成図で、(A)はハンドにカ
メラが装着された場合の、(B)はロボット以外の場所に
カメラが装着された場合の構成図。
の座標系の設定方法を示す構成図で、(A)はハンドにカ
メラが装着された場合の、(B)はロボット以外の場所に
カメラが装着された場合の構成図。
【図18】従来の視覚センサ付きロボットの座標系の設
定方法を示す座標系と位置関係を示す図で、(A)(B)は
それぞれ図17(A)(B)に対応する図。
定方法を示す座標系と位置関係を示す図で、(A)(B)は
それぞれ図17(A)(B)に対応する図。
【図19】図18のベクトル図で、(A)(B)はそれぞれ
図18(A)(B)に対応する図。
図18(A)(B)に対応する図。
【図20】図18の座標系の設定動作フローチャート
で、(A)(B)はそれぞれ図19(A)(B)に対応するフロ
ーチャート。
で、(A)(B)はそれぞれ図19(A)(B)に対応するフロ
ーチャート。
【図21】ロボットの座標系を示す図。
【図22】ベクトルの相対変換説明図。
【図23】ベクトルの逆変換説明図で、(A)は変換前、
(B)は変換後を示す図。
(B)は変換後を示す図。
Claims (7)
- 【請求項1】 ロボット先端のハンドに装着されたカメ
ラにより認識する視覚センサを有し、この視覚センサの
視野内の一点を原点とする2次元座標を上記視覚センサ
の座標として設定し、上記視覚センサにより認識対象物
を認識して上記ロボットの先端の位置に対する上記視覚
センサの座標の原点の相対位置を求める方法において、 (イ)上記ロボットを移動させて上記認識対象物上の認
識点を上記視覚センサの視野に入れ、この認識点を認識
させその時点での上記視覚センサの座標上での上記認識
点の位置を演算する第1の工程、 (ロ)上記ロボットをハンドの傾きが変わらないように
平行移動させて上記認識点を認識させその時点での上記
視覚センサの座標上での上記認識点の位置を演算する第
2の工程、 (ハ)上記ハンドを回動させた後上記ロボットを平行移
動させて上記認識点を上記視覚センサの視野に入れ、こ
の認識点を認識させてその時点での上記視覚センサの座
標上での上記認識点の位置を演算する第3の工程、及び (ニ)上記第1〜第3の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして、上記ロボット
の先端の位置に対する上記視覚センサの座標の原点の相
対位置を演算する第4の工程 を備えたことを特徴とする視覚センサ付きロボットの座
標系の設定方法。 - 【請求項2】 ロボット先端のハンドに装着されたカメ
ラにより認識する視覚センサを有し、この視覚センサの
視野内の一点を原点とする2次元座標を上記視覚センサ
の座標として設定し、上記視覚センサにより認識対象物
を認識して上記ロボットの先端の位置に対する上記視覚
センサの座標の原点の相対位置を求める方法において、 (イ)上記ロボットを移動させて上記認識対象物上の認
識点を上記視覚センサの視野に入れ、この認識点を認識
させその時点での上記視覚センサの座標上での上記認識
点の位置を演算する第1の工程、 (ロ)上記ロボットをハンドの傾きが変わらないように
平行移動させて上記認識点を認識させその時点での上記
視覚センサの座標上での上記認識点の位置を演算する第
2の工程、 (ハ)上記ハンドを上記認識点が上記視覚センサの視野
から出ない程度に回動させ上記認識点を認識させその時
点での上記視覚センサの座標上での上記認識点の位置を
演算する第3の工程、 (ニ)上記第1〜第3の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして、上記ロボット
の先端の位置に対する上記視覚センサの座標の原点の相
対位置の概算値を演算する第4の工程、 (ホ)上記ハンドを回動させた後、上記相対位置の概算
値を基にして上記ロボットの移動量を計算し、この移動
量だけ上記ロボットを平行移動させて上記認識点を上記
視覚センサの視野に入れ、この認識点を認識させてその
時点での上記視覚センサの座標上での上記認識点の位置
を演算する第5の工程、及び (ヘ)上記第1〜第5の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして、上記ロボット
の先端の位置に対する上記視覚センサの座標の原点の相
対位置を演算する第6の工程 を備えたことを特徴とする視覚センサ付きロボットの座
標系の設定方法。 - 【請求項3】 ロボット以外の場所に装着されたカメラ
により認識する視覚センサを有し、この視覚センサの視
野内の一点を原点とする2次元座標を上記視覚センサの
座標として設定し、上記視覚センサにより認識対象物を
認識して上記ロボットの座標に対する上記視覚センサの
座標の相対位置を求める方法において、 (イ)上記認識対象物を把持したまま、上記ロボットを
移動させて上記認識対象物上の認識点を上記視覚センサ
の視野に入れ、この認識点を認識させてその時点での上
記視覚センサの座標上での上記認識点の位置を演算する
第1の工程、 (ロ)上記ロボットをハンドの向きが変わらないように
平行移動させて上記認識点を認識させその時点での上記
視覚センサの座標上での上記認識点の位置を演算する第
2の工程、 (ハ)上記ハンドを回動させた後上記ロボットを平行移
動させて上記認識点を上記視覚センサの視野に入れ、こ
の認識点を認識させてその時点での上記視覚センサの座
標上での上記認識点の位置を演算する第3の工程、及び (ニ)上記第1〜第3の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして、上記ロボット
の座標に対する上記視覚センサの座標の相対位置を演算
する第4の工程 を備えたことを特徴とする視覚センサ付きロボットの座
標系の設定方法。 - 【請求項4】 ロボット以外の場所に装着されたカメラ
により認識する視覚センサを有し、この視覚センサの視
野内の一点を原点とする2次元座標を上記視覚センサの
座標として設定し、上記視覚センサにより認識対象物を
認識して上記ロボットの座標に対する上記視覚センサの
座標の相対位置を求める方法において、 (イ)上記ハンドに認識用のマークを固着する第1の工
程、 (ロ)上記ハンドを回動して上記マークを上記視覚セン
サの視野に入れ、このマークを認識させてその時点での
上記視覚センサの座標上での上記マークの位置を演算す
る第2の工程、 (ハ)上記ロボットを上記ハンドの向きが変わらないよ
うに平行移動させて上記マークを認識させその時点での
上記視覚センサの座標上での上記マークの位置を演算す
る第3の工程、 (ニ)上記ハンドを回動させた後上記ロボットを平行移
動させて上記マークを上記視覚センサの視野に入れ、こ
のマークを認識させその時点での上記視覚センサの座標
上での上記マークの位置を演算する第4の工程、 (ホ)上記第1〜第4の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして、上記ロボット
の座標に対する上記視覚センサの座標の相対位置を演算
する第5の工程 を備えたことを特徴とする視覚センサ付きロボットの座
標系の設定方法。 - 【請求項5】 ロボット以外の場所に装着されたカメラ
により認識する視覚センサを有し、この視覚センサの視
野内の一点を原点とする2次元座標を上記視覚センサの
座標として設定し、上記視覚センサにより認識対象物を
認識して上記ロボットの座標に対する上記視覚センサの
座標の相対位置を求める方法において、 (イ)上記ロボットにより上記認識対象物上の認識点が
上記視覚センサの視野に入るように上記認識対象物を台
に置き、上記ロボットを退避させ、この認識点を認識さ
せてその時点での上記視覚センサの座標上での上記認識
点の位置を演算した後、上記認識対象物を把持する第1
の工程、 (ロ)上記ロボットのハンドの向きが変わらないように
平行移動させて上記認識対象物を台に置き、上記ロボッ
トを退避させて上記認識点を認識させて、その時点での
上記視覚センサの座標上での上記認識点の位置を演算し
た後、上記認識対象物を把持する第2の工程、 (ハ)上記ハンドを回動させた後上記ロボットを平行移
動させて上記認識対象物を台に置き、上記ロボットを退
避させて上記認識点を認識させてその時点での上記視覚
センサの座標上での上記認識点の位置を演算する第3の
工程、及び (ニ)上記第1〜第3の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして、上記ロボット
の座標に対する上記視覚センサの座標の相対位置を演算
する第4の工程、 を備えたことを特徴とする視覚センサ付きロボットの座
標系の設定方法。 - 【請求項6】 ロボット以外の場所に装着されたカメラ
により認識する視覚センサを有し、この視覚センサの視
野内の一点を原点とする2次元座標を上記視覚センサの
座標として設定し、上記視覚センサにより認識対象物を
認識して上記ロボットの座標に対する上記視覚センサの
座標の相対位置を求める方法において、 (イ)上記認識対象物を把持したまま、上記ロボットを
移動させて上記認識対象物上又は上記ロボットのハンド
上の認識点を上記視覚センサの視野に入れ、この認識点
を認識させてその時点での上記視覚センサの座標上での
上記認識点の位置を演算する第1の工程、 (ロ)上記ロボットをハンドの向きが変わらないように
平行移動させて上記認識点を認識させその時点での上記
視覚センサの座標上での上記認識点の位置を演算する第
2の工程、 (ハ)上記ハンドを上記認識点が上記視覚センサの視野
から出ない程度に回動させ、上記認識点を認識させてそ
の時点での上記視覚センサの座標上での上記認識点の位
置を演算する第3の工程、 (ニ)上記第1〜第3の工程で求めた上記視覚センサの
座上での上記認識点の位置を基にして、上記ロボットの
座標に対する上記視覚センサの座標の相対位置の概算値
を演算する第4の工程、 (ホ)上記ハンドを回動させた後、上記相対位置の概算
値を基にして上記ロボットの移動量を計算し、この移動
量だけ上記ロボットを平行移動させて上記認識点を上記
視覚センサの視野に入れ、この認識点を認識させてその
時点での上記視覚センサの座標上での上記認識点の位置
を演算する第5の工程、及び (ヘ)上記第1〜第5の工程で求めた上記視覚センサの
座標上での上記認識点の位置を基にして上記ロボットの
座標に対する上記視覚センサの座標の相対位置を演算す
る第6の工程 を備えたことを特徴とする視覚センサ付きロボットの座
標系の設定方法。 - 【請求項7】 (イ)ロボットを再度移動させ認識点を
認識させ相対位置を演算する第1の工程、及び(ロ)最 初に求めた相対位置と、上記第1の工程で求め
た相対位置を比較してその差を求める第2の工程 を備えたことを特徴とする請求項1〜請求項6のいずれ
かに記載の視覚センサ付きロボットの座標系の設定方
法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04357945A JP3104448B2 (ja) | 1992-12-25 | 1992-12-25 | 視覚センサ付きロボットの座標系の設定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP04357945A JP3104448B2 (ja) | 1992-12-25 | 1992-12-25 | 視覚センサ付きロボットの座標系の設定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH06190756A JPH06190756A (ja) | 1994-07-12 |
JP3104448B2 true JP3104448B2 (ja) | 2000-10-30 |
Family
ID=18456752
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP04357945A Expired - Fee Related JP3104448B2 (ja) | 1992-12-25 | 1992-12-25 | 視覚センサ付きロボットの座標系の設定方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3104448B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5093058B2 (ja) * | 2008-11-04 | 2012-12-05 | 株式会社デンソーウェーブ | ロボットの座標の結合方法 |
JP5312261B2 (ja) * | 2009-08-18 | 2013-10-09 | 本田技研工業株式会社 | ロボットの制御方法 |
JP5729219B2 (ja) * | 2010-09-06 | 2015-06-03 | トヨタ車体株式会社 | ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体 |
DE102014001376B3 (de) * | 2014-02-04 | 2015-01-08 | Daimler Ag | Abgleich von Koordinatensystemen mit Hilfe von Fahrzeuginnenraummerkmalen |
CN104552341B (zh) * | 2014-12-29 | 2016-05-04 | 国家电网公司 | 移动工业机器人单点多视角挂表位姿误差检测方法 |
WO2018142582A1 (ja) * | 2017-02-03 | 2018-08-09 | 三菱電機株式会社 | 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム |
DE102017009939B4 (de) * | 2017-10-25 | 2021-07-01 | Kuka Deutschland Gmbh | Verfahren und System zum Betreiben eines mobilen Roboters |
JP7306871B2 (ja) | 2019-05-14 | 2023-07-11 | ファナック株式会社 | ロボット操作装置、ロボット、ロボット操作方法、プログラムおよびロボット制御装置 |
-
1992
- 1992-12-25 JP JP04357945A patent/JP3104448B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH06190756A (ja) | 1994-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110238845B (zh) | 最优标定点选取和误差自测量的自动手眼标定方法及装置 | |
JP4191080B2 (ja) | 計測装置 | |
CN110116407B (zh) | 柔性机器人位姿测量方法及装置 | |
Du et al. | Online serial manipulator calibration based on multisensory process via extended Kalman and particle filters | |
US9517563B2 (en) | Robot system using visual feedback | |
Hayati | Robot arm geometric link parameter estimation | |
JP4021413B2 (ja) | 計測装置 | |
CN111203861B (zh) | 一种机器人工具坐标系的标定方法及标定系统 | |
JP3104448B2 (ja) | 視覚センサ付きロボットの座標系の設定方法 | |
JP2011011321A (ja) | ロボットシステム及びロボットシステムのキャリブレーション方法 | |
JP2018202559A (ja) | 教示位置修正装置および教示位置修正方法 | |
CN112621743B (zh) | 机器人及其相机固定于末端的手眼标定方法及存储介质 | |
CN110625600A (zh) | 一种机器人末端工件坐标系标定方法 | |
CN113613850A (zh) | 一种坐标系校准方法、装置和计算机可读介质 | |
CN113974835A (zh) | 一种基于远心不动点约束的手术机器人运动控制方法 | |
JP6410411B2 (ja) | パターンマッチング装置及びパターンマッチング方法 | |
JP4345607B2 (ja) | 回転中心算出方法およびこの方法を用いたワーク位置決め装置 | |
JP6912529B2 (ja) | 視覚誘導ロボットアームの補正方法 | |
CN113799130B (zh) | 一种人机协作装配中的机器人位姿标定方法 | |
CN113799127B (zh) | 光学双目定位系统下六自由度机械臂无标定位姿定位方法 | |
JP2678002B2 (ja) | 視覚付きロボットの座標系較正方法 | |
CN113375693A (zh) | 一种地磁航向误差修正方法 | |
JPH06785A (ja) | 視覚センサ座標系の補正方法 | |
CN113733078B (zh) | 机械臂精调控制量判读方法、计算机可读存储介质 | |
JPH05303425A (ja) | 直接教示方式ロボット |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |