JPH06190756A - 視覚センサ付きロボットの座標系の設定方法 - Google Patents

視覚センサ付きロボットの座標系の設定方法

Info

Publication number
JPH06190756A
JPH06190756A JP35794592A JP35794592A JPH06190756A JP H06190756 A JPH06190756 A JP H06190756A JP 35794592 A JP35794592 A JP 35794592A JP 35794592 A JP35794592 A JP 35794592A JP H06190756 A JPH06190756 A JP H06190756A
Authority
JP
Japan
Prior art keywords
robot
visual sensor
coordinates
recognition
recognition point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP35794592A
Other languages
English (en)
Other versions
JP3104448B2 (ja
Inventor
Naoki Tatsumi
直樹 辰巳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP04357945A priority Critical patent/JP3104448B2/ja
Publication of JPH06190756A publication Critical patent/JPH06190756A/ja
Application granted granted Critical
Publication of JP3104448B2 publication Critical patent/JP3104448B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】 【目的】 視覚センサ付きロボットにおいて、認識点を
入力せずに、座標系を設定することにより、座標系の設
定の精度を向上し、かつ手間を減らす。 【構成】 ロボット(1)に装着されたカメラ(5)により、
認識点(7)をロボット(1)を平行移動及び回動させて、3
個所以上から認識し、その結果から、ロボット先端の位
置に対する視覚センサの座標(9)の相対位置(センサフ
レーム)(13)を求める。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、視覚センサにより物
体の位置を認識するロボットの座標系の設定方法に関す
るものである。
【0002】
【従来の技術】図18〜図24は、従来の視覚センサ付
きロボットの座標系の設定方法を示す図で、図18(A)
はハンドにカメラが装着された場合、(B)はロボット以
外の場所にカメラが固定された場合の構成図、図19は
座標系と位置関係を示す図で、図19(A)(B)はそれぞ
れ図18(A)(B)に対応する。図20はベクトル図で、
図20(A)(B)はそれぞれ図19(A)(B)に対応する。
図21は座標系の設定動作フローチャートで、図21
(A)(B)はそれぞれ図20(A)(B)に対応する。図22
はロボットの座標系を示す図、図23はベクトルの相対
変換図で、図23(A)は変換前、(B)は変換後、図24
はベクトルの逆変換説明図で、図24(A)は変換前、
(B)は変換後である。
【0003】図18において、(1)はロボット、(2)はロ
ボット(1)を制御する制御装置、(3)は視覚センサの演算
装置、(4)はロボット(1)に取り付けられたハンド、(5)
は視覚センサのカメラで、視覚センサの演算装置(3)に
接続されている。(6)は認識対象物(ワークなど)、(7)
は認識対象物(6)上にあり視覚センサで認識する認識点
である。
【0004】図18において、座標系と、位置関係を示
すベクトルを書き込むと、図19となる。これらの図に
おいて、(8)はロボットの座標系、(9)は視覚センサの座
標系、(10)〜(13)はそれぞれベクトルで、それぞれ位置
を表すものとし、(10)はロボットの座標(8)上での認識
点(7)の位置、(11)は視覚センサの座標(9)上での認識点
(7)の位置、(12)は認識するときの座標(8)上でのロボッ
ト先端の位置(以下、ロボットの位置と呼ぶ)、(13)は
ロボットの位置に対する視覚センサの座標原点の相対位
置(以下、センサフレームと呼ぶ)、(14)はロボットの
座標(8)上での視覚センサの座標原点の位置(ロボット
座標に対する視覚センサの座標の相対位置、以下、セン
サフレームと呼ぶ)である。
【0005】図20は、図19からベクトルだけを抜き
出したものである。次に、設定方法を図21を参照して
説明する。まず、カメラ(5)がロボットのハンド(4)に取
り付けられたシステムでは、図21(A)に示すように、
【0006】(イ)ステップ(100)でロボットの座標(8)
上での認識点(7)の位置(10)を実測、又はロボット(1)に
よる教示により求める。 (ロ)ステップ(101)で認識点(7)が視覚センサの視野に
入るようにロボット(1)を移動させ、認識するときのロ
ボット(1)の位置(12)として教示する。 (ハ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ニ)ステップ(103)でロボットの座標(8)上での認識点
(7)の位置(10)、認識するときのロボットの位置(12)、
視覚センサの座標(9)上での認識点の位置(11)から、セ
ンサフレーム(13)を求める。
【0007】これらの手順で座標系を設定する。この手
順の(ニ)でのセンサフレーム(13)は、 S=F-1:W:V-1 により求められる。ここで、:は相対変数、-1は逆変
換、S,F,W,Vはそれぞれベクトル(13)(12)(10)(1
1)を示す。
【0008】次に、カメラ(5)がロボット(1)以外の場所
に取り付けられたシステムの場合には、図21(B)に示
すように、 (イ)ステップ(100)でロボットの座標(8)上での認識点
(7)の位置(10)を実測又はロボット(1)による教示により
求める。 (ロ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ハ)ステップ(104)でロボットの座標(8)上での認識点
(7)の位置(10)、視覚センサの座標(9)上での認識点の位
置(11)から、センサフレーム(14)を求める。
【0009】これらの手順で座標系を設定する。この手
順の(ハ)でのセンサフレーム(14)は、 S=W:V-1 により求められる。
【0010】次に、ロボットの座標(8)について説明す
る。図22において、X,Y,Zはそれぞれベクトルの
X成分、Y成分、Z成分を表し、Z成分周りの回転をO
成分、Y成分周りの回転をA成分、X成分周りの回転を
T成分と呼ぶ。ロボットの座標(8)は、これらの6つの
成分から構成され、位置を表すベクトルもこの6つの成
分からなる。視覚センサの座標(9)は、これらの成分の
うちX,Y,O成分だけであるが、この座標系上のベク
トルはZ,A,T成分を含みそれぞれ零の値を持つこと
とする。
【0011】次に、相対変換について説明する。図23
(A)において、(15a)(16)(17a)は相対位置を表すベクト
ルである。ここで、相対位置(15a)と相対位置(16)の相
対変換を行なうと相対位置(17a)となる。これを式に表
すと、 C=A:B となる。ここで、Cはベクトル(17a)を示す。
【0012】図23(B)は図23(A)から相対位置(15
a)のO成分を90°回転させた図である。(15b)(17b)は
相対位置(15a)を90°回転させたときの相対位置を表
すベクトルである。相対位置(15a)と相対位置(15b)をベ
クトルで表わすと図の上では同じになる。また、相対位
置(16)は図23(A)と図23(B)で同じものである。相
対位置(15a)を90°回転させて相対位置(15b)とする
と、相対位置(16)は図23(B)のようになり、それらを
相対変換させると相対位置(17b)となる。
【0013】次に、逆変換について説明する。図24
(A)において、(18)は点(19)から点(20)への相対位置
を、(21)は点(20)から点(19)への相対位置を表すベクト
ルである。図24(A)の相対位置(18)の逆変換は、図2
4(B)の相対位置(21)となる。これを式に表すと、 E=D-1 となる。ここで、D,Eはそれぞれベクトル(18)(21)を
示す。
【0014】
【発明が解決しようとする課題】上記のような従来の視
覚センサ付きロボットの座標系の設定方法では、上記の
ような手順で実施していたため、ロボットの座標系(8)
上での認識点の位置(10)を求める必要があり、これをロ
ボット(1)による教示で求めると誤差がかなり大きくな
る。また、その他の方法で求めるとしても誤差が大きい
か、又は非常に手間がかかるという問題点がある。ま
た、センサフレーム(13)(14)が求まっても、認識点(7)
の位置と実際の把持位置にずれがあり、その差を実測し
ても誤差が含まれる。そして、座標系の設定で求めたセ
ンサフレーム(13)(14)が正しいかどうかは、最終的なシ
ステム試験までわからないという問題点がある。
【0015】この発明は上記のような問題点を解消する
めになされたもので、精度が良く、かつ、手間がかから
ず、簡単に座標系の設定ができるようにした視覚センサ
付きロボットの座標系の設定方法を提供することを目的
とする。
【0016】
【課題を解決するための手段】この発明の第1の発明に
係る視覚センサ付きロボットの座標系の設定方法は、ロ
ボットに装着されたカメラにより認識する視覚センサ付
きロボットにおいて、以下の手順により座標系を設定す
るようにしたものである。 (イ)認識点が視覚センサの視野に入るようにロボット
を移動させ、認識点を認識する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を未識す
る。 (ニ)(イ)〜(ハ)の認識結果を基にしてセンサフレ
ームを求める。
【0017】この発明の第2の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第1の発明の方法に
おいて、ハンドを少し回動させてセンサフレームの概算
値を求めておき、その値によりロボットを平行移動させ
る移動量を計算により求めるようにしたものである。
【0018】この発明の第3の発明に係る視覚センサ付
きロボットの座標系の設定方法は、ロボット以外の場所
に装着されたカメラにより認識する視覚センサ付きロボ
ットにおいて、以下の手順により座標系の設定を行な
う。 (イ)認識対象物を把持したまま、認識点が視覚センサ
の視野に入るようにロボットを移動させ、認識点を認識
する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を認識す
る。 (ニ)(イ)〜(ハ)の認識結果を元にしてロボット座
標におけるカメラが写している位置を求める。
【0019】この発明の第4の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3の発明の方法に
おいて、認識対象物を把持せずに、ハンドに認識用のマ
ークを固着して認識するようにしたものである。
【0020】この発明の第5の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3の発明の方法に
おいて、認識点を認識するときに、いったん認識対象物
を放し、ロボットを退避させてから認識するようにした
ものである。
【0021】この発明の第6の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3及び第4の発明
の方法において、位置に対する認識点の相対位置の概算
値を求めておき、その値によりロボットを平行移動させ
る移動量を計算により求めるようにしたものである。
【0022】この発明の第7の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第1〜第6の発明の
方法によって、カメラが写している位置を求めた後、再
度認識を行ない、認識対象の位置に対する把持位置を計
算により求めるようにしたものである。
【0023】この発明の第8の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第1〜第6の発明の
方法によって、センサフレームを求めた後、再度ロボッ
トを移動させ認識してセンサフレームを求めて比較する
ようにしたものである。
【0024】
【作用】この発明の第1の発明においては、ロボットに
装着されたカメラにより認識する視覚センサ付きロボッ
トを平行移動及び回動して認識点を認識させ、この認識
結果を基にしてセンサフレームを求めるようにしたた
め、ロボットの座標上での認識点の位置(10)を入力せず
に座標系の設定ができる
【0025】また、第2の発明においては、センサフレ
ームの概算値を求め、ロボットの平行移動量を計算する
ようにしたため、ロボットの移動は自動的に行なわる。
【0026】また、第3の発明においては、ロボット以
外の場所に装着されたカメラにより認識する視覚センサ
付きロボットを平行移動及び回動して認識点を認識さ
せ、この認識結果を基にしてセンサフレームを求めるよ
うにしたため、ロボットの座標上での認識点の位置(10)
を入力せずに座標系の設定ができる。
【0027】また、第4の発明においては、ハンドに認
識用のマークを固着して認識するようにしたため、認識
対象物を把持したときにカメラに認識点が写らない場合
でも座標系の設定が行なる。
【0028】また、第5の発明においては、認識時に認
識対象物を放し、ロボットを退避させてから認識させる
ようにしたため、認識対象物を把持したときにカメラに
認識点が写らない場合、かつハンドにマークが固着でき
ない場合でも座標系の設定が行なえる。
【0029】また、第6の発明においては、第3及び第
4の発明の方法で、ロボットの平行移動量を計算により
求めるようにしたため、ロボットの移動は自動的に行な
われる。
【0030】また、第7の発明においては、認識対象の
位置に対する把持位置を計算により求めるようにしたた
め、認識点の位置と実際の把持位置との差を測る必要は
ない。
【0031】また、第8の発明においては、座標系を設
定した後、再度認識を実行するようにしたため、座標系
の設定が正しく行なえたかを自動的に確認できる。
【0032】
【実施例】
実施例1.図1〜図4はこの発明の第1の発明の一実施
例を示す図で、図1はハンドにカメラが装着された視覚
センサ付きロボットの座標系と位置関係を示す図、図2
はベクトル図、図3は3回の認識説明用ベクトル図、図
4は座標系の設定動作フローチャートであり、従来方法
と同様の部分は同一符号で示す(他の実施例も同じ)。
なお、図18(A)はこの実施例にも共用する。
【0033】図1において、(22)は認識対象物(6)を把
持するときのロボットの位置(以下、把持位置と呼ぶ)
である。図3において、(9a)は1回目の認識時の視覚セ
ンサの座標系、(9b)は2回目の認識時の視覚センサの座
標系、(9c)は3回目の認識時の視覚センサの座標系、(1
1a)は1回目の認識時の視覚センサの座標(9a)上での認
識点(7)の位置、(11b)は2回目の認識時の視覚センサの
座標(9b)上での認識点(7)の位置、(11c)は3回目の認識
時の視覚センサの座標(9c)上での認識点(7)の位置、(12
a)は1回目の認識時のロボットの位置、(12b)は2回目
の認識時のロボットの位置、(12c)は3回目の認識時の
ロボットの位置を示すベクトルである。なお、ロボット
(1)の向きとカメラ(5)の向きは一致しているものとす
る。
【0034】次に、実施例1の動作を図4を参照して説
明する。 (イ)ステップ(105)で認識対象物(6)の把持位置(22)を
教示する。 (ロ)ステップ(101)で認識点(7)が視覚センサの視野に
入るようにロボット(1)を移動させ、その位置を1回目
に認識する位置(12a)として教示する。 (ハ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9a)上での認識点の位置(11a)を求める。 (ニ)ステップ(106)でロボットをX(+)方向に平行
移動させ(ハンド(4)の向きが変わらないように)、そ
の位置を2回目の認識時のロボットの位置(12b)として
教示する。このとき、認識点(7)が視覚センサの視野か
ら出ない範囲で移動させる。
【0035】(ホ)ステップ(107)で認識点(7)を認識し
て、視覚センサの座標(9b)上での認識点の位置(11b)を
求める。 (ヘ)ステップ(108)でロボットのO成分を60°ぐら
い回動させてから、そのままの角度で認識点(7)が視覚
センサの視野に入るようにロボット(1)を平行移動さ
せ、その位置を、3回目の認識時のロボットの位置(12
c)として教示する。 (ト)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9c)上での認識点の位置(11c)を求める。 (チ)ステップ(110)では上記で得られた値を基にし
て、センサフレーム(13)を計算する。
【0036】上記(チ)におけるセンサフレーム(13)の
計算について説明する。まず、センサフレーム(13)のZ
成分を求める。このとき、正確なZ成分を求めるより
も、認識するときのロボットの位置(12)から把持位置(2
2)までの高さをセンサフレームのZ成分としたほうがい
いので、 SZ=PZ−F1Z とする。ここで、SZはベクトルSのZ成分、PZはベク
トルPのZ成分、F1ZはベクトルF1のZ成分(以下、
他のデータも同様に記す)。次に、センサフレームのO
成分を下式により求める。
【0037】△V=V1−V2
【数1】 この式において、SO,F1Oの「O」はアルファベット
の「オー」でO成分を示す。また、arctanは分子・分母
の符号により360°の範囲で計算する(以下同様)。
最後に、下式によりセンサフレーム(13)のX,Y成分を
求める。
【0038】 F5O=F3O ・・・(1) F5(O以外)=F2(O以外) ・・・(2) V5=SO -1:F5 -1:F3:SO:V3 υ2=SO:V2 △FO=F3O−F2O ・・・(3) υ5=△FO:SO:V5 △SX=υ2X−υ5X ・・・(4) △SY=υ2Y−υ5Y ・・・(5)
【数2】 X=χcosθ ・・・(8) SY=χsinθ ・・・(9)
【0039】ここで、SOはベクトルSのO成分以外の
X,Y,Z,A成分(すべて零)を含んだ位置を表す。
また、(2)式のF5(O以外)=F2(O以外)は、 F5X=F2X5Y=F2Y5Z=F2Z5A=F2A5T=F2T と同じ意味である。なお、(1)式〜(9)式はすべて
スカラ量を表す。ここで、ロボット(1)先端の向きと、
カメラ(5)の向きは一致しているので、センサフレーム
(13)のA,T成分は零となる。
【0040】実施例2.図5及び図6はこの発明の第2
の発明の一実施例を示す図で、図5は認識説明用ベクト
ル図、図6は座標系の設定動作フローチャートである。
【0041】図5において、(9d)は仮の認識時の視覚セ
ンサの座標系、(11d)は仮の認識時の視覚センサの座標
(9d)上での認識点(7)の位置、(12d)は仮の認識時のロボ
ットの位置(位置(12b)とは傾きが違う)である。
【0042】次に、実施例2の動作を図6を参照して説
明する。 (イ)〜(ホ)実施例1の(イ)〜(ホ)と同じ。 (ヘ)ステップ(111)でロボット(1)のO成分だけ5°ぐ
らい回転させて(このとき、認識点(7)が視覚センサの
視野から出ないようにする、その位置を仮の認識時のロ
ボットの位置(12d)として教示する。 (ト)ステップ(112)で認識点(7)を認識して、視覚セン
サの座標(9d)上での認識点の位置(11d)を求める。
【0043】(チ)ステップ(113)では上記で求めた値
を基にして、センサフレーム(13)の概算値を計算する。 (リ)ステップ(114)でロボット(1)のO成分が60°回
転しかつ認識点(7)が視覚センサの視野に入るようなロ
ボットの位置(12c)を計算する。 (ヌ)ステップ(115)でロボットを(リ)で求めた位置
(12c)に移動させる。 (ル)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9c)上での認識点の位置(11c)を求める。 (オ)ステップ(110)では上記で得られた値を基にし
て、センサフレーム(13)を計算する。
【0044】上記(チ)及び(オ)におけるセンサフレ
ーム(13)の求め方は、実施例1と同様である(上記
(チ)では回転する角度が5°程度であるため、誤差が
大きくなり概算値しか求められない)。上記(リ)にお
けるロボットの位置は、次式により求められる。
【0045】F3O=F2O+△FO3X=F2X+SGX'−SGX'cos△FO+SGY'sin△FO3Y=F2Y+SGY'−SGY'cos△FO−SGX'sin△FO3Z=F2Z3A=F2A3T=F2T ここで、SGはセンサフレーム(13)の概算値、ΔFOは回
転させる量(この例では60°)である。
【0046】実施例3.図7〜図10はこの発明の第3
の発明の一実施例を示す図で、図7は、認識対象物を把
持したロボットの座標系と位置関係を示す図、図8はベ
クトル図、図9は、3回の認識説明用のベクトル図、図
10は座標系の設定動作フローチャートである。
【0047】図7において、(23)は把持位置(22)に対す
る認識点(7)の相対位置である。図9において、(22a)は
1回目の認識時の把持位置、(22b)は2回目の認識時の
把持位置、(22c)は3回目の認識時の把持位置である。
なお、カメラ(5)は真下を向いているものとする。
【0048】次に、実施例3の動作を図10を参照して
説明する。 (イ)ステップ(105)で認識対象物(6)を把持したまま、
認識点(7)が視覚センサの視野に入るようにロボット(1)
を移動させ、その位置を位置(22a)として教示する。 (ロ)ステップ(102)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11a)を求める。 (ハ)ステップ(116)でロボット(1)をX(+)方向に平
行移動させ(ハンド(4)の向きが変わらないように)、
その位置を2回目の認識時の把持位置(22b)として教示
する。このとき、認識点(7)が視覚センサの視野から出
ない範囲で移動させる。
【0049】(ニ)ステップ(107)で認識点(7)を認識し
て、視覚センサの座標(9)上での認識点の位置(11b)を求
める。 (ホ)ステップ(117)でロボットのO成分を60°ぐら
い回転させてから、そのままの角度で認識点(7)が視覚
センサの視野に入るようにロボット(1)を平行移動さ
せ、その位置を、3回目の認識時の位置(22c)として教
示する。 (ヘ)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11c)を求める。 (ト)ステップ(118)では上記で得られた結果を基にし
て、センサフレーム(14)を計算する。
【0050】上記(ト)におけるセンサフレーム(14)の
計算について説明する。まず、センサフレーム(14)のZ
成分を求める。このとき、正確なZ成分を求めるより
も、把持位置(22)のZ成分としたほうがよいので、 SZ=PZ とする。次に、センサフレーム(14)のO成分を下式によ
り求める。
【0051】△V=V2−V1
【数3】 ここで、V2−V1は各成分同士の引き算である。そし
て、最後に、下式によりセンサフレームのX,Y成分を
求める。
【0052】P5O=P3O5(O以外)=P2(O以外) υ2=SO:V2 υ5=SO:V3:NO -1:P3 -1:P5:NO △PO=P3O−P2O △nO=△PO △n(O以外)=υ5(O以外)−υ2(O以外) △N=P2O -1:△n
【0053】
【数4】 X=χcosθ NY=χsinθ NO=−P1O+SO+V1OX,Y=(P2:N:V2 -1)X,Y
【0054】ここで、υ5(O以外)−υ2(O以外)は各成分
の引き算、SXYはベクトルSのX成分及びY成分を示
す。そして、カメラは真下を向いているので、センサフ
レーム(14)のA,T成分は零である。
【0055】実施例4.図11及び図12はこの発明の
第4の発明の一実施例を示す図で、図11はハンド部分
の斜視図、図12は座標系の設定動作フローチャートで
ある。図11において、(24)はハンド(4)に貼着された
座標系設定用マークである。
【0056】次に、実施例4の動作を図12を参照して
説明する。 (イ)ステップ(119)で図11のように、ハンド(4)の上
部(カメラ(5)に写る位置)に座標系の設定用マーク(2
4)を貼り付ける。 (ロ)ステップ(120)で座標系の設定用マーク(24)が視
覚センサの視野に入るように移動させ、その位置を位置
(22a)として教示する。 (ハ)〜(チ)実施例3の(ロ)〜(ト)と同様であ
る。ただし、認識点は認識対象物(6)上ではなく座標系
の設定用マーク(24)とする。
【0057】実施例5.図13はこの発明の第5の発明
の一実施例を示す座標系の設定動作フローチャートであ
る。
【0058】次に、実施例5の動作を説明する。この実
施例の全体的な流れは、実施例3と同様である。しか
し、各(3回の)認識時に以下のような処理を行なう。 (イ)ステップ(121)でロボット(1)により認識対象物
(6)を台に置く(このとき、ロボットが無い状態で認識
点(7)が視覚センサの視野に入るようにする)。この時
の把持位置(22)を教示する。 (ロ)ステップ(122)で認識対象物(6)を放し、認識点
(7)が視覚センサに写るようにロボット(1)を退避させ
る。 (ハ)ステップ(123)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11)を求める。 (ニ)ステップ(124)で認識対象物(6)を把持する。
【0059】実施例6.図14及び図15はこの発明の
第6の発明の一実施例を示す図で、図14は認識説明用
のベクトル図、図15は、座標系の設定動作フローチャ
ートである。図14において、(22d)は仮の認識時の把
持位置(位置(22b)とは傾きが違う)である。
【0060】次に、実施例6の動作を図15を参照して
説明する。この方法の座標系の設定方法は以下のようで
ある。 (イ)〜(ニ)実施例3の(イ)〜(ニ)と同じであ
る。 (ホ)ステップ(125)でロボット(1)をO成分だけ5°ぐ
らい回転させて(このとき、認識点(7)が視覚センサか
ら出ないようにする)、その位置を仮の認識時の把持位
置(22d)として教示する。 (ヘ)ステップ(112)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11d)を求める。 (ト)ステップ(126)では、上記で求めた値を基にし
て、把持位置(22)に対する認識点(7)の相対位置(23)の
概算値を計算する。
【0061】(チ)ステップ(127)でロボット(1)のO成
分が60°回転しかつ認識点(7)が視覚センサの視野に
入るような把持位置(22c)を計算する。 (リ)ステップ(128)でロボット(1)を(チ)で求めた位
置(22c)に移動させる。 (ヌ)ステップ(109)で認識点(7)を認識して、視覚セン
サの座標(9)上での認識点の位置(11c)を求める。 (ル)ステップ(118)では上記で得られた結果を基にし
て、センサフレーム(14)を計算する。
【0062】上記(ト)における把持位置に対する認識
点の相対位置(23)、及び(ル)におけるセンサフレーム
(14)の求め方は、実施例3と同様である(上記(ト)で
は回転する角度が5°程度であるため誤差が大きくなり
概算値しか求められない)。上記(チ)における把持位
置は、次式により求められる。
【0063】P3O=P2O+△PO3X=P2X+NGX'−NGX'cos△PO+NGY'sin△PO3Y=P2Y+NGY'−NGY'cos△PO−NGX'sin△PO3Z=P2Z3A=P2A3T=P2T ここで、NG'はベクトルNの概算値、ΔPOは回転させ
る量(この例では60°)を示す。
【0064】実施例7.図16はこの発明の第7の発明
の一実施例を示す図で、認識対象物(6)を把持したロボ
ットの座標系と位置関係を示す図である。図において、
(25)は認識点(7)に対する把持位置(22)の相対位置であ
る。
【0065】次に、実施例7の動作を説明する。実施例
1〜実施例6によりセンサフレームを求めたら、再度認
識して認識点(7)の位置(10)を求める。認識点の位置(1
0)は、ロボット(1)にカメラ(5)が取り付けられた視覚セ
ンサ付きロボットでは、 W=F:S:V により、ロボット(1)以外の場所にカメラ(5)が取り付け
られた視覚センサ付きロボットでは、 W=S:V により求められる。
【0066】次に、下式により認識点に対する把持位置
(25)を求める。 H=W-1:P このとき、ロボット(1)以外の場所にカメラ(5)が取り付
けられた視覚センサ付きロボットで、かつ、センサフレ
ームを求めるときに使用した認識対象物(6)であれば、 H=N-1 により求めてもよい。
【0067】実施例8.図17はこの発明の第8の発明
の一実施例を示す座標系の設定動作フローチャートであ
る。次に、実施例8の動作を説明する。 (イ)ステップ(129)で実施例1〜実施例6によりセン
サフレームを求める。 (ロ)ステップ(130)でロボット(1)のO成分を数度回転
させて(認識点が視覚セ (ハ)ステップ(131)で認識点(7)を認識して視覚センサ
の座標上での認識点の位置を求める。
【0068】(ニ)ステップ(132)で3回目の認識的の
データの代わりに上記(ロ)(ハ)の結果を使って再度
センサフレームを求める。このときのセンサフレームの
求め方は、実施例1又は実施例3と同様である。 (ホ)ステップ(133)では、(イ)で求めたセンサフレ
ームと、(ニ)で求めたセンサフレームを比較する。大
きく違う場合はセンサフレームが正しく求められていな
いことがわかる。
【0069】
【発明の効果】以上説明したとおり、この発明の第1の
発明では、ロボットに装着されたカメラにより認識する
視覚センサ付きロボットを平行移動及び回動して認識点
を認識させ、この認識結果を基にしてセンサフレームを
求めるようにしたので、ロボットの座標上での認識点の
位置を入力しなくても座標系の設定ができ、認識点の位
置の誤差や、それを計測するための手間を省くことがで
き、全体として座標系の設定精度を向上し、かつ座標系
の設定の手間を少なくすることができる効果がある。
【0070】また、第2の発明では、センサフレームの
概算値を求め、ロボットの平行移動量を計算するように
したので、ロボットの移動は自動的に行なわれ、座標系
の設定に要する時間及び手間をいっそう少なくできる効
果がある。
【0071】また、第3の発明では、ロボット以外の場
所に装着されたカメラにより認識する視覚センサ付きロ
ボットを平行移動及び回動して認識点を認識させ、この
認識結果を基にしてセンサフレームを求めるようにした
ので、ロボットの座標上での認識点の位置を入力しなく
ても座標系の設定ができ、認識点の位置の誤差や、それ
を計測するための手間を省くことができ、全体として座
標系の設定精度を向上し、かつ座標系の設定の手間を少
なくすることができる効果がある。
【0072】また、第4の発明では、ハンドに認識用の
マークを固着して認識するようにしたので、認識対象物
を把持したときにカメラに認識点が写らない場合でも座
標系の設定が行なえ、認識対象物を新たに作成しなくて
も、精度高く座標系の設定ができる効果がある。
【0073】また、第5の発明では、認識時に認識対象
物を放し、ロボットを退避させてから認識させるように
したので、認識対象物を把持したときにカメラに認識点
が写らない場合、かつハンドにマークが固着できない場
合でも座標系の設定ができ、座標系の設定精度を向上
し、かつ座標系の設定の手間を少なくすることができる
効果がある。
【0074】また、第6の発明では、ロボットの平行移
動量を計算により求めるようにしたので、ロボットの移
動は自動的に行なわれ、第3及び第4の発明よりも更に
座標系の設定の手間を少なくすることができる効果があ
る。
【0075】また、第7の発明では、認識対象の位置に
対する把持位置を計算により求めるようにしたので、認
識点の位置と実際の把持位置との差を測る必要はなく、
測定の手間を省き、かつそれによる誤差を少なくするこ
とができる効果がある。
【0076】また、第8の発明では、座標系を設定した
後、再度認識を実行するようにしたので、座標系の設定
が正しく行なえたかを自動的に確認でき、座標系の設定
の確認の手間を少なくでき、不正があってもすぐに知る
ことができる効果がある。
【図面の簡単な説明】
【図1】この発明の実施例1を示す図で、ハンドにカメ
ラが装着された視覚センサ付きロボットの座標系と位置
関係を示す図。
【図2】図1のベクトル図。
【図3】図1による認識説明用ベクトル図。
【図4】図1の座標系の設定動作フローチャート。
【図5】この発明の実施例2を示す認識説明用ベクトル
図。
【図6】図5の座標系の設定動作フローチャート。
【図7】この発明の実施例3を示す図で、認識対象物を
把持したロボットの座標系と位置関係を示す図。
【図8】図7のベクトル図。
【図9】図7による認識説明用ベクトル図。
【図10】図7の座標系の設定動作フローチャート。
【図11】この発明の実施例4を示す図で、ハンド部分
の斜視図。
【図12】図11の座標系の設定動作フローチャート。
【図13】この発明の実施例5を示す図で、座標系の設
定動作フローチャート。
【図14】この発明の実施例6を示す図で、認識説明用
ベクトル図。
【図15】図14の座標系の設定動作フローチャート。
【図16】この発明の実施例7を示す図で、認識対象物
を把持したロボットの座標系と位置関係を示す図。
【図17】この発明の実施例8を示す図で、座標系の設
定動作フローチャート。
【図18】この発明及び従来の視覚センサ付きロボット
の座標系の設定方法を示す構成図で、(A)はハンドにカ
メラが装着された場合の、(B)はロボット以外の場所に
カメラが装着された場合の構成図。
【図19】従来の視覚センサ付きロボットの座標系の設
定方法を示す座標系と位置関係を示す図で、(A)(B)は
それぞれ図18(A)(B)に対応する図。
【図20】図19のベクトル図で、(A)(B)はそれぞれ
図19(A)(B)に対応する図。
【図21】図19の座標系の設定動作フローチャート
で、(A)(B)はそれぞれ図20(A)(B)に対応するフロ
ーチャート。
【図22】ロボットの座標系を示す図。
【図23】ベクトルの相対変換説明図で、(A)は変換
前、(B)は変換後を示す図。
【図24】ベクトルの逆変換説明図で、(A)は変換前、
(B)は変換後を示す図。
【符号の説明】
1 ロボット 4 ハンド 5 視覚センサのカメラ 6 認識対象物 7 認識点 8 ロボットの座標系 9 視覚センサの座標系 11 視覚センサの座標上での認識点の位置 12 認識するときのロボット座標上でのロボットの位
置 13 ロボットの位置に対する視覚センサ座標の相対位
置(センサフレーム) 14 ロボット座標に対する視覚センサの相対位置(セ
ンサフレーム) 22 把持位置 23 把持位置に対する認識点の相対位置 24 座標系の設定用マーク
─────────────────────────────────────────────────────
【手続補正書】
【提出日】平成5年10月18日
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】請求項5
【補正方法】変更
【補正内容】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】請求項7
【補正方法】変更
【補正内容】
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0002
【補正方法】変更
【補正内容】
【0002】
【従来の技術】図18〜図24は、従来の視覚センサ付
きロボットの座標系の設定方法を示す図で、図18(A)
はハンドにカメラが装着された場合、(B)はロボット以
外の場所にカメラが固定された場合の構成図、図19は
座標系と位置関係を示す図で、図19(A)(B)はそれぞ
れ図18(A)(B)に対応する。図20はベクトル図で、
図20(A)(B)はそれぞれ図19(A)(B)に対応する。
図21は座標系の設定動作フローチャートで、図21
(A)(B)はそれぞれ図20(A)(B)に対応する。図22
はロボットの座標系を示す図、図23はベクトルの相対
変換図、図24はベクトルの逆変換説明図で、図24
(A)は変換前、(B)は変換後である。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0007
【補正方法】変更
【補正内容】
【0007】これらの手順で座標系を設定する。この手
順の(ニ)でのセンサフレーム(13)は、 S=F~1:W:V~1 により求められる。ここで、:は相対変、~1は逆変
換、S,F,W,Vはそれぞれベクトル(13)(12)(10)(1
1)を示す。
【手続補正5】
【補正対象書類名】明細書
【補正対象項目名】0013
【補正方法】変更
【補正内容】
【0013】次に、逆変換について説明する。図24
(A)において、(18)は点(19)から点(20)への相対位置
を、図24において、(21)は点(20)から点(19)への相対
位置を表すベクトルである。図24(A)の相対位置(18)
の逆変換は、図24(B)の相対位置(21)となる。これを
式に表すと、 E=D~1 となる。ここで、D,Eはそれぞれベクトル(18)(21)を
示す。
【手続補正6】
【補正対象書類名】明細書
【補正対象項目名】0016
【補正方法】変更
【補正内容】
【0016】
【課題を解決するための手段】この発明の第1の発明に
係る視覚センサ付きロボットの座標系の設定方法は、ロ
ボットに装着されたカメラにより認識する視覚センサ付
きロボットにおいて、以下の手順により座標系を設定す
るようにしたものである。 (イ)認識点が視覚センサの視野に入るようにロボット
を移動させ、認識点を認識する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を識す
る。 (ニ)(イ)〜(ハ)の認識結果を基にしてセンサフレ
ームを求める。
【手続補正7】
【補正対象書類名】明細書
【補正対象項目名】0018
【補正方法】変更
【補正内容】
【0018】この発明の第3の発明に係る視覚センサ付
きロボットの座標系の設定方法は、ロボット以外の場所
に装着されたカメラにより認識する視覚センサ付きロボ
ットにおいて、以下の手順により座標系の設定を行な
う。 (イ)認識対象物を把持したまま、認識点が視覚センサ
の視野に入るようにロボットを移動させ、認識点を認識
する。 (ロ)ロボットを平行移動させて認識点を認識する。 (ハ)ロボットを回動させ認識点が視覚センサの視野に
入るようにロボットを平行移動させて認識点を認識す
る。 (ニ)(イ)〜(ハ)の認識結果を元にしてセンサフレ
ームを求める。
【手続補正8】
【補正対象書類名】明細書
【補正対象項目名】0021
【補正方法】変更
【補正内容】
【0021】この発明の第6の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第3第4及び第5
の発明の方法において、位置に対する認識点の相対位置
の概算値を求めておき、その値によりロボットを平行移
動させる移動量を計算により求めるようにしたものであ
る。
【手続補正9】
【補正対象書類名】明細書
【補正対象項目名】0022
【補正方法】変更
【補正内容】
【0022】この発明の第7の発明に係る視覚センサ付
きロボットの座標系の設定方法は、第1〜第6の発明の
方法によって、センサフレームを求めた後、再度認識を
行ない、認識対象の位置に対する把持位置を計算により
求めるようにしたものである。
【手続補正10】
【補正対象書類名】明細書
【補正対象項目名】0027
【補正方法】変更
【補正内容】
【0027】また、第4の発明においては、ハンドに認
識用のマークを固着して認識するようにしたため、認識
対象物を把持したときにカメラに認識点が写らない場合
でも座標系の設定が行なる。
【手続補正11】
【補正対象書類名】明細書
【補正対象項目名】0029
【補正方法】変更
【補正内容】
【0029】また、第6の発明においては、第3第4
及び第5の発明の方法で、ロボットの平行移動量を計算
により求めるようにしたため、ロボットの移動は自動的
に行なわれる。
【手続補正12】
【補正対象書類名】明細書
【補正対象項目名】0045
【補正方法】変更
【補正内容】
【0045】F3O=F2O+△FO3X=F2X+SGX'−SGX'cos△FO+SGY'sin△FO3Y=F2Y+SGY'−SGY'cos△FO−SGX'sin△FO3Z=F2Z3A=F2A3T=F2T ここで、S G'はセンサフレーム(13)の概算値、ΔFO
回転させる量(この例では60°)である。
【手続補正13】
【補正対象書類名】明細書
【補正対象項目名】0074
【補正方法】変更
【補正内容】
【0074】また、第6の発明では、ロボットの平行移
動量を計算により求めるようにしたので、ロボットの移
動は自動的に行なわれ、第3第4及び第5の発明より
も更に座標系の設定の手間を少なくすることができる効
果がある。
【手続補正14】
【補正対象書類名】明細書
【補正対象項目名】図面の簡単な説明
【補正方法】変更
【補正内容】
【図面の簡単な説明】
【図1】この発明の実施例1を示す図で、ハンドにカメ
ラが装着された視覚センサ付きロボットの座標系と位置
関係を示す図。
【図2】図1のベクトル図。
【図3】図1による認識説明用ベクトル図。
【図4】図1の座標系の設定動作フローチャート。
【図5】この発明の実施例2を示す認識説明用ベクトル
図。
【図6】図5の座標系の設定動作フローチャート。
【図7】この発明の実施例3を示す図で、認識対象物を
把持したロボットの座標系と位置関係を示す図。
【図8】図7のベクトル図。
【図9】図7による認識説明用ベクトル図。
【図10】図7の座標系の設定動作フローチャート。
【図11】この発明の実施例4を示す図で、ハンド部分
の斜視図。
【図12】図11の座標系の設定動作フローチャート。
【図13】この発明の実施例5を示す図で、座標系の設
定動作フローチャート。
【図14】この発明の実施例6を示す図で、認識説明用
ベクトル図。
【図15】図14の座標系の設定動作フローチャート。
【図16】この発明の実施例7を示す図で、認識対象物
を把持したロボットの座標系と位置関係を示す図。
【図17】この発明の実施例8を示す図で、座標系の設
定動作フローチャート。
【図18】この発明及び従来の視覚センサ付きロボット
の座標系の設定方法を示す構成図で、(A)はハンドにカ
メラが装着された場合の、(B)はロボット以外の場所に
カメラが装着された場合の構成図。
【図19】従来の視覚センサ付きロボットの座標系の設
定方法を示す座標系と位置関係を示す図で、(A)(B)は
それぞれ図18(A)(B)に対応する図。
【図20】図19のベクトル図で、(A)(B)はそれぞれ
図19(A)(B)に対応する図。
【図21】図19の座標系の設定動作フローチャート
で、(A)(B)はそれぞれ図20(A)(B)に対応するフロ
ーチャート。
【図22】ロボットの座標系を示す図。
【図23】ベクトルの相対変換説明図。
【図24】ベクトルの逆変換説明図で、(A)は変換前、
(B)は変換後を示す図。
【符号の説明】 1 ロボット 4 ハンド 5 視覚センサのカメラ 6 認識対象物 7 認識点 8 ロボットの座標系 9 視覚センサの座標系 11 視覚センサの座標上での認識点の位置 12 認識するときのロボット座標上でのロボットの位
置 13 ロボットの位置に対する視覚センサ座標の相対位
置(センサフレーム) 14 ロボット座標に対する視覚センサの相対位置(セ
ンサフレーム) 22 把持位置 23 把持位置に対する認識点の相対位置 24 座標系の設定用マーク

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 ロボット先端のハンドに装着されたカメ
    ラにより認識する視覚センサを有し、この視覚センサに
    より認識対象物を認識して上記ロボットの先端の位置に
    対する上記視覚センサの座標の原点の相対位置を求める
    方法において、(イ)上記ロボットを移動させて上記認
    識対象物上の認識点を上記視覚センサの視野に入れ、こ
    の認識点を認識させその時点での上記視覚センサの座標
    上での上記認識点の位置を演算する第1の工程、(ロ)
    上記ロボットをハンドの傾きが変わらないように平行移
    動させて上記認識点を認識させその時点での上記視覚セ
    ンサの座標上での上記認識点の位置を演算する第2の工
    程、(ハ)上記ハンドを回動させた後上記ロボットを平
    行移動させて上記認識点を上記視覚センサの視野に入
    れ、この認識点を認識させてその時点での上記視覚セン
    サの座標上での上記認識点の位置を演算する第3の工
    程、及び(ニ)上記第1〜第3の工程で求めた上記視覚
    センサの座標上での上記認識点の位置を基にして、上記
    ロボットの先端の位置に対する上記視覚センサの座標の
    原点の相対位置を演算する第4の工程を備えたことを特
    徴とする視覚センサ付きロボットの座標系の設定方法。
  2. 【請求項2】 ロボット先端のハンドに装着されたカメ
    ラにより認識する視覚センサを有し、この視覚センサに
    より認識対象物を認識して上記ロボットの先端の位置に
    対する上記視覚センサの座標の原点の相対位置を求める
    方法において、(イ)上記ロボットを移動させて上記認
    識対象物上の認識点を上記視覚センサの視野に入れ、こ
    の認識点を認識させその時点での上記視覚センサの座標
    上での上記認識点の位置を演算する第1の工程、(ロ)
    上記ロボットをハンドの傾きが変わらないように平行移
    動させて上記認識点を認識させその時点での上記視覚セ
    ンサの座標上での上記認識点の位置を演算する第2の工
    程、(ハ)上記ハンドを上記認識点が上記視覚センサの
    視野から出ない程度に回動させ上記認識点を認識させそ
    の時点での上記視覚センサの座標上での上記認識点の位
    置を演算する第3の工程、(ニ)上記第1〜第3の工程
    で求めた上記視覚センサの座標上での上記認識点の位置
    を基にして、上記ロボットの先端の位置に対する上記視
    覚センサの座標の原点の相対位置の概算値を演算する第
    4の工程、(ホ)上記ハンドを回動させた後、上記相対
    位置の概算値を基にして上記ロボットの移動量を計算
    し、この移動量だけ上記ロボットを平行移動させて上記
    認識点を上記視覚センサの視野に入れ、この認識点を認
    識させてその時点での上記視覚センサの座標上での上記
    認識点の位置を演算する第5の工程、及び(ヘ)上記第
    1〜第5の工程で求めた上記視覚センサの座標上での上
    記認識点の位置を基にして、上記ロボットの先端の位置
    に対する上記視覚センサの座標の原点の相対位置を演算
    する第6の工程を備えたことを特徴とする視覚センサ付
    きロボットの座標系の設定方法。
  3. 【請求項3】 ロボット以外の場所に装着されたカメラ
    により認識する視覚センサを有し、この視覚センサによ
    り認識対象物を認識して上記ロボットの座標に対する上
    記視覚センサの座標の相対位置を求める方法において、
    (イ)上記認識対象物を把持したまま、上記ロボットを
    移動させて上記認識対象物上の認識点を上記視覚センサ
    の視野に入れ、この認識点を認識させてその時点での上
    記視覚センサの座標上での上記認識点の位置を演算する
    第1の工程、(ロ)上記ロボットをハンドの向きが変わ
    らないように平行移動させて上記認識点を認識させその
    時点での上記視覚センサの座標上での上記認識点の位置
    を演算する第2の工程、(ハ)上記ハンドを回動させた
    後上記ロボットを平行移動させて上記認識点を上記視覚
    センサの視野に入れ、この認識点を認識させてその時点
    での上記視覚センサの座標上での上記認識点の位置を演
    算する第3の工程、及び(ニ)上記第1〜第3の工程で
    求めた上記視覚センサの座標上での上記認識点の位置を
    基にして、上記ロボットの座標に対する上記視覚センサ
    の座標の相対位置を演算する第4の工程を備えたことを
    特徴とする視覚センサ付きロボットの座標系の設定方
    法。
  4. 【請求項4】 ロボット以外の場所に装着されたカメラ
    により認識する視覚センサを有し、この視覚センサによ
    り認識対象物を認識して上記ロボットの座標に対する上
    記視覚センサの座標の相対位置を求める方法において、
    (イ)上記ハンドに認識用のマークを固着する第1の工
    程、(ロ)上記ハンドを回動して上記マークを上記視覚
    センサの視野に入れ、このマークを認識させてその時点
    での上記視覚センサの座標上での上記マークの位置を演
    算する第2の工程、(ハ)上記ロボットを上記ハンドの
    向きが変わらないように平行移動させて上記マークを認
    識させその時点での上記視覚センサの座標上での上記マ
    ークの位置を演算する第3の工程、(ニ)上記ハンドを
    回動させた後上記ロボットを平行移動させて上記マーク
    を上記視覚センサの視野に入れ、このマークを認識させ
    その時点での上記視覚センサの座標上での上記マークの
    位置を演算する第4の工程、(ホ)上記第1〜第4の工
    程で求めた上記視覚センサの座標上での上記認識点の位
    置を基にして、上記ロボットの座標に対する上記視覚セ
    ンサの座標の相対位置を演算する第5の工程を備えたこ
    とを特徴とする視覚センサ付きロボットの座標系の設定
    方法。
  5. 【請求項5】 ロボット以外の場所に装着されたカメラ
    により認識する視覚センサを有し、この視覚センサによ
    り認識対象物を認識して上記ロボットの座標に対する上
    記視覚センサの座標の相対位置を求める方法において、
    (イ)上記ロボットにより上記認識対象物を台に置き、
    上記ロボットを退避させて上記認識対象物上の認識点を
    上記視覚センサの視野に入れ、この認識点を認識させて
    その時点での上記視覚センサの座標上での上記認識点の
    位置を演算した後、上記認識対象物を把持する第1の工
    程、(ロ)上記ロボットのハンドの向きが変わらないよ
    うに平行移動させて上記認識対象物を台に置き、上記ロ
    ボットを退避させて上記認識対象物を台に置き、上記ロ
    ボットを退避させて上記認識点を認識させて、その時点
    での上記視覚センサの座標上での上記認識点の位置を演
    算した後、上記認識対象物を把持する第2の工程、
    (ハ)上記ハンドを回動させた後上記ロボットを平行移
    動させて上記認識対象物を台に置き、上記ロボットを退
    避させて上記認識点を認識させてその時点での上記視覚
    センサの座標上での上記認識点の位置を演算する第3の
    工程、及び(ニ)上記第1〜第3の工程で求めた上記視
    覚センサの座標上での上記認識点の位置を基にして、上
    記ロボットの座標に対する上記視覚センサの座標の相対
    位置を演算する第4の工程、を備えたことを特徴とする
    視覚センサ付きロボットの座標系の設定方法。
  6. 【請求項6】 ロボット以外の場所に装着されたカメラ
    により認識する視覚センサを有し、この視覚センサによ
    り認識対象物を認識して上記ロボットの座標に対する上
    記視覚センサの座標の相対位置を求める方法において、
    (イ)上記認識対象物を把持したまま、上記ロボットを
    移動させて上記認識対象物上又は上記ロボットのハンド
    上の認識点を上記視覚センサの視野に入れ、この認識点
    を認識させてその時点での上記視覚センサの座標上での
    上記認識点の位置を演算する第1の工程、(ロ)上記ロ
    ボットをハンドの向きが変わらないように平行移動させ
    て上記認識点を認識させその時点での上記視覚センサの
    座標上での上記認識点の位置を演算する第2の工程、
    (ハ)上記ハンドを上記認識点が上記視覚センサの視野
    から出ない程度に回動させ、上記認識点を認識させてそ
    の時点での上記視覚センサの座標上での上記認識点の位
    置を演算する第3の工程、(ニ)上記第1〜第3の工程
    で求めた上記視覚センサの座上での上記認識点の位置を
    基にして、上記ロボットの座標に対する上記視覚センサ
    の座標の相対位置の概算値を演算する第4の工程、
    (ホ)上記ハンドを回動させた後、上記相対位置の概算
    値を基にして上記ロボットの移動量を計算し、この移動
    量だけ上記ロボットを平行移動させて上記認識点を上記
    視覚センサの視野に入れ、この認識点を認識させてその
    時点での上記視覚センサの座標上での上記認識点の位置
    を演算する第5の工程、及び(ヘ)上記第1〜第5の工
    程で求めた上記視覚センサの座標上での上記認識点の位
    置を基にして上記ロボットの座標に対する上記視覚セン
    サの座標の相対位置を演算する第6の工程を備えたこと
    を特徴とする視覚センサ付きロボットの座標系の設定方
    法。
  7. 【請求項7】 ロボット先端のハンド又は上記ロボット
    以外の場所に装着されたカメラにより認識する視覚セン
    サを有し、この視覚センサにより認識対象物を認識して
    上記ロボットの先端の位置に対する上記視覚センサの座
    標の原点の相対位置、又は上記ロボットの座標に対する
    上記視覚センサの座標の相対位置を求める方法におい
    て、(イ)上記認識対象物の把持位置をあらかじめ教示
    する第1の工程、(ロ)上記ロボットの先端の位置に対
    する上記視覚センサの座標の原点の相対位置、又は上記
    ロボットの座標に対する上記視覚センサの座標の相対位
    置を基にして、上記ロボットの座標上での認識点の位置
    を演算する第2の工程、及び(ハ)上記第1及び第2の
    工程の結果により上記認識点の位置に対する上記把持位
    置を演算する第3の工程を備えたことを特徴とする視覚
    センサ付きロボットの座標系の設定方法。
  8. 【請求項8】 ロボット先端のハンド又は上記ロボット
    以外の場所に装着されたカメラにより認識する視覚セン
    サを有し、この視覚センサにより認識対象物を認識して
    上記ロボットの先端の位置に対する上記視覚センサの座
    標の原点の相対位置、又は上記ロボットの座標に対する
    上記視覚センサの座標の相対位置を求める方法におい
    て、(イ)上記ロボットを再度移動させ上記認識点を認
    識させ上記相対位置を演算する第1の工程、及び(ロ)
    上記最初に求めた相対位置と、上記第1の工程で求めた
    相対位置を比較する第2の工程を備えたことを特徴とす
    る視覚センサ付きロボットの座標系の設定方法。
JP04357945A 1992-12-25 1992-12-25 視覚センサ付きロボットの座標系の設定方法 Expired - Fee Related JP3104448B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04357945A JP3104448B2 (ja) 1992-12-25 1992-12-25 視覚センサ付きロボットの座標系の設定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04357945A JP3104448B2 (ja) 1992-12-25 1992-12-25 視覚センサ付きロボットの座標系の設定方法

Publications (2)

Publication Number Publication Date
JPH06190756A true JPH06190756A (ja) 1994-07-12
JP3104448B2 JP3104448B2 (ja) 2000-10-30

Family

ID=18456752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04357945A Expired - Fee Related JP3104448B2 (ja) 1992-12-25 1992-12-25 視覚センサ付きロボットの座標系の設定方法

Country Status (1)

Country Link
JP (1) JP3104448B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010112731A (ja) * 2008-11-04 2010-05-20 Denso Wave Inc ロボットの座標の結合方法
JP2011036975A (ja) * 2009-08-18 2011-02-24 Honda Motor Co Ltd ロボットの制御方法
JP2012076216A (ja) * 2010-09-06 2012-04-19 Toyota Auto Body Co Ltd ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体
DE102014001376B3 (de) * 2014-02-04 2015-01-08 Daimler Ag Abgleich von Koordinatensystemen mit Hilfe von Fahrzeuginnenraummerkmalen
CN104552341A (zh) * 2014-12-29 2015-04-29 国家电网公司 移动工业机器人单点多视角挂表位姿误差检测方法
JP6275345B1 (ja) * 2017-02-03 2018-02-07 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
DE102017009939A1 (de) * 2017-10-25 2019-04-25 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines mobilen Roboters
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010112731A (ja) * 2008-11-04 2010-05-20 Denso Wave Inc ロボットの座標の結合方法
JP2011036975A (ja) * 2009-08-18 2011-02-24 Honda Motor Co Ltd ロボットの制御方法
JP2012076216A (ja) * 2010-09-06 2012-04-19 Toyota Auto Body Co Ltd ロボット制御システムのカメラ座標系とロボット座標系の結合方法、画像処理装置、プログラム、及び記憶媒体
DE102014001376B3 (de) * 2014-02-04 2015-01-08 Daimler Ag Abgleich von Koordinatensystemen mit Hilfe von Fahrzeuginnenraummerkmalen
CN104552341A (zh) * 2014-12-29 2015-04-29 国家电网公司 移动工业机器人单点多视角挂表位姿误差检测方法
JP6275345B1 (ja) * 2017-02-03 2018-02-07 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
WO2018142582A1 (ja) * 2017-02-03 2018-08-09 三菱電機株式会社 変換係数算出装置、変換係数算出方法及び変換係数算出プログラム
CN110267771A (zh) * 2017-02-03 2019-09-20 三菱电机株式会社 变换系数计算装置、变换系数计算方法及变换系数计算程序
DE102017009939A1 (de) * 2017-10-25 2019-04-25 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines mobilen Roboters
DE102017009939B4 (de) * 2017-10-25 2021-07-01 Kuka Deutschland Gmbh Verfahren und System zum Betreiben eines mobilen Roboters
US11618166B2 (en) 2019-05-14 2023-04-04 Fanuc Corporation Robot operating device, robot, and robot operating method

Also Published As

Publication number Publication date
JP3104448B2 (ja) 2000-10-30

Similar Documents

Publication Publication Date Title
CN110238845B (zh) 最优标定点选取和误差自测量的自动手眼标定方法及装置
WO2018137431A1 (zh) 一种机器人自动寻找折弯位置的方法
JP2774939B2 (ja) ロボットのツールパラメータ導出方法及び較正方法
JPH06190756A (ja) 視覚センサ付きロボットの座標系の設定方法
CN110852213B (zh) 基于模版匹配的指针式仪表多情况自动化读数方法
Lin et al. Calibration for odometry of omnidirectional mobile robots based on kinematic correction
JPH0768480A (ja) マニピュレータの関節角度制御方法
CN113799130B (zh) 一种人机协作装配中的机器人位姿标定方法
JPH09128549A (ja) ロボット装置の相対位置姿勢検出方法
CN114012719A (zh) 一种六轴机器人的零点标定方法及系统
CN113375693A (zh) 一种地磁航向误差修正方法
JPH0496130A (ja) 位置信号の校正装置
JP2678002B2 (ja) 視覚付きロボットの座標系較正方法
CN116394254A (zh) 机器人的零点标定方法、装置、计算机存储介质
JP2902285B2 (ja) 三次元位置制御システム
CN113733078B (zh) 机械臂精调控制量判读方法、计算机可读存储介质
JPH02183102A (ja) 視覚センサにおけるキャリブレーション自動調整方式
JPH06785A (ja) 視覚センサ座標系の補正方法
JPH06278064A (ja) 視覚センサの座標変換方法
JPH0778540B2 (ja) 位置局限が可能な磁気探知装置
CN116136388A (zh) 机器人工具坐标系的标定方法、装置、设备以及存储介质
JP2005186193A (ja) ロボットのキャリブレーション方法および三次元位置計測方法
KR100248040B1 (ko) 목표물 예측방법
JPS6257892A (ja) 視覚付ロボツトのカメラ座標較正方法
EP4382258A1 (en) Robot control device, robot control system, and robot control method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees