JP3981778B2 - Visual feedback method of mechanical device using imaging device and mechanical device - Google Patents
Visual feedback method of mechanical device using imaging device and mechanical device Download PDFInfo
- Publication number
- JP3981778B2 JP3981778B2 JP23624497A JP23624497A JP3981778B2 JP 3981778 B2 JP3981778 B2 JP 3981778B2 JP 23624497 A JP23624497 A JP 23624497A JP 23624497 A JP23624497 A JP 23624497A JP 3981778 B2 JP3981778 B2 JP 3981778B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- velocity vector
- dimensional velocity
- image
- image coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は2次元の画像信号に基づいて搬送装置の移動機構に対して好適な位置又は速度指令を、フィードバックするための撮像装置を用いた機械装置のビジュアルフィードバック方法およびその機械装置に関する。
【0002】
【従来の技術】
従来、この種の撮像装置を用いた機械装置のビジュアルフィードバック方法は、ITVカメラなどで対象物体を2次元で撮影した画像データに基づいてロボットのマニピュレータなどの搬送装置の移動機構に対して位置又は速度指令をフィードバックする目的で用いられている。
この撮像装置を用いた機械装置のビジュアルフィードバック方法では、例えば、特公平8−23889号公報(ロボットを用いた物体の取出し方法)に示されるように、撮影した画像データにおける撮影対象物体の特徴部分を、画像処理によって抽出して撮像面に固定された画像座標系上を追跡している。そして、対象物体を画像座標系上の目標位置へ移動するように移動機構に対して位置又は速度指令をフィードバックする。
このように撮像装置から出力される画像データに基づいて対象物体を移動させるなどの操作を実行する場合、撮像装置の撮像面に固定された画像座標系と移動機構によって認識できる作業座標系との相対位置、及び、姿勢関係と撮像装置が有する内部パラメータを予め求めておく必要がある。
また、特開平8−71972号公報(ロボットとカメラの自動調整方法)に示されるように、画像座標系と作業座標系との関係及び内部パラメータを求める場合、人手によって正確に計測する、あるいは、測定のための専用の物体を使用する等を行う。換言すれば、画像座標系と作業座標系との関係及び内部パラメータとを求める場合、精密なキャリブレーションを実行して測定している。
図8は従来のビジュアルフィードバック方法による移動機構制御装置の構成を示している。
図8に示した構成は、CCDカメラ301と、ロボットコントローラ302と、ロボットマニピュレータ303と、撮像シーン304と、画像処理装置305と、ヤコビ行列推定器306と、速度指令生成器307とを有し、ロボットマニピュレータ303のロボットハンドを目標位置へ移動させるものである。
ここで、CCDカメラ301は撮像シーン304のようにロボットマニピュレータ303のロボットハンドの移動範囲を撮像し、この撮像信号を画像処理装置305へ出力する。
画像処理装置305は、ロボットマニピュレータ303のロボットハンドの画像座標系上での特徴部分を追跡し、ロボットマニピュレータ303のロボットハンドの画像座標系上での特徴部分の現在位置fを出力する。ロボットマニピュレータ303のロボットハンドの画像座標系上での特徴部分の目標位置fd は予め与えられている。
ヤコビ行列推定器306は、ロボットコントローラ302から得られるロボットハンドの作業座標系上での現在位置Xと、画像処理装置305から得られるロボットハンドの画像座標系上での特徴部分の現在位置fとを入力し、式(1)を満たすヤコビ行列Jを推定する(細田、浅田:「構造やパラメータに関する先験的な知識を必要としないフィードフォワード補償器を持つ適応型ビジュアルサーボ系の構成」、日本ロボット学会誌14巻2号参照)。
df/dt =JdX/dt …(1)
ここで、df/dt はロボットハンドの画像座標系上での特徴部分の速度ベクトル、dX/dt はロボットハンドの作業座標系上での特徴部分の速度ベクトルである。
速度指令生成器307は、式(2)によって速度指令を生成する。
dX/dt =KJ-1(fd −f) …(2)
式(2)によってロボットコントローラ302に供給する速度指令dX/dt を生成する。ここで、Kはゲイン行列である。
図9はロボットコントローラ302にフィードバックされる速度の加減速パターンを示している。
図9に示すように、縦軸を速度dX/dt 、横軸を時間tとする速度の加減速パターンがロボットコントローラ302にフィードバックされる。
【0003】
【発明が解決しようとする課題】
このような上記従来例の撮像装置を用いた機械装置のビジュアルフィードバック方法では、キャリブレーション精度が、対象物体の特徴部分の画像座標系での位置と作業座標系での位置との対応に直接影響するため、画像座標系及び作業座標系との相対的な位置及び姿勢関係と撮像装置が有する内部パラメータを精密に求める必要がある。この場合、多大な処理時間が必要になるという欠点がある。また、精密なキャリブレーションを実行した後に、作業座標系と画像座標系との相対的な位置及び姿勢関係に、例えば、撮像装置を動かすなどの理由で、その微妙な変化が生じた場合には、煩雑な処理のキャリブレーションをやり直す必要がある。同様に撮像装置が有する内部パラメータに、例えば、レンズの焦点距離を変更するなどの理由で、その微妙な変化が生じた場合も、煩雑な処理のキャリブレーションをやり直す必要があるという不都合がある。
さらに、図8及び図9に示した構成では、ロボットコントローラにフィードバックされる速度指令が初期で大きくなり、制御対象のロボットが急激に動いてしまうという欠点がある。
本発明は、このような従来の技術における課題を解決するものであり、煩雑なキャリブレーションを必要とせずに、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の対象物体の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトル座標変換マトリクスを、作業座標系上の対象物体の動きから推定するパラメータ数を低減して、簡便に推定できる撮像装置を用いた機械装置のビジュアルフィードバック方法の提供を目的とする。さらに、制御対象の移動機構(ロボット)が急激に動いてしまうことのない速度の加減速パターンを作成して、その制御対象の移動機構を滑らかに作動させることを目的とする。
【0004】
【課題を解決するための手段】
本発明の目的は、下記構成により達成される。
(1) 少なくとも1台の撮像装置によって移動機構で移動する対象物体を含むシーンを撮影し、前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力し、前記特徴部分の前記画像座標系上の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求め、前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定し、前記画像座標系上の目標点の位置と対象点の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度ベクトルを求め、作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックすることを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。
(2) 前記2次元速度ベクトル座標変換マトリクスは、前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定されることを特徴とする上記(1)記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。
(3) 少なくとも1台の撮像装置によって移動機構で移動する対象物体を含むシーンを撮影し、前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、前記特徴部分を前記撮像装置の撮像面に固定された画像座標系上を追跡し、前記画像座標系上での対象物体の目標位置と現在位置との偏差を前記移動機構によって認識される前記作業座標系に変換し、変換後の偏差及び現在の速度指令に基づいて、予め設定された前記移動機構の速度の加減速パターンに対応する、新たな速度指令を計算することを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。
(4) 前記新たな速度指令を平滑化するためにフィルタ処理することを特徴とする上記(3)記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。
(5) 対象物体を移動させる移動機構と、前記移動物体を含むシーンを撮影する撮像装置と、前記撮像装置で得られる撮像信号から前記対象物体の特徴部分を画像処理によって抽出して、前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力するとともに、前記画像座標系上の前記特徴部分の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求める画像処理手段と、前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定する変換マトリクス推定手段と、前記画像座標系上における目標位置と対象物体の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度ベクトルを求める座標変換手段と、作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックする制御手段と、を備えることを特徴とする機械装置。
(6) 前記変換マトリクス推定手段は、2次元速度ベクトル座標変換マトリクスを、前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定することを特徴とする上記(5)記載の機械装置。
(7) ロボットコントローラと、マニピュレータを撮影する撮像装置とを備え、前記撮像装置が撮影した画像データに基づいて前記マニピュレータを目標位置に移動させる機械装置において、前記マニピュレータのロボットハンドが把持する対象物体を撮影して、その対象物体の画像座標系の位置fを出力する画像処理手段と、前記ロボットコントローラから得られる前記ロボットハンドの作業座標系の現在位置Xと前記画像処理手段が出力 する前記対象物体の画像座標系の位置fを入力して変換マトリクスTを推定する変換マトリクス推定手段と、前記目標位置と前記位置fの差に前記変換マトリクスTを乗じて作業座標系の偏差ベクトルΔXを求める座標変換器と、を備えることを特徴とする機械装置。
上記(1)、(2)、(5)、(6)、(7)の構成では、画像座標系上の2次元速度ベクトルと作業座標系上の2次元速度ベクトルとを対応づける2次元速度ベクトル座標変換マトリクスを局所的に推定しているため、煩雑なキャリブレーションが不要になる。さらに、画像座標系上及び作業座標系上の2次元速度ベクトルの対応をマトリクス表現しているため、画像座標系上及び作業座標系上の位置の対応のマトリクス表現に比較して、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の対象物体の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトル座標変換マトリクスが、作業座標系上の対象物体の動きから簡便、すなわち、推定するパラメータ数が低減する少ない演算量で推定される。同様にして画像座標系上の情報から作業座標系の情報を求める際にも演算量が少なくなる。
上記(3)、(4)の構成は、偏差及び現在の速度指令に基づいて、予め設定された移動機構の速度の加減速パターンに対応する、新たな速度指令を計算するものであり、ロボットなどの移動機構が初期に急激に動くことなく、滑らかに動作する。
【0005】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は本発明の撮像装置を用いた機械装置のビジュアルフィードバック方法を実現するための撮像システムの構成図である。図1に示す例は制御によって搬送作業するロボットマニピュレータ21と、このロボットマニピュレータ21の先端に取り付けられたロボットハンド22と、対象物体のペグ23とを有している。 また、この例はワーク24を有し、このワーク24には貫通するホール25が設けられている。更に、撮像装置としてのCCDカメラ26を有している。また、CCDカメラ26で撮影した撮像シーン27が画面表示されるとともに、CCDカメラ26からの画像データを処理する画像処理装置28を有している。また、対象物体のペグ23の特徴部分29が図示されている。
次に、図1に示す構成の動作及び機能について説明する。
図1において、ペグ23をホール25に挿入するペグインホールを実行する。まず、ロボットマニピュレータ21に接続されたロボットハンド22によってペグ23を挟み込んで保持する。ロボットマニピュレータ21への位置又は速度指令に基づいてロボットマニピュレータ21が動作して、ペグ23が移動する。
一方、CCDカメラ26がロボットマニピュレータ21、ロボットハンド22、ペグ23、ワーク24及びホール25を含むシーンを撮影する。このシーンの画像データがCCDカメラ26から画像処理装置28に送出される。画像処理装置28では、ペグ23の特徴部分29を画像上で追跡し、この特徴部分29の動きがロボットマニピュレータ21の動きに変換されて、ロボットマニピュレータ21の位置又は速度指令としてフィードバックされる。ここで必要となるのは、撮像シーン27におけるペグ23の特徴部分29の動きを、ロボットマニピュレータ21の動きに変換することである。
図2は、この実施形態で処理される座標系を説明するための図である。
図2に示す座標系は、画像座標系31及び作業座標系32を有し、画像座標系31は焦点距離(f)34と、焦点35と、撮像面36と、投影点37及び光軸38からなる。更に、対象点(P)33を有している。
図1及び図2において、画像座標系31は撮像装置であるCCDカメラ26の撮像面36に固定される。作業座標系32はロボットマニピュレータ21が認識できる空間上に固定される。対象点(P)33は、空間上の点でペグ23の特徴部分29の中心付近に相当し、CCDカメラ26の焦点35と対象点(P)33とからなる直線と、撮像面36との交点(投影点37)に投影される。
CCDカメラ26から出力される画像から得られる追跡対象である対象点(P)33の投影点37の位置情報に基づいて、ロボットマニピュレータ21の動きを決定するためには、画像座標系31とロボットマニピュレータ21の認識できる作業座標系32との位置、及び、姿勢関係とCCDカメラ26の内部パラメータを求める必要がある。例えば、焦点距離(f)34を求める必要がある。一般的に、画像座標系31と作業座標系32との位置、及び、姿勢関係とCCDカメラ26の内部パラメータとは式(3)で表される。
【0006】
【数1】
【0007】
ここでsは同次座標値であり、x,y,zは作業座標系32で表現した対象点(P)33の座標値(X)である。また、u,vは投影点37の画像座標系31の座標値(f)であり、m11〜m43は作業座標系32と画像座標系31との位置及び姿勢関係とCCDカメラ26の内部パラメータを関係づける座標変換マトリクスの各パラメータである。
対象点(P)33の動きを拘束する平面の方程式が以下の式(4)で表される。
z=0 …(4)
この式(4)によって式(3)は式(5)で表される。
【0008】
【数2】
【0009】
ここでn11〜n33は対象点(P)33が式(4)で表される拘束平面上のみを動く場合の画像座標系31と作業座標系32との位置及び姿勢関係とCCDカメラ26の内部パラメータとを関係付ける座標変換マトリクスの各パラメータである。
なお、ここでは式(4)に限定したが、一般的に、ある拘束平面上のみを動く場合は、作業座標系32の位置及び姿勢を考慮することによって式(4)に示す制限に置換できる。また、ここでは式(5)で表されるように画像座標系31上の2次元情報から作業座標系32上の2次元情報への変換に限定する。
式(5)において、画像座標系31上の微少移動変化量に対する作業座標系32上の微少移動変化量の関係が式(6)で表される。
【0010】
【数3】
【0011】
ここでΔx,Δyは作業座標系32上の微少移動変化量であり、Δu,Δvは画像座標系31上の微少移動変化量である。a11〜a22は画像座標系31上の微少移動変化量と作業座標系32上の微少移動変化量とを対応付ける座標変換マトリクスの各パラメータであり、それぞれu,vの関数である。なお、(Δx,Δy)を作業座標系32上の2次元速度ベクトル(dX/dt )とし、かつ、(Δu,Δv)を画像座標系31上の2次元速度ベクトル(df/dt )とし、かつ、式(6)の2×2マトリクスを2次元速度ベクトル座標変換マトリクス(T)とする。図3は画像座標系上の対象点の推移と作業座標系上の対象点の推移を示す図である。図3(a)は画像座標系41であり、図3(b)は作業座標系42である。図3(a)の画像座標系41はi−2番目の画像座標系41上の対象点43と、i−1番目の画像座標系41上の対象点44と、i番目の画像座標系41上の対象点45と、画像座標系41上の目標点46、及び、推定補助点47とを有している。また、図3(b)の作業座標系42は、i−2番目の作業座標系42上の対象点48と、i−1番目の作業座標系42上の対象点49、及び、i番目の作業座標系42上の対象点50及び作業座標系42上の目標点51とを有している。
ここではi番目の画像座標系41上の対象点45とi−1番目の画像座標系41上の対象点44との差分(2次元速度ベクトル)を(Δui-1 ,Δvi-1 )とし、かつ、i−1番目の画像座標系41上の対象点44とi−2番目の画像座標系41上の対象点43との差分(2次元速度ベクトル)を(Δui-2 ,Δvi-2 )とする。更に、推定補助点47とi−1番目の画像座標系41上の対象点44との差分(推定補助ベクトル)を(Δui-1',Δvi-1')とする。
また、i番目の作業座標系42上の対象点50とi−1番目の作業座標系42上の対象点49との差分(2次元速度ベクトル)を(Δxi-1 ,Δyi-1 )とし、かつ、i−1番目の作業座標系42上の対象点49とi−2番目の作業座標系42上の対象点48との差分(2次元速度ベクトル)を(Δxi-2 ,Δyi-2 )とする。ここで画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )と画像座標系41上の推定補助ベクトル(Δui-1',Δvi-1')とは垂直の関係にある。
ここでロボットマニピュレータ21の動作によって、ペグ23が移動(対象点(P)33が移動)し、作業座標系42のi−1番目の作業座標系42上の対象点49の位置を通過する。そして、i番目の作業座標系42上の対象点50の位置に移動した場合、この対象点(P)33の移動に伴って、対象点(P)33は画像座標系41のi−1番目の画像座標系41上の対象点44の位置を通過してi番目の画像座標系41上の対象点45の位置に移動する。
対象点(P)33の移動目標点は、画像座標系41上では画像座標系41上の目標点46であり、また、作業座標系42上では作業座標系42上の目標点51である。この対象点(P)33の移動目標点は、画像座標系41では認識できるが、ロボットマニピュレータ21が、画像座標系41から得られる情報に基づいた位置又は速度指令に従って動作するため、作業座標系42では認識できない。ここでは画像座標系41上の2次元速度ベクトルと作業座標系42上の2次元速度ベクトルとを対応づける2次元速度ベクトル座標変換マトリクス(T)の各パラメータの推定を考える。対象点(P)33が、i−1番目の作業座標系42上の対象点49からi番目の作業座標系42上の対象点50まで移動する際の2次元速度ベクトル(Δxi-1 ,Δyi-1 )は、前回推定して求めた2次元速度ベクトル座標変換マトリクスTi-1 を用いて式(6)から式(7)で求めることができる。
【0012】
【数4】
【0013】
この式(7)で利用した2次元速度ベクトル座標変換マトリクスTi-1 を用いて、推定補助ベクトル(Δui-1',Δvi-1')に対応する作業座標系42上の推定補助ベクトル(Δxi-1',Δyi-1')を求めると式(6)から式(8)となる。
【0014】
【数5】
【0015】
ここで式(6)を変形し、画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )と、画像座標系41上の推定補助ベクトル(Δui-1',Δvi-1')と、作業座標系42上の2次元速度ベクトル(Δxi-1 ,Δyi-1 )と、作業座標系42上の推定補助ベクトル(Δui-1',Δvi-1')を代入すると式(9)で表すことができる。
【0016】
【数6】
【0017】
式(9)における左辺の4×4マトリクスは、逆マトリクスが存在するため、2次元速度ベクトル座標変換マトリクスTi の各パラメータを求めることができる。ここで求めた2次元速度ベクトル座標変換マトリクスTi を用いて式(6)から次の作業座標系42上の2次元速度ベクトルを求める。
なお、画像座標系41上の推定補助ベクトル(Δui-1',Δvi-1')では、画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )に対して垂直としているが、必ずしも垂直である必要はない。例えば、2次元速度ベクトル(Δui-1 ,Δvi-1 )と一次独立の関係にある2次元速度ベクトルを利用すれば良い。また、推定補助ベクトルの利用は一つに限定されず二つを利用しても良い。例えば、画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )に対して垂直な二つの2次元速度ベクトルを利用しても良い。この場合、一つの推定補助ベクトルが画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )に対して1次独立であれば良い。
また、この実施形態では式(6)を基本にしてビジュアルフィードバックを実行しているが、式(5)に基づいたビジュアルフィードバック処理の実現も考えられる。しかしながら式(6)に基づいた方式は式(5)に基づいた方式と比較すると、推定するマトリクスのパラメータの数が少ないため、式(9)に基づくマトリクス推定に必要となる演算量を少なくすることができる。更に、画像座標系41上の対象点の情報から作業座標系42上の対象点の情報を求める際にも式(6)、式(5)の比較によって、式(6)に基づいた処理が式(5)に基づいた処理よりも、その演算量を少なくすることができる。
図4は、ビジュアルフィードバックの処理手順を示すフローチャートである。図4において、ビジュアルフィードバックの開始時にあって(S101)、作業座標系上の対象点(図1におけるペグ23の特徴部分29の中心に相当)の位置(x,y)は、ロボットマニピュレータ21が作業座標系を認識できることから測定できものであり、この画像座標系上の対象点の位置(u,v)及び画像座標系上の目標点(図1におけるホール25に相当)の位置(ud ,vd )は、CCDカメラ26が対象点及び目標点を含むシーンを撮像していることから測定できる。
次に、画像座標系上の対象点の位置(u,v)、画像座標系上の目標点の位置(ud ,vd )、作業座標系の対象点の位置(x,y)をそれぞれ測定する(S102)。
その後、画像座標系上の目標点の位置(ud ,vd )と画像座標系上の対象点の位置(u,v)との差分(eu ,ev )を演算し(S103)、この差分(eu ,ev )と、ある閾値(Su ,Sv )とを比較する(S104)。
そして、差分(eu ,ev )が、所定の閾値(Su ,Sv )より小さい場合は(S104:Yes)、ビジュアルフィードバックを終了し(S109)、大きい場合は(S104:No)、次の処理S105に移る。この場合、S109の終了に推移する条件は、eu がSu よりも小さく、かつ、ev がSv よりも小さい場合、又は、eu がSu よりも小さく、あるいは、ev がSv よりも小さい場合のいずれでも良い。S105では、式(10)に基づいて作業座標系上の2次元速度ベクトル(Δx,Δy)を求める。
【0018】
【数7】
【0019】
ここで、Tは2次元速度ベクトル座標変換マトリクスであり、Kは、ゲインマトリクスである。なお、ビジュアルフィードバックの処理の初回は、2次元速度ベクトル座標変換マトリクスTが求められていないため、人手によって適当な2次元速度ベクトル座標変換マトリクスTの各パラメータの値を指定する、ロボットマニピュレータ21を適当に移動させて2次元速度ベクトル座標変換マトリクスTの各パラメータ値を求めておくなどの処理で求めた2次元速度ベクトル座標変換マトリクスTを用いる。
このようにして求められた作業座標系上の2次元速度ベクトル(Δx,Δy)に基づいてロボットマニピュレータ21を操作して対象点を移動する。この移動した対象点を画像座標系上で追跡し、実際の移動量、すなわち、画像座標系上の2次元速度ベクトル(Δu,Δv)を測定する(S106)。その後、画像座標系上の2次元速度ベクトル(Δu,Δv)と1次独立の関係にある推定補助ベクトル(Δu’,Δv’)、例えば、画像座標系上の2次元速度ベクトル(Δu,Δv)と垂直なベクトルを求め式(8)に基づいて、作業座標系上の推定補助ベクトル(Δx’,Δy’)を演算する(S107)。
そして、求められた画像座標系上の2次元速度ベクトル(Δu,Δv)と、画像座標系上の推定補助ベクトル(Δu’,Δv’)と、作業座標系上の2次元速度ベクトル(Δx,Δy)と、作業座標系上の推定補助ベクトル(Δx’,Δy’)とを用いて式(9)から2次元速度ベクトル座標変換マトリクスTの各パラメータを推定する(S108)。S108の後はS102に推移し、処理を繰り返す。
なお、この実施形態では、ビジュアルフィードバック中に、画像座標系と作業座標系との相対的な位置及び姿勢関係に変化が生じた場合、また、撮像装置の持つ内部パラメータに変化が生じた場合、あるいは、目標点が変更になった場合、その変化又は変更が多少であれば、目標点の位置(ud ,vd )を変更し、又は、逐次、2次元速度ベクトル座標変換マトリクスを推定しているため、そのままビジュアルフィードバックを継続することができる。
また、一度、ビジュアルフィードバック処理を終了し、再度、ビジュアルフィードバック処理を実行する前に、画像座標系と作業座標系との相対的な位置及び姿勢関係に変化が生じた場合、また、撮像装置が有する内部パラメータに変化が生じた際にも、その変化が多少であれば、逐次、2次元速度ベクトル座標変換マトリクスを推定していることから、そのままビジュアルフィードバックを継続することができる。
図5は、図4の処理手順によるビジュアルフィードバック処理に基づいたシミュレーションを示す図である。図5(a)は画像座標系61であり、図5(b)は、作業座標系62である。この画像座標系61及び作業座標系62には、画像座標系61上の開始点63と、画像座標系61上の目標点64と、作業座標系62上の開始点65と、作業座標系62上の目標点66とを有している。更に、この実施形態のビジュアルフィードバック処理に基づいて推移する画像座標系61上の途中の特徴点67,68、及び作業座標系62上の途中の特徴点69,70を有している。
ここでは式(10)におけるゲインマトリクスKを以下のように設定している。
【0020】
【数8】
【0021】
図4に示したビジュアルフィードバック処理を用いて、開始時に作業座標系62上の開始点65及び画像座標系61上の開始点63にあった対象点が、画像座標系61では、画像座標系61上の途中の特徴点67,68を通じて画像座標系61上の目標点64に収束していることが判明する。また、作業座標系62では、作業座標系62上の途中の特徴点69,70を通じて作業座標系62上の目標点66に収束していることが判明する。
図6はビジュアルフィードバックによる移動機構制御装置の構成を示している。
図6に示す構成は、CCDカメラ101と、ロボットコントローラ102と、ロボットマニピュレータ103と、撮像シーン104と、画像処理装置105と、変換マトリクス推定器106と、座標変換器107と、対象物体108と、速度指令調節器109と、フィルタ処理部110と、物体モデル111とを有している。
次に、このビジュアルフィードバックによる移動機構制御装置の動作について説明する。
ロボットマニピュレータ103のロボットハンドは対象物体108を把持して、対象物体108を目標位置へ移動させる。CCDカメラ101は撮像シーン104のように対象物体108の移動範囲を撮像し、画像データを画像処理装置105へ出力する。画像処理装置105では対象物体108の画像座標系上での特徴部分を追跡し、その現在位置f(=(u,v))を出力する。
なお、対象物体108の画像座標系上での特徴部分の目標位置fd (=(ud ,vd ))は予め与えられている。変換マトリクス推定器106は、ロボットコントローラ102から得られるロボットハンドの作業座標系上での現在位置と、対象物体108の物体モデル111との和、すなわち、対象物体108の作業座標系上での特徴部分の現在位置Xと、画像処理装置105から得られる対象物体108の画像座標系上での特徴部分の現在位置fとを入力し、式(12)の関係を満たす変換マトリクスTを推定する。
dX/dt =Tdf/dt …(12)
ここでdX/dt は対象物体108の作業座標系上での特徴部分の速度ベクトルであり、df/dt は対象物体108の画像座標系上での特徴部分の速度ベクトルである。座標変換器107は、式(13)によって対象物体の作業座標系上での偏差ベクトルΔXを生成する。
ΔX=T(fd −f) …(13)
速度指令調節器109は、作業座標系上での偏差ベクトルと現在の速度指令ベクトルから、ロボットマニピュレータ103の動作が滑らかになるように予め設定された速度の加減速パターンに対応するように新たな速度指令を生成する。
フィルタ処理部110は、急激な速度変化がロボットマニピュレータ103に生じないよう、速度指令調節器109で生成した速度指令を滑らかにする。
図7は速度指令調節器109の動作を説明するための図である。
図7に示す例は、第1のケース(a)、第2のケース(b)、第3のケース(c)であり、かつ、速度201、時間202、加速パターン203、減速パターン204、加速時間205、減速時間206、リミット速度207、第1の点208、第2の点209、第3の点210からなる。
速度指令調節器109には、加速時間205と減速時間206とリミット速度207が予め設定されている。ここで第1のケース(a)に示されるように、現在の速度指令が第1の点208における速度の場合には式(13)によって求めた偏差ベクトルΔXと第1のケース(a)の図中における斜線部の面積が等しくなるように第1の点208の位置を決定する。第1の点208からは加速パターン203と傾きが等しくなるように新たに速度指令を決定し、リミット速度207となるまで繰り返し行う。
また、第2のケース(b)に示すように、現在の速度指令が第2の点209における速度の場合には、式(13)によって求めた偏差ベクトルΔXと第2のケース(b)の図中における斜線部の面積が等しくなるように第2の点209の位置を決定する。第2の点209からは減速パターン204と傾きが等しくなるように新たに速度指令を決定し、リミット速度207となるまで繰り返し行う。更に、第3のケース(c)に示すように、現在の速度指令が第3の点210における速度であり、式(13)によって求めた偏差ベクトルΔXが第3のケース(c)における図中の斜線部の場合は、リミット速度207までは到達しない以外は、第1のケース(a)と同一の処理である。なお、式(13)における偏差ベクトルΔXはビジュアルフィードバックのサンプリング間隔Δtで毎回求められる。したがって、以上の処理もΔt時間で行われ、設定した加減速パターンに従うものとなる。
フィルタ処理部110は、速度指令調節器109で作成された新たな速度指令を滑らかにするために、例えば、式(14)に示される特性の1次フィルタを用いれば良い。
V(k)=H{dX/dt (k)−V(k−1)}+V(k−1)…(14)
ここで、V(k)はサンプリング時間kにおけるフィルタ出力、Hはゲイン行列である。
【0022】
【発明の効果】
以上の説明から明らかなように、請求項1、5および7記載の撮像装置を用いた機械装置のビジュアルフィードバック方法によれば、画像座標系上の2次元速度ベクトルと作業座標系上の2次元速度ベクトルとを対応づける2次元速度ベクトル座標変換マトリクスを推定しているため、煩雑なキャリブレーションを不要にできる。さらに、画像座標系上及び作業座標系上の2次元速度ベクトルの対応をマトリクス表現しているため、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の対象物体の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトルの座標変換マトリクスが、作業座標系上の対象物体の動きから簡便に推定できるようになる。同様にして画像座標系上の情報から作業座標系の情報を求める際にも演算量を少なくできる。
本発明の請求項2および6記載の撮像装置を用いた機械装置のビジュアルフィードバック方法によれば、逐次、2次元速度ベクトル座標変換マトリクスを推定しているため、画像座標系と作業座標系との相対的な位置及び姿勢関係に変化が生じた場合、また、撮像装置が有する内部パラメータに変化が生じた場合、それらが多少の変化の際に、例えば、変化がビジュアルフィードバック処理中、又は、この処理間であっても、ビジュアルフィードバック処理が実行できるようになる。本発明の請求項3及び4記載の撮像装置を用いた機械装置のビジュアルフィードバック方法によれば、偏差ベクトルと現在の速度指令から、予め設定された移動機構の速度の加減速パターンに基づくように、新しい速度指令を計算しており、移動機構が初期に急激に動くことなく、動作が滑らかになる。
【図面の簡単な説明】
【図1】本発明の撮像装置を用いた機械装置のビジュアルフィードバック方法を実現するための撮像システムの構成図である。
【図2】実施形態で処理される座標系を説明するための図である。
【図3】実施形態にあって画像座標系上の対象点の推移と作業座標系上の対象点の推移を示す図である。
【図4】実施形態にあってビジュアルフィードバックの処理手順を示すフローチャートである。
【図5】実施形態にあってビジュアルフィードバック処理に基づいたシミュレーションを示す図である。
【図6】実施形態にあってビジュアルフィードバックによる移動機構制御装置の構成を示すブロック図である。
【図7】実施形態にあって速度指令調節器の動作を説明するための図である。
【図8】従来のビジュアルフィードバック方法による移動機構制御装置の構成を示すブロック図である。
【図9】従来例にあってフィードバックされる速度の加減速パターンである。
【符号の説明】
21、103、303 ロボットマニピュレータ(移動機構)
22 ロボットハンド
23 ペグ(対象物体)
24 ワーク
25 ホール
26、101、301 CCDカメラ(撮像装置)
27、104、304 撮像シーン
28、105、305 画像処理装置(画像処理手段)
29 ペグの特徴部分
31、41、61 画像座標系
32、42、62 作業座標系
33 対象点(P)
34 焦点距離(f)
35 焦点
36 撮像面
37 投影点
38 光軸
43 i−2番目の画像座標系上の対象点
44 i−1番目の画像座標系上の対象点
45 i番目の画像座標系上の対象点
46 画像座標系上の目標点
47 推定補助点
48 i−2番目の作業座標系上の対象点
49 i−1番目の作業座標系上の対象点
50 i番目の作業座標系上の対象点
51 作業座標系上の目標点
S101〜S109 ビジュアルフィードバックステップ
63 画像座標系上の開始点
64 画像座標系上の目標点
65 作業座標系上の開始点
66 作業座標系上の目標点
67、68 画像座標系上の途中の特徴点
69、70 作業座標系上の途中の特徴点
102、302 ロボットコントローラ(制御手段)
106 変換マトリクス推定器(変換マトリクス推定手段)
107 座標変換器(座標変換手段)
108 対象物体
109 速度指令調節器
110 フィルタ処理部
111 物体モデル
201 速度
202 時間
203 加速パターン
204 減速パターン
205 加速時間
206 減速時間
207 リミット速度
208 第1の点
209 第2の点
210 第3の点
(a) 第1のケース
(b) 第2のケース
(c) 第3のケース
306 ヤコビ行列推定器
307 速度指令生成器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a visual feedback method for a mechanical device using an imaging device for feeding back a suitable position or speed command to a moving mechanism of a transport device based on a two-dimensional image signal.And its machineryAbout.
[0002]
[Prior art]
Conventionally, a visual feedback method for a mechanical apparatus using this type of imaging apparatus is based on image data obtained by capturing a target object two-dimensionally with an ITV camera or the like with respect to a moving mechanism of a transport apparatus such as a robot manipulator. It is used for the purpose of feeding back speed commands.
In the visual feedback method of a mechanical device using this imaging device, for example, as shown in Japanese Patent Publication No. 8-23889 (method of extracting an object using a robot), the characteristic part of the imaging target object in the captured image data Are tracked on an image coordinate system that is extracted by image processing and fixed to the imaging surface. Then, a position or speed command is fed back to the moving mechanism so as to move the target object to the target position on the image coordinate system.
When performing an operation such as moving the target object based on the image data output from the imaging device in this way, an image coordinate system fixed on the imaging surface of the imaging device and a work coordinate system that can be recognized by the moving mechanism. It is necessary to obtain in advance the relative position, posture relationship, and internal parameters of the imaging apparatus.
In addition, as shown in Japanese Patent Laid-Open No. 8-71972 (automatic adjustment method of robot and camera), when obtaining the relationship between the image coordinate system and the work coordinate system and internal parameters, the measurement is performed manually or Use a dedicated object for measurement. In other words, when the relationship between the image coordinate system and the working coordinate system and the internal parameters are obtained, the measurement is performed by executing a precise calibration.
FIG. 8 shows a configuration of a moving mechanism control apparatus according to a conventional visual feedback method.
The configuration illustrated in FIG. 8 includes a
Here, the
The
The Jacobian
df / dt = JdX / dt (1)
Here, df / dt is the velocity vector of the feature portion on the image coordinate system of the robot hand, and dX / dt is the velocity vector of the feature portion on the work coordinate system of the robot hand.
The
dX / dt = KJ-1(Fd-F) (2)
A speed command dX / dt to be supplied to the
FIG. 9 shows a speed acceleration / deceleration pattern fed back to the
As shown in FIG. 9, an acceleration / deceleration pattern having a speed dX / dt on the vertical axis and a time t on the horizontal axis is fed back to the
[0003]
[Problems to be solved by the invention]
In such a visual feedback method of a mechanical device using the conventional imaging device, the calibration accuracy directly affects the correspondence between the position of the feature portion of the target object in the image coordinate system and the position in the work coordinate system. Therefore, it is necessary to accurately obtain the relative position and orientation relationship between the image coordinate system and the work coordinate system and the internal parameters of the imaging apparatus. In this case, there is a drawback that a great amount of processing time is required. In addition, after performing precise calibration, if the subtle changes occur in the relative position and orientation relationship between the work coordinate system and the image coordinate system, for example, due to reasons such as moving the imaging device. Therefore, it is necessary to re-calibrate the complicated process. Similarly, when the internal parameter of the imaging apparatus has a slight change due to, for example, changing the focal length of the lens, there is an inconvenience that it is necessary to re-calibrate complicated processing.
Further, the configurations shown in FIGS. 8 and 9 have a drawback that the speed command fed back to the robot controller becomes large at an initial stage, and the robot to be controlled moves rapidly.
The present invention solves such a problem in the prior art, and does not require complicated calibration, and the motion of the characteristic part of the target object on the image coordinate system (two-dimensional velocity vector) is converted into the working coordinates. The local two-dimensional velocity vector coordinate transformation matrix required for converting to the motion of the feature part of the target object on the system can be simplified by reducing the number of parameters estimated from the motion of the target object on the work coordinate system. It is an object of the present invention to provide a visual feedback method for a mechanical device using an imaging device that can be estimated in a simple manner. It is another object of the present invention to create an acceleration / deceleration pattern at a speed that does not cause the controlled moving mechanism (robot) to move suddenly and to smoothly operate the controlled moving mechanism.
[0004]
[Means for Solving the Problems]
The object of the present invention is achieved by the following configurations.
(1) A scene including a target object that is moved by a moving mechanism is photographed by at least one imaging device, a feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and the position of the feature portion Is output on an image coordinate system fixed to the imaging surface of the imaging device, and a two-dimensional velocity vector of the target object on the image coordinate system is obtained based on the position of the feature portion on the image coordinate system. A two-dimensional velocity vector coordinate transformation matrix is locally estimated based on a two-dimensional velocity vector on the image coordinate system and a two-dimensional velocity vector on a work coordinate system recognized by the moving mechanism, and the image coordinate system From the difference between the position of the target point above and the position of the target point, the gain matrix, and the two-dimensional velocity vector coordinate transformation matrix, the two-dimensional velocity vector of the sequential work coordinate system is sequentially obtained. And a position or speed command is fed back to the moving mechanism so as to move the target object to a target position on the image coordinate system based on the two-dimensional velocity vector on a work coordinate system. A visual feedback method of a mechanical device using an imaging device.
(2) The two-dimensional velocity vector coordinate transformation matrix includes a two-dimensional velocity vector of a characteristic portion of the target object on the image coordinate system generated by the operation of the moving mechanism, and a first-order independent relationship with the two-dimensional velocity vector. A visual feedback method for a mechanical device using the imaging device according to (1), characterized in that it is estimated by using at least one estimated auxiliary vector.
(3) A scene including a target object that is moved by a moving mechanism is photographed by at least one imaging device, a feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and the feature portion is Tracking on the image coordinate system fixed on the imaging surface of the imaging apparatus, and converting the deviation between the target position and the current position of the target object on the image coordinate system into the work coordinate system recognized by the moving mechanism. A new speed command corresponding to a preset acceleration / deceleration pattern of the speed of the moving mechanism is calculated based on the converted deviation and the current speed command. Visual feedback method.
(4) The visual feedback method for a mechanical device using the imaging device according to (3), wherein the new speed command is filtered to be smoothed.
(5) A moving mechanism that moves the target object, an imaging device that captures a scene including the moving object, and a feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and the feature The position of the part is output on an image coordinate system fixed to the imaging surface of the imaging device, and based on the position of the characteristic part on the image coordinate system, the two-dimensional image of the target object on the image coordinate system An image processing means for obtaining a velocity vector, a two-dimensional velocity vector coordinate transformation matrix locally based on the two-dimensional velocity vector on the image coordinate system and the two-dimensional velocity vector on the work coordinate system recognized by the moving mechanism Conversion matrix estimation means for estimating the position, a difference between the target position and the position of the target object on the image coordinate system, a gain matrix, and the two-dimensional velocity vector Coordinate conversion means for sequentially obtaining the two-dimensional velocity vector of the work coordinate system from the coordinate coordinate transformation matrix, and the target object to the target position on the image coordinate system based on the two-dimensional velocity vector on the work coordinate system. Control means for feeding back a position or speed command to the moving mechanism so as to move.
(6) The conversion matrix estimation means converts the two-dimensional velocity vector coordinate transformation matrix into a two-dimensional velocity vector of a characteristic part of the target object on the image coordinate system generated by the operation of the moving mechanism, and the two-dimensional velocity vector. And at least one estimation auxiliary vector that is in a first-order independent relationship with each other.
(7) In a mechanical device that includes a robot controller and an imaging device that images a manipulator and moves the manipulator to a target position based on image data captured by the imaging device, a target object that is gripped by the robot hand of the manipulator And the image processing means for outputting the position f of the target object in the image coordinate system, and the current position X of the work coordinate system of the robot hand obtained from the robot controller and the image processing means for output. A transformation matrix estimation means for estimating a transformation matrix T by inputting a position f of the image coordinate system of the target object, and a deviation vector of a work coordinate system by multiplying the difference between the target position and the position f by the transformation matrix T And a coordinate converter for obtaining ΔX.
Configuration (1), (2), (5), (6), (7)Then, since the two-dimensional velocity vector coordinate transformation matrix that associates the two-dimensional velocity vector on the image coordinate system with the two-dimensional velocity vector on the work coordinate system is locally estimated, complicated calibration is not necessary. . Further, since the correspondence of the two-dimensional velocity vector on the image coordinate system and the work coordinate system is expressed in a matrix, the image coordinate system is compared with the corresponding matrix representation of the positions on the image coordinate system and the work coordinate system. The local two-dimensional velocity vector coordinate transformation matrix necessary for converting the motion of the feature portion of the target object (two-dimensional velocity vector) into the motion of the feature portion of the target object on the work coordinate system is the work coordinates. The estimation is simple from the movement of the target object on the system, that is, with a small amount of calculation that reduces the number of parameters to be estimated. Similarly, the amount of calculation is reduced when obtaining information on the work coordinate system from information on the image coordinate system.
Configurations (3) and (4) aboveIs to calculate a new speed command corresponding to a preset acceleration / deceleration pattern of the speed of the moving mechanism based on the deviation and the current speed command, and the moving mechanism such as a robot moves rapidly in the initial stage. It works smoothly without it.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of an imaging system for realizing a visual feedback method of a mechanical device using the imaging device of the present invention. The example shown in FIG. 1 includes a
Next, the operation and function of the configuration shown in FIG. 1 will be described.
In FIG. 1, a peg-in hole for inserting the
On the other hand, the
FIG. 2 is a diagram for explaining a coordinate system processed in this embodiment.
The coordinate system shown in FIG. 2 has an image coordinate system 31 and a work coordinate system 32. The image coordinate system 31 has a focal length (f) 34, a
1 and 2, an image coordinate system 31 is fixed to an
In order to determine the movement of the
[0006]
[Expression 1]
[0007]
Here, s is a homogeneous coordinate value, and x, y, and z are the coordinate value (X) of the target point (P) 33 expressed in the work coordinate system 32. U and v are coordinate values (f) of the image coordinate system 31 of the
The equation of the plane that restrains the movement of the target point (P) 33 is expressed by the following equation (4).
z = 0 (4)
By this formula (4), formula (3) is expressed by formula (5).
[0008]
[Expression 2]
[0009]
Where n11~ N33Relates the position and orientation relationship between the image coordinate system 31 and the work coordinate system 32 and the internal parameters of the
Here, although limited to Expression (4), in general, when moving only on a certain constraining plane, it can be replaced with the restriction shown in Expression (4) by considering the position and orientation of the work coordinate system 32. . In addition, here, the conversion is limited to the conversion from the two-dimensional information on the image coordinate system 31 to the two-dimensional information on the work coordinate system 32 as expressed by Expression (5).
In Expression (5), the relationship of the minute movement change amount on the work coordinate system 32 to the minute movement change amount on the image coordinate system 31 is expressed by Expression (6).
[0010]
[Equation 3]
[0011]
Here, Δx and Δy are minute movement changes on the work coordinate system 32, and Δu and Δv are minute movement changes on the image coordinate system 31. a11~ Atwenty twoIs a parameter of a coordinate conversion matrix that associates a minute movement change amount on the image coordinate system 31 with a minute movement change amount on the work coordinate system 32, and is a function of u and v, respectively. Note that (Δx, Δy) is a two-dimensional velocity vector (dX / dt) on the work coordinate system 32, and (Δu, Δv) is a two-dimensional velocity vector (df / dt) on the image coordinate system 31, In addition, the 2 × 2 matrix of Expression (6) is defined as a two-dimensional velocity vector coordinate conversion matrix (T). FIG. 3 is a diagram showing the transition of the target point on the image coordinate system and the transition of the target point on the work coordinate system. FIG. 3A shows an image coordinate system 41, and FIG. 3B shows a work coordinate system 42. The image coordinate system 41 in FIG. 3A includes a target point 43 on the i-2th image coordinate system 41, a target point 44 on the i-1th image coordinate system 41, and an i-th image coordinate system 41. An upper target point 45, a
Here, the difference (two-dimensional velocity vector) between the target point 45 on the i-th image coordinate system 41 and the target point 44 on the i−1-th image coordinate system 41 is (Δui-1, Δvi-1) And the difference (two-dimensional velocity vector) between the target point 44 on the i−1th image coordinate system 41 and the target point 43 on the i−2th image coordinate system 41 is (Δu).i-2, Δvi-2). Further, the difference (estimated auxiliary vector) between the estimated
Further, the difference (two-dimensional velocity vector) between the
Here, the
The movement target point of the target point (P) 33 is the
[0012]
[Expression 4]
[0013]
Two-dimensional velocity vector coordinate transformation matrix T used in this equation (7)i-1Is used to estimate the auxiliary vector (Δui-1', Δvi-1') Corresponding to the estimated auxiliary vector (Δx) on the work coordinate system 42i-1', Δyi-1When ') is obtained, Equation (6) to Equation (8) are obtained.
[0014]
[Equation 5]
[0015]
Here, the equation (6) is transformed to a two-dimensional velocity vector (Δu on the image coordinate system 41.i-1, Δvi-1) And the estimated auxiliary vector (Δu) on the image coordinate system 41i-1', Δvi-1') And the two-dimensional velocity vector (Δx) on the work coordinate system 42.i-1, Δyi-1) And the estimated auxiliary vector (Δu) on the work coordinate system 42i-1', Δvi-1Substituting ') can be expressed by equation (9).
[0016]
[Formula 6]
[0017]
Since the inverse matrix exists in the 4 × 4 matrix on the left side in Equation (9), the two-dimensional velocity vector coordinate transformation matrix TiEach parameter can be obtained. The two-dimensional velocity vector coordinate transformation matrix T obtained hereiIs used to obtain a two-dimensional velocity vector on the next work coordinate system 42 from Equation (6).
The estimated auxiliary vector (Δu on the image coordinate system 41)i-1', Δvi-1') Is a two-dimensional velocity vector (Δu) on the image coordinate system 41.i-1, Δvi-1), But not necessarily vertical. For example, a two-dimensional velocity vector (Δui-1, Δvi-1) And a two-dimensional velocity vector that is linearly independent. Further, the use of the estimated auxiliary vector is not limited to one, and two may be used. For example, a two-dimensional velocity vector (Δu on the image coordinate system 41)i-1, Δvi-1Two two-dimensional velocity vectors perpendicular to) may be used. In this case, one estimated auxiliary vector is converted into a two-dimensional velocity vector (Δu on the image coordinate system 41.i-1, Δvi-1) With respect to primary independence.
In this embodiment, visual feedback is executed based on the equation (6). However, it is possible to realize visual feedback processing based on the equation (5). However, since the method based on equation (6) has a smaller number of matrix parameters to be estimated than the method based on equation (5), the amount of computation required for matrix estimation based on equation (9) is reduced. be able to. Further, when the information on the target point on the work coordinate system 42 is obtained from the information on the target point on the image coordinate system 41, the processing based on the formula (6) is performed by comparing the formulas (6) and (5). The amount of calculation can be reduced compared with the process based on Formula (5).
FIG. 4 is a flowchart showing a visual feedback processing procedure. 4, at the start of visual feedback (S101), the position (x, y) of the target point on the work coordinate system (corresponding to the center of the
Next, the position (u, v) of the target point on the image coordinate system, the position (u of the target point on the image coordinate system)d, Vd), The position (x, y) of the target point in the work coordinate system is measured (S102).
After that, the position of the target point on the image coordinate system (ud, Vd) And the position (u, v) of the target point on the image coordinate system (eu, Ev) (S103), and the difference (eu, Ev) And a certain threshold (Su, Sv) Is compared (S104).
And the difference (eu, Ev) Is a predetermined threshold (Su, Sv) Is smaller (S104: Yes), the visual feedback is terminated (S109). If larger (S104: No), the process proceeds to the next step S105. In this case, the condition for transitioning to the end of S109 is euIs SuSmaller than evIs SvLess than or euIs SuSmaller than or evIs SvAny smaller case may be used. In S105, a two-dimensional velocity vector (Δx, Δy) on the work coordinate system is obtained based on Expression (10).
[0018]
[Expression 7]
[0019]
Here, T is a two-dimensional velocity vector coordinate conversion matrix, and K is a gain matrix. Note that since the two-dimensional velocity vector coordinate transformation matrix T is not obtained at the first time of the visual feedback processing, the
The target point is moved by operating the
Then, the obtained two-dimensional velocity vector (Δu, Δv) on the image coordinate system, the estimated auxiliary vector (Δu ′, Δv ′) on the image coordinate system, and the two-dimensional velocity vector (Δx, Each parameter of the two-dimensional velocity vector coordinate transformation matrix T is estimated from equation (9) using Δy) and the estimated auxiliary vector (Δx ′, Δy ′) on the work coordinate system (S108). After S108, the process proceeds to S102 and the process is repeated.
In this embodiment, during visual feedback, when a change occurs in the relative position and posture relationship between the image coordinate system and the work coordinate system, or when an internal parameter of the imaging device changes, Alternatively, when the target point is changed, if the change or change is slight, the position of the target point (ud, Vd) Is changed, or the two-dimensional velocity vector coordinate transformation matrix is sequentially estimated, so that visual feedback can be continued as it is.
Also, if the relative position and orientation relationship between the image coordinate system and the work coordinate system change before the visual feedback process is finished and the visual feedback process is performed again, the imaging device Even when a change occurs in the internal parameters, if the change is slight, since the two-dimensional velocity vector coordinate conversion matrix is estimated successively, visual feedback can be continued as it is.
FIG. 5 is a diagram showing a simulation based on the visual feedback processing according to the processing procedure of FIG. FIG. 5A shows an image coordinate system 61, and FIG. 5B shows a work coordinate system 62. The image coordinate system 61 and the work coordinate system 62 include a
Here, the gain matrix K in the equation (10) is set as follows.
[0020]
[Equation 8]
[0021]
Using the visual feedback processing shown in FIG. 4, the target point that was at the
FIG. 6 shows the configuration of the moving mechanism control device by visual feedback.
The configuration shown in FIG. 6 includes a
Next, the operation of the moving mechanism control apparatus using this visual feedback will be described.
The robot hand of the
Note that the target position f of the characteristic portion of the
dX / dt = Tdf / dt (12)
Here, dX / dt is a velocity vector of the characteristic portion of the
ΔX = T (fd-F) (13)
The
The
FIG. 7 is a diagram for explaining the operation of the
The example shown in FIG. 7 is the first case (a), the second case (b), and the third case (c), and the
In the
Further, as shown in the second case (b), when the current speed command is the speed at the
The
V (k) = H {dX / dt (k) -V (k-1)} + V (k-1) (14)
Here, V (k) is a filter output at the sampling time k, and H is a gain matrix.
[0022]
【The invention's effect】
As is clear from the above description, the claim 15 and 7According to the visual feedback method of a mechanical device using the described imaging device, a two-dimensional velocity vector coordinate transformation matrix that associates a two-dimensional velocity vector on the image coordinate system with a two-dimensional velocity vector on the work coordinate system is estimated. Therefore, complicated calibration can be eliminated. Further, since the correspondence between the two-dimensional velocity vectors on the image coordinate system and the work coordinate system is expressed in a matrix, the movement of the characteristic part of the target object on the image coordinate system (two-dimensional velocity vector) A local two-dimensional velocity vector coordinate conversion matrix required for conversion into the motion of the characteristic part of the target object can be easily estimated from the movement of the target object on the work coordinate system. Similarly, the amount of calculation can be reduced when obtaining information on the work coordinate system from information on the image coordinate system.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an imaging system for realizing a visual feedback method of a mechanical device using an imaging device of the present invention.
FIG. 2 is a diagram for explaining a coordinate system processed in the embodiment.
FIG. 3 is a diagram illustrating a transition of a target point on an image coordinate system and a transition of a target point on a work coordinate system in the embodiment.
FIG. 4 is a flowchart illustrating a processing procedure of visual feedback in the embodiment.
FIG. 5 is a diagram illustrating a simulation based on visual feedback processing in the embodiment.
FIG. 6 is a block diagram illustrating a configuration of a moving mechanism control device using visual feedback in the embodiment.
FIG. 7 is a diagram for explaining the operation of the speed command adjuster in the embodiment.
FIG. 8 is a block diagram showing a configuration of a moving mechanism control device according to a conventional visual feedback method.
FIG. 9 is a speed acceleration / deceleration pattern fed back in a conventional example.
[Explanation of symbols]
21, 103, 303 Robot manipulator(Movement mechanism)
22 Robot Hand
23 pegs(Target object)
24 work
25 holes
26, 101, 301 CCD camera(Imaging device)
27, 104, 304 Imaging scene
28, 105, 305 Image processing apparatus(Image processing means)
29 peg features
31, 41, 61 Image coordinate system
32, 42, 62 Working coordinate system
33 Target point (P)
34 Focal length (f)
35 focus
36 Imaging surface
37 Projection points
38 optical axes
43 Target point on the i-2nd image coordinate system
44 Target point on the i-1st image coordinate system
45 Target point on the i-th image coordinate system
46 Target point on image coordinate system
47 Estimated auxiliary points
48 Target point on the i-2nd work coordinate system
49 i-1 Target point on the working coordinate system
50 Target point on the ith work coordinate system
51 Target point on work coordinate system
S101 to S109 Visual feedback step
63 Starting point on the image coordinate system
64 Target points on the image coordinate system
65 Starting point on working coordinate system
66 Target point on working coordinate system
67, 68 Feature points along the image coordinate system
69, 70 Feature points along the work coordinate system
102, 302 Robot controller(Control means)
106 Transformation matrix estimator(Conversion matrix estimation means)
107 coordinate converter(Coordinate conversion means)
108 Target object
109 Speed command controller
110 Filter processing unit
111 object model
201 speed
202 hours
203 Acceleration pattern
204 Deceleration pattern
205 Acceleration time
206 Deceleration time
207 Limit speed
208 First point
209 Second point
210 Third point
(A) First case
(B) Second case
(C) Third case
306 Jacobian Matrix Estimator
307 Speed command generator
Claims (7)
前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、
前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力し、
前記特徴部分の前記画像座標系上の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求め、
前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定し、
前記画像座標系上の目標点の位置と対象点の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度ベクトルを求め、
作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックする
ことを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。Photographing a scene including a target object that is moved by a moving mechanism by at least one imaging device,
Extracting the characteristic part of the target object from the imaging signal obtained by the imaging device by image processing,
Outputting the position of the characteristic portion on an image coordinate system fixed to the imaging surface of the imaging device ;
Obtaining a two-dimensional velocity vector of the target object on the image coordinate system based on the position of the feature portion on the image coordinate system;
Locally estimating a two-dimensional velocity vector coordinate transformation matrix based on a two-dimensional velocity vector on the image coordinate system and a two-dimensional velocity vector on a work coordinate system recognized by the moving mechanism;
From the difference between the position of the target point on the image coordinate system and the position of the target point, the gain matrix, and the two-dimensional velocity vector coordinate conversion matrix, the two-dimensional velocity vector of the work coordinate system is obtained sequentially.
A position or speed command is fed back to the moving mechanism so as to move the target object to a target position on the image coordinate system based on the two-dimensional velocity vector on a work coordinate system . The visual feedback method of the machine equipment that was.
前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定される
ことを特徴とする請求項1記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。The two-dimensional velocity vector coordinate transformation matrix is
Utilizing a two-dimensional velocity vector of the characteristic portion of the object on the image coordinate system generated by the operation of the moving mechanism, and at least one of the estimated auxiliary vector in the relation of the two-dimensional velocity vector and the linearly independent Visual feedback method of mechanical apparatus using the imaging device according to claim 1, wherein the estimated by.
前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、
前記特徴部分を前記撮像装置の撮像面に固定された画像座標系上を追跡し、
前記画像座標系上での対象物体の目標位置と現在位置との偏差を前記移動機構によって認識される作業座標系に変換し、
変換後の偏差及び現在の速度指令に基づいて、予め設定された前記移動機構の速度の加減速パターンに対応する、新たな速度指令を計算する
ことを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。Photographing a scene including a target object that is moved by a moving mechanism by at least one imaging device,
Extracting the characteristic part of the target object from the imaging signal obtained by the imaging device by image processing,
Tracking the feature portion on an image coordinate system fixed to the imaging surface of the imaging device;
Converting the deviation between the target position and the current position of the target object on the image coordinate system into a work coordinate system recognized by the moving mechanism ;
A new speed command corresponding to a preset acceleration / deceleration pattern of the speed of the moving mechanism is calculated on the basis of the deviation after conversion and the current speed command. Visual feedback method.
ことを特徴とする請求項3記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。The visual feedback method of the mechanical device using the imaging device according to claim 3, wherein a filtering process is performed to smooth the new speed command.
前記移動物体を含むシーンを撮影する撮像装置と、 An imaging device for capturing a scene including the moving object;
前記撮像装置で得られる撮像信号から前記対象物体の特徴部分を画像処理によって抽出して、前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力するとともに、前記画像座標系上の前記特徴部分の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求める画像処理手段と、 A feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and a position of the feature portion is output on an image coordinate system fixed to an imaging surface of the imaging device, and Image processing means for obtaining a two-dimensional velocity vector of the target object on the image coordinate system based on the position of the feature portion on the image coordinate system;
前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定する変換マトリクス推定手段と、 Transformation matrix estimation means for locally estimating a two-dimensional velocity vector coordinate transformation matrix based on a two-dimensional velocity vector on the image coordinate system and a two-dimensional velocity vector on a work coordinate system recognized by the moving mechanism;
前記画像座標系上における目標位置と対象物体の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度 From the difference between the target position on the image coordinate system and the position of the target object, the gain matrix, and the two-dimensional velocity vector coordinate transformation matrix, the two-dimensional velocity of the sequential work coordinate system. ベクトルを求める座標変換手段と、Coordinate conversion means for obtaining a vector;
作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックする制御手段と、を備える Control means for feeding back a position or speed command to the moving mechanism so as to move the target object to a target position on the image coordinate system based on the two-dimensional velocity vector on a work coordinate system.
ことを特徴とする機械装置。 A mechanical device characterized by that.
2次元速度ベクトル座標変換マトリクスを、 2D velocity vector coordinate transformation matrix
前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定する Using a two-dimensional velocity vector of a characteristic part of a target object on an image coordinate system generated by the operation of the moving mechanism, and at least one estimated auxiliary vector having a first-order independent relationship with the two-dimensional velocity vector Estimated by
ことを特徴とする請求項5記載の機械装置。 The mechanical device according to claim 5.
前記マニピュレータのロボットハンドが把持する対象物体を撮影して、その対象物体の画像座標系の位置fを出力する画像処理手段と、 Image processing means for photographing a target object held by the robot hand of the manipulator and outputting a position f of the target object in an image coordinate system;
前記ロボットコントローラから得られる前記ロボットハンドの作業座標系の現在位置Xと前記画像処理手段が出力する前記対象物体の画像座標系の位置fを入力して変換マトリクスTを推定する変換マトリクス推定手段と、 Transformation matrix estimation means for estimating the transformation matrix T by inputting the current position X of the work coordinate system of the robot hand obtained from the robot controller and the position f of the image coordinate system of the target object output by the image processing means; ,
前記目標位置と前記位置fの差に前記変換マトリクスTを乗じて作業座標系の偏差ベクトルΔXを求める座標変換器と、を備える A coordinate converter that obtains a deviation vector ΔX of a work coordinate system by multiplying the difference between the target position and the position f by the conversion matrix T.
ことを特徴とする機械装置。 A mechanical device characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23624497A JP3981778B2 (en) | 1997-09-01 | 1997-09-01 | Visual feedback method of mechanical device using imaging device and mechanical device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23624497A JP3981778B2 (en) | 1997-09-01 | 1997-09-01 | Visual feedback method of mechanical device using imaging device and mechanical device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1185235A JPH1185235A (en) | 1999-03-30 |
JP3981778B2 true JP3981778B2 (en) | 2007-09-26 |
Family
ID=16997922
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23624497A Expired - Fee Related JP3981778B2 (en) | 1997-09-01 | 1997-09-01 | Visual feedback method of mechanical device using imaging device and mechanical device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3981778B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112859742A (en) * | 2021-01-12 | 2021-05-28 | 广州盛硕科技有限公司 | Numerical control machine tool control system based on visual identification |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007011978A (en) * | 2005-07-04 | 2007-01-18 | Toyota Motor Corp | Motion controller for robot |
JP5948914B2 (en) * | 2012-02-01 | 2016-07-06 | セイコーエプソン株式会社 | Robot control apparatus, robot control method, robot control program, and robot system |
JP2013173191A (en) * | 2012-02-23 | 2013-09-05 | Seiko Epson Corp | Robot apparatus, robot control apparatus, robot control method, and robot control program |
JP6421408B2 (en) * | 2013-10-31 | 2018-11-14 | セイコーエプソン株式会社 | Control device, robot, robot system and control method |
JP2015100868A (en) * | 2013-11-22 | 2015-06-04 | セイコーエプソン株式会社 | Robot system |
JP2015174191A (en) * | 2014-03-17 | 2015-10-05 | 株式会社安川電機 | Robot system, calibration method of robot system and position correction method of robot system |
EP3147086B1 (en) * | 2015-09-22 | 2020-11-04 | Airbus Defence and Space GmbH | Automation of robot operations in aircraft construction |
JP6984130B2 (en) | 2017-01-17 | 2021-12-17 | オムロン株式会社 | Image processing equipment, control systems, image processing equipment control methods, control programs, and recording media |
EP3781363B1 (en) * | 2018-04-17 | 2023-06-07 | ABB Schweiz AG | Method for controlling a robot arm |
-
1997
- 1997-09-01 JP JP23624497A patent/JP3981778B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112859742A (en) * | 2021-01-12 | 2021-05-28 | 广州盛硕科技有限公司 | Numerical control machine tool control system based on visual identification |
CN112859742B (en) * | 2021-01-12 | 2021-08-06 | 广州盛硕科技有限公司 | Numerical control machine tool control system based on visual identification |
Also Published As
Publication number | Publication date |
---|---|
JPH1185235A (en) | 1999-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6376296B1 (en) | Position control device and position control method | |
JP6587761B2 (en) | Position control device and position control method | |
KR102280663B1 (en) | Calibration method for robot using vision technology | |
JP6458912B1 (en) | Position control device and position control method | |
JP4167954B2 (en) | Robot and robot moving method | |
JP4265088B2 (en) | Robot apparatus and control method thereof | |
JP3981778B2 (en) | Visual feedback method of mechanical device using imaging device and mechanical device | |
JP2007319938A (en) | Robot device and method of obtaining three-dimensional shape of object | |
JP2008023630A (en) | Arm-guiding moving body and method for guiding arm | |
JP2010231772A (en) | Method and apparatus for dynamic estimation of feature depth using calibrated moving camera | |
CN112548527A (en) | Device and method for dynamic shaft hole assembly based on multi-camera visual servo | |
CN110039520B (en) | Teaching and processing system based on image contrast | |
JP4572497B2 (en) | Robot controller | |
CN114355556B (en) | Optical lens core adjusting system | |
JP4189445B2 (en) | Robot control method and control apparatus | |
US20100246893A1 (en) | Method and Apparatus for Nonlinear Dynamic Estimation of Feature Depth Using Calibrated Moving Cameras | |
JP2002046087A (en) | Three-dimensional position measuring method and apparatus, and robot controller | |
US20230123629A1 (en) | 3d computer-vision system with variable spatial resolution | |
CN113592907B (en) | Visual servo tracking method and device based on optical flow | |
KR100377357B1 (en) | System for tracking target using image feedback and Method therefor | |
Motai et al. | SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping | |
CN114594770A (en) | Inspection method for inspection robot without stopping | |
JP3175623B2 (en) | Robot control device | |
WO2022138166A1 (en) | Motor control device | |
Duceux et al. | Autofocusing-based visual servoing: application to MEMS micromanipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040810 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060324 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20061020 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061025 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070619 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100713 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110713 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120713 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |