JP3981778B2 - Visual feedback method of mechanical device using imaging device and mechanical device - Google Patents

Visual feedback method of mechanical device using imaging device and mechanical device Download PDF

Info

Publication number
JP3981778B2
JP3981778B2 JP23624497A JP23624497A JP3981778B2 JP 3981778 B2 JP3981778 B2 JP 3981778B2 JP 23624497 A JP23624497 A JP 23624497A JP 23624497 A JP23624497 A JP 23624497A JP 3981778 B2 JP3981778 B2 JP 3981778B2
Authority
JP
Japan
Prior art keywords
coordinate system
velocity vector
dimensional velocity
image
image coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP23624497A
Other languages
Japanese (ja)
Other versions
JPH1185235A (en
Inventor
俊充 入江
満徳 川辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP23624497A priority Critical patent/JP3981778B2/en
Publication of JPH1185235A publication Critical patent/JPH1185235A/en
Application granted granted Critical
Publication of JP3981778B2 publication Critical patent/JP3981778B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は2次元の画像信号に基づいて搬送装置の移動機構に対して好適な位置又は速度指令を、フィードバックするための撮像装置を用いた機械装置のビジュアルフィードバック方法およびその機械装置に関する。
【0002】
【従来の技術】
従来、この種の撮像装置を用いた機械装置のビジュアルフィードバック方法は、ITVカメラなどで対象物体を2次元で撮影した画像データに基づいてロボットのマニピュレータなどの搬送装置の移動機構に対して位置又は速度指令をフィードバックする目的で用いられている。
この撮像装置を用いた機械装置のビジュアルフィードバック方法では、例えば、特公平8−23889号公報(ロボットを用いた物体の取出し方法)に示されるように、撮影した画像データにおける撮影対象物体の特徴部分を、画像処理によって抽出して撮像面に固定された画像座標系上を追跡している。そして、対象物体を画像座標系上の目標位置へ移動するように移動機構に対して位置又は速度指令をフィードバックする。
このように撮像装置から出力される画像データに基づいて対象物体を移動させるなどの操作を実行する場合、撮像装置の撮像面に固定された画像座標系と移動機構によって認識できる作業座標系との相対位置、及び、姿勢関係と撮像装置が有する内部パラメータを予め求めておく必要がある。
また、特開平8−71972号公報(ロボットとカメラの自動調整方法)に示されるように、画像座標系と作業座標系との関係及び内部パラメータを求める場合、人手によって正確に計測する、あるいは、測定のための専用の物体を使用する等を行う。換言すれば、画像座標系と作業座標系との関係及び内部パラメータとを求める場合、精密なキャリブレーションを実行して測定している。
図8は従来のビジュアルフィードバック方法による移動機構制御装置の構成を示している。
図8に示した構成は、CCDカメラ301と、ロボットコントローラ302と、ロボットマニピュレータ303と、撮像シーン304と、画像処理装置305と、ヤコビ行列推定器306と、速度指令生成器307とを有し、ロボットマニピュレータ303のロボットハンドを目標位置へ移動させるものである。
ここで、CCDカメラ301は撮像シーン304のようにロボットマニピュレータ303のロボットハンドの移動範囲を撮像し、この撮像信号を画像処理装置305へ出力する。
画像処理装置305は、ロボットマニピュレータ303のロボットハンドの画像座標系上での特徴部分を追跡し、ロボットマニピュレータ303のロボットハンドの画像座標系上での特徴部分の現在位置fを出力する。ロボットマニピュレータ303のロボットハンドの画像座標系上での特徴部分の目標位置fd は予め与えられている。
ヤコビ行列推定器306は、ロボットコントローラ302から得られるロボットハンドの作業座標系上での現在位置Xと、画像処理装置305から得られるロボットハンドの画像座標系上での特徴部分の現在位置fとを入力し、式(1)を満たすヤコビ行列Jを推定する(細田、浅田:「構造やパラメータに関する先験的な知識を必要としないフィードフォワード補償器を持つ適応型ビジュアルサーボ系の構成」、日本ロボット学会誌14巻2号参照)。
df/dt =JdX/dt …(1)
ここで、df/dt はロボットハンドの画像座標系上での特徴部分の速度ベクトル、dX/dt はロボットハンドの作業座標系上での特徴部分の速度ベクトルである。
速度指令生成器307は、式(2)によって速度指令を生成する。
dX/dt =KJ-1(fd −f) …(2)
式(2)によってロボットコントローラ302に供給する速度指令dX/dt を生成する。ここで、Kはゲイン行列である。
図9はロボットコントローラ302にフィードバックされる速度の加減速パターンを示している。
図9に示すように、縦軸を速度dX/dt 、横軸を時間tとする速度の加減速パターンがロボットコントローラ302にフィードバックされる。
【0003】
【発明が解決しようとする課題】
このような上記従来例の撮像装置を用いた機械装置のビジュアルフィードバック方法では、キャリブレーション精度が、対象物体の特徴部分の画像座標系での位置と作業座標系での位置との対応に直接影響するため、画像座標系及び作業座標系との相対的な位置及び姿勢関係と撮像装置が有する内部パラメータを精密に求める必要がある。この場合、多大な処理時間が必要になるという欠点がある。また、精密なキャリブレーションを実行した後に、作業座標系と画像座標系との相対的な位置及び姿勢関係に、例えば、撮像装置を動かすなどの理由で、その微妙な変化が生じた場合には、煩雑な処理のキャリブレーションをやり直す必要がある。同様に撮像装置が有する内部パラメータに、例えば、レンズの焦点距離を変更するなどの理由で、その微妙な変化が生じた場合も、煩雑な処理のキャリブレーションをやり直す必要があるという不都合がある。
さらに、図8及び図9に示した構成では、ロボットコントローラにフィードバックされる速度指令が初期で大きくなり、制御対象のロボットが急激に動いてしまうという欠点がある。
本発明は、このような従来の技術における課題を解決するものであり、煩雑なキャリブレーションを必要とせずに、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の対象物体の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトル座標変換マトリクスを、作業座標系上の対象物体の動きから推定するパラメータ数を低減して、簡便に推定できる撮像装置を用いた機械装置のビジュアルフィードバック方法の提供を目的とする。さらに、制御対象の移動機構(ロボット)が急激に動いてしまうことのない速度の加減速パターンを作成して、その制御対象の移動機構を滑らかに作動させることを目的とする。
【0004】
【課題を解決するための手段】
本発明の目的は、下記構成により達成される。
(1) 少なくとも1台の撮像装置によって移動機構で移動する対象物体を含むシーンを撮影し、前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力し、前記特徴部分の前記画像座標系上の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求め、前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定し、前記画像座標系上の目標点の位置と対象点の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度ベクトルを求め、作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックすることを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。
(2) 前記2次元速度ベクトル座標変換マトリクスは、前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定されることを特徴とする上記(1)記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。
(3) 少なくとも1台の撮像装置によって移動機構で移動する対象物体を含むシーンを撮影し、前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、前記特徴部分を前記撮像装置の撮像面に固定された画像座標系上を追跡し、前記画像座標系上での対象物体の目標位置と現在位置との偏差を前記移動機構によって認識される前記作業座標系に変換し、変換後の偏差及び現在の速度指令に基づいて、予め設定された前記移動機構の速度の加減速パターンに対応する、新たな速度指令を計算することを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。
(4) 前記新たな速度指令を平滑化するためにフィルタ処理することを特徴とする上記(3)記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。
(5) 対象物体を移動させる移動機構と、前記移動物体を含むシーンを撮影する撮像装置と、前記撮像装置で得られる撮像信号から前記対象物体の特徴部分を画像処理によって抽出して、前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力するとともに、前記画像座標系上の前記特徴部分の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求める画像処理手段と、前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定する変換マトリクス推定手段と、前記画像座標系上における目標位置と対象物体の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度ベクトルを求める座標変換手段と、作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックする制御手段と、を備えることを特徴とする機械装置。
(6) 前記変換マトリクス推定手段は、2次元速度ベクトル座標変換マトリクスを、前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定することを特徴とする上記(5)記載の機械装置。
(7) ロボットコントローラと、マニピュレータを撮影する撮像装置とを備え、前記撮像装置が撮影した画像データに基づいて前記マニピュレータを目標位置に移動させる機械装置において、前記マニピュレータのロボットハンドが把持する対象物体を撮影して、その対象物体の画像座標系の位置fを出力する画像処理手段と、前記ロボットコントローラから得られる前記ロボットハンドの作業座標系の現在位置Xと前記画像処理手段が出力 する前記対象物体の画像座標系の位置fを入力して変換マトリクスTを推定する変換マトリクス推定手段と、前記目標位置と前記位置fの差に前記変換マトリクスTを乗じて作業座標系の偏差ベクトルΔXを求める座標変換器と、を備えることを特徴とする機械装置。
上記(1)、(2)、(5)、(6)、(7)の構成では、画像座標系上の2次元速度ベクトルと作業座標系上の2次元速度ベクトルとを対応づける2次元速度ベクトル座標変換マトリクスを局所的に推定しているため、煩雑なキャリブレーションが不要になる。さらに、画像座標系上及び作業座標系上の2次元速度ベクトルの対応をマトリクス表現しているため、画像座標系上及び作業座標系上の位置の対応のマトリクス表現に比較して、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の対象物体の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトル座標変換マトリクスが、作業座標系上の対象物体の動きから簡便、すなわち、推定するパラメータ数が低減する少ない演算量で推定される。同様にして画像座標系上の情報から作業座標系の情報を求める際にも演算量が少なくなる。
上記(3)、(4)の構成は、偏差及び現在の速度指令に基づいて、予め設定された移動機構の速度の加減速パターンに対応する、新たな速度指令を計算するものであり、ロボットなどの移動機構が初期に急激に動くことなく、滑らかに動作する。
【0005】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
図1は本発明の撮像装置を用いた機械装置のビジュアルフィードバック方法を実現するための撮像システムの構成図である。図1に示す例は制御によって搬送作業するロボットマニピュレータ21と、このロボットマニピュレータ21の先端に取り付けられたロボットハンド22と、対象物体のペグ23とを有している。 また、この例はワーク24を有し、このワーク24には貫通するホール25が設けられている。更に、撮像装置としてのCCDカメラ26を有している。また、CCDカメラ26で撮影した撮像シーン27が画面表示されるとともに、CCDカメラ26からの画像データを処理する画像処理装置28を有している。また、対象物体のペグ23の特徴部分29が図示されている。
次に、図1に示す構成の動作及び機能について説明する。
図1において、ペグ23をホール25に挿入するペグインホールを実行する。まず、ロボットマニピュレータ21に接続されたロボットハンド22によってペグ23を挟み込んで保持する。ロボットマニピュレータ21への位置又は速度指令に基づいてロボットマニピュレータ21が動作して、ペグ23が移動する。
一方、CCDカメラ26がロボットマニピュレータ21、ロボットハンド22、ペグ23、ワーク24及びホール25を含むシーンを撮影する。このシーンの画像データがCCDカメラ26から画像処理装置28に送出される。画像処理装置28では、ペグ23の特徴部分29を画像上で追跡し、この特徴部分29の動きがロボットマニピュレータ21の動きに変換されて、ロボットマニピュレータ21の位置又は速度指令としてフィードバックされる。ここで必要となるのは、撮像シーン27におけるペグ23の特徴部分29の動きを、ロボットマニピュレータ21の動きに変換することである。
図2は、この実施形態で処理される座標系を説明するための図である。
図2に示す座標系は、画像座標系31及び作業座標系32を有し、画像座標系31は焦点距離(f)34と、焦点35と、撮像面36と、投影点37及び光軸38からなる。更に、対象点(P)33を有している。
図1及び図2において、画像座標系31は撮像装置であるCCDカメラ26の撮像面36に固定される。作業座標系32はロボットマニピュレータ21が認識できる空間上に固定される。対象点(P)33は、空間上の点でペグ23の特徴部分29の中心付近に相当し、CCDカメラ26の焦点35と対象点(P)33とからなる直線と、撮像面36との交点(投影点37)に投影される。
CCDカメラ26から出力される画像から得られる追跡対象である対象点(P)33の投影点37の位置情報に基づいて、ロボットマニピュレータ21の動きを決定するためには、画像座標系31とロボットマニピュレータ21の認識できる作業座標系32との位置、及び、姿勢関係とCCDカメラ26の内部パラメータを求める必要がある。例えば、焦点距離(f)34を求める必要がある。一般的に、画像座標系31と作業座標系32との位置、及び、姿勢関係とCCDカメラ26の内部パラメータとは式(3)で表される。
【0006】
【数1】

Figure 0003981778
【0007】
ここでsは同次座標値であり、x,y,zは作業座標系32で表現した対象点(P)33の座標値(X)である。また、u,vは投影点37の画像座標系31の座標値(f)であり、m11〜m43は作業座標系32と画像座標系31との位置及び姿勢関係とCCDカメラ26の内部パラメータを関係づける座標変換マトリクスの各パラメータである。
対象点(P)33の動きを拘束する平面の方程式が以下の式(4)で表される。
z=0 …(4)
この式(4)によって式(3)は式(5)で表される。
【0008】
【数2】
Figure 0003981778
【0009】
ここでn11〜n33は対象点(P)33が式(4)で表される拘束平面上のみを動く場合の画像座標系31と作業座標系32との位置及び姿勢関係とCCDカメラ26の内部パラメータとを関係付ける座標変換マトリクスの各パラメータである。
なお、ここでは式(4)に限定したが、一般的に、ある拘束平面上のみを動く場合は、作業座標系32の位置及び姿勢を考慮することによって式(4)に示す制限に置換できる。また、ここでは式(5)で表されるように画像座標系31上の2次元情報から作業座標系32上の2次元情報への変換に限定する。
式(5)において、画像座標系31上の微少移動変化量に対する作業座標系32上の微少移動変化量の関係が式(6)で表される。
【0010】
【数3】
Figure 0003981778
【0011】
ここでΔx,Δyは作業座標系32上の微少移動変化量であり、Δu,Δvは画像座標系31上の微少移動変化量である。a11〜a22は画像座標系31上の微少移動変化量と作業座標系32上の微少移動変化量とを対応付ける座標変換マトリクスの各パラメータであり、それぞれu,vの関数である。なお、(Δx,Δy)を作業座標系32上の2次元速度ベクトル(dX/dt )とし、かつ、(Δu,Δv)を画像座標系31上の2次元速度ベクトル(df/dt )とし、かつ、式(6)の2×2マトリクスを2次元速度ベクトル座標変換マトリクス(T)とする。図3は画像座標系上の対象点の推移と作業座標系上の対象点の推移を示す図である。図3(a)は画像座標系41であり、図3(b)は作業座標系42である。図3(a)の画像座標系41はi−2番目の画像座標系41上の対象点43と、i−1番目の画像座標系41上の対象点44と、i番目の画像座標系41上の対象点45と、画像座標系41上の目標点46、及び、推定補助点47とを有している。また、図3(b)の作業座標系42は、i−2番目の作業座標系42上の対象点48と、i−1番目の作業座標系42上の対象点49、及び、i番目の作業座標系42上の対象点50及び作業座標系42上の目標点51とを有している。
ここではi番目の画像座標系41上の対象点45とi−1番目の画像座標系41上の対象点44との差分(2次元速度ベクトル)を(Δui-1 ,Δvi-1 )とし、かつ、i−1番目の画像座標系41上の対象点44とi−2番目の画像座標系41上の対象点43との差分(2次元速度ベクトル)を(Δui-2 ,Δvi-2 )とする。更に、推定補助点47とi−1番目の画像座標系41上の対象点44との差分(推定補助ベクトル)を(Δui-1',Δvi-1')とする。
また、i番目の作業座標系42上の対象点50とi−1番目の作業座標系42上の対象点49との差分(2次元速度ベクトル)を(Δxi-1 ,Δyi-1 )とし、かつ、i−1番目の作業座標系42上の対象点49とi−2番目の作業座標系42上の対象点48との差分(2次元速度ベクトル)を(Δxi-2 ,Δyi-2 )とする。ここで画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )と画像座標系41上の推定補助ベクトル(Δui-1',Δvi-1')とは垂直の関係にある。
ここでロボットマニピュレータ21の動作によって、ペグ23が移動(対象点(P)33が移動)し、作業座標系42のi−1番目の作業座標系42上の対象点49の位置を通過する。そして、i番目の作業座標系42上の対象点50の位置に移動した場合、この対象点(P)33の移動に伴って、対象点(P)33は画像座標系41のi−1番目の画像座標系41上の対象点44の位置を通過してi番目の画像座標系41上の対象点45の位置に移動する。
対象点(P)33の移動目標点は、画像座標系41上では画像座標系41上の目標点46であり、また、作業座標系42上では作業座標系42上の目標点51である。この対象点(P)33の移動目標点は、画像座標系41では認識できるが、ロボットマニピュレータ21が、画像座標系41から得られる情報に基づいた位置又は速度指令に従って動作するため、作業座標系42では認識できない。ここでは画像座標系41上の2次元速度ベクトルと作業座標系42上の2次元速度ベクトルとを対応づける2次元速度ベクトル座標変換マトリクス(T)の各パラメータの推定を考える。対象点(P)33が、i−1番目の作業座標系42上の対象点49からi番目の作業座標系42上の対象点50まで移動する際の2次元速度ベクトル(Δxi-1 ,Δyi-1 )は、前回推定して求めた2次元速度ベクトル座標変換マトリクスTi-1 を用いて式(6)から式(7)で求めることができる。
【0012】
【数4】
Figure 0003981778
【0013】
この式(7)で利用した2次元速度ベクトル座標変換マトリクスTi-1 を用いて、推定補助ベクトル(Δui-1',Δvi-1')に対応する作業座標系42上の推定補助ベクトル(Δxi-1',Δyi-1')を求めると式(6)から式(8)となる。
【0014】
【数5】
Figure 0003981778
【0015】
ここで式(6)を変形し、画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )と、画像座標系41上の推定補助ベクトル(Δui-1',Δvi-1')と、作業座標系42上の2次元速度ベクトル(Δxi-1 ,Δyi-1 )と、作業座標系42上の推定補助ベクトル(Δui-1',Δvi-1')を代入すると式(9)で表すことができる。
【0016】
【数6】
Figure 0003981778
【0017】
式(9)における左辺の4×4マトリクスは、逆マトリクスが存在するため、2次元速度ベクトル座標変換マトリクスTi の各パラメータを求めることができる。ここで求めた2次元速度ベクトル座標変換マトリクスTi を用いて式(6)から次の作業座標系42上の2次元速度ベクトルを求める。
なお、画像座標系41上の推定補助ベクトル(Δui-1',Δvi-1')では、画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )に対して垂直としているが、必ずしも垂直である必要はない。例えば、2次元速度ベクトル(Δui-1 ,Δvi-1 )と一次独立の関係にある2次元速度ベクトルを利用すれば良い。また、推定補助ベクトルの利用は一つに限定されず二つを利用しても良い。例えば、画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )に対して垂直な二つの2次元速度ベクトルを利用しても良い。この場合、一つの推定補助ベクトルが画像座標系41上の2次元速度ベクトル(Δui-1 ,Δvi-1 )に対して1次独立であれば良い。
また、この実施形態では式(6)を基本にしてビジュアルフィードバックを実行しているが、式(5)に基づいたビジュアルフィードバック処理の実現も考えられる。しかしながら式(6)に基づいた方式は式(5)に基づいた方式と比較すると、推定するマトリクスのパラメータの数が少ないため、式(9)に基づくマトリクス推定に必要となる演算量を少なくすることができる。更に、画像座標系41上の対象点の情報から作業座標系42上の対象点の情報を求める際にも式(6)、式(5)の比較によって、式(6)に基づいた処理が式(5)に基づいた処理よりも、その演算量を少なくすることができる。
図4は、ビジュアルフィードバックの処理手順を示すフローチャートである。図4において、ビジュアルフィードバックの開始時にあって(S101)、作業座標系上の対象点(図1におけるペグ23の特徴部分29の中心に相当)の位置(x,y)は、ロボットマニピュレータ21が作業座標系を認識できることから測定できものであり、この画像座標系上の対象点の位置(u,v)及び画像座標系上の目標点(図1におけるホール25に相当)の位置(ud ,vd )は、CCDカメラ26が対象点及び目標点を含むシーンを撮像していることから測定できる。
次に、画像座標系上の対象点の位置(u,v)、画像座標系上の目標点の位置(ud ,vd )、作業座標系の対象点の位置(x,y)をそれぞれ測定する(S102)。
その後、画像座標系上の目標点の位置(ud ,vd )と画像座標系上の対象点の位置(u,v)との差分(eu ,ev )を演算し(S103)、この差分(eu ,ev )と、ある閾値(Su ,Sv )とを比較する(S104)。
そして、差分(eu ,ev )が、所定の閾値(Su ,Sv )より小さい場合は(S104:Yes)、ビジュアルフィードバックを終了し(S109)、大きい場合は(S104:No)、次の処理S105に移る。この場合、S109の終了に推移する条件は、eu がSu よりも小さく、かつ、ev がSv よりも小さい場合、又は、eu がSu よりも小さく、あるいは、ev がSv よりも小さい場合のいずれでも良い。S105では、式(10)に基づいて作業座標系上の2次元速度ベクトル(Δx,Δy)を求める。
【0018】
【数7】
Figure 0003981778
【0019】
ここで、Tは2次元速度ベクトル座標変換マトリクスであり、Kは、ゲインマトリクスである。なお、ビジュアルフィードバックの処理の初回は、2次元速度ベクトル座標変換マトリクスTが求められていないため、人手によって適当な2次元速度ベクトル座標変換マトリクスTの各パラメータの値を指定する、ロボットマニピュレータ21を適当に移動させて2次元速度ベクトル座標変換マトリクスTの各パラメータ値を求めておくなどの処理で求めた2次元速度ベクトル座標変換マトリクスTを用いる。
このようにして求められた作業座標系上の2次元速度ベクトル(Δx,Δy)に基づいてロボットマニピュレータ21を操作して対象点を移動する。この移動した対象点を画像座標系上で追跡し、実際の移動量、すなわち、画像座標系上の2次元速度ベクトル(Δu,Δv)を測定する(S106)。その後、画像座標系上の2次元速度ベクトル(Δu,Δv)と1次独立の関係にある推定補助ベクトル(Δu’,Δv’)、例えば、画像座標系上の2次元速度ベクトル(Δu,Δv)と垂直なベクトルを求め式(8)に基づいて、作業座標系上の推定補助ベクトル(Δx’,Δy’)を演算する(S107)。
そして、求められた画像座標系上の2次元速度ベクトル(Δu,Δv)と、画像座標系上の推定補助ベクトル(Δu’,Δv’)と、作業座標系上の2次元速度ベクトル(Δx,Δy)と、作業座標系上の推定補助ベクトル(Δx’,Δy’)とを用いて式(9)から2次元速度ベクトル座標変換マトリクスTの各パラメータを推定する(S108)。S108の後はS102に推移し、処理を繰り返す。
なお、この実施形態では、ビジュアルフィードバック中に、画像座標系と作業座標系との相対的な位置及び姿勢関係に変化が生じた場合、また、撮像装置の持つ内部パラメータに変化が生じた場合、あるいは、目標点が変更になった場合、その変化又は変更が多少であれば、目標点の位置(ud ,vd )を変更し、又は、逐次、2次元速度ベクトル座標変換マトリクスを推定しているため、そのままビジュアルフィードバックを継続することができる。
また、一度、ビジュアルフィードバック処理を終了し、再度、ビジュアルフィードバック処理を実行する前に、画像座標系と作業座標系との相対的な位置及び姿勢関係に変化が生じた場合、また、撮像装置が有する内部パラメータに変化が生じた際にも、その変化が多少であれば、逐次、2次元速度ベクトル座標変換マトリクスを推定していることから、そのままビジュアルフィードバックを継続することができる。
図5は、図4の処理手順によるビジュアルフィードバック処理に基づいたシミュレーションを示す図である。図5(a)は画像座標系61であり、図5(b)は、作業座標系62である。この画像座標系61及び作業座標系62には、画像座標系61上の開始点63と、画像座標系61上の目標点64と、作業座標系62上の開始点65と、作業座標系62上の目標点66とを有している。更に、この実施形態のビジュアルフィードバック処理に基づいて推移する画像座標系61上の途中の特徴点67,68、及び作業座標系62上の途中の特徴点69,70を有している。
ここでは式(10)におけるゲインマトリクスKを以下のように設定している。
【0020】
【数8】
Figure 0003981778
【0021】
図4に示したビジュアルフィードバック処理を用いて、開始時に作業座標系62上の開始点65及び画像座標系61上の開始点63にあった対象点が、画像座標系61では、画像座標系61上の途中の特徴点67,68を通じて画像座標系61上の目標点64に収束していることが判明する。また、作業座標系62では、作業座標系62上の途中の特徴点69,70を通じて作業座標系62上の目標点66に収束していることが判明する。
図6はビジュアルフィードバックによる移動機構制御装置の構成を示している。
図6に示す構成は、CCDカメラ101と、ロボットコントローラ102と、ロボットマニピュレータ103と、撮像シーン104と、画像処理装置105と、変換マトリクス推定器106と、座標変換器107と、対象物体108と、速度指令調節器109と、フィルタ処理部110と、物体モデル111とを有している。
次に、このビジュアルフィードバックによる移動機構制御装置の動作について説明する。
ロボットマニピュレータ103のロボットハンドは対象物体108を把持して、対象物体108を目標位置へ移動させる。CCDカメラ101は撮像シーン104のように対象物体108の移動範囲を撮像し、画像データを画像処理装置105へ出力する。画像処理装置105では対象物体108の画像座標系上での特徴部分を追跡し、その現在位置f(=(u,v))を出力する。
なお、対象物体108の画像座標系上での特徴部分の目標位置fd (=(ud ,vd ))は予め与えられている。変換マトリクス推定器106は、ロボットコントローラ102から得られるロボットハンドの作業座標系上での現在位置と、対象物体108の物体モデル111との和、すなわち、対象物体108の作業座標系上での特徴部分の現在位置Xと、画像処理装置105から得られる対象物体108の画像座標系上での特徴部分の現在位置fとを入力し、式(12)の関係を満たす変換マトリクスTを推定する。
dX/dt =Tdf/dt …(12)
ここでdX/dt は対象物体108の作業座標系上での特徴部分の速度ベクトルであり、df/dt は対象物体108の画像座標系上での特徴部分の速度ベクトルである。座標変換器107は、式(13)によって対象物体の作業座標系上での偏差ベクトルΔXを生成する。
ΔX=T(fd −f) …(13)
速度指令調節器109は、作業座標系上での偏差ベクトルと現在の速度指令ベクトルから、ロボットマニピュレータ103の動作が滑らかになるように予め設定された速度の加減速パターンに対応するように新たな速度指令を生成する。
フィルタ処理部110は、急激な速度変化がロボットマニピュレータ103に生じないよう、速度指令調節器109で生成した速度指令を滑らかにする。
図7は速度指令調節器109の動作を説明するための図である。
図7に示す例は、第1のケース(a)、第2のケース(b)、第3のケース(c)であり、かつ、速度201、時間202、加速パターン203、減速パターン204、加速時間205、減速時間206、リミット速度207、第1の点208、第2の点209、第3の点210からなる。
速度指令調節器109には、加速時間205と減速時間206とリミット速度207が予め設定されている。ここで第1のケース(a)に示されるように、現在の速度指令が第1の点208における速度の場合には式(13)によって求めた偏差ベクトルΔXと第1のケース(a)の図中における斜線部の面積が等しくなるように第1の点208の位置を決定する。第1の点208からは加速パターン203と傾きが等しくなるように新たに速度指令を決定し、リミット速度207となるまで繰り返し行う。
また、第2のケース(b)に示すように、現在の速度指令が第2の点209における速度の場合には、式(13)によって求めた偏差ベクトルΔXと第2のケース(b)の図中における斜線部の面積が等しくなるように第2の点209の位置を決定する。第2の点209からは減速パターン204と傾きが等しくなるように新たに速度指令を決定し、リミット速度207となるまで繰り返し行う。更に、第3のケース(c)に示すように、現在の速度指令が第3の点210における速度であり、式(13)によって求めた偏差ベクトルΔXが第3のケース(c)における図中の斜線部の場合は、リミット速度207までは到達しない以外は、第1のケース(a)と同一の処理である。なお、式(13)における偏差ベクトルΔXはビジュアルフィードバックのサンプリング間隔Δtで毎回求められる。したがって、以上の処理もΔt時間で行われ、設定した加減速パターンに従うものとなる。
フィルタ処理部110は、速度指令調節器109で作成された新たな速度指令を滑らかにするために、例えば、式(14)に示される特性の1次フィルタを用いれば良い。
V(k)=H{dX/dt (k)−V(k−1)}+V(k−1)…(14)
ここで、V(k)はサンプリング時間kにおけるフィルタ出力、Hはゲイン行列である。
【0022】
【発明の効果】
以上の説明から明らかなように、請求項1、5および7記載の撮像装置を用いた機械装置のビジュアルフィードバック方法によれば、画像座標系上の2次元速度ベクトルと作業座標系上の2次元速度ベクトルとを対応づける2次元速度ベクトル座標変換マトリクスを推定しているため、煩雑なキャリブレーションを不要にできる。さらに、画像座標系上及び作業座標系上の2次元速度ベクトルの対応をマトリクス表現しているため、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の対象物体の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトルの座標変換マトリクスが、作業座標系上の対象物体の動きから簡便に推定できるようになる。同様にして画像座標系上の情報から作業座標系の情報を求める際にも演算量を少なくできる。
本発明の請求項2および6記載の撮像装置を用いた機械装置のビジュアルフィードバック方法によれば、逐次、2次元速度ベクトル座標変換マトリクスを推定しているため、画像座標系と作業座標系との相対的な位置及び姿勢関係に変化が生じた場合、また、撮像装置が有する内部パラメータに変化が生じた場合、それらが多少の変化の際に、例えば、変化がビジュアルフィードバック処理中、又は、この処理間であっても、ビジュアルフィードバック処理が実行できるようになる。本発明の請求項3及び4記載の撮像装置を用いた機械装置のビジュアルフィードバック方法によれば、偏差ベクトルと現在の速度指令から、予め設定された移動機構の速度の加減速パターンに基づくように、新しい速度指令を計算しており、移動機構が初期に急激に動くことなく、動作が滑らかになる。
【図面の簡単な説明】
【図1】本発明の撮像装置を用いた機械装置のビジュアルフィードバック方法を実現するための撮像システムの構成図である。
【図2】実施形態で処理される座標系を説明するための図である。
【図3】実施形態にあって画像座標系上の対象点の推移と作業座標系上の対象点の推移を示す図である。
【図4】実施形態にあってビジュアルフィードバックの処理手順を示すフローチャートである。
【図5】実施形態にあってビジュアルフィードバック処理に基づいたシミュレーションを示す図である。
【図6】実施形態にあってビジュアルフィードバックによる移動機構制御装置の構成を示すブロック図である。
【図7】実施形態にあって速度指令調節器の動作を説明するための図である。
【図8】従来のビジュアルフィードバック方法による移動機構制御装置の構成を示すブロック図である。
【図9】従来例にあってフィードバックされる速度の加減速パターンである。
【符号の説明】
21、103、303 ロボットマニピュレータ(移動機構)
22 ロボットハンド
23 ペグ(対象物体)
24 ワーク
25 ホール
26、101、301 CCDカメラ(撮像装置)
27、104、304 撮像シーン
28、105、305 画像処理装置(画像処理手段)
29 ペグの特徴部分
31、41、61 画像座標系
32、42、62 作業座標系
33 対象点(P)
34 焦点距離(f)
35 焦点
36 撮像面
37 投影点
38 光軸
43 i−2番目の画像座標系上の対象点
44 i−1番目の画像座標系上の対象点
45 i番目の画像座標系上の対象点
46 画像座標系上の目標点
47 推定補助点
48 i−2番目の作業座標系上の対象点
49 i−1番目の作業座標系上の対象点
50 i番目の作業座標系上の対象点
51 作業座標系上の目標点
S101〜S109 ビジュアルフィードバックステップ
63 画像座標系上の開始点
64 画像座標系上の目標点
65 作業座標系上の開始点
66 作業座標系上の目標点
67、68 画像座標系上の途中の特徴点
69、70 作業座標系上の途中の特徴点
102、302 ロボットコントローラ(制御手段)
106 変換マトリクス推定器(変換マトリクス推定手段)
107 座標変換器(座標変換手段)
108 対象物体
109 速度指令調節器
110 フィルタ処理部
111 物体モデル
201 速度
202 時間
203 加速パターン
204 減速パターン
205 加速時間
206 減速時間
207 リミット速度
208 第1の点
209 第2の点
210 第3の点
(a) 第1のケース
(b) 第2のケース
(c) 第3のケース
306 ヤコビ行列推定器
307 速度指令生成器[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a visual feedback method for a mechanical device using an imaging device for feeding back a suitable position or speed command to a moving mechanism of a transport device based on a two-dimensional image signal.And its machineryAbout.
[0002]
[Prior art]
Conventionally, a visual feedback method for a mechanical apparatus using this type of imaging apparatus is based on image data obtained by capturing a target object two-dimensionally with an ITV camera or the like with respect to a moving mechanism of a transport apparatus such as a robot manipulator. It is used for the purpose of feeding back speed commands.
In the visual feedback method of a mechanical device using this imaging device, for example, as shown in Japanese Patent Publication No. 8-23889 (method of extracting an object using a robot), the characteristic part of the imaging target object in the captured image data Are tracked on an image coordinate system that is extracted by image processing and fixed to the imaging surface. Then, a position or speed command is fed back to the moving mechanism so as to move the target object to the target position on the image coordinate system.
When performing an operation such as moving the target object based on the image data output from the imaging device in this way, an image coordinate system fixed on the imaging surface of the imaging device and a work coordinate system that can be recognized by the moving mechanism. It is necessary to obtain in advance the relative position, posture relationship, and internal parameters of the imaging apparatus.
In addition, as shown in Japanese Patent Laid-Open No. 8-71972 (automatic adjustment method of robot and camera), when obtaining the relationship between the image coordinate system and the work coordinate system and internal parameters, the measurement is performed manually or Use a dedicated object for measurement. In other words, when the relationship between the image coordinate system and the working coordinate system and the internal parameters are obtained, the measurement is performed by executing a precise calibration.
FIG. 8 shows a configuration of a moving mechanism control apparatus according to a conventional visual feedback method.
The configuration illustrated in FIG. 8 includes a CCD camera 301, a robot controller 302, a robot manipulator 303, an imaging scene 304, an image processing device 305, a Jacobian matrix estimator 306, and a speed command generator 307. The robot hand of the robot manipulator 303 is moved to the target position.
Here, the CCD camera 301 images the moving range of the robot hand of the robot manipulator 303 as in the imaging scene 304, and outputs this imaging signal to the image processing device 305.
The image processing apparatus 305 tracks the feature portion of the robot manipulator 303 on the image coordinate system of the robot hand, and outputs the current position f of the feature portion of the robot manipulator 303 on the image coordinate system of the robot hand. Target position f of the characteristic portion on the image coordinate system of the robot hand of the robot manipulator 303dIs given in advance.
The Jacobian matrix estimator 306 includes a current position X on the work coordinate system of the robot hand obtained from the robot controller 302, and a current position f of the feature portion on the image coordinate system of the robot hand obtained from the image processing device 305. , And estimate the Jacobian matrix J satisfying equation (1) (Hosoda, Asada: “Configuration of an adaptive visual servo system with a feedforward compensator that does not require a priori knowledge about structure and parameters”, (See Journal of the Robotics Society of Japan, Vol. 14, No. 2).
df / dt = JdX / dt (1)
Here, df / dt is the velocity vector of the feature portion on the image coordinate system of the robot hand, and dX / dt is the velocity vector of the feature portion on the work coordinate system of the robot hand.
The speed command generator 307 generates a speed command according to equation (2).
dX / dt = KJ-1(Fd-F) (2)
A speed command dX / dt to be supplied to the robot controller 302 is generated by Expression (2). Here, K is a gain matrix.
FIG. 9 shows a speed acceleration / deceleration pattern fed back to the robot controller 302.
As shown in FIG. 9, an acceleration / deceleration pattern having a speed dX / dt on the vertical axis and a time t on the horizontal axis is fed back to the robot controller 302.
[0003]
[Problems to be solved by the invention]
In such a visual feedback method of a mechanical device using the conventional imaging device, the calibration accuracy directly affects the correspondence between the position of the feature portion of the target object in the image coordinate system and the position in the work coordinate system. Therefore, it is necessary to accurately obtain the relative position and orientation relationship between the image coordinate system and the work coordinate system and the internal parameters of the imaging apparatus. In this case, there is a drawback that a great amount of processing time is required. In addition, after performing precise calibration, if the subtle changes occur in the relative position and orientation relationship between the work coordinate system and the image coordinate system, for example, due to reasons such as moving the imaging device. Therefore, it is necessary to re-calibrate the complicated process. Similarly, when the internal parameter of the imaging apparatus has a slight change due to, for example, changing the focal length of the lens, there is an inconvenience that it is necessary to re-calibrate complicated processing.
Further, the configurations shown in FIGS. 8 and 9 have a drawback that the speed command fed back to the robot controller becomes large at an initial stage, and the robot to be controlled moves rapidly.
The present invention solves such a problem in the prior art, and does not require complicated calibration, and the motion of the characteristic part of the target object on the image coordinate system (two-dimensional velocity vector) is converted into the working coordinates. The local two-dimensional velocity vector coordinate transformation matrix required for converting to the motion of the feature part of the target object on the system can be simplified by reducing the number of parameters estimated from the motion of the target object on the work coordinate system. It is an object of the present invention to provide a visual feedback method for a mechanical device using an imaging device that can be estimated in a simple manner. It is another object of the present invention to create an acceleration / deceleration pattern at a speed that does not cause the controlled moving mechanism (robot) to move suddenly and to smoothly operate the controlled moving mechanism.
[0004]
[Means for Solving the Problems]
The object of the present invention is achieved by the following configurations.
(1) A scene including a target object that is moved by a moving mechanism is photographed by at least one imaging device, a feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and the position of the feature portion Is output on an image coordinate system fixed to the imaging surface of the imaging device, and a two-dimensional velocity vector of the target object on the image coordinate system is obtained based on the position of the feature portion on the image coordinate system. A two-dimensional velocity vector coordinate transformation matrix is locally estimated based on a two-dimensional velocity vector on the image coordinate system and a two-dimensional velocity vector on a work coordinate system recognized by the moving mechanism, and the image coordinate system From the difference between the position of the target point above and the position of the target point, the gain matrix, and the two-dimensional velocity vector coordinate transformation matrix, the two-dimensional velocity vector of the sequential work coordinate system is sequentially obtained. And a position or speed command is fed back to the moving mechanism so as to move the target object to a target position on the image coordinate system based on the two-dimensional velocity vector on a work coordinate system. A visual feedback method of a mechanical device using an imaging device.
(2) The two-dimensional velocity vector coordinate transformation matrix includes a two-dimensional velocity vector of a characteristic portion of the target object on the image coordinate system generated by the operation of the moving mechanism, and a first-order independent relationship with the two-dimensional velocity vector. A visual feedback method for a mechanical device using the imaging device according to (1), characterized in that it is estimated by using at least one estimated auxiliary vector.
(3) A scene including a target object that is moved by a moving mechanism is photographed by at least one imaging device, a feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and the feature portion is Tracking on the image coordinate system fixed on the imaging surface of the imaging apparatus, and converting the deviation between the target position and the current position of the target object on the image coordinate system into the work coordinate system recognized by the moving mechanism. A new speed command corresponding to a preset acceleration / deceleration pattern of the speed of the moving mechanism is calculated based on the converted deviation and the current speed command. Visual feedback method.
(4) The visual feedback method for a mechanical device using the imaging device according to (3), wherein the new speed command is filtered to be smoothed.
(5) A moving mechanism that moves the target object, an imaging device that captures a scene including the moving object, and a feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and the feature The position of the part is output on an image coordinate system fixed to the imaging surface of the imaging device, and based on the position of the characteristic part on the image coordinate system, the two-dimensional image of the target object on the image coordinate system An image processing means for obtaining a velocity vector, a two-dimensional velocity vector coordinate transformation matrix locally based on the two-dimensional velocity vector on the image coordinate system and the two-dimensional velocity vector on the work coordinate system recognized by the moving mechanism Conversion matrix estimation means for estimating the position, a difference between the target position and the position of the target object on the image coordinate system, a gain matrix, and the two-dimensional velocity vector Coordinate conversion means for sequentially obtaining the two-dimensional velocity vector of the work coordinate system from the coordinate coordinate transformation matrix, and the target object to the target position on the image coordinate system based on the two-dimensional velocity vector on the work coordinate system. Control means for feeding back a position or speed command to the moving mechanism so as to move.
(6) The conversion matrix estimation means converts the two-dimensional velocity vector coordinate transformation matrix into a two-dimensional velocity vector of a characteristic part of the target object on the image coordinate system generated by the operation of the moving mechanism, and the two-dimensional velocity vector. And at least one estimation auxiliary vector that is in a first-order independent relationship with each other.
  (7) In a mechanical device that includes a robot controller and an imaging device that images a manipulator and moves the manipulator to a target position based on image data captured by the imaging device, a target object that is gripped by the robot hand of the manipulator And the image processing means for outputting the position f of the target object in the image coordinate system, and the current position X of the work coordinate system of the robot hand obtained from the robot controller and the image processing means for output. A transformation matrix estimation means for estimating a transformation matrix T by inputting a position f of the image coordinate system of the target object, and a deviation vector of a work coordinate system by multiplying the difference between the target position and the position f by the transformation matrix T And a coordinate converter for obtaining ΔX.
  Configuration (1), (2), (5), (6), (7)Then, since the two-dimensional velocity vector coordinate transformation matrix that associates the two-dimensional velocity vector on the image coordinate system with the two-dimensional velocity vector on the work coordinate system is locally estimated, complicated calibration is not necessary. . Further, since the correspondence of the two-dimensional velocity vector on the image coordinate system and the work coordinate system is expressed in a matrix, the image coordinate system is compared with the corresponding matrix representation of the positions on the image coordinate system and the work coordinate system. The local two-dimensional velocity vector coordinate transformation matrix necessary for converting the motion of the feature portion of the target object (two-dimensional velocity vector) into the motion of the feature portion of the target object on the work coordinate system is the work coordinates. The estimation is simple from the movement of the target object on the system, that is, with a small amount of calculation that reduces the number of parameters to be estimated. Similarly, the amount of calculation is reduced when obtaining information on the work coordinate system from information on the image coordinate system.
  Configurations (3) and (4) aboveIs to calculate a new speed command corresponding to a preset acceleration / deceleration pattern of the speed of the moving mechanism based on the deviation and the current speed command, and the moving mechanism such as a robot moves rapidly in the initial stage. It works smoothly without it.
[0005]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a configuration diagram of an imaging system for realizing a visual feedback method of a mechanical device using the imaging device of the present invention. The example shown in FIG. 1 includes a robot manipulator 21 that performs a transfer operation by control, a robot hand 22 attached to the tip of the robot manipulator 21, and a peg 23 of a target object. In addition, this example has a work 24, and a hole 25 is provided in the work 24. Further, it has a CCD camera 26 as an imaging device. In addition, an imaging scene 27 photographed by the CCD camera 26 is displayed on the screen, and an image processing device 28 that processes image data from the CCD camera 26 is provided. In addition, a characteristic portion 29 of the peg 23 of the target object is illustrated.
Next, the operation and function of the configuration shown in FIG. 1 will be described.
In FIG. 1, a peg-in hole for inserting the peg 23 into the hole 25 is executed. First, the peg 23 is sandwiched and held by the robot hand 22 connected to the robot manipulator 21. Based on the position or speed command to the robot manipulator 21, the robot manipulator 21 operates and the peg 23 moves.
On the other hand, the CCD camera 26 captures a scene including the robot manipulator 21, the robot hand 22, the peg 23, the work 24 and the hole 25. The image data of this scene is sent from the CCD camera 26 to the image processing device 28. In the image processing device 28, the characteristic portion 29 of the peg 23 is tracked on the image, and the movement of the characteristic portion 29 is converted into the movement of the robot manipulator 21 and fed back as a position or speed command of the robot manipulator 21. What is required here is to convert the movement of the characteristic portion 29 of the peg 23 in the imaging scene 27 into the movement of the robot manipulator 21.
FIG. 2 is a diagram for explaining a coordinate system processed in this embodiment.
The coordinate system shown in FIG. 2 has an image coordinate system 31 and a work coordinate system 32. The image coordinate system 31 has a focal length (f) 34, a focal point 35, an imaging surface 36, a projection point 37, and an optical axis 38. Consists of. Furthermore, it has a target point (P) 33.
1 and 2, an image coordinate system 31 is fixed to an imaging surface 36 of a CCD camera 26 that is an imaging device. The work coordinate system 32 is fixed on a space that can be recognized by the robot manipulator 21. The target point (P) 33 is a point on the space and corresponds to the vicinity of the center of the characteristic portion 29 of the peg 23, and a straight line formed by the focal point 35 of the CCD camera 26 and the target point (P) 33 and the imaging surface 36. Projected to the intersection (projection point 37).
In order to determine the movement of the robot manipulator 21 based on the position information of the projection point 37 of the target point (P) 33 that is the tracking target obtained from the image output from the CCD camera 26, the image coordinate system 31 and the robot It is necessary to obtain the position and posture relationship with the work coordinate system 32 that can be recognized by the manipulator 21 and the internal parameters of the CCD camera 26. For example, the focal length (f) 34 needs to be obtained. In general, the position and orientation relationship between the image coordinate system 31 and the work coordinate system 32 and the internal parameters of the CCD camera 26 are expressed by Expression (3).
[0006]
[Expression 1]
Figure 0003981778
[0007]
Here, s is a homogeneous coordinate value, and x, y, and z are the coordinate value (X) of the target point (P) 33 expressed in the work coordinate system 32. U and v are coordinate values (f) of the image coordinate system 31 of the projection point 37, and m11~ M43Are the parameters of the coordinate transformation matrix that relate the position and orientation relationship between the work coordinate system 32 and the image coordinate system 31 and the internal parameters of the CCD camera 26.
The equation of the plane that restrains the movement of the target point (P) 33 is expressed by the following equation (4).
z = 0 (4)
By this formula (4), formula (3) is expressed by formula (5).
[0008]
[Expression 2]
Figure 0003981778
[0009]
Where n11~ N33Relates the position and orientation relationship between the image coordinate system 31 and the work coordinate system 32 and the internal parameters of the CCD camera 26 when the target point (P) 33 moves only on the constraining plane represented by the equation (4). Each parameter of the coordinate transformation matrix.
Here, although limited to Expression (4), in general, when moving only on a certain constraining plane, it can be replaced with the restriction shown in Expression (4) by considering the position and orientation of the work coordinate system 32. . In addition, here, the conversion is limited to the conversion from the two-dimensional information on the image coordinate system 31 to the two-dimensional information on the work coordinate system 32 as expressed by Expression (5).
In Expression (5), the relationship of the minute movement change amount on the work coordinate system 32 to the minute movement change amount on the image coordinate system 31 is expressed by Expression (6).
[0010]
[Equation 3]
Figure 0003981778
[0011]
Here, Δx and Δy are minute movement changes on the work coordinate system 32, and Δu and Δv are minute movement changes on the image coordinate system 31. a11~ Atwenty twoIs a parameter of a coordinate conversion matrix that associates a minute movement change amount on the image coordinate system 31 with a minute movement change amount on the work coordinate system 32, and is a function of u and v, respectively. Note that (Δx, Δy) is a two-dimensional velocity vector (dX / dt) on the work coordinate system 32, and (Δu, Δv) is a two-dimensional velocity vector (df / dt) on the image coordinate system 31, In addition, the 2 × 2 matrix of Expression (6) is defined as a two-dimensional velocity vector coordinate conversion matrix (T). FIG. 3 is a diagram showing the transition of the target point on the image coordinate system and the transition of the target point on the work coordinate system. FIG. 3A shows an image coordinate system 41, and FIG. 3B shows a work coordinate system 42. The image coordinate system 41 in FIG. 3A includes a target point 43 on the i-2th image coordinate system 41, a target point 44 on the i-1th image coordinate system 41, and an i-th image coordinate system 41. An upper target point 45, a target point 46 on the image coordinate system 41, and an estimation auxiliary point 47 are included. 3B includes a target point 48 on the i-2th work coordinate system 42, a target point 49 on the i-1th work coordinate system 42, and the i-th work coordinate system 42. The target point 50 on the work coordinate system 42 and the target point 51 on the work coordinate system 42 are included.
Here, the difference (two-dimensional velocity vector) between the target point 45 on the i-th image coordinate system 41 and the target point 44 on the i−1-th image coordinate system 41 is (Δui-1, Δvi-1) And the difference (two-dimensional velocity vector) between the target point 44 on the i−1th image coordinate system 41 and the target point 43 on the i−2th image coordinate system 41 is (Δu).i-2, Δvi-2). Further, the difference (estimated auxiliary vector) between the estimated auxiliary point 47 and the target point 44 on the (i−1) -th image coordinate system 41 is (Δui-1', Δvi-1').
Further, the difference (two-dimensional velocity vector) between the target point 50 on the i-th work coordinate system 42 and the target point 49 on the i-1th work coordinate system 42 is expressed as (Δxi-1, Δyi-1) And the difference (two-dimensional velocity vector) between the target point 49 on the i-1th work coordinate system 42 and the target point 48 on the i-2th work coordinate system 42 is (Δx).i-2, Δyi-2). Here, the two-dimensional velocity vector (Δu on the image coordinate system 41 isi-1, Δvi-1) And the estimated auxiliary vector (Δu) on the image coordinate system 41i-1', Δvi-1It has a vertical relationship with ').
Here, the peg 23 is moved (the target point (P) 33 is moved) by the operation of the robot manipulator 21, and passes the position of the target point 49 on the i−1th work coordinate system 42 of the work coordinate system 42. When the object point 50 moves to the position of the object point 50 on the i-th work coordinate system 42, the object point (P) 33 is moved to the (i−1) -th image coordinate system 41 in accordance with the movement of the object point (P) 33. The position of the target point 44 on the image coordinate system 41 is passed to the position of the target point 45 on the i-th image coordinate system 41.
The movement target point of the target point (P) 33 is the target point 46 on the image coordinate system 41 on the image coordinate system 41 and the target point 51 on the work coordinate system 42 on the work coordinate system 42. Although the movement target point of the target point (P) 33 can be recognized in the image coordinate system 41, the robot manipulator 21 operates according to the position or speed command based on the information obtained from the image coordinate system 41. 42 is not recognized. Here, estimation of each parameter of the two-dimensional velocity vector coordinate transformation matrix (T) that associates the two-dimensional velocity vector on the image coordinate system 41 with the two-dimensional velocity vector on the work coordinate system 42 is considered. The two-dimensional velocity vector (Δx) when the target point (P) 33 moves from the target point 49 on the i−1th work coordinate system 42 to the target point 50 on the ith work coordinate system 42.i-1, Δyi-1) Is the two-dimensional velocity vector coordinate transformation matrix T obtained by the previous estimation.i-1Can be obtained from Equation (6) to Equation (7).
[0012]
[Expression 4]
Figure 0003981778
[0013]
Two-dimensional velocity vector coordinate transformation matrix T used in this equation (7)i-1Is used to estimate the auxiliary vector (Δui-1', Δvi-1') Corresponding to the estimated auxiliary vector (Δx) on the work coordinate system 42i-1', Δyi-1When ') is obtained, Equation (6) to Equation (8) are obtained.
[0014]
[Equation 5]
Figure 0003981778
[0015]
Here, the equation (6) is transformed to a two-dimensional velocity vector (Δu on the image coordinate system 41.i-1, Δvi-1) And the estimated auxiliary vector (Δu) on the image coordinate system 41i-1', Δvi-1') And the two-dimensional velocity vector (Δx) on the work coordinate system 42.i-1, Δyi-1) And the estimated auxiliary vector (Δu) on the work coordinate system 42i-1', Δvi-1Substituting ') can be expressed by equation (9).
[0016]
[Formula 6]
Figure 0003981778
[0017]
Since the inverse matrix exists in the 4 × 4 matrix on the left side in Equation (9), the two-dimensional velocity vector coordinate transformation matrix TiEach parameter can be obtained. The two-dimensional velocity vector coordinate transformation matrix T obtained hereiIs used to obtain a two-dimensional velocity vector on the next work coordinate system 42 from Equation (6).
The estimated auxiliary vector (Δu on the image coordinate system 41)i-1', Δvi-1') Is a two-dimensional velocity vector (Δu) on the image coordinate system 41.i-1, Δvi-1), But not necessarily vertical. For example, a two-dimensional velocity vector (Δui-1, Δvi-1) And a two-dimensional velocity vector that is linearly independent. Further, the use of the estimated auxiliary vector is not limited to one, and two may be used. For example, a two-dimensional velocity vector (Δu on the image coordinate system 41)i-1, Δvi-1Two two-dimensional velocity vectors perpendicular to) may be used. In this case, one estimated auxiliary vector is converted into a two-dimensional velocity vector (Δu on the image coordinate system 41.i-1, Δvi-1) With respect to primary independence.
In this embodiment, visual feedback is executed based on the equation (6). However, it is possible to realize visual feedback processing based on the equation (5). However, since the method based on equation (6) has a smaller number of matrix parameters to be estimated than the method based on equation (5), the amount of computation required for matrix estimation based on equation (9) is reduced. be able to. Further, when the information on the target point on the work coordinate system 42 is obtained from the information on the target point on the image coordinate system 41, the processing based on the formula (6) is performed by comparing the formulas (6) and (5). The amount of calculation can be reduced compared with the process based on Formula (5).
FIG. 4 is a flowchart showing a visual feedback processing procedure. 4, at the start of visual feedback (S101), the position (x, y) of the target point on the work coordinate system (corresponding to the center of the characteristic part 29 of the peg 23 in FIG. 1) is determined by the robot manipulator 21. Since the work coordinate system can be recognized, it can be measured, and the position (u, v) of the target point on the image coordinate system and the position (u corresponding to the hole 25 in FIG. 1) on the image coordinate system (ud, Vd) Can be measured because the CCD camera 26 images a scene including the target point and the target point.
Next, the position (u, v) of the target point on the image coordinate system, the position (u of the target point on the image coordinate system)d, Vd), The position (x, y) of the target point in the work coordinate system is measured (S102).
After that, the position of the target point on the image coordinate system (ud, Vd) And the position (u, v) of the target point on the image coordinate system (eu, Ev) (S103), and the difference (eu, Ev) And a certain threshold (Su, Sv) Is compared (S104).
And the difference (eu, Ev) Is a predetermined threshold (Su, Sv) Is smaller (S104: Yes), the visual feedback is terminated (S109). If larger (S104: No), the process proceeds to the next step S105. In this case, the condition for transitioning to the end of S109 is euIs SuSmaller than evIs SvLess than or euIs SuSmaller than or evIs SvAny smaller case may be used. In S105, a two-dimensional velocity vector (Δx, Δy) on the work coordinate system is obtained based on Expression (10).
[0018]
[Expression 7]
Figure 0003981778
[0019]
Here, T is a two-dimensional velocity vector coordinate conversion matrix, and K is a gain matrix. Note that since the two-dimensional velocity vector coordinate transformation matrix T is not obtained at the first time of the visual feedback processing, the robot manipulator 21 that designates the values of the parameters of the appropriate two-dimensional velocity vector coordinate transformation matrix T manually is used. A two-dimensional velocity vector coordinate transformation matrix T obtained by processing such as appropriately moving each parameter value of the two-dimensional velocity vector coordinate transformation matrix T is used.
The target point is moved by operating the robot manipulator 21 based on the two-dimensional velocity vector (Δx, Δy) on the work coordinate system thus obtained. The moved target point is tracked on the image coordinate system, and the actual movement amount, that is, the two-dimensional velocity vector (Δu, Δv) on the image coordinate system is measured (S106). Thereafter, an estimated auxiliary vector (Δu ′, Δv ′) that has a linearly independent relationship with the two-dimensional velocity vector (Δu, Δv) on the image coordinate system, for example, a two-dimensional velocity vector (Δu, Δv on the image coordinate system). ) And a perpendicular vector (Δx ′, Δy ′) on the work coordinate system are calculated based on the equation (8) (S107).
Then, the obtained two-dimensional velocity vector (Δu, Δv) on the image coordinate system, the estimated auxiliary vector (Δu ′, Δv ′) on the image coordinate system, and the two-dimensional velocity vector (Δx, Each parameter of the two-dimensional velocity vector coordinate transformation matrix T is estimated from equation (9) using Δy) and the estimated auxiliary vector (Δx ′, Δy ′) on the work coordinate system (S108). After S108, the process proceeds to S102 and the process is repeated.
In this embodiment, during visual feedback, when a change occurs in the relative position and posture relationship between the image coordinate system and the work coordinate system, or when an internal parameter of the imaging device changes, Alternatively, when the target point is changed, if the change or change is slight, the position of the target point (ud, Vd) Is changed, or the two-dimensional velocity vector coordinate transformation matrix is sequentially estimated, so that visual feedback can be continued as it is.
Also, if the relative position and orientation relationship between the image coordinate system and the work coordinate system change before the visual feedback process is finished and the visual feedback process is performed again, the imaging device Even when a change occurs in the internal parameters, if the change is slight, since the two-dimensional velocity vector coordinate conversion matrix is estimated successively, visual feedback can be continued as it is.
FIG. 5 is a diagram showing a simulation based on the visual feedback processing according to the processing procedure of FIG. FIG. 5A shows an image coordinate system 61, and FIG. 5B shows a work coordinate system 62. The image coordinate system 61 and the work coordinate system 62 include a start point 63 on the image coordinate system 61, a target point 64 on the image coordinate system 61, a start point 65 on the work coordinate system 62, and a work coordinate system 62. And an upper target point 66. Furthermore, it has feature points 67 and 68 on the image coordinate system 61 that change based on the visual feedback processing of this embodiment, and feature points 69 and 70 on the work coordinate system 62.
Here, the gain matrix K in the equation (10) is set as follows.
[0020]
[Equation 8]
Figure 0003981778
[0021]
Using the visual feedback processing shown in FIG. 4, the target point that was at the start point 65 on the work coordinate system 62 and the start point 63 on the image coordinate system 61 at the start is the image coordinate system 61 in the image coordinate system 61. It is found that the target point 64 on the image coordinate system 61 is converged through the upper halfway feature points 67 and 68. In the work coordinate system 62, it is found that the target point 66 on the work coordinate system 62 is converged through the feature points 69 and 70 on the work coordinate system 62.
FIG. 6 shows the configuration of the moving mechanism control device by visual feedback.
The configuration shown in FIG. 6 includes a CCD camera 101, a robot controller 102, a robot manipulator 103, an imaging scene 104, an image processing device 105, a transformation matrix estimator 106, a coordinate converter 107, and a target object 108. , A speed command adjuster 109, a filter processing unit 110, and an object model 111.
Next, the operation of the moving mechanism control apparatus using this visual feedback will be described.
The robot hand of the robot manipulator 103 holds the target object 108 and moves the target object 108 to the target position. The CCD camera 101 images the moving range of the target object 108 as in the imaging scene 104 and outputs the image data to the image processing device 105. The image processing apparatus 105 tracks the characteristic portion of the target object 108 on the image coordinate system and outputs the current position f (= (u, v)).
Note that the target position f of the characteristic portion of the target object 108 on the image coordinate system.d(= (Ud, Vd)) Is given in advance. The transformation matrix estimator 106 is the sum of the current position on the work coordinate system of the robot hand obtained from the robot controller 102 and the object model 111 of the target object 108, that is, the feature of the target object 108 on the work coordinate system. The current position X of the part and the current position f of the characteristic part on the image coordinate system of the target object 108 obtained from the image processing apparatus 105 are input, and a transformation matrix T that satisfies the relationship of Expression (12) is estimated.
dX / dt = Tdf / dt (12)
Here, dX / dt is a velocity vector of the characteristic portion of the target object 108 on the work coordinate system, and df / dt is a velocity vector of the characteristic portion of the target object 108 on the image coordinate system. The coordinate converter 107 generates a deviation vector ΔX on the work coordinate system of the target object by Expression (13).
ΔX = T (fd-F) (13)
The speed command adjuster 109 is newly adapted to correspond to a speed acceleration / deceleration pattern set in advance so that the operation of the robot manipulator 103 becomes smooth from the deviation vector on the work coordinate system and the current speed command vector. Generate a speed command.
The filter processing unit 110 smoothes the speed command generated by the speed command adjuster 109 so that a rapid speed change does not occur in the robot manipulator 103.
FIG. 7 is a diagram for explaining the operation of the speed command adjuster 109.
The example shown in FIG. 7 is the first case (a), the second case (b), and the third case (c), and the speed 201, time 202, acceleration pattern 203, deceleration pattern 204, acceleration It consists of time 205, deceleration time 206, limit speed 207, first point 208, second point 209, and third point 210.
In the speed command adjuster 109, an acceleration time 205, a deceleration time 206, and a limit speed 207 are set in advance. Here, as shown in the first case (a), when the current speed command is the speed at the first point 208, the deviation vector ΔX obtained by the expression (13) and the first case (a) The position of the first point 208 is determined so that the shaded area in the figure is equal. From the first point 208, a new speed command is determined so that the inclination becomes the same as the acceleration pattern 203, and this is repeated until the limit speed 207 is reached.
Further, as shown in the second case (b), when the current speed command is the speed at the second point 209, the deviation vector ΔX obtained by the expression (13) and the second case (b) The position of the second point 209 is determined so that the areas of the hatched portions in the figure are equal. From the second point 209, a new speed command is determined so that the gradient is the same as that of the deceleration pattern 204, and this is repeated until the limit speed 207 is reached. Further, as shown in the third case (c), the current speed command is the speed at the third point 210, and the deviation vector ΔX obtained by the equation (13) is shown in the figure in the third case (c). In the case of the shaded area, the processing is the same as in the first case (a) except that the speed limit 207 is not reached. The deviation vector ΔX in the equation (13) is obtained every time at the visual feedback sampling interval Δt. Therefore, the above processing is also performed in Δt time, and follows the set acceleration / deceleration pattern.
The filter processing unit 110 may use, for example, a first-order filter having the characteristics shown in Equation (14) in order to smooth the new speed command created by the speed command adjuster 109.
V (k) = H {dX / dt (k) -V (k-1)} + V (k-1) (14)
Here, V (k) is a filter output at the sampling time k, and H is a gain matrix.
[0022]
【The invention's effect】
  As is clear from the above description, the claim 15 and 7According to the visual feedback method of a mechanical device using the described imaging device, a two-dimensional velocity vector coordinate transformation matrix that associates a two-dimensional velocity vector on the image coordinate system with a two-dimensional velocity vector on the work coordinate system is estimated. Therefore, complicated calibration can be eliminated. Further, since the correspondence between the two-dimensional velocity vectors on the image coordinate system and the work coordinate system is expressed in a matrix, the movement of the characteristic part of the target object on the image coordinate system (two-dimensional velocity vector) A local two-dimensional velocity vector coordinate conversion matrix required for conversion into the motion of the characteristic part of the target object can be easily estimated from the movement of the target object on the work coordinate system. Similarly, the amount of calculation can be reduced when obtaining information on the work coordinate system from information on the image coordinate system.
  Claim 2 of the present inventionAnd 6According to the visual feedback method of the mechanical device using the described imaging device, since the two-dimensional velocity vector coordinate transformation matrix is sequentially estimated, the relative position and orientation relationship between the image coordinate system and the work coordinate system is determined. If a change occurs, or if there is a change in the internal parameters of the imaging device, when they change slightly, for example, even if the change is during the visual feedback process or during this process, Feedback processing can be executed. According to the visual feedback method of the mechanical device using the imaging device according to the third and fourth aspects of the present invention, based on the acceleration / deceleration pattern of the speed of the moving mechanism set in advance from the deviation vector and the current speed command. A new speed command is calculated, and the movement mechanism does not move suddenly and the operation becomes smooth.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of an imaging system for realizing a visual feedback method of a mechanical device using an imaging device of the present invention.
FIG. 2 is a diagram for explaining a coordinate system processed in the embodiment.
FIG. 3 is a diagram illustrating a transition of a target point on an image coordinate system and a transition of a target point on a work coordinate system in the embodiment.
FIG. 4 is a flowchart illustrating a processing procedure of visual feedback in the embodiment.
FIG. 5 is a diagram illustrating a simulation based on visual feedback processing in the embodiment.
FIG. 6 is a block diagram illustrating a configuration of a moving mechanism control device using visual feedback in the embodiment.
FIG. 7 is a diagram for explaining the operation of the speed command adjuster in the embodiment.
FIG. 8 is a block diagram showing a configuration of a moving mechanism control device according to a conventional visual feedback method.
FIG. 9 is a speed acceleration / deceleration pattern fed back in a conventional example.
[Explanation of symbols]
21, 103, 303 Robot manipulator(Movement mechanism)
22 Robot Hand
23 pegs(Target object)
24 work
25 holes
26, 101, 301 CCD camera(Imaging device)
27, 104, 304 Imaging scene
28, 105, 305 Image processing apparatus(Image processing means)
29 peg features
31, 41, 61 Image coordinate system
32, 42, 62 Working coordinate system
33 Target point (P)
34 Focal length (f)
35 focus
36 Imaging surface
37 Projection points
38 optical axes
43 Target point on the i-2nd image coordinate system
44 Target point on the i-1st image coordinate system
45 Target point on the i-th image coordinate system
46 Target point on image coordinate system
47 Estimated auxiliary points
48 Target point on the i-2nd work coordinate system
49 i-1 Target point on the working coordinate system
50 Target point on the ith work coordinate system
51 Target point on work coordinate system
S101 to S109 Visual feedback step
63 Starting point on the image coordinate system
64 Target points on the image coordinate system
65 Starting point on working coordinate system
66 Target point on working coordinate system
67, 68 Feature points along the image coordinate system
69, 70 Feature points along the work coordinate system
102, 302 Robot controller(Control means)
106 Transformation matrix estimator(Conversion matrix estimation means)
107 coordinate converter(Coordinate conversion means)
108 Target object
109 Speed command controller
110 Filter processing unit
111 object model
201 speed
202 hours
203 Acceleration pattern
204 Deceleration pattern
205 Acceleration time
206 Deceleration time
207 Limit speed
208 First point
209 Second point
210 Third point
(A) First case
(B) Second case
(C) Third case
306 Jacobian Matrix Estimator
307 Speed command generator

Claims (7)

少なくとも1台の撮像装置によって移動機構で移動する対象物体を含むシーンを撮影し、
前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、
前記特徴部分の位置前記撮像装置の撮像面に固定された画像座標系上で出力し、
前記特徴部分の前記画像座標系上の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求め、
前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定し、
前記画像座標系上の目標点の位置と対象点の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度ベクトルを求め、
作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックする
ことを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。
Photographing a scene including a target object that is moved by a moving mechanism by at least one imaging device,
Extracting the characteristic part of the target object from the imaging signal obtained by the imaging device by image processing,
Outputting the position of the characteristic portion on an image coordinate system fixed to the imaging surface of the imaging device ;
Obtaining a two-dimensional velocity vector of the target object on the image coordinate system based on the position of the feature portion on the image coordinate system;
Locally estimating a two-dimensional velocity vector coordinate transformation matrix based on a two-dimensional velocity vector on the image coordinate system and a two-dimensional velocity vector on a work coordinate system recognized by the moving mechanism;
From the difference between the position of the target point on the image coordinate system and the position of the target point, the gain matrix, and the two-dimensional velocity vector coordinate conversion matrix, the two-dimensional velocity vector of the work coordinate system is obtained sequentially.
A position or speed command is fed back to the moving mechanism so as to move the target object to a target position on the image coordinate system based on the two-dimensional velocity vector on a work coordinate system . The visual feedback method of the machine equipment that was.
前記2次元速度ベクトル座標変換マトリクス
前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定される
ことを特徴とする請求項1記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。
The two-dimensional velocity vector coordinate transformation matrix is
Utilizing a two-dimensional velocity vector of the characteristic portion of the object on the image coordinate system generated by the operation of the moving mechanism, and at least one of the estimated auxiliary vector in the relation of the two-dimensional velocity vector and the linearly independent Visual feedback method of mechanical apparatus using the imaging device according to claim 1, wherein the estimated by.
少なくとも1台の撮像装置によって移動機構で移動する対象物体を含むシーンを撮影し、
前記撮像装置で得られる撮像信号から対象物体の特徴部分を画像処理によって抽出し、
前記特徴部分を前記撮像装置の撮像面に固定された画像座標系上を追跡し、
前記画像座標系上での対象物体の目標位置と現在位置との偏差を前記移動機構によって認識される作業座標系に変換し、
変換後の偏差及び現在の速度指令に基づいて、予め設定された前記移動機構の速度の加減速パターンに対応する、新たな速度指令を計算する
ことを特徴とする撮像装置を用いた機械装置のビジュアルフィードバック方法。
Photographing a scene including a target object that is moved by a moving mechanism by at least one imaging device,
Extracting the characteristic part of the target object from the imaging signal obtained by the imaging device by image processing,
Tracking the feature portion on an image coordinate system fixed to the imaging surface of the imaging device;
Converting the deviation between the target position and the current position of the target object on the image coordinate system into a work coordinate system recognized by the moving mechanism ;
A new speed command corresponding to a preset acceleration / deceleration pattern of the speed of the moving mechanism is calculated on the basis of the deviation after conversion and the current speed command. Visual feedback method.
前記新たな速度指令を平滑化するためにフィルタ処理する
ことを特徴とする請求項3記載の撮像装置を用いた機械装置のビジュアルフィードバック方法。
The visual feedback method of the mechanical device using the imaging device according to claim 3, wherein a filtering process is performed to smooth the new speed command.
対象物体を移動させる移動機構と、  A moving mechanism for moving the target object;
前記移動物体を含むシーンを撮影する撮像装置と、  An imaging device for capturing a scene including the moving object;
前記撮像装置で得られる撮像信号から前記対象物体の特徴部分を画像処理によって抽出して、前記特徴部分の位置を、前記撮像装置の撮像面に固定された画像座標系上で出力するとともに、前記画像座標系上の前記特徴部分の位置に基づき、前記対象物体の前記画像座標系上の2次元速度ベクトルを求める画像処理手段と、  A feature portion of the target object is extracted from an imaging signal obtained by the imaging device by image processing, and a position of the feature portion is output on an image coordinate system fixed to an imaging surface of the imaging device, and Image processing means for obtaining a two-dimensional velocity vector of the target object on the image coordinate system based on the position of the feature portion on the image coordinate system;
前記画像座標系上の2次元速度ベクトルと前記移動機構によって認識される作業座標系上の2次元速度ベクトルとに基づいて2次元速度ベクトル座標変換マトリクスを局所的に推定する変換マトリクス推定手段と、  Transformation matrix estimation means for locally estimating a two-dimensional velocity vector coordinate transformation matrix based on a two-dimensional velocity vector on the image coordinate system and a two-dimensional velocity vector on a work coordinate system recognized by the moving mechanism;
前記画像座標系上における目標位置と対象物体の位置との差分と、ゲインマトリクスと、前記2次元速度ベクトル座標変換マトリクスとから、逐次作業座標系の前記2次元速度  From the difference between the target position on the image coordinate system and the position of the target object, the gain matrix, and the two-dimensional velocity vector coordinate transformation matrix, the two-dimensional velocity of the sequential work coordinate system. ベクトルを求める座標変換手段と、Coordinate conversion means for obtaining a vector;
作業座標系上の前記2次元速度ベクトルに基づいて前記対象物体を前記画像座標系上の目標位置へ移動するように前記移動機構へ位置又は速度指令をフィードバックする制御手段と、を備える  Control means for feeding back a position or speed command to the moving mechanism so as to move the target object to a target position on the image coordinate system based on the two-dimensional velocity vector on a work coordinate system.
ことを特徴とする機械装置。  A mechanical device characterized by that.
前記変換マトリクス推定手段は、  The conversion matrix estimation means includes
2次元速度ベクトル座標変換マトリクスを、  2D velocity vector coordinate transformation matrix
前記移動機構の動作によって発生する画像座標系上での対象物体の特徴部分の2次元速度ベクトルと、該2次元速度ベクトルと1次独立の関係にある少なくとも一つの推定補助ベクトルとを利用することによって推定する  Using a two-dimensional velocity vector of a characteristic part of a target object on an image coordinate system generated by the operation of the moving mechanism, and at least one estimated auxiliary vector having a first-order independent relationship with the two-dimensional velocity vector Estimated by
ことを特徴とする請求項5記載の機械装置。  The mechanical device according to claim 5.
ロボットコントローラと、マニピュレータを撮影する撮像装置とを備え、前記撮像装置が撮影した画像データに基づいて前記マニピュレータを目標位置に移動させる機械装置において、  In a mechanical device that includes a robot controller and an imaging device that images a manipulator, and moves the manipulator to a target position based on image data captured by the imaging device,
前記マニピュレータのロボットハンドが把持する対象物体を撮影して、その対象物体の画像座標系の位置fを出力する画像処理手段と、  Image processing means for photographing a target object held by the robot hand of the manipulator and outputting a position f of the target object in an image coordinate system;
前記ロボットコントローラから得られる前記ロボットハンドの作業座標系の現在位置Xと前記画像処理手段が出力する前記対象物体の画像座標系の位置fを入力して変換マトリクスTを推定する変換マトリクス推定手段と、  Transformation matrix estimation means for estimating the transformation matrix T by inputting the current position X of the work coordinate system of the robot hand obtained from the robot controller and the position f of the image coordinate system of the target object output by the image processing means; ,
前記目標位置と前記位置fの差に前記変換マトリクスTを乗じて作業座標系の偏差ベクトルΔXを求める座標変換器と、を備える  A coordinate converter that obtains a deviation vector ΔX of a work coordinate system by multiplying the difference between the target position and the position f by the conversion matrix T.
ことを特徴とする機械装置。  A mechanical device characterized by that.
JP23624497A 1997-09-01 1997-09-01 Visual feedback method of mechanical device using imaging device and mechanical device Expired - Fee Related JP3981778B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP23624497A JP3981778B2 (en) 1997-09-01 1997-09-01 Visual feedback method of mechanical device using imaging device and mechanical device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23624497A JP3981778B2 (en) 1997-09-01 1997-09-01 Visual feedback method of mechanical device using imaging device and mechanical device

Publications (2)

Publication Number Publication Date
JPH1185235A JPH1185235A (en) 1999-03-30
JP3981778B2 true JP3981778B2 (en) 2007-09-26

Family

ID=16997922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP23624497A Expired - Fee Related JP3981778B2 (en) 1997-09-01 1997-09-01 Visual feedback method of mechanical device using imaging device and mechanical device

Country Status (1)

Country Link
JP (1) JP3981778B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112859742A (en) * 2021-01-12 2021-05-28 广州盛硕科技有限公司 Numerical control machine tool control system based on visual identification

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007011978A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Motion controller for robot
JP5948914B2 (en) * 2012-02-01 2016-07-06 セイコーエプソン株式会社 Robot control apparatus, robot control method, robot control program, and robot system
JP2013173191A (en) * 2012-02-23 2013-09-05 Seiko Epson Corp Robot apparatus, robot control apparatus, robot control method, and robot control program
JP6421408B2 (en) * 2013-10-31 2018-11-14 セイコーエプソン株式会社 Control device, robot, robot system and control method
JP2015100868A (en) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 Robot system
JP2015174191A (en) * 2014-03-17 2015-10-05 株式会社安川電機 Robot system, calibration method of robot system and position correction method of robot system
EP3147086B1 (en) * 2015-09-22 2020-11-04 Airbus Defence and Space GmbH Automation of robot operations in aircraft construction
JP6984130B2 (en) 2017-01-17 2021-12-17 オムロン株式会社 Image processing equipment, control systems, image processing equipment control methods, control programs, and recording media
EP3781363B1 (en) * 2018-04-17 2023-06-07 ABB Schweiz AG Method for controlling a robot arm

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112859742A (en) * 2021-01-12 2021-05-28 广州盛硕科技有限公司 Numerical control machine tool control system based on visual identification
CN112859742B (en) * 2021-01-12 2021-08-06 广州盛硕科技有限公司 Numerical control machine tool control system based on visual identification

Also Published As

Publication number Publication date
JPH1185235A (en) 1999-03-30

Similar Documents

Publication Publication Date Title
JP6376296B1 (en) Position control device and position control method
JP6587761B2 (en) Position control device and position control method
KR102280663B1 (en) Calibration method for robot using vision technology
JP6458912B1 (en) Position control device and position control method
JP4167954B2 (en) Robot and robot moving method
JP4265088B2 (en) Robot apparatus and control method thereof
JP3981778B2 (en) Visual feedback method of mechanical device using imaging device and mechanical device
JP2007319938A (en) Robot device and method of obtaining three-dimensional shape of object
JP2008023630A (en) Arm-guiding moving body and method for guiding arm
JP2010231772A (en) Method and apparatus for dynamic estimation of feature depth using calibrated moving camera
CN112548527A (en) Device and method for dynamic shaft hole assembly based on multi-camera visual servo
CN110039520B (en) Teaching and processing system based on image contrast
JP4572497B2 (en) Robot controller
CN114355556B (en) Optical lens core adjusting system
JP4189445B2 (en) Robot control method and control apparatus
US20100246893A1 (en) Method and Apparatus for Nonlinear Dynamic Estimation of Feature Depth Using Calibrated Moving Cameras
JP2002046087A (en) Three-dimensional position measuring method and apparatus, and robot controller
US20230123629A1 (en) 3d computer-vision system with variable spatial resolution
CN113592907B (en) Visual servo tracking method and device based on optical flow
KR100377357B1 (en) System for tracking target using image feedback and Method therefor
Motai et al. SmartView: hand-eye robotic calibration for active viewpoint generation and object grasping
CN114594770A (en) Inspection method for inspection robot without stopping
JP3175623B2 (en) Robot control device
WO2022138166A1 (en) Motor control device
Duceux et al. Autofocusing-based visual servoing: application to MEMS micromanipulation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040810

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20061020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070619

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100713

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110713

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120713

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees