JP2012236254A - 移動体把持装置と方法 - Google Patents

移動体把持装置と方法 Download PDF

Info

Publication number
JP2012236254A
JP2012236254A JP2011106822A JP2011106822A JP2012236254A JP 2012236254 A JP2012236254 A JP 2012236254A JP 2011106822 A JP2011106822 A JP 2011106822A JP 2011106822 A JP2011106822 A JP 2011106822A JP 2012236254 A JP2012236254 A JP 2012236254A
Authority
JP
Japan
Prior art keywords
gripping
robot
state
internal state
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011106822A
Other languages
English (en)
Other versions
JP5733516B2 (ja
Inventor
Shuhei Emoto
周平 江本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
Original Assignee
IHI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp filed Critical IHI Corp
Priority to JP2011106822A priority Critical patent/JP5733516B2/ja
Priority to CN201280022935.9A priority patent/CN103517789B/zh
Priority to PCT/JP2012/060918 priority patent/WO2012153629A1/ja
Priority to EP12782445.6A priority patent/EP2708334B1/en
Publication of JP2012236254A publication Critical patent/JP2012236254A/ja
Priority to US14/078,342 priority patent/US9108321B2/en
Application granted granted Critical
Publication of JP5733516B2 publication Critical patent/JP5733516B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】対象物の運動予測し、予測精度の低下の影響を受けることなく、ロボットを対象物に追従させて確実に把持することができる移動体把持装置と方法を提供する。
【解決手段】対象物の位置又は姿勢を計測する計測装置12と、対象物を計測した計測結果から、対象物の内部状態を推定し把持の可否を判定する状態推定装置14と、ロボットを制御するロボット制御装置20とを備える。(A)計測装置12により、対象物の位置又は姿勢を計測し、(B)計測結果から、状態推定装置14により、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、かつ(C)精度指標値から対象物の把持の可否を判定し、(D)把持可能の場合、ロボット制御装置20により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作し、(E)把持不可の場合、前記(A)〜(D)を繰り返す。
【選択図】図2

Description

本発明は、ロボットなどを使った自動装置のうち、移動する対象物を把持する移動体把持装置と方法に関する。
移動する対象物をロボットでハンドリングする自動装置では、ロボット上やロボットの外部に設置したカメラなどの視覚センサで対象物の位置を計測し、その計測結果に基づいてロボットを追従制御する必要がある。
上述したロボットの追従制御では、時々刻々と変化する対象物(例えばワーク)の位置を一定周期(例:30fpsのカメラ)で計測し、計測結果に基づいて、例えば対象物にロボットを近づけるような、移動指令がロボットに出力される。
しかし、計測したワークの位置を目標としてロボットを動作させても、センサの計測遅れ、データの取得遅れ、ロボットの動作遅れなどの制御遅れにより、ロボットが移動するワークに追従できないことがある。
また、視覚センサの場合、センサの計測周期はロボットの制御周期(例:4ms)よりも一般に長いため、ロボットは制御周期ごとに最新の計測結果を得られるわけではなく、その分が計測遅れとなる。特に、画像処理に時間がかかったり、ワークがカメラの視野から外れたりすると、計測結果が更新される周期はさらに長くなり、かつ一定ではなくなる。このように、移動するワークを扱う装置では、制御遅れによりロボットの追従性能が低下する問題点があった。
上述した問題を解決するために、種々の制御手段が既に提案されている(例えば、特許文献1〜4)。
特許文献1の「ロボット装置及びその制御方法」では、まずアームを対象物に追従させ、追従時のアームの運動状態と、対象物の運動状態が一致していることを利用して、対象物の移動先を予測する方法が提案されている。このように、アームの動作時間を考慮して、対象物の移動先を予測することで、移動体の把持が実現される。
特許文献2の「3次元運動予測装置」は、単振動する被計測体の位置データからその運動パラメータを推定し、その将来の位置を予測し、その位置情報を基にマニュピュレータにより被計測体を把持するものである。
特許文献3の状態推定手段は、観測により時系列に入力される観測信号に基づいて、その観測を行ったシステムの内部状態を推定するものである。内部状態とは、対象物の位置、姿勢、振れ角などの状態変数を意味する。
特許文献4の「運動予測装置」は、バックグラウンド処理とフォアグラウンド処理を併用して自動追尾と運動予測を行うものである。
特許第4265088号公報、「ロボット装置及びその制御方法」 特開平07−019818号公報、「3次元運動予測装置」 特許第4072017号公報、「状態推定装置、その方法及びそのプログラム、並びに、現在状態推定装置及び未来状態推定装置」 特許第4153625号公報、「運動予測装置」
上述した特許文献2によれば、対象物(例えばワーク)を計測した観測履歴から、対象物の運動状態を推定することで、計測値が得られていない間のデータを補完したり、対象物をロボットで把持する際の把持地点を予測したりすることができる。
運動状態の推定には、カルマンフィルタなどが一般的に用いられる。特許文献2、3の状態推定手段では、対象物の速度、加速度などを「内部状態」とし、内部状態が時間と共にどのように変化するかを表す「状態遷移モデル」を事前に定義する。
特許文献1、2のように移動先を予測して把持する装置では、予測の精度が低いと、対象物が予測した位置から外れ、把持に失敗することがある。
特許文献1では、把持動作に移行する前に、アームと対象物の偏差が一定になっている状態(完全追従状態、不完全追従状態)であることを判定する。この判定によって、アームと対象物の運動状態が高い精度で一致している時のみ把持動作をするため、把持精度が向上する。しかし、この判定条件は、等速直線運動、等速円運動、等加速度直線運動には適用できるが、それ以外の運動に対して適用できない。
対象物の予測位置の精度が低くなるのは、主に以下のような状況の時である。
(1)計測開始直後。
(2)対象物を計測できない時間がしばらく続いた時。
(3)対象物が、事前に定めた状態遷移モデルと違った動きをしている時。
本発明は、上述した問題点を解決するために創案されたものである。すなわち、本発明の目的は、等速直線運動、等速円運動、等加速度直線運動以外の運動であっても対象物(例えばワーク)の内部状態(例えば位置、姿勢、速度、角速度)に基づいて対象物の運動予測をすることができ、予測精度の低下の影響を受けることなく、ロボットを対象物に追従させて確実に把持することができる移動体把持装置と方法を提供することにある。
本発明によれば、相対的に移動する対象物をロボットで把持する移動体把持装置であって、
対象物の位置又は姿勢を計測する計測装置と、
対象物を計測した計測結果から、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、かつ精度指標値から対象物の把持の可否を判定する状態推定装置と、
把持可能の場合、内部状態の推定結果に基づいて対象物の移動先を予測して把持動作するようにロボットを制御するロボット制御装置と、を備えることを特徴とする移動体把持装置が提供される。
また本発明によれば、相対的に移動する対象物をロボットで把持する移動体把持方法であって、
(A)計測装置により、対象物の位置又は姿勢を計測し、
(B)計測した計測結果から、状態推定装置により、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、かつ
(C)精度指標値から対象物の把持の可否を判定し、
(D)把持可能の場合、ロボット制御装置により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作し、
(E)把持不可の場合、前記(A)〜(D)を繰り返す、ことを特徴とする移動体把持方法が提供される。
上記本発明の装置と方法によれば、計測装置及び状態推定装置により、対象物の位置又は姿勢を計測し、対象物の内部状態を推定するので、等速直線運動、等速円運動、等加速度直線運動以外の運動であっても対象物(例えばワーク)の内部状態(例えば位置、姿勢、速度、角速度)に基づいて対象物の運動予測をすることができる。
また、状態推定装置により、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、精度指標値から対象物の把持の可否を判定するので、把持不可の場合、ロボット制御装置により、予測精度が低下する場合でも把持の失敗を未然に回避することができる。
さらに、把持可能の場合に、ロボット制御装置により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作するので、ロボットを対象物に追従させて確実に把持することができる。
本発明による移動体把持装置を有するロボットシステムの実施形態図である。 本発明による移動体把持装置の実施形態図である。 本発明による移動体把持方法の全体フロー図である。 実施例における経過時間と精度指標値Eとの関係を示す図である。
以下、本発明の好ましい実施形態を添付図面に基づいて詳細に説明する。なお、各図において共通する部分には同一の符号を付し、重複した説明を省略する。
図1は、本発明による移動体把持装置を有するロボットシステムの実施形態図である。
この図において、1は対象物(ワーク)、2はロボット、3はロボットアーム、4はハンド、5aはハンド4に固定された第1カメラ、5bは外部の定位置に固定された第2カメラ、10は移動体把持装置である。
このロボットシステムは、振り子運動しながら移動するワーク1をカメラ5a,5bで計測し、ロボット2をワーク1に追従させて制御し、ハンド4によりワーク1を把持するようになっている。
図2は、本発明による移動体把持装置の実施形態図である。
この図において、移動体把持装置10は、計測装置12、状態推定装置14、及びロボット制御装置20を備える。状態推定装置14は、データ記憶装置16を備える。
計測装置12は、対象物1の位置と姿勢を計測する。
計測装置12は、この例では第1カメラ5aと第2カメラ5bにそれぞれ接続された2台の計測装置(第1計測装置12aと第2計測装置12b)からなる。
すなわち、この例では、カメラと計測装置をそれぞれ2台用い、第1カメラ5aと第2カメラ5bから対象物1の画像を取り込み、画像処理によって、対象物1の位置と姿勢を求める。求められた対象物1の位置と姿勢は、データ記憶装置16に記憶される。
なお、計測装置12は、この構成に限定されず、対象物1の位置を1台で3次元計測することができる計測装置、例えばレーザレーダを用いてもよい。
状態推定装置14は、対象物1を計測した計測結果から、状態遷移モデルと観測モデルに基づいて、精度指標値E(後述する)を含む対象物1の内部状態を推定し、かつ精度指標値Eから対象物1の把持の可否を判定する機能を有する。
状態推定装置14には、この例ではカルマンフィルタのアルゴリズムを基にした状態推定アルゴリズムが実装されている。
この状態推定アルゴリズムでは、「状態遷移モデル」として、以下の4つを定義する。
時刻t=0の時の内部状態:X
初期条件Xの共分散:Cov
状態遷移方程式:Xt+Δt=f(X,Δt)・・・(1)
単位時間当たりのプロセスノイズ(共分散):Q
このアルゴリズムでは、対象物1が吊るされている振り子の振れ角θや、角速度Δθ、支点位置x,y,zなどの状態変数をまとめて、内部状態Xとする。モデルを定義する際、初期条件が必ずしも正確にわかるわけではない。したがって、初期条件と実物の差がどの程度大きくなるかを予想した共分散Covを定義する。
状態遷移方程式(1)は、時刻が進むと内部状態Xがどのように変化するかを示す。この例の場合、振り子の運動方程式や、支点位置が等速直線運動することなどから、状態遷移方程式を定義する。
定義した状態遷移方程式(1)は、必ずしも実際の対象物1の運動と一致しない。そこで、単位時間(Δt=1)の時間幅だけ状態遷移計算をした時に、実際の運動とどの程度差が生まれるかを示す共分散Qを定義する。
また、カルマンフィルタは、計測装置12で算出される対象物1の位置と姿勢を計測値Yとし、式(2)(3)の「観測モデル」(観測方程式と観測ノイズ)を定義する。
観測方程式:Y=g(X)・・・(2)
観測ノイズ(共分散):Cov・・・(3)
観測方程式(2)は、内部状態Xと計測値Yを対応づける式である。また、観測ノイズ(3)は、時刻tの時の計測にどの程度の計測誤差が含まれるかを表す共分散であり、カメラの分解能や視点の向きによって決まる。観測ノイズ(3)は固定値ではなく、画像ごとに計測装置12が算出し、計測値と共に状態推定装置14に渡される。
ロボット制御装置20は、把持可能の場合、内部状態の推定結果に基づいて対象物1の移動先を予測して把持動作するようにロボットを制御する機能を有する。
ロボット制御装置20は、ロボット2から手先位置情報などを受信し、手先速度指令値やハンド開閉指令値を送信する。これらの送受信を、一定の制御周期(4ms周期)で行う。
以下、図2に基づき本発明の移動体把持方法を説明する。
本発明の方法では、(A)初めに、計測装置12により、対象物1の位置と姿勢を計測する。
(B)次いで、計測した計測結果から、状態推定装置14により、状態遷移モデルに基づいて、精度指標値Eを含む対象物1の内部状態を推定し、かつ(C)精度指標値Eから対象物1の把持の可否を判定する。
(D)次に、把持可能の場合、ロボット制御装置20により、内部状態の推定結果に基づいて対象物1の移動先を予測してロボット2を把持動作し、(E)把持不可の場合、ロボット制御装置20により、対象物1の位置と姿勢の計測を継続できるようにロボット2を移動させる。
精度指標値Eは、対象物1の位置と姿勢を予測した予測値とその実測値との誤差と、状態遷移モデルと観測モデルに基づいて前記誤差の分散を予想した共分散行列とからなる。
前記(C)において、前記誤差を前記共分散行列で割ったマハラノビス距離Mの自乗が第1閾値より小さく、かつ、共分散行列の行列式が第2閾値より小さい時に、把持可能と判定する、ことが好ましい。
第1閾値と第2閾値は、予め設定した任意の閾値である。
また前記(C)において、前記誤差を前記共分散行列で割ったマハラノビス距離Mの自乗が第3閾値より小さく、かつ、共分散行列のトレースが第4閾値より小さい時に、把持可能と判定してもよい。
第3閾値と第4閾値は、予め設定した任意の閾値である。
以下、発明の移動体把持装置の動作を説明する。
(a1)計測装置12(第1計測装置12aと第2計測装置12b)は任意のタイミングで2台のカメラ(第1カメラ5aと第2カメラ5b)にそれぞれシャッター信号を送信し、撮像された画像を取得する。
(a2)計測装置12により、得られた画像から画像処理によって対象物1の位置と姿勢の情報(計測値Y)を取得する。例えば、画像内の白色領域を抽出し、重心を求める。
(a3)計測装置12からシャッター信号を送信した時刻をtyとする。また、カメラ5a,5bの向きや分解能などから、観測ノイズCovSを算出する。
(a4)状態推定装置14は、計測値Yと、状態遷移モデルと観測モデルによって予測したYの予測値Ymを比較して、内部状態Xを修正する。また、対象物1の位置を予測する精度を表す精度指標値Eを算出する。
(a5)ロボット制御装置20は、制御周期ごとに状態推定装置14の結果を参照し、精度指標値Eを評価して、把持動作を開始するかどうかの判定を行う。
(a6)把持動作を開始する場合は、対象物1の未来の位置を予測し、予測した把持位置を目指して手先速度指令値を算出する。把持動作しない場合は、カメラ5a,5bが対象物1を捕捉し続けられるように、手先速度指令値を算出する。
上記(a4)における状態推定装置14の処理内容の詳細を以下に説明する。以下の処理内容は、カルマンフィルタを利用した一般的な状態推定手段である。
(b1)計測時刻tyと現在のモデル時刻tから、状態遷移させる時間幅Δtを算出する。モデル時刻tの初期値は、計測を開始した時刻とする。また、計測時刻を、開始時刻を基点とした経過時間として定義し、モデル時刻の初期値を0としても良い。
状態遷移させる時間幅Δtは、Δt=ty−t・・・(4)で表される。
(b2)計測時刻tyにおける内部状態を予測する。
内部状態の予測値Xt+Δtは、上述した状態遷移モデルで定義した、Xt+Δt=f(X,Δt)・・・(1)で表される。
(b3)計測時刻における、内部状態予測値の共分散を算出する。ここで、行列Aは状態遷移方程式fを偏微分した行列である。
更新(b9)前の内部状態の共分散Covt+Δtは、式(5)で表される。
ovt+Δt=A(Δt)・Cov・A(Δt)+Q・|Δt|
・・・(5)
状態遷移方程式の偏微分行列A(Δt)は、式(6)で表される。
(Δt)=(∂f(X、Δt)/∂X)・・・(6)
(b4)内部状態予測値と観測方程式を用いて、式(7)で計測値Yの予測値Ymt+Δtを予測する。
Ymt+Δt=g(Xt+Δt)・・・(7)
(b5)内部状態予測値の共分散に基づいて、予測値Ymの共分散Covt+Δtを式(8)で求める。ここで、行列Hは観測方程式gを偏微分した行列である。
ovt+Δt=Ht・Covt+Δt・Ht・・・(8)
観測方程式の偏微分行列Hは、式(9)で表される。
=(∂g(X)/∂X)・・・(9)
(b6)予測値Ymの共分散CovYに加えて、カメラの計測誤差を考慮した共分散Vt+Δtを、式(10)で求める。Covt+Δtは時刻ty(=t+Δt)の時の観測ノイズであり、計測装置12が算出する。
共分散Vt+Δtは、予測値Ymの共分散に、カメラの観測ノイズを加えているため、予測値Ymと観測値Yの差の大きさを示す共分散となる。
t+Δt=Covt+Δt+Covt+Δt・・・(10)
(b7)カルマンゲインKt+Δtを式(11)で算出する。
t+Δt=(Covt+Δt・Ht)/(Vt+Δt)・・・(11)
(b8)内部状態Xt+Δtを式(12)(13)で更新する。なお、更新前の内部状態をXt+Δtと表記する。なおYはセンサで計測された観測値である。
eYt+Δt=Ymt+Δt−Yt+Δt・・・(12)
t+Δt=Xt+Δt−Kt+Δt・eYt+Δt・・・(13)
(b9)更新後の内部状態の共分散Covt+Δtを式(14)で算出する。
ovt+Δt=(I−Kt+Δt)Covt+Δt・・・(14)
上述した(b1)から(b9)までの処理によって、時刻tyの観測値に基づいて、内部状態が修正される。したがって、システム全体が上記(a1)〜(a6)の処理を繰り返すことで、内部状態が徐々に真の値(対象物の実速度など)に近づく。
内部状態がどの程度、真の値に近づいているか、を判断するには、上記(b5)、(b6)で求めた予測値の共分散CovY、Vを評価する。これらの共分散は、現在の推定結果を使って対象物の位置と姿勢を予測した場合の、予測誤差の大きさを表す。
事前に定義した状態遷移モデルと観測モデルが正確な場合、観測値と予測値の差eYは、共分散Vにしたがった分布となる。したがって、実際の差eYが、Vに比べて大きな値となった場合は、事前に定めたモデルが正しくないことを意味する。このような評価には、式(15)に示すマハラノビス距離Mを用いる。
=(eY ・V −1・eY0.5・・・(15)
そこで状態推定装置14では、(b1)から(b9)の処理後に、現在の状態推定の精度を表す精度指標値Eを、以下のように算出する。
(b10)以下の(c1)(c2)(c3)のいずれかにより精度指標値Eを算出する。
(c1)E=exp(−Mt+Δt /2)/((2π)|Vt+Δt|)0.5
・・・(16)
ここでmは、eYの次数である。
(c2)E=exp(−Mt+Δt /2)/(trace(Covt+Δt))0.5
・・・(17)
(c3)式(16)(17)のEを、過去の計測結果全てについて総和した式(18)。ここでpは、内部状態の変数の数である。
なお、(c1)の式(16)は、正規分布のモデル適合度の評価式であり、(c3)の式(18)は、情報量基準(AIC)である。
(c2)の式(17)は、分母に共分散CovYのトレースを用いる点に特徴がある。
式(16)において共分散の行列式の平方根は、eYの分布の体積を表す。一方、式(17)においてトレースの平方根は、分布を包み込む最小の球の半径を表す。
次に上記(a5)(a6)におけるロボット制御装置20の処理内容を以下に示す。
図3は、本発明による移動体把持方法の全体フロー図である。この図に示すように、移動体把持方法は、S1〜S12の各ステップ(工程)からなる。
S1では、ロボット2から手先位置情報などを受信する。ロボット2との通信は、例えば4msの制御周期で行なわれるようにロボット2が管理する。したがって、ロボット制御装置20は、データを受信するまで待機し、データを受信してから例えば4msの制御周期以内でS12の送信処理を完了しなければならない。
S2では、把持動作中を示すフラグFを判定する。フラグFはプログラム開始時にfalseに初期化されている。
S3では、把持動作中でない場合、上記(a1)から(a4)の処理を行う。この処理は、別の処理系が任意の実行周期で実施し、ロボット制御装置20は最新の推定結果と精度指標値Eを参照する形式でも良い。
S4では、現在の状態推定の精度指標値Eから、把持動作を行うか、追従動作を継続するかを判定する。判定手段は以下の(d1)〜(d3)のいずれかを用いる。
(d1)上述した(c1)の精度指標値Eがある閾値(第1閾値)を超えるかどうかを判定する。式(16)では、マハラノビス距離Mが大きい場合、指数関数部が0に近づく。また、共分散Vの体積が大きい場合、分母が大きくなる。したがって、マハラノビス距離Mが小さく、かつ、共分散Vの体積が小さい時のみ、把持動作が開始される。
この例のように2台のカメラ(第1カメラ5aと第2カメラ5b)を用いる場合、対象物1が片方のカメラの視野から外れ、1台のカメラのみで計測を続ける状況が起こりうる。この時、片方の視点でしか計測されないため、共分散CovY、Vはカメラの視線方向に細長い分布を示す共分散行列となる。(d1)の手段の場合、Vが細長い場合でも体積は小さくなるので、把持動作が開始される可能性がある。
(d2)上述した(c2)の精度指標値Eがある閾値(第3閾値)を超えるかどうかを判定する。式(17)の精度指標値Eは、CovYが細長い分布を表す場合、小さな値となる。したがって、2台のカメラが両方とも対象物1を捉えている時のみ、把持動作が開始される。
(d3)上述した(d1)(d2)は、共に、最新の計測結果で判定するが、過去数点分の精度指標値を考慮して判定しても良い。例えば、上述した(c3)のように、過去に算出された精度指標値の対数をとって、総和する方法や、過去一定時間分の平均値をとる方法などが挙げられる。
S5では、把持動作をしない場合、把持動作中フラグFはfalseとする。
S6では、把持動作をしない場合、例えば以下の式(19)(20)(21)ようにアーム速度Vx、Vy、Vzを設定する。
Vx=Kpx・(mx−rx)+Kdx・(mx−rx−pr_x)・・・(19)
Vy=Kpy・(my−ry)+Kdy・(my−ry−pr_y)・・・(20)
Vz=Kpz・(mz−rz)+Kdz・(mz−rz−pr_z)・・・(21)
この制御は、PD制御であり、mx、my、mzは、計測された対象物の現在位置[mm]、rx、ry、rzは追従制御点(カメラ1の視線上の点)の現在位置[mm]、pr_x、pr_y、pr_zは、前回のステップで算出された位置偏差(my−ry、mz−rzなど)、Kpは位置制御ゲイン、Kdは微分制御ゲインである。
S7では、S4で把持動作を行うと判定された場合は、状態遷移モデルと観測モデルを用いて、未来の対象物1の位置と姿勢を予測し、把持位置Aとする。
S8では、把持動作開始時に、把持動作中フラグFをtrueにする。
S9では、把持動作中は、ロボットアーム3が把持位置Aに移動するように、ロボットアーム3の目標速度を算出する。
S10では、把持動作が終了したかどうかを判定する。例えば、ロボットアーム3が把持位置Aに到達して、ハンド4を閉じる動作が終了している場合に把持動作終了と判定する。
S11では、把持動作を終了する場合、把持動作フラグFをfalseにする。把持動作を終了しない場合は、把持動作フラグFはtrueのままなので、S2の分岐により、次回以降も把持動作が継続される。
S12では、算出された目標速度やハンド開閉指令値をロボット2に送信する。
なお上述の例では、対象物1の運動状態を推定する方法として、カルマンフィルタを用いたが、以下のような条件を満たす状態推定手法であれば、他の手法を用いても良い。例えば、パーティクルフィルタ、最小自乗法などを適用できる。
(e1)対象物1の運動状態を推定して、未来の位置を予測できること。
(e2)未来の位置を予測した時の予測誤差の分散を表す共分散行列を算出できること。
上述のc1では、Vの行列式を使った判定の例を示しているが、V,CovYのどちらの行列式を使っても構わない。また、上述のc2では、CovYのtraceを使った判定の例を示しているが、V,CovYのどちらのtraceを使っても構わない。
すなわち「誤差の分散を予想した共分散行列」が、V,CovYのどちらもあり得るようになっていればよい。
図4は、実施例における経過時間と精度指標値Eとの関係を示す図である。
この例は、上述した(c2)の式(17)で、精度指標値Eを算出した結果である。
この図から計測開始時から精度指標値Eは徐々に大きくなり、計測開始から経過時間が2秒後以降は80以上で安定することがわかる。
したがって、式(17)の精度指標値Eが80以上であることを把持動作開始条件とすれば、把持失敗しにくくなるといえる。
また、この図で経過時間が1秒付近に見られるように、一時的に精度指標値が高くなる場合がある。したがって、上述した(c3)のように、過去数点分の精度指標値を考慮して判定することが好ましい。
例えば、過去数点の平均値が80を超えている、一定時間以上連続して80を超えているなどを考慮する。
例えば、「120ms以上連続して、精度指標値が80を超えている」ことを把持動作開始条件とするのがよい。
上述した本発明の装置と方法によれば、計測装置12及び状態推定装置14により、対象物1の位置又は姿勢を計測し、対象物1の内部状態を推定するので、等速直線運動、等速円運動、等加速度直線運動以外の運動であっても対象物1(例えばワーク)の内部状態(例えば位置、姿勢、速度、角速度)に基づいて対象物1の運動予測をすることができる。
また、状態推定装置14により、状態遷移モデルと観測モデルに基づいて、精度指標値Eを含む対象物1の内部状態を推定し、精度指標値Eから対象物1の把持の可否を判定するので、把持不可の場合、ロボット制御装置20により、例えば対象物1の位置と姿勢の計測を継続できるようにロボット2を移動させることで、予測精度が低下する場合でも把持の失敗を未然に回避することができる。
さらに、把持可能の場合に、ロボット制御装置20により、内部状態の推定結果に基づいて対象物1の移動先を予測してロボット2を把持動作するので、ロボット2を対象物1に追従させて確実に把持することができる。
上述した例では、対象物1が移動しロボット2が固定されているが、本発明はこの例に限定されず、対象物が動かずにロボットが移動する場合でも、対象物とロボットの両方が移動する場合でもよい。
したがって、本発明における「対象物の移動」は、ロボットから見た対象物の相対的な移動を意味する。
なお、本発明は上述した実施形態に限定されず、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味および範囲内でのすべての変更を含むものである。
1 ワーク(対象物)、2 ロボット、
3 ロボットアーム、4 ハンド、
5a 第1カメラ、5b 第2カメラ、
10 移動体把持装置、12 計測装置、
12a 第1計測装置、12b 第2計測装置、
14 状態推定装置、16 データ記憶装置、
20 ロボット制御装置

Claims (5)

  1. 相対的に移動する対象物をロボットで把持する移動体把持装置であって、
    対象物の位置又は姿勢を計測する計測装置と、
    対象物を計測した計測結果から、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、かつ精度指標値から対象物の把持の可否を判定する状態推定装置と、
    把持可能の場合、内部状態の推定結果に基づいて対象物の移動先を予測して把持動作するようにロボットを制御するロボット制御装置と、を備えることを特徴とする移動体把持装置。
  2. 相対的に移動する対象物をロボットで把持する移動体把持方法であって、
    (A)計測装置により、対象物の位置又は姿勢を計測し、
    (B)計測した計測結果から、状態推定装置により、状態遷移モデルと観測モデルに基づいて、精度指標値を含む対象物の内部状態を推定し、かつ
    (C)精度指標値から対象物の把持の可否を判定し、
    (D)把持可能の場合、ロボット制御装置により、内部状態の推定結果に基づいて対象物の移動先を予測してロボットを把持動作し、
    (E)把持不可の場合、前記(A)〜(D)を繰り返す、ことを特徴とする移動体把持方法。
  3. 前記精度指標値は、対象物の位置と姿勢を予測した予測値とその実測値との誤差と、状態遷移モデルと観測モデルに基づいて前記誤差の分散を予想した共分散行列とからなる、ことを特徴とする請求項2に記載の移動体把持方法。
  4. 前記(C)において、前記誤差を前記共分散行列で割ったマハラノビス距離の自乗が第1閾値より小さく、かつ、共分散行列の行列式が第2閾値より小さい時に、把持可能と判定する、ことを特徴とする請求項3に記載の移動体把持方法。
  5. 前記(C)において、前記誤差を前記共分散行列で割ったマハラノビス距離の自乗が第3閾値より小さく、かつ、共分散行列のトレースが第4閾値より小さい時に、把持可能と判定する、ことを特徴とする請求項3に記載の移動体把持方法。

JP2011106822A 2011-05-12 2011-05-12 移動体把持装置と方法 Active JP5733516B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011106822A JP5733516B2 (ja) 2011-05-12 2011-05-12 移動体把持装置と方法
CN201280022935.9A CN103517789B (zh) 2011-05-12 2012-04-24 运动预测控制装置和方法
PCT/JP2012/060918 WO2012153629A1 (ja) 2011-05-12 2012-04-24 運動予測制御装置と方法
EP12782445.6A EP2708334B1 (en) 2011-05-12 2012-04-24 Device and method for controlling prediction of motion
US14/078,342 US9108321B2 (en) 2011-05-12 2013-11-12 Motion prediction control device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011106822A JP5733516B2 (ja) 2011-05-12 2011-05-12 移動体把持装置と方法

Publications (2)

Publication Number Publication Date
JP2012236254A true JP2012236254A (ja) 2012-12-06
JP5733516B2 JP5733516B2 (ja) 2015-06-10

Family

ID=47459637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011106822A Active JP5733516B2 (ja) 2011-05-12 2011-05-12 移動体把持装置と方法

Country Status (1)

Country Link
JP (1) JP5733516B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014140944A (ja) * 2013-01-25 2014-08-07 Honda Motor Co Ltd 作業方法及び作業装置
JP2017061025A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 ロボット制御装置、ロボット制御方法及びコンピュータプログラム
JP2018027580A (ja) * 2016-08-17 2018-02-22 ファナック株式会社 ロボット制御装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719818A (ja) * 1993-06-30 1995-01-20 Kajima Corp 3次元運動予測装置
JPH1124718A (ja) * 1997-07-07 1999-01-29 Toshiba Corp ロボットの制御装置及び制御方法
JPH11327620A (ja) * 1998-05-20 1999-11-26 Yaskawa Electric Corp 数値制御装置における位置指令方法および装置
JP2011511943A (ja) * 2008-02-11 2011-04-14 シーメンス アクチエンゲゼルシヤフト コンピュータを援用してセンサデータから物体の運動を計算する方法
JP2011209203A (ja) * 2010-03-30 2011-10-20 Sony Corp 自己位置推定装置および自己位置推定方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0719818A (ja) * 1993-06-30 1995-01-20 Kajima Corp 3次元運動予測装置
JPH1124718A (ja) * 1997-07-07 1999-01-29 Toshiba Corp ロボットの制御装置及び制御方法
JPH11327620A (ja) * 1998-05-20 1999-11-26 Yaskawa Electric Corp 数値制御装置における位置指令方法および装置
JP2011511943A (ja) * 2008-02-11 2011-04-14 シーメンス アクチエンゲゼルシヤフト コンピュータを援用してセンサデータから物体の運動を計算する方法
JP2011209203A (ja) * 2010-03-30 2011-10-20 Sony Corp 自己位置推定装置および自己位置推定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
江本周平、藤井正和、曽根原光治: "移動体把持ロボットに向けた状態推定手法による予測技術の開発", ロボティクス・メカトロニクス講演会講演概要集 2011, JPN6014054127, 26 May 2011 (2011-05-26), JP, pages 1 - 10, ISSN: 0003032421 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014140944A (ja) * 2013-01-25 2014-08-07 Honda Motor Co Ltd 作業方法及び作業装置
JP2017061025A (ja) * 2015-09-25 2017-03-30 キヤノン株式会社 ロボット制御装置、ロボット制御方法及びコンピュータプログラム
JP2018027580A (ja) * 2016-08-17 2018-02-22 ファナック株式会社 ロボット制御装置
US10507583B2 (en) 2016-08-17 2019-12-17 Fanuc Corporation Robot control device

Also Published As

Publication number Publication date
JP5733516B2 (ja) 2015-06-10

Similar Documents

Publication Publication Date Title
WO2012153629A1 (ja) 運動予測制御装置と方法
JP6456555B1 (ja) キャリブレーション装置、キャリブレーション方法および制御装置
US9221170B2 (en) Method and apparatus for controlling a robotic device via wearable sensors
CN110076772B (zh) 一种机械臂的抓取方法及装置
US10300600B2 (en) Control system having learning control function and control method
JP5733518B2 (ja) 運動予測制御装置と方法
JP5902425B2 (ja) ロボット制御装置、外乱判定方法およびアクチュエータ制御方法
EP3351356A1 (en) Robot collision detection method
CN112203812B (zh) 机器人系统及追加学习方法
JP2022543926A (ja) ロボットシステムのためのデリバティブフリーモデル学習のシステムおよび設計
Qin et al. A new approach to the dynamic parameter identification of robotic manipulators
JP6564433B2 (ja) ロボットシステム
JP2019181610A (ja) モータエンコーダ及びセンサを用いて学習制御を行うロボットシステム
JP5733516B2 (ja) 移動体把持装置と方法
Du et al. A novel human–manipulators interface using hybrid sensors with Kalman filter and particle filter
JP5679121B2 (ja) ロボットの運動予測制御方法と装置
KR20110048870A (ko) 4축 팔레타이징 로봇용 부하 추정 방법
JP2009193097A (ja) 移動ロボットの制御装置および移動ロボットシステム
CN111222225B (zh) 一种机器人中传感器位姿的确定方法及装置
CN113365787A (zh) 具有动态运动调整机制的机器人系统及其操作方法
CN114111772B (zh) 一种基于数据手套的水下机器人软体作业手位置跟踪方法
WO2023066201A1 (zh) 机械臂运动路径规划方法及装置、设备、程序、介质
Du et al. Human-manipulator interface using particle filter
JP7336223B2 (ja) 自己位置推定方法
EP3904017A1 (en) Robot control device, robot system, and robot control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150318

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150331

R151 Written notification of patent or utility model registration

Ref document number: 5733516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250