JP5306313B2 - ロボット制御装置 - Google Patents

ロボット制御装置 Download PDF

Info

Publication number
JP5306313B2
JP5306313B2 JP2010283372A JP2010283372A JP5306313B2 JP 5306313 B2 JP5306313 B2 JP 5306313B2 JP 2010283372 A JP2010283372 A JP 2010283372A JP 2010283372 A JP2010283372 A JP 2010283372A JP 5306313 B2 JP5306313 B2 JP 5306313B2
Authority
JP
Japan
Prior art keywords
image
joint angle
robot
unit
command value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010283372A
Other languages
English (en)
Other versions
JP2012130977A (ja
Inventor
賀 淳一郎 大
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010283372A priority Critical patent/JP5306313B2/ja
Priority to US13/231,619 priority patent/US8774967B2/en
Publication of JP2012130977A publication Critical patent/JP2012130977A/ja
Application granted granted Critical
Publication of JP5306313B2 publication Critical patent/JP5306313B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39397Map image error directly to robot movement, position with relation to world, base not needed, image based visual servoing
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40333Singularity, at least one movement not possible, kinematic redundancy
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40381Control trajectory in case of joint limit, clamping of joint

Description

本発明の実施形態は、カメラで撮影した画像情報を用いて、モータなどのアクチュエータを用いてロボットを駆動するロボット制御装置に関する。
ロボットがカメラで撮影した画像情報に基づいて位置姿勢を制御する技術はビジュアルフィードバックと呼ばれている。ロボットのハンドまたはこのハンド付近に搭載したカメラで撮影する場合、俯瞰した位置から撮影した場合に比べて対象物を大きく捉えることが可能となるため、画像の分解能の範囲において正確に位置姿勢を制御することができる。
対象物の画像特徴量の変化をロボットのフィードバックループに直接取り込んだ手法は特徴ベース法と呼ばれており、画像特徴量の変化とロボットの関節角度の変化との割合である画像ヤコビアンを求める必要がある。しかし一般的なカメラのフレームレートは30fps〜60fps程度であり、ロボットの制御周期に比べて圧倒的に低い。したがって、例えば画像特徴量に対してロボットの制御周期に合うような時間的な補間を行い、ロボットの動作による画像上の運動も考慮した画像特徴量の推定が必要となる。
またロボットのハードウェアの制限条件により、目標軌道に沿ってロボットが動作できない場合がある。例えばロボットの関節の可動範囲、目標位置姿勢を満たす解が無限に存在する特異点または特異点近傍の目標値が与えられた時の関節角速度の急変などがある。このようにロボットが制御できない場合、ロボットの移動禁止領域として記憶することで解決を図ることが知られている。
特許3901006号公報
しかし、この移動禁止領域を避けて新たな目標値をどのように算出するかについては、現在のところ知られていない。また、特異点近傍の目標値が与えられた場合は目標軌道の速度を十分に抑制すれば通過することが可能となるので、画像上の目標軌道の算出が重要となる。
そこで、本発明が解決しようとする課題は、ロボットのハードウェア制限条件を考慮しながら、安定したビジュアルフィードバックを実現することのできるロボット制御装置を提供することである。
本実施形態によれば、カメラで撮影した画像情報に基づいて多関節ロボットを制御するロボット制御装置であって、前記ロボットの関節軸がアクチュエータによって制御周期毎に駆動され、前記関節軸の関節角度が関節角度検出部によって検出され、前記カメラで撮影した画像が画像取得部によって取得される。前記カメラで撮影された画像から対象物の特徴を表す画像特徴量が画像特徴量算出部によって算出され、前記画像特徴量が時間的に補間されて前記ロボットの制御周期ごとに画像特徴量推定部によって推定され、この推定された画像特徴量の変化と前記関節角の変化の割合である画像ヤコビアンが画像ヤコビアン算出部によって算出される。また、前記対象物の画像上での目標値が目標値入力部によって設定され、この設定された目標値と前記画像特徴量とを用いて前記ロボットの制御周期毎の画像上の目標軌道が目標軌道生成部によって生成され、この生成された目標軌道と算出された画像ヤコビアンとを用いて前記関節角度の差分が関節角差分算出部によって算出される。そして、算出された前記関節角度の差分に基づいて前記関節角度の指令値がトルク指令値算出部において求められるとともに、この関節角度の指令値と、検出された前記関節角度とを用いて前記関節軸のトルク指令値が算出される。このトルク指令値に基づいて前記アクチュエータが駆動部によって駆動される。また、検出された前記関節角度から、前記ロボットのハードウェア制約条件をもとに前記画像特徴量の目標軌道の修正量が位置姿勢評価部によって算出され、この算出された目標軌道の修正量を用いて前記ロボットがフィードバック制御される。
第1実施形態によるロボット制御装置を示すブロック図。 第1実施形態によるロボット制御装置の動作を示すフローチャート。 第2変形例の制御ブロック図。 冗長自由度ロボットの一例を示す図。 第2実施形態によるロボット制御装置を示すブロック図。 第2実施形態によるロボット制御装置の動作を示すフローチャート。
実施形態を以下に図面を参照して説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、具体的な寸法は以下の説明を参酌して判断すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは言うまでもない。
(第1実施形態)
第1実施形態によるロボット制御装置は、多関節を有するロボットを制御するものであって、図1に示すように、中央演算処理装置(以下、CPUともいう)1と、アクチュエータ100と、駆動部(アンプとも呼ばれる)101と、関節角度検出部102と、カメラを有する画像取得部103と、目標値入力部104と、を備えている。
関節角度検出部102は、エンコーダ等の位置センサが使用可能であり、所定の周波数成分を除去するフィルタを備えていても良い。関節軸が駆動軸から伝達機構を介して構成されていて、駆動軸に検出部が備えられている場合、関節角度は、駆動軸の位置の変位量(駆動軸角度)から伝達機構のもつ駆動軸と関節軸の比とに応じて算出される。
目標値入力部104は、ロボットの最終到達目標となる位置姿勢を設定する。最終到達目標値はデータベースに予め格納されているか、もしくはユーザがGUI(Graphical User Interface)などで対話的に与えてもよい。
図1に示したCPU1は、画像特徴量算出部105と、画像特徴量推定部106と、画像ヤコビアン算出部107と、目標軌道生成部108と、関節角差分算出部109と、トルク指令値算出部110と、位置姿勢評価部111と、をハードウェア資源であるモジュール(論理回路)として論理的に備えている。
画像特徴量算出部105は、画像取得部103で撮影された画像から画像処理を行うことにより、対象物の特徴を表す量である画像特徴量を算出する。画像特徴量は対象物の画像上の重心位置、姿勢、色分布、輝度勾配パターン分布など数値ベクトル化したものである。画像処理は一般的に演算処理が重いことから、画像取得部103および画像特徴量算出部105は、CPU1とは異なる他のCPUに設けられ、画像特徴量算出部105によって算出された結果(画像特徴量)を、ネットワークなどを介して伝達するように構成してもよい。
画像特徴量推定部106は、画像特徴量算出部105により算出された画像特徴量を時間的に補間し、次のステップ(次の制御周期後の制御動作)における画像特徴量を推定または予測する。画像取得部のカメラによる画像の取得周期はロボットの制御周期に比べてずっと低い。したがって、滑らかな画像上の目標軌道を生成するためには、過去のステップ(過去の取得周期における取得動作)にて取得した画像特徴量から次のステップ(次の取得周期後における取得動作)で取得されるまでの間の画像特徴量を推定または予測しなければならない。推定または予測する方法は最も単純な線形補間や、カルマンフィルタを用いた推定方法などがあり、これらのうちのいずれかの方法を用いることができる。
画像ヤコビアン算出部107は、画像特徴量推定部106により算出された画像特徴量から、画像ヤコビアンを算出する。画像ヤコビアンとは、ロボットの各制御周期間における画像特徴量の変化(差分)と、上記制御周期間における制御ロボットの関節角変化との微小変位関係を表現した行列である。画像ヤコビアンをJimgとすると、画像特徴量の変化をΔξとすると、ロボットの関節角度の差分Δθは式(1)の関係を満たしている。

Δξ=JimgΔθ … (1)

ここで、制御対象となる画像特徴量がm個、関節軸がn個であるとすると、ΔξおよびΔθはそれぞれm次元列ベクトルおよびn次元列ベクトルを表している。そして、画像ヤコビアンJimgの第i(1≦i≦m)行かつ第j(1≦j≦n)列成分をJijとし、Δξの第i行成分をΔξとし、Δθの第j行成分をΔξとすると、Δξは以下の式で表される。
Figure 0005306313
カメラやロボットの座標系を規定するパラメータが不明であるかもしくは誤差を含んでいる場合、画像ヤコビアンはオンラインで推定する必要がある。例えば逐次最小二乗法を用いれば、画像特徴量ξと関節角θのデータから推定することができる(例えば、細田耕,浅田稔「構造やパラメータに関する先験的な知識を必要としないフィードフォワード補償器を持つ適応型ビジュアルサーボ系の構成」日本ロボット学会誌 vol.14, No.2, pp.159−165,1996参照)。
目標軌道生成部108は、目標値入力部104で設定された最終到達目標値と、画像特徴量推定部106により推定された画像特徴量とを用いて、ロボットの制御周期毎に画像上における画像特徴量の目標軌道を生成する。
関節角差分算出部109は、目標軌道生成部108によって生成された目標軌道と推定された画像特徴量との差分Δξと、画像ヤコビアンJimgの疑似逆行列J imgとを用いて関節角度の差分Δθを、次の式(2)を用いて算出する。

Δθ=J imgΔξ … (2)

なお、行列からその疑似逆行列を算出することは、公知の方法を用いて行う(例えば、ムーア・ペンローズ法)。
トルク指令値算出部110は、関節角差分算出部109により算出された関節角度の差分を積分することにより関節角の指令値を算出し、この関節角の指令値と、関節角度検出部102により検出されたロボットの関節角度とに基づいてトルク指令値(制御目標値)を算出する。
駆動部101は、トルク指令値算出部110により算出されたトルク指令値にしたがってアクチュエータ100を制御周期毎に駆動する。
位置姿勢評価部111は、関節角度検出部102によって検出されたロボットの関節角度から、ロボットのハードウェア制約条件をもとに画像特徴量の目標軌道の修正量を算出する。例えば、ロボットの第i番目の関節軸の関節角度θが可動限界最大値θi、maxに近づいている場合、次の式(3)に示すように限界値から遠ざかるような関節角度の補正量Δθcompを、補正量Δθを用いて算出する。

Δθcomp=[0、…、 −Δθ、…、0] … (3)

なお、補正量Δθは固定値もしくは次の式(4)に示すように可動限界までの距離に応じた関数で与えられる。

Δθ=f(θ−θi、max) … (4)

算出された関節角度の補正量Δθcompから画像特徴量の目標軌道の修正量Δξcompを、画像ヤコビアン算出部107で算出した画像ヤコビアンを用いて次の式(5)に示すように算出する。

Δξcomp=JimgΔθcomp … (5)

可動限界最小値θi、minへ近づいている場合も同様に、関節角度の補正量Δθcompを、式(6)に示すように、補正量Δθを用いて算出する。

Δθcomp=[0、…、 Δθ、…、0] … (6)

上記補正量Δθは次の式(7)に示すように可動限界までの距離に応じた関数で与えられる。

Δθ=f(θ−θi、min) … (7)

となる。
(制御装置の動作)
次に、本実施形態によるロボット制御装置の動作を、図2に示すフローチャートを参照して説明する。
(a)まず、制御演算を開始し、目標値入力部104によって、画像上の目標値が生成される(S100、S101)。次に、画像取得部103のカメラから画像を取得する(S102)。続いて、画像特徴量が画像特徴量算出部105によって算出される(S103)。続いて、画像特徴量算出部105により算出された画像特徴量を時間的に補間し(S104、)、次の制御周期における画像特徴量を画像特徴量推定部106によって推定または予測する。
次に、目標値入力部104から入力された画像上の目標値と、画像特徴量推定部106により算出された画像特徴量とから、後述する画像特徴量に関する目標軌道の修正量を考慮した画像特徴量の変化Δξが目標軌道生成部108によって生成される(S105)。続いて、目標軌道生成部108により生成された画像特徴量の変化Δξに対して、画像ヤコビアン算出部107で算出された画像ヤコビアンを用いて式(2)に示すように、逆運動学計算を行って関節角度の差分Δθが算出される(S106)。
その後、関節角差分算出部109により算出された関節角度の差分Δθを積分することにより関節角の目標値を算出し、後述する関節角度検出部102により検出された関節角度から、トルク指令値がトルク指令値算出部110によって算出される(S107)。
次に、トルク指令値算出部110により算出されたトルク指令値を制御目標値として駆動部101によってアクチュエータ100が駆動されることにより、ロボットが制御される(S108)。
続いて、制御動作を終了するか否かを確認し(S109)、制御動作を終了する場合はサーボ処理を終了する(S110)。S109において制御動作を終了しない場合はS112またはS111に進む。
(b)S112に進んだ場合は、関節角度検出部102によって関節角度を検出する。続いて、関節角度検出部102により算出された関節角度と、画像特徴量推定部106により算出された画像特徴量を用いて、画像ヤコビアン算出部107によって画像ヤコビアンが算出される(S113)。次に、関節角度検出部102により検出された関節角度と、画像ヤコビアン算出部107によって算出された画像ヤコビアンを用いて、位置姿勢評価部111によって画像特徴量の目標軌道の修正量が算出される(S114)。続いて、S105に戻り、画像特徴量の目標軌道を算出し、S105〜S109の動作を繰り返す。
(c)S111に進んだ場合は、画像取得のタイミングであるか否かを確認し、画像取得のタイミングである場合はS102に戻る。画像取得のタイミングでなければS104に戻り、前回の画像取得のタイミングで取得した画像から推定または予測した画像特徴量から次の制御周期における画像特徴量を時間的に補間するとともに推定を行い、S105において目標軌道の生成に使用する画像特徴量とする。
以上説明したように、本実施形態によれば、ロボットのハードウェア制約条件をもとに画像特徴量の目標軌道の修正量を算出し、この目標軌道の修正量を用いて制御しているので、ロボットを安定に制御することができる。すなわち、ロボットのハードウェア制限条件を考慮しながら、安定したビジュアルフィードバックを実現することができる。
(第1変形例)
本実施形態の第1変形例によるロボットの制御装置を説明する。この第1変形例の制御装置は、第1実施形態とは、位置姿勢評価部111における評価方法が異なっている。第1実施形態では、位置姿勢評価部111における評価方法は、関節の可動範囲に着目し、関節が可動限界に近づいている場合にその反対方向へと修正するような関節角の補正量から画像特徴量の目標軌道の修正量を算出している。一般に、ロボットのハードウェア制約条件としては、特異点姿勢がある。特異点姿勢とはロボットの目標位置姿勢を実現する関節角度が無数に存在し不定となる状態のことである。特異点姿勢への接近度は可操作度を用いて評価することが知られている。可操作度κ(J)はヤコビ行列Jから次の式(8)を用いて算出される。

κ(J)=(det(JJ))1/2 …(8)

ここで、Jはヤコビ行列Jの転置行列を表し、det(JJ)は行列JJの行列式を表す。
この可操作度を画像ヤコビアンJimgにも適用することで、特異点姿勢の評価による目標軌道の修正を行う。特異点近傍では関節角速度が急激に増加するため、目標速度を抑制する必要がある。そこで、次の式(9)に示すように設定した抑制ゲインKを求める。

κ(Jimg)<κ(J)のとき K=(κ(Jimg)/κ(J))
κ(Jimg)≧κ(J)のとき K=1 …(9)

すなわち、Kは0より大きく1以下の値である。なお、閾値となる画像ヤコビアンJは予め設定しておく。
その後、求められた抑制ゲインKを、関節角差分算出部109に入力される画像特徴量の差分Δξに対して乗算し、この乗算した値(=K・Δξ)を修正された画像特徴量の差分として、式(2)に代入し、以下、第1実施形態で説明したと同様にして、画像特徴量の目標軌道の修正量を求める。
以上説明したように、第1変形例の制御装置は、特異点姿勢の評価による目標軌道を修正し、これにより目標速度を抑制しているので、目標軌道が特異点近傍に与えられた場合でも、ロボットを安定に制御することができる。すなわち、ロボットのハードウェア制限条件を考慮しながら、安定したビジュアルフィードバックを実現することができる。
(第2変形例)
第1実施形態の第2変形例によるロボットの制御装置を、図3を参照して説明する。
上記第1変形例のように、関節が特異点姿勢に接近している場合、速度の抑制だけで充分に関節角の速度を抑制できない場合がある。これは画像ヤコビアンがランク不足になり、疑似逆行列を算出できなくなることに起因する。
そこで、この課題を解決するために、第2変形例の制御装置は、第1実施形態の制御装置において、画像ヤコビアン修正量算出部112と、修正量記憶部200とを新たに設けた構成となっている。なお、この第2変形例における位置姿勢評価部111は、第1変形例で説明した画像ヤコビアンの可操作度κを算出することが第1実施形態の位置姿勢評価部111とは異なっている。画像ヤコビアン修正量算出部112は、CPU1内に設けられ、位置姿勢評価部111において算出された画像ヤコビアンの可操作度κから、関節が特異点姿勢に接近していると判断すると次の式(10)示す修正量αを算出する。

κ(Jimg)<κ(J)のとき α=α(1−κ(Jimg)/κ(J))
κ(Jimg)≧κ(J)のとき α=0 …(10)

ここで、パラメータαはあらかじめ適当に設定しておく。修正量記憶部200は、画像ヤコビアン修正量算出部112が算出した画像ヤコビアンの修正量αを記憶している。
関節角差分算出部109は、画像ヤコビアンJimgに対して画像ヤコビアンの修正量αを加えた上で第1実施形態と同様にして算出する。具体的には、以下のように画像ヤコビアンJimgに対して画像ヤコビアン修正量αを加える。
まず、式(1)に対し両辺に画像ヤコビアンJimgの転置行列J imgを乗算する。

imgΔξ=J imgimgΔθ … (11)

ここで、式(10)を用いて算出した画像ヤコビアン修正量αを式(11)の右辺の正方行列J imgimgの対角成分に加えた行列(=J imgimg+αI)を、式(11)の右辺の正方行列J imgimgと、置き換える。すなわち、

imgΔξ=(J imgimg+αI)Δθ … (12)

ここで、Iは単位行列を表す。この行列(J imgimg+αI)の逆行列を用いて関節角度の差分Δθを、次の式(13)を用いて算出する。

Δθ=(J imgimg+αI)−1 imgΔξ … (13)

したがって、第2変形例においては、行列(J imgimg+αI)−1 imgが画像ヤコビアンの修正された擬似逆行列となる。
修正量記憶部200としては、例えば半導体メモリ、磁気ディスク、光ディスク、光磁気ディスクや磁気テープ等が採用可能である。
以上説明したように、この第2変形例においては、修正量αを用いて、正方行列J imgimgにαIを加算し、この加算された正方行列(=J imgimg+αI)を用いて、Δθを求めている。そして、加算された正方行列(=J imgimg+αI)は、正規行列となるので、画像ヤコビアンがランク不足になることはない。このため、修正された擬似逆行列は算出することができる。これにより、関節が特異点姿勢に接近していても、充分に関節角の速度を抑制することができる。
すなわち、第2変形例も第1実施形態と同様に、ロボットのハードウェア制限条件を考慮しながら、安定したビジュアルフィードバックを実現することができる。
なお、第1変形例と第2変形例は同時に適用してもよい。すなわち画像特徴量の目標軌道での速度を抑制しながら、画像ヤコビアンも修正することで、より安定にロボットを動作させるように制御してもよい。
(第3変形例)
本実施形態の第3変形例として、冗長自由度のロボットによる制御について説明する。冗長自由度ロボットの一例を図4に模式的に示す。図4に示すロボットはその手先に対して3次元の位置と姿勢を制御できるが、7個の関節200〜200を有している。すなわち、制御対象の6自由度(位置X、Y、Zの3自由度と,それらの各軸周りの回転による姿勢の3自由度)であるよりも多い7自由度を持っており、冗長自由度ロボットと呼ばれる。この冗長自由度ロボットでは、目標位置姿勢を実現することのできる関節角度は無数にある。したがって余剰の自由度を用いれば、関節の可動範囲や特異点近傍を避ける姿勢を与えることができる。これによれば画像上の目標値を修正することなくロボット内部の制御のみで動作を実現することができる。この冗長自由度のロボットによる制御は、第2変形例のロボット制御装置を用いることが好ましい。
(第1実施形態の適用例)
第1実施形態を適用したロボットでは、例えば以下のような作業および動作を実現することができる。先端部に物体把持用のハンドとカメラを搭載した多関節ロボットが、カメラ画像内のマーカーを検出し、指定された位置および姿勢になるように接近する。ロボットは物体に近づくとハンドを開いて物体を把持する。次に把持した物体を別の場所へ運び、はめ込む作業を行う。作業場所に貼られた先のものとは別のマーカーを検出し、指定された位置および姿勢になるように接近し、把持物体を押し込んではめ込み作業を完了する。
(第2実施形態)
次に、第2実施形態によるロボット制御装置について図5を参照して説明する。
第2実施形態では、第1実施形態の適用例で示したような作業において、ロボットに作用する外力を検出して、設定したコンプライアンスモデルに基づいた力制御を用いることで、柔軟な動作を行う。これによりビジュアルフィードバックを用いた作業をより安全に実施することができる。
第2実施形態によるロボット制御装置を図5に示す。この第2実施形態の制御装置は、第1実施形態のロボット制御装置において、力/モーメントデータ記憶部201と、コンプライアンスモデル記憶部202と、力制御切替部300と、力指令値生成部301と、外力検出部302と、ヤコビ行列算出部303と、力制御による関節角修正量算出部304と、を新たに設けた構成となっている。力指令値生成部301と、ヤコビ行列算出部303と、力制御による関節角修正量算出部304と、は、CPU1に設けられる。
力制御切替部300は、力制御を適用するかどうかをGUIやスクリプトなどでユーザにより指定されると、力/モーメントデータ記憶部201に格納されている力またはモーメントの目標値に追従するようトリガーを送る。
力指令値生成部301は、力制御切替部300からトリガーを受けると、力/モーメントデータ記憶部201に格納された力またはモーメントの目標値に追従するような力指令値を制御周期毎に生成する。
外力検出部302は、先端部付近に力覚センサを備えており、ロボットに作用する外力を検出する。この外力は、センサを使用せずに、トルク指令値と関節角度から動力学モデルを用いて算出した外乱トルクから推定してもよい。
ヤコビ行列算出部303は、関節角度検出部102により検出された関節角度からヤコビ行列を算出する。
力制御による関節角修正量算出部304は、コンプライアンスモデル記憶部202からコンプライアンスモデルパラメータを読みだして、力指令値生成部301により生成された力指令値と、外力検出部302により検出された外力との差である力誤差Δfに応じた位置の修正量を算出する。もし力制御が有効でない場合は、力指令値は生成されないので力誤差Δfは外力と同じになる。ここでコンプライアンスモデルとは、例えば式(14)に示すように接触対象との間において仮想的に慣性、粘性、剛性を想定したものである。

MdΔx/dt+DdΔx/dt+KΔx=KΔf (14)

ここで、Δxは外力作用関節に設定された作業座標系での位置誤差ベクトル、dΔx/dtは作業座標系での速度ベクトル、dΔx/dtは作業座標系での加速度ベクトル、Mは慣性行列、Dは粘性係数行列、Kは剛性係数行列、Kは力フィードバックゲイン行列である。力と位置の作用させる軸を切り替えるコンプライアンス選択行列は力フィードバックゲイン行列Kに含まれた形になっている。誤差の速度ベクトルdΔx/dt及び加速度ベクトルdΔx/dtは、それぞれ位置誤差ベクトルΔxの時間に関する一回差分、二回差分で近似できることから、外力が作用する関節でのコンプライアンス修正量Δxcompは、次の式(15)を用いて算出することができる。

Δxcomp=1/K(KΔf−MdΔx/dt−DdΔx/dt) (15)

このコンプライアンス修正量Δxcompからヤコビ行列算出部303により算出されたヤコビ行列Jの逆行列を用いて関節角度の修正量Δθcompを、次の式(16)を用いて算出する。
Δθcomp=J−1Δxcomp …(16)
関節角差分算出部109は、力制御切替部300からトリガーを受けると、関節角度の差分の算出処理を実行せず、関節角度の差分として「0」を出力する。
トルク指令値算出部110は、関節角差分算出部109により算出された関節角度の差分を積分して算出した関節角度の指令値に、力制御による関節角修正量算出部304から算出された関節角度の修正量Δθcompを加えたものを新たな関節角度の指令値とし、関節角度検出部102により算出された関節角度との差分からトルク指令値(制御目標値)を生成する。すなわち、トルク指令値算出部110は、力制御が適用されない場合(トリガーが生成されない場合)には、第1実施形態と同様に、関節角差分算出部109により算出された関節角度の差分を積分して算出された関節角度の指令値と、関節角度検出部102によって検出された関節角度とに基づいてトルク指令値を算出する。これに対して、力制御が適用される場合(トリガーが生成される場合)には、関節角度の修正量Δθcompを関節角度の指令値とし、この関節角度の指令値と、関節角度検出部102によって検出された関節角度とに基づいてトルク指令値を算出する。
これにより、ビジュアルフィードバックを実行しているときにおいても外力を検出すれば、設定したコンプライアンスモデルに基づいて柔軟な制御を行うことができる。また力制御が有効になると、画像特徴量の差分が発生しても、関節角度の差分を算出せず、設定した力またはモーメントの目標値に追従するように外力検出部302により検出された外力に基づいて関節角度の修正量が算出される。すなわち接触状態においては、画像よりも力の情報を優先させる。画像データにはカメラパラメータ誤差やキャリブレーション誤差が含まれており、外力を無視して作業を続行すれば対象物の破損を招く恐れがあるからである。
(ロボット制御方法)
次に、第2実施形態によるロボット制御装置の動作を、図6に示すフローチャートを参照して説明する。なお、図2と重複する部分は省略する。
(a)まず、制御演算を開始し、外力検出部302に外力が算出される。(S100、S200)。次に、S201において、力制御切替部300により力制御が有効になっているかどうか確認する。有効である場合、後述するS202に進む。無効の場合、後述するS204へ進む。
S202において、力指令値生成部301により力指令値が算出される。
(b)次に、S203において、S112で算出された関節角度からヤコビ行列算出部303によりヤコビ行列が算出される。
(c)次に、S204において、力制御による関節角修正量算出部304により、力指令値生成部301で生成された力指令値と、外力検出部302で検出された外力と、コンプライアンスモデル記憶部202に格納されたコンプライアンスモデルのパラメータと、ヤコビ行列算出部303により算出されたヤコビ行列から、式(14)、(15)、(16)を用いて関節角の修正量が算出される。
(d)次にS107において、関節角差分算出部109により算出された関節角差分を積分することにより算出された関節角目標値に、力制御による関節角修正量算出部304により算出された関節角修正量を加えて、新たな関節角目標値が算出され、これと関節角度検出部102により算出された関節角度とから、トルク指令値がトルク指令値算出部110によって算出される。
以上説明したように、第2実施形態においては、力制御が適用されない場合には、第1実施形態と同じ制御が行われるので、第1実施形態と同様に、ロボットのハードウェア制限条件を考慮しながら、安定したビジュアルフィードバックを実現することができる。また、力制御が適用される場合には、ビジュアルフィードバックを実行しているときにおいても外力を検出すれば、設定したコンプライアンスモデルに基づいて柔軟な制御を行うことができる。また、力制御が有効になると、画像特徴量の差分が発生しても、関節角度の差分を算出せず、設定した力またはモーメントの目標値に追従するように外力検出部302により検出された外力に基づいて関節角の修正量が算出される。すなわち接触状態においては、画像よりも力の情報を優先させるため、対象物の破損を防止することができる。
(その他の変形例)
第2実施形態は、第1実施形態に対して、力制御を有効にした時のロボットの制御動作を付加したものである。よって、第1実施形態の第1乃至第3変形例と同様な制御を行うことができる。
(その他の実施の形態)
例えば、上記実施形態において、CPU1、画像取得部103、目標値入力部104、修正量記憶部200、力・モーメントデータ記憶部201、コンプライアンスモデル記憶部202、等が制御対象であるロボットの内部に埋め込まれて一体化されていても良い。また、CPU1、画像取得部103、目標値入力部104、修正量記憶部200、力・モーメントデータ記憶部201、コンプライアンスモデル記憶部202等が制御対象であるロボットの外部にあり、ロボットを有線或いは無線で遠隔制御することも可能である。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 中央演算処理装置(CPU)
100 アクチュエータ
101 駆動部
102 関節角度検出部
103 画像取得部
104 目標値入力部
105 画像特徴量算出部
106 画像特徴量推定部
107 画像ヤコビアン算出部
108 目標軌道生成部
109 関節角差分算出部
110 トルク指令値算出部
111 位置姿勢評価部
112 画像ヤコビアン修正量算出部
200 修正量記憶部
201 力/モーメントデータ記憶部
202 コンプライアンスモデル記憶部
300 力制御切替部
301 力指令値生成部
302 外力検出部
303 ヤコビ行列算出部
304 力制御による関節角修正量算出部

Claims (5)

  1. カメラで撮影した画像情報に基づいて多関節ロボットを制御するロボット制御装置であって、
    前記ロボットの関節軸を制御周期毎に駆動するアクチュエータと、
    前記関節軸の関節角度を検出する関節角度検出部と、
    前記カメラで撮影した画像を取得する画像取得部と、
    前記カメラで撮影された画像から対象物の特徴を表す画像特徴量を算出する画像特徴量算出部と、
    前記画像特徴量を時間的に補間して前記ロボットの制御周期ごとに推定する画像特徴量推定部と、
    前記推定された画像特徴量の変化と前記関節角の変化の割合である画像ヤコビアンを算出する画像ヤコビアン算出部と、
    前記対象物の画像上での目標値を設定する目標値入力部と、
    設定された前記目標値と前記画像特徴量とを用いて前記ロボットの制御周期毎の画像上の目標軌道を生成する目標軌道生成部と、
    生成された前記目標軌道と算出された画像ヤコビアンとを用いて前記関節角度の差分を算出する関節角差分算出部と、
    算出された前記関節角度の差分に基づいて前記関節角度の指令値を求め、この関節角度の指令値と、検出された前記関節角度とを用いて前記関節軸のトルク指令値を算出するトルク指令値算出部と、
    前記トルク指令値に基づいて前記アクチュエータを駆動する駆動部と、
    検出された前記関節角度から、前記ロボットのハードウェア制約条件をもとに前記画像特徴量の目標軌道の修正量を算出する位置姿勢評価部と、
    を備え、
    この算出された目標軌道の修正量を用いて前記ロボットをフィードバック制御することを特徴とするロボット制御装置。
  2. 前記位置姿勢評価部は、前記ロボットの可動限界および特異点姿勢への接近度示す画像ヤコビアンの可操作度を算出し、前記可動限界および前記可操作度を用いて画像上の目標軌道の修正量を算出することを特徴とする請求項1記載のロボット制御装置。
  3. 前記位置姿勢評価部は、前記ロボットの可動限界および特異点姿勢への接近度示す画像ヤコビアンの可操作度を算出し、
    前記関節角差分算出部は、
    算出された前記可操作度を用いて前記画像ヤコビアンの修正量を算出する画像ヤコビアン修正量算出部と、
    算出された前記画像ヤコビアンの修正量を保持する修正量記憶部と、
    を更に備え、
    前記関節角差分算出部は、修正された前記画像ヤコビアンを用いて関節角度の差分を算出することを特徴とする請求項1記載のロボット制御装置。
  4. 前記ロボットは、冗長自由度ロボットであることを特徴とする請求項3記載のロボット制御装置。
  5. 力制御の有無を切り替えるトリガー信号を発生する力制御切替部と、
    前記ロボットが対象物との接触時において発生させるべき力またはモーメントの目標値を記憶する力/モーメントデータ記憶部と、
    前記トリガー信号を受けて、前記力/モーメントデータ記憶部に格納された前記力またはモーメントの目標値に追従する力指令値を算出する力指令値生成部と、
    前記ロボットに作用する外力を検出する外力検出部と、
    検出された前記関節角度からヤコビ行列を算出するヤコビ行列算出部と、
    前記ロボットと対象物との接触状態を記述したコンプライアンスモデルのパラメータを記憶するコンプライアンスモデル記憶部と、
    前記力指令値と、前記外力と、前記コンプライアンスモデルのパラメータと、前記ヤコビ行列に基づいて、関節角度の修正量を算出する関節角修正量算出部と、
    を備え、
    前記トルク指令値算出部は、
    前記トリガー信号が生成されない場合には、前記関節角度の指令値と、検出された前記関節角度とに基づいてトルク指令値を算出し、
    前記トリガー信号が生成される場合には、前記関節角修正量算出部によって算出された前記関節角度の修正量を前記関節角度の指令値とし、この関節角度の指令値と、検出された前記関節角度とに基づいてトルク指令値を算出することを特徴とする請求項1乃至4のいずれかに記載のロボット制御装置。
JP2010283372A 2010-12-20 2010-12-20 ロボット制御装置 Active JP5306313B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010283372A JP5306313B2 (ja) 2010-12-20 2010-12-20 ロボット制御装置
US13/231,619 US8774967B2 (en) 2010-12-20 2011-09-13 Robot control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010283372A JP5306313B2 (ja) 2010-12-20 2010-12-20 ロボット制御装置

Publications (2)

Publication Number Publication Date
JP2012130977A JP2012130977A (ja) 2012-07-12
JP5306313B2 true JP5306313B2 (ja) 2013-10-02

Family

ID=46235419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010283372A Active JP5306313B2 (ja) 2010-12-20 2010-12-20 ロボット制御装置

Country Status (2)

Country Link
US (1) US8774967B2 (ja)
JP (1) JP5306313B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577399B2 (en) 2019-01-30 2023-02-14 Kabushiki Kaisha Yaskawa Denki Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6261095A (ja) * 1985-09-11 1987-03-17 カシオ計算機株式会社 波形エディット装置
JP5306313B2 (ja) * 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置
US20130041508A1 (en) * 2011-08-12 2013-02-14 Georgia Tech Research Corporation Systems and methods for operating robots using visual servoing
US9354045B1 (en) * 2011-10-01 2016-05-31 Trimble Navigation Limited Image based angle sensor
KR20130063230A (ko) * 2011-12-06 2013-06-14 삼성전자주식회사 보행 로봇 및 그 제어 방법
JP5948913B2 (ja) * 2012-02-01 2016-07-06 セイコーエプソン株式会社 ロボット装置、画像生成装置、画像生成方法、および画像生成プログラム
JP5930753B2 (ja) * 2012-02-13 2016-06-08 キヤノン株式会社 ロボット装置の制御方法及びロボット装置
JP5930754B2 (ja) * 2012-02-13 2016-06-08 キヤノン株式会社 ロボット装置の制御方法及びロボット装置
US9489869B2 (en) * 2012-02-24 2016-11-08 Arizona Board Of Regents, On Behalf Of The University Of Arizona Portable low cost computer assisted surgical trainer and assessment system
WO2013150596A1 (ja) * 2012-04-02 2013-10-10 株式会社安川電機 ロボットシステム及び作業設備
JP5939505B2 (ja) * 2012-05-18 2016-06-22 株式会社Ihi ロボットハンド装置と制御方法
JP5409844B2 (ja) * 2012-05-30 2014-02-05 株式会社神戸製鋼所 多関節ロボットの軌跡制御装置および制御方法
JP2014140942A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
JP2014140941A (ja) * 2013-01-25 2014-08-07 Seiko Epson Corp ロボット制御システム、ロボット、ロボット制御方法及びプログラム
FR3002047B1 (fr) * 2013-02-08 2015-02-27 Inst Nat Rech Inf Automat Procede de commande d'un robot deformable, module et programme d'ordinateur associes
FR3002048B1 (fr) * 2013-02-14 2016-07-01 Commissariat Energie Atomique Procede de detection amelioree de collision d'un robot avec son environnement, systeme et produit programme d'ordinateur mettant en œuvre le procede
KR101412513B1 (ko) * 2013-07-19 2014-06-26 (주)나임기술 프레임 그래버 보드를 이용한 로봇팔 제어시스템 및 그 방법
JP6238628B2 (ja) * 2013-08-06 2017-11-29 キヤノン株式会社 ロボット装置、ロボット制御方法、ロボット制御プログラム及びロボット装置を用いた部品の製造方法
JP6217322B2 (ja) * 2013-11-01 2017-10-25 セイコーエプソン株式会社 ロボット制御装置、ロボット及びロボット制御方法
US9555549B2 (en) 2013-10-31 2017-01-31 Seiko Epson Corporation Control device, robot, robot system, and control method
JP2015100868A (ja) * 2013-11-22 2015-06-04 セイコーエプソン株式会社 ロボットシステム
JP6248694B2 (ja) * 2014-02-25 2017-12-20 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
JP6380828B2 (ja) * 2014-03-07 2018-08-29 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6427972B2 (ja) * 2014-06-12 2018-11-28 セイコーエプソン株式会社 ロボット、ロボットシステム及び制御装置
US9889566B2 (en) 2015-05-01 2018-02-13 General Electric Company Systems and methods for control of robotic manipulation
CN106003104B (zh) * 2015-07-03 2018-05-11 中国运载火箭技术研究院 一种适用于多约束条件下视觉信息导引的机械臂规划方法
CN105014677B (zh) * 2015-07-07 2016-07-20 西安交通大学 基于Camshift视觉跟踪和D-H建模算法的视觉机械臂控制方法
KR102485718B1 (ko) * 2015-08-11 2023-01-06 삼성전자주식회사 보행 보조 장치의 토크 계산 방법 및 장치
JP2017104914A (ja) * 2015-12-07 2017-06-15 リバーフィールド株式会社 外力追従制御システム
US9778132B1 (en) * 2015-12-16 2017-10-03 X Development Llc Methods and systems for force sensor calibration
CN105522290B (zh) * 2015-12-22 2018-03-13 无锡洲翔成套焊接设备有限公司 波纹腹板h型钢焊接算法
EP3232368A1 (en) * 2016-04-14 2017-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Determining facial parameters
US10065311B1 (en) * 2016-06-08 2018-09-04 X Development Llc Singularity handling for robot jogging
CN106393106B (zh) * 2016-09-13 2018-11-06 东南大学 参数自适应密化的机器人nurbs曲线运动插补方法
US10710237B2 (en) * 2017-03-22 2020-07-14 Jtekt Corporation Assist device
DE102017005194C5 (de) * 2017-05-31 2022-05-19 Kuka Deutschland Gmbh Steuern einer Roboteranordnung
CN107901041B (zh) * 2017-12-15 2021-06-15 中南大学 一种基于图像混合矩的机器人视觉伺服控制方法
US11511415B2 (en) * 2018-06-26 2022-11-29 Teradyne, Inc. System and method for robotic bin picking
EP3610993A1 (en) * 2018-08-14 2020-02-19 Beckman Coulter, Inc. System for active motion displacement control of a robot
US11034026B2 (en) * 2019-01-10 2021-06-15 General Electric Company Utilizing optical data to dynamically control operation of a snake-arm robot
WO2020173816A1 (en) * 2019-02-28 2020-09-03 Koninklijke Philips N.V. Feedforward continuous positioning control of end-effectors
CN110883770A (zh) * 2019-05-08 2020-03-17 丁亚东 一种基于位置和图像的机器人混合视觉伺服控制方法
WO2021009903A1 (ja) * 2019-07-18 2021-01-21 株式会社安川電機 ロボットシステム、ロボットの制御方法、サーボシステム
JP7332432B2 (ja) * 2019-10-30 2023-08-23 株式会社東芝 ロボットシステム、制御装置、制御方法およびプログラム
CN112894794B (zh) * 2019-11-19 2022-08-05 深圳市优必选科技股份有限公司 人体手臂动作模仿方法、装置、终端设备及存储介质
DE102019131400B4 (de) * 2019-11-21 2022-03-10 Franka Emika Gmbh Kraftmessung und Krafterzeugung in redundanten Robotermanipulatoren
JP2021142625A (ja) * 2020-03-13 2021-09-24 オムロン株式会社 ロボット制御システムおよび制御方法
CN112904884B (zh) * 2021-01-28 2023-01-24 歌尔股份有限公司 足式机器人轨迹跟踪方法、设备及可读存储介质
CN113057673B (zh) * 2021-03-11 2023-04-07 华中科技大学同济医学院附属协和医院 一种机器人超声扫描控制方法、系统、设备及存储介质
CN115525045B (zh) * 2021-06-09 2024-01-16 北京小米移动软件有限公司 机器人及其控制方法、控制装置、电子设备和存储介质

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2706555B2 (ja) * 1990-05-28 1998-01-28 日立建機株式会社 多自由度作業機械の位置と力の制御装置
JP2604929B2 (ja) * 1991-12-03 1997-04-30 山武ハネウエル株式会社 ロボットの制御装置
JP3580562B2 (ja) * 1992-10-28 2004-10-27 株式会社東芝 ロボット
JP2955150B2 (ja) * 1993-06-01 1999-10-04 三菱重工業株式会社 ロボットアームの制御装置
JPH1133961A (ja) * 1997-07-25 1999-02-09 Nippon Telegr & Teleph Corp <Ntt> ロボットマニピュレータの制御方法及び制御装置
US6278906B1 (en) * 1999-01-29 2001-08-21 Georgia Tech Research Corporation Uncalibrated dynamic mechanical system controller
JP3901006B2 (ja) * 2002-04-25 2007-04-04 株式会社デンソーウェーブ 視覚認識装置
US6956503B2 (en) * 2002-09-13 2005-10-18 Canon Kabushiki Kaisha Image display apparatus, image display method, measurement apparatus, measurement method, information processing method, information processing apparatus, and identification method
US7848850B2 (en) * 2003-11-13 2010-12-07 Japan Science And Technology Agency Method for driving robot
US7613361B2 (en) * 2004-05-14 2009-11-03 Canon Kabushiki Kaisha Information processing method and device
JP4593968B2 (ja) * 2004-05-14 2010-12-08 キヤノン株式会社 位置姿勢計測方法および装置
JP4708752B2 (ja) * 2004-09-28 2011-06-22 キヤノン株式会社 情報処理方法および装置
JP4689380B2 (ja) * 2004-09-28 2011-05-25 キヤノン株式会社 情報処理方法および装置
JP4785416B2 (ja) * 2005-05-11 2011-10-05 キヤノン株式会社 位置姿勢計測方法及び装置
JP2007011978A (ja) * 2005-07-04 2007-01-18 Toyota Motor Corp ロボットの運動制御装置
JP2007015037A (ja) * 2005-07-05 2007-01-25 Sony Corp ロボットのモーション編集装置及びモーション編集方法、コンピュータ・プログラム、並びにロボット装置
JP5403861B2 (ja) * 2006-11-06 2014-01-29 キヤノン株式会社 情報処理装置、情報処理方法
WO2008076942A1 (en) * 2006-12-15 2008-06-26 Braintech Canada, Inc. System and method of identifying objects
CN101396830A (zh) * 2007-09-29 2009-04-01 株式会社Ihi 机器人装置的控制方法以及机器人装置
US9333654B2 (en) * 2008-03-31 2016-05-10 Abb Research Ltd. Robot parts assembly on a workpiece moving on an assembly line
JP5306313B2 (ja) * 2010-12-20 2013-10-02 株式会社東芝 ロボット制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577399B2 (en) 2019-01-30 2023-02-14 Kabushiki Kaisha Yaskawa Denki Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP2012130977A (ja) 2012-07-12
US20120158179A1 (en) 2012-06-21
US8774967B2 (en) 2014-07-08

Similar Documents

Publication Publication Date Title
JP5306313B2 (ja) ロボット制御装置
CN107627303B (zh) 一种基于眼在手上结构的视觉伺服系统的pd-smc控制方法
CN109048890B (zh) 基于机器人的协调轨迹控制方法、系统、设备及存储介质
US9463573B2 (en) Robot control system, robot system, and sensor information processing apparatus
Erhart et al. An impedance-based control architecture for multi-robot cooperative dual-arm mobile manipulation
JP6430986B2 (ja) ロボットを用いた位置決め装置
US8271134B2 (en) Robot having learning control function
JP4243309B2 (ja) ロボットアームの制御装置
JP5313562B2 (ja) 行動制御システム
US20120150347A1 (en) Robot controlling device
WO2011161765A1 (ja) ロボット制御装置
US8543239B2 (en) Robot control apparatus
JP6044511B2 (ja) ロボットの制御方法及びロボットシステム
JP2007076807A (ja) パワーアシスト装置とその適応モデル予測制御方法
US20130013112A1 (en) Constrained Resolved Acceleration Control
CN109358507A (zh) 一种时变性能边界约束的视觉伺服自适应跟踪控制方法
Huang et al. Realizing peg-and-hole alignment with one eye-in-hand high-speed camera
Lee et al. Dynamic image-based visual servoing of monocular camera mounted omnidirectional mobile robots considering actuators and target motion via fuzzy integral sliding mode control
Qu et al. Dynamic visual tracking for robot manipulator using adaptive fading Kalman filter
Xiao et al. Robotic target following with slow and delayed visual feedback
Musić et al. Robot team teleoperation for cooperative manipulation using wearable haptics
Aghili et al. Fault-tolerant pose estimation of space objects
Aghili Automated rendezvous & docking (AR&D) without impact using a reliable 3D vision system
JP4222338B2 (ja) 適応型ビジュアルフィードバック制御方法
Lippiello et al. Robot force/position control with force and visual feedback

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130325

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130625

R151 Written notification of patent or utility model registration

Ref document number: 5306313

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151