JPH05150804A - マニピユレータの繰り返し学習制御装置 - Google Patents

マニピユレータの繰り返し学習制御装置

Info

Publication number
JPH05150804A
JPH05150804A JP3316941A JP31694191A JPH05150804A JP H05150804 A JPH05150804 A JP H05150804A JP 3316941 A JP3316941 A JP 3316941A JP 31694191 A JP31694191 A JP 31694191A JP H05150804 A JPH05150804 A JP H05150804A
Authority
JP
Japan
Prior art keywords
manipulator
motion
learning
impedance
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3316941A
Other languages
English (en)
Inventor
Yoshiharu Maeda
芳晴 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3316941A priority Critical patent/JPH05150804A/ja
Publication of JPH05150804A publication Critical patent/JPH05150804A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Feedback Control In General (AREA)
  • Control Of Position Or Direction (AREA)
  • Numerical Control (AREA)

Abstract

(57)【要約】 【目的】本発明は,インピーダンス制御によってマニピ
ュレータの位置と力を制御するマニピュレータの繰り返
し学習制御装置に関し,インピーダンス制御の上位階層
に繰り返し学習制御系を追加することにより,マニピュ
レータの目標位置軌道と目標力軌道の追従性能を向上さ
せることを目的とする。 【構成】パラメータ設定器12により,作業対象の環境17
に関する物理パラメータの推定値を設定し学習制御を行
う。各学習ごとに, 運動評価器10は,目標運動と実現さ
れた運動との運動誤差を算出する。この結果を座標変換
器11により座標変換する。学習制御器13は,繰り返しn
回目の制御入力または参照軌道を保持し,パラメータ設
定器12により設定されたパラメータに基づいて座標変換
された運動誤差に演算を加えることにより,制御入力の
修正量を計算して,繰り返しn+1回目の制御入力また
は参照軌道を生成する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は,インピーダンス制御に
よってマニピュレータの位置と力を制御する装置であっ
て,特に,繰り返し学習によって目標位置軌道と目標力
軌道に対する追従性能を向上させたマニピュレータの繰
り返し学習制御装置に関する。
【0002】マニピュレータを使って作業する場合,マ
ニピュレータと環境(作業対象)の間には,必然的に力
学的・機械的な相互作用が生じる。例えば,バリ取り,
文字を書く,棒を穴に挿入する,物体の表面を磨く,な
どの作業がその例である。このような作業では,作業を
支障なく遂行する(マニピュレータ自身や作業対象を破
壊しないようにしながら作業を実行するなど)ために
は,マニピュレータの位置を制御するだけでは不十分で
あり,マニピュレータの位置と力を同時に制御すること
が必要である。
【0003】
【従来の技術】マニピュレータの位置と力を同時に制御
する従来の方法は,大きく2つの制御法に分類される。
ひとつはマニピュレータの位置と力を独立的に制御する
ハイブリッド制御法であり,他は位置と力を従属的に制
御するインピーダンス制御法である。
【0004】例えば,ハイブリッド制御法の参考文献と
しては,以下の1)〜3)が,インピーダンス制御法の
参考文献としては,以下の4)がある。 1)M.T.Mason : Compliance and Force Control for C
omputer-Controlled Manipulator,IEEE Trans., Syste
m,Man and Cybernetics, SMC-11-6,418/432(1981) 2)M.H.Raibert and J.J.Craig : Hybrid Position /
Force Control of Manipulator, Trans. of ASME,J. of
Dynamic System,Measurement and Control,103,126/13
3 (1981) 3)吉川恒夫:ロボットアームの位置と力の動的ハイブ
リッド制御,日本ロボット学会誌,3-6,25/30 (1985) 4)N.Hogan : Impedance Control : An Approach to
Manipulation, Pt. I〜III, Trans. of ASME, J. of D
ynamic System, Measurement and Control, 107,1/7, 8
/16, 17/24 (1985)。 インピーダンス制御法は,ハイブリッド制御法に比べ
て,環境のモデル化誤差に対するロバスト性や外乱に対
する安定性の点で優れていると考えられる。しかしなが
ら,インピーダンス制御法は,位置を制御することによ
って従属的に力を制御するため,目標位置軌道と目標力
軌道を正確に実現することが困難である。一方,従来の
学習制御は,そのほとんどが環境と相互作用しないマニ
ピュレータの軌道制御に対して研究されてきた。
【0005】なお,位置と力を制御する学習制御として
は,例えば,次の参考文献5)がある。 5)川村貞夫,有本卓,宮崎文夫 他:学習方式による
位置と力のハイブリッド制御 日本ロボット学会誌 5
巻2号 pp.109-119, 1987。
【0006】また,従来の学習制御の多くはモデルベー
スの学習制御でないため,作業によって環境の性質が変
化するような場合には対応しにくかった。
【0007】
【発明が解決しようとする課題】本発明は,インピーダ
ンス制御の上位階層に繰り返し学習制御系を追加するこ
とにより,マニピュレータの位置と力の制御において,
マニピュレータの目標位置軌道と目標力軌道の追従性能
を向上させることを目的とする。
【0008】
【課題を解決するための手段】図1は本発明の原理説明
図である。従来のインピーダンス制御法による装置は,
非線形補償器15とマニピュレータ16とインピーダン
ス設定器14とからなり,作業対象の環境17に対する
操作を行うものであった。本発明では,この上位階層
に,運動評価器10,座標変換器11,パラメータ設定
器12および学習制御器13による繰り返し学習制御系
を付加している。また,インピーダンス設定器14に設
定する値を,学習制御に適したものにしている。
【0009】運動評価器10は,目標運動と実現された
運動との運動誤差を算出するものである。すなわち,目
標力軌道fxd,目標位置軌道ydと,実現された力軌道
x ,実現された位置軌道yとの誤差を計算する。
【0010】座標変換器11は,運動誤差を所定のベク
トル関数に変換するものである。なお,運動評価器10
の出力でなく,運動評価器10への入力について座標変
換を行い,運動評価器10では,座標変換したものにつ
いて運動を評価してもよい。
【0011】パラメータ設定器12は,作業対象の環境
17に関する弾性係数や粘性係数等の物理パラメータの
推定値を設定するものである。学習制御器13は,繰り
返しn回目の制御入力vまたは参照軌道pr を保持し,
パラメータ設定器12により設定されたパラメータに基
づいて,座標変換された運動誤差に演算を加えることに
より,制御入力の修正量を計算して,繰り返しn+1回
目の制御入力vまたは参照軌道pr を生成する処理手段
である。
【0012】インピーダンス設定器14では,所定の条
件に従って,学習制御器13による学習制御有効動作範
囲を広げるようにインピーダンス行列が設定されるよう
になっている。
【0013】
【作用】本発明は,マニピュレータ16の位置と力の制
御において,マニピュレータ16の目標位置軌道yd
目標力軌道fxdの追従性能を向上させるために,インピ
ーダンス制御の上位階層に,図1に示すような繰り返し
学習制御系を追加するものである。この繰り返し学習制
御系は,インピーダンス設定器14の一部,パラメータ
設定器12,運動評価器10,座標変換器11および学
習制御器13で構成される。
【0014】本発明の学習制御装置はモデルベースであ
り,環境の物理パラメータを使って構成される。よっ
て,環境17が変化した場合には,それに対応するパラ
メータの値を調節することで環境17の変化に対応する
ことができる。
【0015】
【実施例】本発明の実施例を説明するに先立ち,本発明
の繰り返し学習制御系に関する2つの定理(定理1(系
1)および定理2)について説明する。Mはインピーダ
ンス行列である。fxdは目標力軌道,yd は目標位置軌
道,bx は壁のx方向の粘性係数である。
【0016】〔定理1〕インピーダンス制御されたマニ
ピュレータの手先が粘弾性体の環境と接触状態にあり相
互作用しているとする。壁の物理パラメータの推定値
が,次の十分条件(A.1)を満たせば,学習制御器に
よって,目標運動
【0017】
【数1】
【0018】が実現される。十分条件(A.1)は,
【0019】
【数2】
【0020】ここで,(A.2)…
【0021】
【数3】
【0022】であり,Iは単位行列である。また,行列
ノルムは各行の絶対和の最大で計算される。 注意1:この定理1には壁の粘性係数の推定値だけが関
係しているので,本発明の繰り返し学習制御装置は,そ
の他の推定値(〜kx ,〜by ,〜μ)の正確さに関係
なく正常に作動し,目標位置軌道yd と目標力軌道fxd
が実現される。
【0023】上記の条件(A.1)を展開すると次の系
1が得られる。 〔系1〕上記の条件(A.1)を満たすためには,環境
の推定パラメータ(〜β)が,次の不等式(A.3)を
満たせばよい。ただし,det(M)>0を仮定する。
(A.3)…
【0024】
【数4】
【0025】区間の広さLは,(A.4)…
【0026】
【数5】
【0027】である。 〔定理2〕インピーダンス制御されたマニピュレータの
手先が,剛体の環境と接触状態にあり相互作用している
とする。本発明の学習制御装置によって,目標位置軌道
d と目標力軌道fxdが実現されるための十分条件
(A.5)は,
【0028】
【数6】
【0029】(A.6)…
【0030】
【数7】
【0031】である。次に,図1に示すブロック図に従
って,本発明の実施例を説明する。以下では,説明を簡
単にするため,図2に示すような平面内で作動をする2
関節マニピュレータ16と,環境としてy軸に平行でx
座標xe の位置にあり,摩擦を有する壁を仮定して説明
する。なお,図2において,20はマニピュレータ16
の手先,21は摩擦がある表面,22は粘弾性体の壁を
表す。
【0032】マニピュレータ16に要求される作業は,
壁をx方向に目標力軌道fxdで押しながら,壁の表面の
目標位置軌道yd を追従することであるとする。なお,
図2には粘弾性体の壁の場合を示してあるが,本発明は
剛体の壁の場合にも適用可能である。
【0033】〔インピーダンス制御されたマニピュレー
タ〕インピーダンス設定器14と非線形補償器15とに
より,マニピュレータ16はインピーダンス制御され
る。インピーダンス制御されたマニピュレータ16の手
先は,次のダイナミクスに従う。(式1)…
【0034】
【数8】
【0035】ここで,pはマニピュレータの手先のxy
座標,vは制御入力,fは環境17からマニピュレータ
16の手先への力であり,次式で定義される。(式2)
【0036】
【数9】
【0037】また,M,B,Kは2次の行列であり,イ
ンピーダンス設定器14により設定される。本発明はイ
ンピーダンス設定器14の一部を含む。その機能は,イ
ンピーダンス行列Mを,前述した定理1や定理2の条件
(A.1),(A.4),(A.6)を利用して,繰り
返し学習制御系の有効範囲が広くなるように設定するこ
とである。
【0038】残りの行列BとKは壁の性質に依存して設
定されるが,その設定法および非線形補償器15は,従
来知られているものでよく,本発明の要旨には直接関係
しないので詳しい説明は省略する。ここでは,インピー
ダンス行列M,B,Kは,次式のように設定されている
とする。(式3)…
【0039】
【数10】
【0040】インピーダンス制御されたマニピュレータ
のダイナミクス(式1)は,次のように表現することも
できる。(式4)…
【0041】
【数11】
【0042】ここで,pr は参照軌道であり,(式4)
の表現を用いた場合には,これが制御入力になる。参照
軌道pr とvの間に,次の(式5)のような関係を定義
すると,(式4)は(式1)と一致する。(式5)…
【0043】
【数12】
【0044】〔環境としての壁について〕y軸に平行
で,xe の位置にある平らな壁を想定する。壁の表面に
は摩擦があるとする。
【0045】a)粘弾性体の壁 粘弾性体の壁は,次のように表現される。(式6)…
【0046】
【数13】
【0047】ここで,bx ,kx はそれぞれ壁のx方向
の粘性係数,弾性係数である。 b)剛体の壁 剛体の壁は,次のように表現される。(式7)… x(t)=xe (一定) 〔壁の表面の摩擦について〕壁の表面の摩擦は,次のよ
うに表現されるとする。(式8)…
【0048】
【数14】
【0049】ここで,by は壁表面の粘性抵抗係数,c
はクーロン摩擦定数,μは動摩擦係数である。 〔パラメータ設定器〕本発明に係る座標変換器11と学
習制御器13は,壁の弾性係数や粘性係数などの物理パ
ラメータkx ,bx ,by ,μの推定値(kx ,bx
y ,μの記号の上に〜を付して表す)を利用して構成
される。パラメータ設定器12は,これらの推定値を設
定する機能を持つ。
【0050】特に,本発明の繰り返し学習制御装置によ
り,目標位置軌道yd と目標力軌道fxdが実現できるた
めの十分条件として,前述した定理1(系1)と定理2
が証明されるので,パラメータ設定器12は,物理パラ
メータの推定値を設定する基準として,定理1の条件
(A.1),系1の条件(A.3)と(A.5),およ
び定理2の条件(A.6)を利用する機能も有する。
【0051】制御装置は,パラメータ設定の際,選択可
能な各種の物理パラメータの推定値を表示装置にメニュ
ー表示し,利用者の設定入力を簡単に行い得るようにす
ると非常に便利である。
【0052】〔運動評価器〕 ベクトルq関数を
【0053】
【数15】
【0054】で定義する。インピーダンス制御されたマ
ニピュレータ16に,ある制御入力vまたは参照軌道p
r を入力したとき,マニピュレータ16は,環境17と
相互作用しながら運動qを実行したとする。運動評価器
10は,この実現された運動qと目標運動
【0055】
【数16】
【0056】をメモリ内に記録し,実行された運動qと
目標運動qd の運動誤差q−qd を計算する機能を持
つ。 〔座標変換器〕 ベクトルzを
【0057】
【数17】
【0058】で定義する。座標変換器11は,実現され
た運動qをベクトル関数zに変換する働きをする。ただ
し,Fx はfx を次式で変換することによって計算され
る。(式9)…
【0059】
【数18】
【0060】なお,図1に示す運動評価器10と座標変
換器11の順番は逆になってもよい。すなわち,実行さ
れた運動qと目標運動qd を座標変換してから運動評価
をする方法もある。
【0061】〔学習制御器〕学習制御器13は,インピ
ーダンス制御されたマニピュレータ16のダイナミクス
が(式1)で表現されるか,(式4)で表現されるかに
依存して,2種類の学習制御器,が考えられる。
【0062】〔学習制御器〕この学習制御器は,イ
ンピーダンス制御されたマニピュレータ16のダイナミ
クスが(式1)で表現される場合に使用され,繰り返し
学習によって制御入力vが更新されていく。この学習制
御器は,以下の繰り返し学習制御則(式10)に従っ
て動作する。すなわち学習制御器は,繰り返しn回目
の制御入力vn をメモリ内に保持し,座標変換された運
動誤差zn −zd に演算を加えることにより,制御入力
の修正量を計算して,繰り返しn+1回目の制御入力v
n+1 を生成する。(式10)…
【0063】
【数19】
【0064】ここで,各繰り返しの初期状態は次のよう
に指定される。(式11)…
【0065】
【数20】
【0066】また,(式12)…
【0067】
【数21】
【0068】である。(式12)を構成するパラメータ
の推定値は,パラメータ設定器12により与えられる。
この学習制御器は,環境のパラメータの推定値を利用
して構成されるという意味でモデルベースである。よっ
て,この学習制御器は,環境に応じてパラメータを変
更することで様々な環境に対応できる汎用性を持つ。
【0069】〔学習制御器〕学習制御器は,インピ
ーダンス制御されたマニピュレータ16のダイナミクス
が(式4)で表現される場合に使用され,以下の学習制
御則(式13)によって参照軌道pr を更新していく。
すなわち,この学習制御器は,繰り返しn回目の参照
軌道pr,n をメモリ内に保持し,座標変換された運動誤
差zn −zd に演算を加えることにより,制御入力の修
正量を計算して,繰り返しn+1回目の参照軌道p
r,n+1 を生成する。(式13)…
【0070】
【数22】
【0071】繰り返しの初期状態は,(式11)と同様
に設定される。また,(式13)に現われる行列は,
(式12)と同様である。図3に,本発明の実施例に係
る繰り返し学習制御装置の動作の様子を示すブロック図
を示す。
【0072】第n回目の学習では,目標力軌道fxd,目
標位置軌道yd と,第n−1回目の学習時に実現された
力軌道fx,n-1 ,位置軌道yn-1 とから運動評価を行
い,座標変換器11,学習制御器13によって,制御入
力vn または参照軌道pr,n を決める。これを次回のた
めにメモリ内に保持するとともに,インピーダンス制御
されるマニピュレータ16に供給し,マニピュレータ1
6を動作させる。
【0073】第n+1回目の学習では,目標力軌道
xd,目標位置軌道yd と,第n回目の学習時に実現さ
れた力軌道fx,n ,位置軌道yn とから運動評価を行
い,座標変換器11,学習制御器13によって,制御入
力の修正量を計算して, 制御入力v n+1 または参照軌道
r,n+1 を決める。これをインピーダンス制御されるマ
ニピュレータ16に供給する。以下同様に,運動誤差が
所定値以下になるまで繰り返す。
【0074】〔学習制御のフローチャート〕図4に,本
発明の実施例による学習制御のフローチャートを示す。
以下,図4に示す(a) 〜(k) に従って説明する。
【0075】(a) ある環境17のもとで作業を行う場
合,まず目標軌道(目標力軌道,目標位置軌道)を設定
する。 (b) 次に,インピーダンス設定器14に,前述した定理
1や定理2の条件を利用して,繰り返し学習制御系の有
効範囲が広くなるようにインピーダンスを設定する。
【0076】(c) 環境に関する物理パラメータのいくつ
かの推定値を指針として表示し,選択された物理パラメ
ータまたは新たに入力された物理パラメータを設定す
る。 (d) 初期の制御入力vを設定し,以下の学習を繰り返
す。
【0077】(e) 非線形補償されたマニピュレータ(非
線形補償器15およびマニピュレータ16)に制御入力
vを入力する。 (f) 実現された力軌道,位置軌道を観測し,運動評価器
10により目標力軌道,目標位置軌道と比較して,運動
誤差を評価する。
【0078】(g) 運動誤差が所定の基準より小さい場
合,そのときの制御入力を記憶し,学習を終了する。基
準より大きい場合には,処理(h) へ進む。 (h) 運動誤差が前回の誤差よりも減少しているかどうか
を判定する。減少していない場合には,処理(k) へ進
む。
【0079】(i) 運動誤差が前回よりも減少していれ
ば,座標変換器11により座標変換を行う。 (j) パラメータ設定器12により設定された物理パラメ
ータに基づいて,学習制御器13により,制御入力vの
修正量を計算し,新しい制御入力vを定める。その後,
処理(e) へ戻り,同様に処理を繰り返す。
【0080】(k) 運動誤差が基準値以上で,学習によっ
ても運動誤差が減少しない場合,インピーダンスや物理
パラメータの調節を行う。そして,処理(b) 以下を繰り
返す。
【0081】以上のような制御は,例えばマイクロコン
ピュータ等によって実現することができる。 〔計算機シミュレーションの結果〕本発明の有効性を確
認するため,計算機によりシミュレーションを行った結
果を以下に説明する。マニピュレータ16が,粘弾性の
壁と接触する場合と剛体の壁と接触する場合を別々に実
験した。
【0082】〔実験1〕(粘弾性の壁と接触する場合) インピーダンス制御された上記(式3)のマニピュレー
タの行列および壁のパラメータは次のように設定した。
【0083】
【数23】
【0084】ここで,壁のパラメータの推定値は,真の
値から大きくずれていることを注意する。図5に,その
シミュレーションによる実験例の結果を示す。図5の
(イ)は,粘弾性の壁と接触する場合で,学習制御によ
るマニピュレータ16の手先のx方向の力軌道の変化の
様子を示しており,これにより,学習を1回,2回,3
回と繰り返すごとに,x方向の力軌道が目標軌道に近づ
いていくことがわかる。
【0085】また,図5(ロ)は,学習制御によるマニ
ピュレータ16の手先のy方向の位置軌道の変化の様子
を示しており,これにより,学習を1回,2回,3回と
繰り返すごとに,y方向の位置軌道も目標軌道に近づい
ていくことがわかる。
【0086】繰り返し学習を10回行った後,実現され
た運動軌道(x方向の力軌道,y方向の位置軌道)は,
図示省略するが,目標軌道とほぼ完全に一致した。これ
らの実験から,本発明の学習制御系は,インピーダンス
制御されたマニピュレータ16が粘弾性の壁と接触して
いるとき,目標力軌道と目標位置軌道を高精度で実現で
きることが確認される。
【0087】〔実験2〕(剛体の壁と接触する場合) 実験の設定は次のようにした。
【0088】
【数24】
【0089】図6に,そのシミュレーションによる実験
の結果を示す。図6の(イ)は,剛体の壁と接触する場
合で,学習制御によるマニピュレータ16の手先のx方
向の力軌道の変化の様子,図6の(ロ)は,マニピュレ
ータ16の手先のy方向の位置軌道の変化の様子を示し
ている。
【0090】この場合にも,学習を1回,2回,3回と
繰り返すごとに,x方向の力軌道,y方向の位置軌道が
目標軌道に近づいていくことがわかる。繰り返し学習を
10回行った後,実現された運動軌道(x方向の力軌
道,y方向の位置軌道)は,目標軌道とほぼ完全に一致
した。これらの実験から,剛体の壁の場合も,実験1と
同様に本発明が有効であることが確認される。
【0091】
【発明の効果】以上説明したように,本発明による繰り
返し学習制御系をインピーダンス制御されたマニピュレ
ータの上位階層に付加することにより,目標位置軌道と
目標力軌道を高精度で実現することが可能になる。特
に,作業によって環境の性質が変化するような場合に
も,環境の物理パラメータを調整し,環境に応じた学習
を行うことにより,柔軟に対応できるようになる。
【図面の簡単な説明】
【図1】本発明の原理説明図である。
【図2】本発明を説明するためのマニピュレータと環境
の概念図である。
【図3】本発明の実施例に係る繰り返し学習制御装置の
動作説明図である。
【図4】本発明の実施例による学習制御のフローチャー
トである。
【図5】本発明のシミュレーションによる実験例の結果
を示す図である。
【図6】本発明のシミュレーションによる実験例の結果
を示す図である。
【符号の説明】
10 運動評価器 11 座標変換器 12 パラメータ設定器 13 学習制御器 14 インピーダンス設定器 15 非線形補償器 16 マニピュレータ 17 環境
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 G05D 3/12 305 V 9179−3H G06F 15/18 8945−5L

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 インピーダンス制御されたマニピュレー
    タ(16)の上位階層に付加されるマニピュレータの繰り返
    し学習制御装置であって,作業対象の環境(17)に関する
    物理パラメータの推定値を設定するパラメータ設定手段
    (12)と,目標運動と実現された運動との運動誤差を算出
    する運動評価手段(10)と,運動または運動誤差を表す量
    を座標変換する座標変換手段(11)と,繰り返しn回目の
    制御入力または参照軌道を保持し,設定されたパラメー
    タに基づいて座標変換された運動誤差に演算を加えるこ
    とにより,制御入力の修正量を計算して,繰り返しn+
    1回目の制御入力または参照軌道を生成する学習制御手
    段(13)とを備えたことを特徴とするマニピュレータの繰
    り返し学習制御装置。
  2. 【請求項2】 請求項1記載のマニピュレータの繰り返
    し学習制御装置において,所定の条件に従い,前記学習
    制御手段の有効動作範囲を広げるようにインピーダンス
    行列を設定するインピーダンス設定手段(14)を備えたこ
    とを特徴とするマニピュレータの繰り返し学習制御装
    置。
JP3316941A 1991-11-29 1991-11-29 マニピユレータの繰り返し学習制御装置 Withdrawn JPH05150804A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3316941A JPH05150804A (ja) 1991-11-29 1991-11-29 マニピユレータの繰り返し学習制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3316941A JPH05150804A (ja) 1991-11-29 1991-11-29 マニピユレータの繰り返し学習制御装置

Publications (1)

Publication Number Publication Date
JPH05150804A true JPH05150804A (ja) 1993-06-18

Family

ID=18082652

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3316941A Withdrawn JPH05150804A (ja) 1991-11-29 1991-11-29 マニピユレータの繰り返し学習制御装置

Country Status (1)

Country Link
JP (1) JPH05150804A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7652446B2 (en) 2007-04-13 2010-01-26 Industrial Technology Research Institute Method for detecting and controlling output characteristics of a DC motor and a self-propelled apparatus using the same
JP2011088225A (ja) * 2009-10-20 2011-05-06 Yaskawa Electric Corp インピーダンス制御パラメータの調整装置および調整方法
CN103737603A (zh) * 2013-12-27 2014-04-23 柳州职业技术学院 一种流水线上机械臂精确控制系统及控制方法
CN103878769A (zh) * 2014-02-21 2014-06-25 东南大学 一种遥操作柔性环境力反馈系统
JP2015100877A (ja) * 2013-11-25 2015-06-04 キヤノン株式会社 ロボット制御方法、及びロボット制御装置
US9993923B2 (en) 2012-03-22 2018-06-12 Toyota Jidosha Kabushiki Kaisha Trajectory generation device, moving object, trajectory generation method
JP2018126798A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
WO2020032263A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 ロボットシステム
CN117504170A (zh) * 2023-12-13 2024-02-06 诺克(广州)医疗设备技术有限公司 一种体表复模方法及相关设备

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7652446B2 (en) 2007-04-13 2010-01-26 Industrial Technology Research Institute Method for detecting and controlling output characteristics of a DC motor and a self-propelled apparatus using the same
JP2011088225A (ja) * 2009-10-20 2011-05-06 Yaskawa Electric Corp インピーダンス制御パラメータの調整装置および調整方法
US9993923B2 (en) 2012-03-22 2018-06-12 Toyota Jidosha Kabushiki Kaisha Trajectory generation device, moving object, trajectory generation method
JP2015100877A (ja) * 2013-11-25 2015-06-04 キヤノン株式会社 ロボット制御方法、及びロボット制御装置
CN103737603A (zh) * 2013-12-27 2014-04-23 柳州职业技术学院 一种流水线上机械臂精确控制系统及控制方法
CN103878769A (zh) * 2014-02-21 2014-06-25 东南大学 一种遥操作柔性环境力反馈系统
JP2018126798A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
WO2020032263A1 (ja) * 2018-08-10 2020-02-13 川崎重工業株式会社 ロボットシステム
CN117504170A (zh) * 2023-12-13 2024-02-06 诺克(广州)医疗设备技术有限公司 一种体表复模方法及相关设备

Similar Documents

Publication Publication Date Title
Khosla et al. Parameter identification of robot dynamics
Youcef-Toumi et al. Impact and force control
Uchiyama et al. Hybrid position/force control for coordination of a two-arm robot
Lewis et al. Control of robot
Asada et al. The direct teaching of tool manipulation skills via the impedance identification of human motions
Yuh Application of discrete‐time model reference adaptive control to a flexible single‐link robot
KR20170016631A (ko) 여자유도 로봇 제어 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
JPH05150804A (ja) マニピユレータの繰り返し学習制御装置
JP3283650B2 (ja) ロボット制御装置
Gold et al. Model predictive interaction control for industrial robots
JPH07276273A (ja) パラレルリンクマニピュレータのたわみ補正制御方法
JPH05158514A (ja) ロボットの制御装置
Lee et al. Optimal control of a flexible robot arm
Venkataraman et al. A neural network based identification of environments models for compliant control of space robots
Tung et al. Application of MRAC theory for adaptive control of a constrained robot manipulator
Wang et al. Reference trajectory generation for force tracking impedance control by using neural network-based environment estimation
Abdallah et al. Gesture control of 3DoF robotic arm teleoperated by Kinect sensor
JP6814441B2 (ja) 駆動機械の学習制御装置及び学習制御方法
Yoo et al. Robust control of planar biped robots in single support phase using intelligent adaptive backstepping technique
Komatsu et al. Tool force adaptation in soil-digging task for humanoid robot
JP4094781B2 (ja) ロボットの力制御方法
Adel et al. Bilateral control of nonlinear teleoperation system using parallel force/position control approach and online environment estimation
Melinte et al. Compensating dynamics of impedance haptic devices using neural networks
Ephanov et al. Implementation of sensory feedback and trajectory tracking in active telemanipulation systems
Mukerjee Adaptation In Biological Sensory-Motor Systems: A Model For Robotic Control.

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990204